A Luma lança o Uni-1, o seu primeiro modelo que integra raciocínio e geração de imagens

robot
Geração do resumo em andamento

Resumido

A Luma revelou o Uni-1, o seu primeiro modelo que combina raciocínio e geração de imagens numa única arquitetura — numa mudança significativa das raízes da startup, que era focada em vídeo.

Luma Rolls Out Uni-1, Its First Model Integrating Reasoning And Image Generation

A startup de geração de vídeo por IA, Luma, apresentou o Uni-1, o seu primeiro modelo que integra raciocínio e geração de imagens numa única arquitetura, marcando uma mudança estratégica do foco anterior em conteúdo de vídeo.

Segundo a empresa, nos últimos três anos, o trabalho da Luma evoluiu de reconstrução de cenas para geração 3D e escalonamento de difusão de vídeo, mas os meios visuais sozinhos têm limitações sem compreensão integrada. O Uni-1 é posicionado como o primeiro modelo unificado da empresa, projetado para combinar capacidades de raciocínio e geração, visando avançar a inteligência geral multimodal.

A Luma descreve a inteligência geral como a capacidade de raciocinar, imaginar, manipular símbolos e simular ambientes. Embora os sistemas de IA existentes possam realizar essas funções separadamente, o Uni-1 procura combiná-las numa única estrutura, modelando tempo, espaço e lógica juntos para permitir a resolução de problemas que pipelines tradicionais segmentados não conseguem alcançar.

O modelo é construído como um transformador autoregressivo de apenas decodificador, representando texto e imagens numa sequência intercalada que funciona como entrada e saída. O Uni-1 é capaz de realizar raciocínio interno estruturado, decompor instruções, resolver restrições, planear composições e renderizar imagens de acordo.

O Uni-1 demonstra a capacidade de “pensar em linguagem e imaginar e renderizar em pixels”, uma capacidade que a Luma descreve como “inteligência em pixels”. Outras saídas, incluindo geração de áudio e vídeo, são esperadas em versões futuras. O modelo destina-se não apenas como uma ferramenta, mas como uma plataforma que transforma a forma como as empresas operam, integrando raciocínio diretamente nos fluxos criativos.

Os Agentes Luma Expandem a Inteligência Unificada

Baseando-se no Uni-1, a Luma lançou recentemente os Agentes Luma, um conjunto de ferramentas alimentadas por IA, projetadas para gerir toda a produção criativa de texto, imagem, vídeo e áudio. Os agentes operam usando a família de modelos de Inteligência Unificada da Luma, treinados num sistema de raciocínio multimodal único. A Luma posiciona os agentes como uma solução para agências de publicidade, equipas de marketing, estúdios de design e clientes empresariais, oferecendo geração criativa coordenada através de múltiplas modalidades.

Os Agentes Luma são compatíveis com outros modelos de IA, incluindo o Ray 3.14 da Luma, o Veo 3 e Nano Banana Pro do Google, o Seedream da ByteDance e as ferramentas de geração de voz da ElevenLabs. Segundo Amit Jain, CEO e cofundador da Luma, os agentes aproveitam a arquitetura integrada do Uni-1, que foi treinada em áudio, vídeo, imagem, linguagem e raciocínio espacial, permitindo planejar, executar e gerar conteúdo de forma coordenada e inteligente.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar