Tecnologia & IA
Kling 3.0: a nova IA chinesa que promete revolucionar a criação de videoclipes
A corrida global pelas IAs de geração de vídeo acaba de ganhar mais um capítulo de peso. A empresa chinesa Kuaishou lançou a nova geração de sua plataforma de criação audiovisual baseada em inteligência artificial: Kling 3.0, um modelo multimodal que promete levar a produção de vídeo automatizada a um novo patamar.
A atualização marca um salto tecnológico importante para o ecossistema de criação audiovisual com IA, aproximando ferramentas automatizadas do nível de produção cinematográfica e ampliando a disputa com sistemas como Sora, da OpenAI, e outros modelos emergentes no mercado.
IA cada vez mais próxima do cinema
A nova geração do modelo permite gerar vídeos a partir de texto, imagens, áudio ou referências visuais, integrando todos esses elementos em um único fluxo de criação. A ideia é simplificar o processo criativo: em vez de usar várias ferramentas diferentes, o criador pode gerar, editar e estruturar uma narrativa audiovisual dentro do próprio sistema.
Entre as novidades técnicas estão:
- geração de clipes com até 15 segundos de duração,
- maior consistência de personagens e cenários entre quadros,
- sincronização nativa de áudio e imagem,
- melhoria significativa na qualidade fotográfica das cenas.
Na prática, isso significa que a IA consegue produzir pequenas sequências com estética cinematográfica, mantendo coerência visual e narrativa — algo que ainda era um desafio em modelos anteriores.
Do prompt ao filme
O sistema foi desenvolvido com uma arquitetura multimodal que unifica compreensão e geração de conteúdo audiovisual. Isso permite que o usuário envie texto, imagens, vídeos ou sons como referência, e o modelo transforme esses elementos em uma sequência de vídeo finalizada.
A proposta da Kuaishou é clara: tornar possível que qualquer criador se torne, ao menos em teoria, um “diretor assistido por IA”.
Em termos de produção cultural, isso pode impactar diretamente áreas como:
- videoclipes musicais
- conteúdo para redes sociais
- storytelling audiovisual
- publicidade digital
- animação experimental
A nova guerra das IAs de vídeo
O lançamento acontece em um momento de forte disputa no setor de vídeo generativo. Plataformas chinesas vêm acelerando lançamentos para competir com ferramentas ocidentais e dominar um mercado que deve crescer rapidamente nos próximos anos.
Nos últimos meses, modelos como Seedance 2.0, da ByteDance, e o próprio Kling vêm viralizando nas redes por gerar vídeos cada vez mais realistas e cinematográficos.
Essa evolução aponta para um cenário em que a criação audiovisual — inclusive na música e no cinema — pode se tornar cada vez mais híbrida, combinando direção humana com geração algorítmica.
O que isso significa para música e cultura pop
Para a indústria musical, ferramentas como o Kling 3.0 podem acelerar uma tendência que já vinha se consolidando: videoclipes produzidos total ou parcialmente por inteligência artificial.
Com prompts bem elaborados, artistas independentes podem criar narrativas visuais complexas sem depender de grandes orçamentos ou equipes técnicas.
Em outras palavras:
a IA começa a democratizar aquilo que antes era território exclusivo de grandes produtoras.
E, como sempre acontece quando uma nova tecnologia surge na arte, a pergunta deixa de ser “se” ela será usada — e passa a ser “como” os artistas vão transformá-la em linguagem estética.
Fonte: Sina
Tecnologia & IA
Kling 3.0 promete vídeo em 4K nativo e transforma o criador em diretor de IA
A corrida dos vídeos gerados por inteligência artificial acaba de ganhar mais um capítulo importante. Segundo a Blockchain.News, a Krea passou a oferecer o Kling 3.0 com geração de vídeo em 4K nativo, sem depender de upscaling posterior, ampliando o potencial da ferramenta para publicidade, demonstrações de produto, pré-visualização de efeitos visuais e produção audiovisual de alta resolução.
O anúncio é relevante porque desloca a disputa entre modelos de vídeo por IA para um novo patamar: não basta mais gerar clipes “bonitos” ou virais para redes sociais. O mercado começa a cobrar resolução, consistência, controle de câmera, som, continuidade narrativa e qualidade comercial. É exatamente aí que o Kling 3.0 tenta se posicionar.
Desenvolvido pela chinesa Kuaishou, o Kling 3.0 foi apresentado oficialmente em fevereiro de 2026 como uma nova família de modelos, incluindo Video 3.0, Video 3.0 Omni, Image 3.0 e Image 3.0 Omni. A empresa afirma que a nova geração traz melhorias em consistência visual, fotorrealismo, geração de vídeo de até 15 segundos, áudio nativo em múltiplos idiomas, entrada multimodal e maior controle narrativo.
No Krea, o Kling 3.0 aparece como um modelo de fronteira voltado à criação profissional, com suporte a áudio nativo, duração estendida de até 15 segundos, geração a partir de prompts, uso de referências visuais e iteração rápida para equipes de produção. A própria plataforma destaca aplicações em storyboards, anúncios, conteúdo social e protótipos de vídeo.
Por que o 4K importa
A promessa de vídeo em 4K nativo é mais do que uma ficha técnica bonita. Para o mercado audiovisual, resolução maior significa mais margem para edição, recorte, pós-produção, exibição em telas grandes e entrega para marcas que exigem qualidade próxima ao padrão publicitário.
Até aqui, boa parte dos vídeos feitos por IA ainda carregava uma estética de “rascunho sofisticado”: boa para redes sociais, testes de conceito e experimentos criativos, mas nem sempre confiável para campanhas premium. Se o Kling 3.0 realmente entrega 4K nativo dentro do Krea, a ferramenta começa a mirar um território mais nobre: conteúdo finalizável, não apenas prévia ou referência visual.
Para produtoras, agências e criadores independentes, isso pode reduzir etapas caras do processo: filmagem, equipe técnica, locação, iluminação, motion graphics e parte da pós-produção. Mas também cria uma nova exigência: saber dirigir IA. O diferencial deixa de ser apenas apertar “generate” e passa a ser construir prompts, referências, linguagem de câmera e fluxo de produção.
O “diretor de IA” deixa de ser metáfora
A Kuaishou vende o Kling 3.0 como parte de uma virada em que “qualquer pessoa pode ser diretora”. O slogan é exagerado, claro, mas aponta para algo real: os modelos estão deixando de ser simples geradores de clipes isolados e começando a entender lógica de cena, continuidade, voz, movimento e encadeamento de planos.
Entre os recursos destacados pela empresa estão áudio nativo em inglês, chinês, japonês, coreano, espanhol, sotaques e dialetos; diálogos com múltiplos personagens; geração de até 15 segundos; storytelling multi-shot; maior preservação de textos e logos em cena; e saída fotorrealista com personagens mais expressivos.
Esse conjunto é especialmente importante para publicidade e videoclipes. Em vez de gerar uma imagem animada sem controle, o criador começa a pedir cenas com linguagem audiovisual: plano e contraplano, movimento de câmera, fala, marca visível, personagem consistente e transição narrativa.
Impacto para música, publicidade e videoclipes
Para o universo que interessa diretamente ao Portal MVAI, o avanço é evidente: modelos como Kling 3.0 aproximam o videoclipe de IA de uma lógica industrial. Não estamos falando apenas de vídeos experimentais, mas de um pipeline em que artistas, marcas e produtoras podem testar dezenas de versões de uma ideia antes de decidir qual caminho seguir.
No caso da música, isso pode acelerar a criação de visualizers, lyric videos, teasers, campanhas para TikTok, clipes curtos e até protótipos de videoclipes completos. Para marcas, o ganho está na possibilidade de criar campanhas visuais mais personalizadas, com múltiplas versões por público, produto ou território.
A Krea também destaca que os vídeos gerados em planos pagos podem ser usados comercialmente, o que torna o Kling 3.0 mais interessante para equipes que trabalham com campanhas, produtos e entregas para clientes.
A disputa fica mais pesada
O Kling 3.0 entra em um mercado cada vez mais competitivo, ao lado de modelos como Runway, Veo, Sora, Seedance, Hailuo e Pika. A diferença agora está menos na pergunta “qual modelo gera o vídeo mais bonito?” e mais em “qual modelo entrega fluxo de produção confiável?”.
A resposta envolve resolução, custo por geração, estabilidade de personagens, controle de prompt, qualidade do áudio, direitos de uso, velocidade, taxa de erro e integração com plataformas criativas. A presença do Kling 3.0 dentro do Krea importa porque coloca o modelo em um ambiente já voltado a designers, artistas, agências e criadores que precisam iterar rapidamente.
O alerta: nem tudo está totalmente claro
Apesar do entusiasmo, há uma observação importante: a reivindicação específica de vídeo 4K nativo no Krea aparece na matéria da Blockchain.News baseada em publicação da Krea no X. A página pública do Krea consultada confirma Kling 3.0, áudio nativo, até 15 segundos, referências e uso comercial, mas não detalha o 4K no corpo da página. Já o comunicado oficial da Kuaishou confirma 4K para a linha Image 3.0/Image 3.0 Omni e não explicita, no trecho público, vídeo 4K nativo como especificação principal do Video 3.0.
Ou seja: a notícia é forte, mas convém tratar o 4K nativo como uma promessa anunciada pela Krea, enquanto as capacidades oficialmente documentadas do Kling 3.0 incluem áudio nativo, multimodalidade, consistência, storytelling multi-shot e vídeos de até 15 segundos.
O que isso significa para a indústria criativa
O lançamento reforça uma tendência central de 2026: a IA de vídeo está deixando de ser brinquedo de laboratório e virando infraestrutura de produção. O impacto não será apenas técnico. Será econômico.
Agências pequenas poderão entregar peças com estética premium. Artistas independentes poderão produzir clipes sem orçamento de gravadora. Produtoras poderão testar cenas antes de filmar. Marcas poderão multiplicar variações de campanhas com mais velocidade. E, no meio desse terremoto, surge uma nova função profissional: o criador capaz de unir direção audiovisual, prompt, montagem, estética, branding e curadoria de modelos.
O Kling 3.0 no Krea é mais uma prova de que a nova disputa do audiovisual não será entre humanos e máquinas. Será entre quem sabe dirigir máquinas criativas e quem ainda acha que vídeo de IA é só apertar um botão.
Fonte: Blockchain News
Tecnologia & IA
Google pode despejar US$ 40 bilhões na Anthropic enquanto DeepSeek V4 desafia os modelos fechados
A corrida da inteligência artificial entrou em mais uma fase de concentração brutal de capital, chips e poder tecnológico. Um boletim publicado pela comunidade chinesa OpenAtom em 26 de abril reuniu os principais sinais do momento: Google ampliando sua aposta na Anthropic, Nvidia voltando ao patamar de US$ 5 trilhões em valor de mercado, DeepSeek V4 movimentando o ecossistema open source e empresas tradicionais acelerando a adoção de IA em software, varejo, robótica e edge computing.
O ponto mais explosivo é a possível nova rodada de investimento da Alphabet/Google na Anthropic. Segundo a Reuters, a empresa planeja investir até US$ 40 bilhões na criadora do Claude, começando com US$ 10 bilhões e podendo adicionar mais US$ 30 bilhões conforme metas de desempenho forem atingidas. A Reuters também informa que esse movimento avaliaria a Anthropic em cerca de US$ 350 bilhões, consolidando a startup como uma das peças centrais da disputa entre Big Techs, nuvem e modelos de fronteira.
Na prática, isso mostra que o jogo da IA deixou de ser apenas “quem tem o melhor chatbot”. Agora, a disputa é por uma cadeia completa: capital, data centers, chips, nuvem, clientes corporativos, ferramentas de programação e ecossistemas de agentes. A AP informou, dias antes, que a Anthropic também firmou um compromisso de mais de US$ 100 bilhões em serviços de nuvem com a AWS ao longo de dez anos, reforçando a dependência crescente entre modelos avançados e infraestrutura computacional de escala planetária.
Enquanto isso, a Nvidia segue como a grande vendedora de pás e picaretas da corrida do ouro da IA. Segundo o Times of India, a empresa voltou a superar a marca de US$ 5 trilhões em valor de mercado, impulsionada pela demanda por chips de IA, pela compra contínua de GPUs por hyperscalers e pela expectativa de que a infraestrutura de IA continue sendo o eixo mais valioso do ciclo tecnológico atual.
Esse dado é fundamental para entender o custo real da inteligência artificial. A IA generativa parece “software”, mas sua base econômica é profundamente material: energia, data centers, GPUs, interconexão, refrigeração e contratos bilionários de nuvem. Para startups, produtoras, agências e empresas criativas, isso significa que a queda de custo dos modelos convive com uma pressão crescente sobre infraestrutura — e quem controlar a computação controla boa parte do futuro.
Do lado chinês, o destaque é o DeepSeek V4 Preview. A documentação oficial da DeepSeek anuncia uma versão open source com contexto de até 1 milhão de tokens, em duas variantes principais: DeepSeek-V4-Pro, com 1,6 trilhão de parâmetros totais e 49 bilhões ativos, e DeepSeek-V4-Flash, com 284 bilhões de parâmetros totais e 13 bilhões ativos.
A importância do DeepSeek V4 não está apenas no desempenho técnico. O modelo aparece num momento em que a China tenta reduzir dependência tecnológica dos EUA, inclusive com adaptações para hardware nacional. The Verge destacou que o novo modelo foi apresentado como competidor de sistemas fechados de empresas americanas e que sua compatibilidade com tecnologia da Huawei reforça a dimensão geopolítica da disputa.
Para o ecossistema criativo, a mensagem é clara: a IA está deixando de ser um produto isolado e virando uma camada permanente da economia. No varejo, a Lowe’s está expandindo uma parceria com a RELEX para usar IA em planejamento, reposição e gestão de estoque, com foco em melhorar disponibilidade e eficiência operacional. No edge AI, a Qualcomm aparece apoiando mais de 60 startups em áreas como robótica, saúde, indústria e automação, segundo levantamento citado pelo Yahoo Finance.
O boletim da OpenAtom também chama atenção para uma mudança importante no mercado de software: a ascensão dos agentes de IA. A tese é que ferramentas corporativas tradicionais podem ser reconfiguradas por agentes capazes de executar tarefas, escrever código, operar fluxos de trabalho e interagir com sistemas internos. A Reuters informou nesta semana que a OpenAI está recorrendo a grandes consultorias globais para acelerar o uso corporativo do Codex, seu sistema voltado ao desenvolvimento de software.
Essa transição afeta diretamente o mercado audiovisual, musical e publicitário. Se os agentes passarem a operar partes inteiras da produção — roteiro, storyboard, edição, versionamento, motion, distribuição e análise de performance — o gargalo deixa de ser apenas ferramenta. O novo gargalo passa a ser direção criativa, propriedade intelectual, curadoria estética, acesso a modelos, custo computacional e capacidade de montar pipelines.
Para o Portal MVAI, a leitura é inevitável: estamos vendo a formação de uma nova indústria cultural automatizada, sustentada por três pilares. O primeiro é a infraestrutura, dominada por Nvidia, nuvens e data centers. O segundo é o modelo, disputado por OpenAI, Anthropic, Google, DeepSeek e outros laboratórios. O terceiro é a aplicação criativa, onde música, cinema, publicidade, games, creators e videoclipes começam a ser reconfigurados.
A disputa global da IA não é apenas uma corrida por respostas melhores em um chat. É uma corrida para definir quem será dono da máquina cultural, computacional e econômica dos próximos anos.
Fonte: OpenAtom
Tecnologia & IA
DeepSeek V4 mostra que a corrida da IA agora é também uma corrida por soberania tecnológica
A corrida global da inteligência artificial entrou em mais uma semana de aceleração brutal. Poucas horas depois da OpenAI apresentar o GPT-5.5, a chinesa DeepSeek anunciou o DeepSeek V4, uma nova geração de modelo de base com versões Pro e Flash, pesos abertos e foco em contexto longo, agentes inteligentes e redução de custos computacionais. Segundo a Caixin, o lançamento ocorreu em 24 de abril e marca uma nova ofensiva chinesa no campo dos modelos de IA de fronteira.
O ponto mais simbólico do anúncio é que o DeepSeek V4 chega como um modelo open weight — isto é, com pesos abertos — em um momento em que boa parte da IA de ponta continua concentrada em empresas americanas de modelos fechados. A versão DeepSeek V4 Pro teria 1,6 trilhão de parâmetros totais e 49 bilhões de parâmetros ativados, enquanto a versão Flash teria 284 bilhões de parâmetros totais e 13 bilhões ativados. Ambas trabalham com uma janela de contexto de até 1 milhão de tokens, o que amplia a capacidade de lidar com documentos longos, bases de código, fluxos complexos de trabalho e aplicações agentivas.
Mais do que uma atualização técnica, o V4 mostra uma mudança estratégica. Segundo a Reuters, o novo modelo da DeepSeek foi adaptado para rodar em chips Huawei Ascend, reforçando a tentativa chinesa de reduzir a dependência de GPUs da Nvidia e de tecnologias sujeitas às restrições de exportação dos Estados Unidos. A Huawei também teria confirmado suporte ao V4 em clusters baseados na linha Ascend 950, um movimento que liga diretamente a evolução dos modelos chineses à disputa por soberania computacional.
A disputa ficou ainda mais quente porque o DeepSeek-V4 chegou praticamente colado ao lançamento do GPT-5.5, apresentado pela OpenAI como seu modelo mais avançado até agora. A OpenAI afirma que o GPT-5.5 melhora desempenho em programação, tarefas profissionais, uso de ferramentas, pesquisa online, raciocínio e segurança, com disponibilidade inicial para planos pagos do ChatGPT e integrações com Codex.
Na prática, a semana mostrou duas filosofias competindo em velocidade máxima. De um lado, empresas como OpenAI continuam apostando em modelos fechados, forte integração com produtos e infraestrutura premium. Do outro, DeepSeek tenta ocupar o espaço simbólico e técnico dos modelos abertos de alta performance, oferecendo à comunidade e às empresas uma alternativa mais flexível — especialmente atraente para desenvolvedores, startups e países que buscam autonomia tecnológica.
Tencent e Xiaomi também entram no jogo
A ofensiva chinesa não veio só da DeepSeek. A Tencent também apresentou uma atualização importante do seu modelo Hunyuan, com o Hy3 preview, considerado o primeiro grande lançamento desde a chegada de Yao Shunyu, ex-pesquisador da OpenAI, para liderar os esforços de modelos fundacionais da companhia. Segundo o South China Morning Post, a Tencent descreve o Hy3 como seu modelo mais poderoso até agora, com avanços em raciocínio complexo e programação.
A Xiaomi, por sua vez, vem ampliando a família MiMo, com modelos voltados a capacidades multimodais e agentivas. Reportagens recentes apontam que a empresa lançou ou vem preparando versões como MiMo-V2.5 e MiMo-V2.5-Pro, combinando texto, imagem, áudio e vídeo em um mesmo sistema, com foco em eficiência, codificação e automação de tarefas.
Esse movimento é importante porque mostra que a IA chinesa não está mais concentrada apenas em chatbots ou modelos de texto. As empresas estão mirando diretamente em agentes, programação, automação empresarial, multimodalidade e infraestrutura própria. Ou seja: a disputa deixou de ser apenas “quem responde melhor a uma pergunta” e passou a ser “quem constrói o sistema operacional da próxima economia digital”.
A camada invisível: falta de computação
Por trás da corrida dos modelos existe um gargalo cada vez mais evidente: computação. A Caixin destaca que fabricantes de modelos enfrentam uma espécie de “escassez de poder computacional”, enquanto a Reuters aponta que a adaptação do DeepSeek aos chips da Huawei faz parte da tentativa chinesa de contornar limitações impostas pelo acesso restrito a hardware americano de ponta.
É aqui que a guerra da IA encontra a geopolítica. Modelos melhores exigem mais dados, mais energia, mais datacenters e chips mais poderosos. A disputa entre Estados Unidos e China, portanto, não é só uma corrida de software. É também uma corrida de semicondutores, nuvem, energia, infraestrutura e talento científico.
O que isso significa para a economia criativa
Para o mercado audiovisual, musical e de conteúdo, essa semana tem um recado claro: a IA está ficando mais barata, mais longa, mais agentiva e mais integrada aos fluxos de produção. Modelos com contexto de 1 milhão de tokens podem analisar roteiros extensos, organizar bibliotecas de cenas, operar bases de conhecimento, auxiliar na edição e coordenar pipelines complexos de produção.
Já os modelos agentivos, como os que estão sendo explorados por OpenAI, DeepSeek, Tencent e Xiaomi, apontam para um futuro em que a IA deixa de ser apenas uma ferramenta de geração e passa a atuar como assistente de produção, programador, editor, pesquisador, roteirista técnico e até coordenador de tarefas.
Para empresas como a MVAI, esse cenário é especialmente relevante. O avanço simultâneo de modelos fechados premium e modelos abertos mais baratos cria um ambiente ideal para montar pipelines híbridos: usar modelos abertos para volume, automação e customização; e modelos fechados para tarefas de maior precisão, raciocínio avançado ou acabamento premium.
A nova fase da corrida
O lançamento do DeepSeek-V4 reforça uma tendência que já vinha se desenhando desde 2025: a IA de ponta está se dividindo entre plataformas fechadas superintegradas e modelos abertos cada vez mais competitivos. A novidade é que agora essa disputa também se apoia em hardware nacional, cadeias de suprimento próprias e estratégias de soberania tecnológica.
A OpenAI tenta consolidar o GPT-5.5 como referência global em produtividade, programação e uso de ferramentas. A DeepSeek tenta provar que modelos abertos podem competir em escala de fronteira. A Tencent quer transformar o Hunyuan em infraestrutura empresarial e agentiva. A Xiaomi começa a conectar IA multimodal ao seu ecossistema de dispositivos, APIs e automação.
A conclusão é simples: a corrida da inteligência artificial não desacelerou. Ela mudou de marcha.
E, daqui para frente, cada novo modelo não será apenas uma atualização técnica. Será um movimento no tabuleiro global da tecnologia, da economia criativa e da soberania digital.
Fonte: Caixin
-
Música2 semanas atrásQuem é Eddie Dalton? A ascensão do bluesman artificial que bagunçou o iTunes
-
Tecnologia & IA2 semanas atrásGPT-5.4, Gemini 3.1 Pro e Claude Mythos redesenham o mapa da IA
-
Tecnologia & IA6 dias atrásIA em 2026: os gráficos que revelam o verdadeiro estado da revolução tecnológica
-
Tecnologia & IA6 dias atrásAnthropic aposta em IA mais precisa e poderosa com Opus 4.7
-
Cinema6 dias atrás“Bitcoin: Killing Satoshi” pode inaugurar nova era do cinema por inteligência artificial
-
Cinema2 dias atrásHiggsfield quer transformar influenciadores em estrelas de séries feitas por IA
-
Videoclipe1 dia atrásK-pop encontra cinema de IA: XODIAC leva videoclipe “Alibi” para festival em Cannes
-
Cinema2 dias atrásRunway AI Festival 2026 abre espaço para moda, design, games e publicidade