Tecnologia & IA
HappyHorse 1.0: Alibaba entra pesado na disputa contra Seedance, Kling e Veo
Depois de aparecer anonimamente no topo de rankings internacionais, o HappyHorse 1.0 foi assumido pela Alibaba e agora entra em fase de testes, prometendo geração de vídeo em 720p a partir de 0,44 yuan por segundo e mirando publicidade, e-commerce, redes sociais e produção audiovisual de baixo custo.
A corrida mundial dos vídeos gerados por inteligência artificial acaba de ganhar mais um competidor com nome de mascote, ambição de big tech e cheiro forte de guerra comercial. A Alibaba iniciou, em 27 de abril, a fase de testes do HappyHorse 1.0, seu novo modelo de geração e edição de vídeo com IA. Segundo o Science and Technology Daily, veículo estatal chinês de tecnologia, a plataforma foi aberta para criadores profissionais e clientes corporativos pelo site do HappyHorse e pela plataforma Alibaba Cloud Bailian; usuários comuns podem experimentar o recurso pelo app Qwen, conhecido na China como Tongyi Qianwen/千问.
A promessa que chama atenção é simples: vídeo com IA mais acessível. A tabela divulgada pela imprensa chinesa informa preço de referência de 0,9 yuan por segundo para vídeos em 720p, mas, com plano profissional e desconto temporário, esse valor cai para 0,44 yuan por segundo. Em conversão aproximada pela cotação de 29 de abril de 2026, isso dá algo perto de US$ 0,064 por segundo ou R$ 0,32 por segundo — ainda não é “de graça”, mas já começa a transformar vídeo generativo em custo operacional de creator, não em orçamento de produtora cinematográfica.
O modelo chega com as funções esperadas de um sistema moderno de vídeo com IA: texto para vídeo, imagem para vídeo, geração a partir de múltiplas imagens de referência e ferramentas de edição para retrabalhar o material gerado. A Alibaba afirma que o HappyHorse suporta narrativas de até 15 segundos com múltiplos planos, adaptação para diferentes proporções de tela e saída com super-resolução em 1080p. A empresa também destaca qualidade de imagem, iluminação, movimentos de câmera, transições, realismo humano e estilos visuais que vão de pintura chinesa a stop motion de argila.
O ponto mais interessante para quem trabalha com clipe, publicidade e audiovisual curto é que o HappyHorse não está sendo vendido apenas como um brinquedo de prompt. A estratégia parece mirar diretamente o pipeline de produção: publicidade, e-commerce, short dramas, conteúdo social e peças audiovisuais de alto giro. Em outras palavras: aquele território onde agências, marcas, creators e produtoras pequenas vivem espremidos entre a vontade de fazer cinema e a planilha dizendo “meu filho, baixa esse orçamento aí”.
Mas o HappyHorse não apareceu do nada. No início de abril, o modelo surgiu de forma anônima no ranking da Artificial Analysis, uma das plataformas de benchmark mais acompanhadas no setor de IA generativa. Sem paper, sem marca oficial e sem muita explicação, ele começou a liderar comparações às cegas em vídeo. Depois, em 10 de abril, a Alibaba confirmou que o HappyHorse havia sido desenvolvido pela unidade de inovação ligada ao Alibaba Token Hub — ATH, novo grupo interno que reúne frentes como Tongyi Lab, Qwen, MaaS, Wukong e outras iniciativas de IA.
Essa entrada “primeiro ranking, depois revelação” tem cara de campanha calculada. Em vez de uma apresentação tradicional, a Alibaba deixou o modelo circular como “cavalo preto” — ou, no jargão inglês, dark horse — e só depois colocou a marca na sela. O resultado foi óbvio: curiosidade, especulação e manchetes. Para um mercado saturado de demos bonitas e promessas grandiloquentes, aparecer vencendo teste às cegas é muito mais eficiente do que soltar vídeo institucional com executivo de blazer falando “nova era da criatividade”.
Nos rankings atuais da Artificial Analysis, o HappyHorse aparece em posição de destaque. A plataforma informa que o modelo lidera a categoria texto para vídeo com áudio, com Elo 1231, e também a categoria texto para vídeo sem áudio, com Elo 1368. A metodologia da Artificial Analysis se baseia em comparações cegas: usuários veem dois vídeos gerados a partir do mesmo prompt e escolhem o melhor, sem saber qual modelo produziu cada resultado.
Mesmo assim, ranking não é produto. E produto não é só vídeo bonito em demo. A imprensa chinesa especializada já aponta que o HappyHorse talvez não seja exatamente o “matador de preços” que alguns esperavam. Segundo análise do TMTPost, o preço do modelo é competitivo, mas não necessariamente destrutivo: em 720p, a vantagem sobre concorrentes como Seedance 2.0 existiria, mas não seria grande o suficiente para implodir a tabela do mercado.
O mesmo texto levanta uma questão mais importante: para clientes comerciais, o problema não é apenas preço. É estabilidade, previsibilidade de entrega, taxa de acerto e consistência visual. Quem já passou horas “puxando carta” em modelo de vídeo sabe: às vezes a IA entrega cinema; às vezes entrega um personagem com mão de siri, física de sonho febril e expressão de quem acabou de ver a fatura do cartão corporativo. Em produção real, cada erro vira custo.
Segundo avaliações citadas pela mídia chinesa, o HappyHorse se destaca visualmente, especialmente em lentes, movimentos de câmera, atmosfera e redução daquele “cheiro de IA” que denuncia muitos vídeos generativos. Mas ainda haveria pontos a melhorar em áudio, naturalidade de fala, física e estabilidade de resultados. Ou seja: é uma máquina promissora, mas ainda não é a câmera definitiva do pós-cinema.
A jogada da Alibaba também precisa ser lida dentro de uma estratégia maior. O HappyHorse não é apenas um modelo para disputar likes em comunidade de IA. Ele é uma peça da tentativa da empresa de transformar modelos generativos em receita de nuvem, API e ecossistema. A plataforma deve se conectar ao Alibaba Cloud Bailian e a outros agentes/plataformas, enquanto a imprensa chinesa informa que APIs estavam previstas para abertura em 30 de abril.
Esse detalhe é crucial. Diferentemente de ferramentas que começam fechadas em aplicativos próprios, o HappyHorse já nasce com vocação de infraestrutura. Se a Alibaba conseguir atrair desenvolvedores, plataformas de vídeo, e-commerces, agências e estúdios de short drama, o modelo deixa de ser “mais uma IA legal” e passa a ser uma camada de produção audiovisual distribuída. É aí que a briga fica séria.
A disputa também revela uma característica cada vez mais clara do mercado chinês de IA: a velocidade com que modelos saem do laboratório e entram no uso comercial. ByteDance, Kuaishou, Alibaba, Tencent e outras gigantes não estão apenas tentando criar “o melhor modelo”. Elas estão tentando prender o criador dentro de ecossistemas completos: app, nuvem, pagamento, API, template, comunidade e distribuição. A IA de vídeo não é só ferramenta criativa. É infraestrutura de plataforma.
Para o mercado global, o HappyHorse reforça uma tendência inevitável: vídeo generativo vai baratear, acelerar e se tornar cotidiano. O que hoje ainda parece truque técnico começa a virar unidade de produção. Uma peça de social media, um anúncio de e-commerce, um clipe curto, uma cena de teste, um storyboard animado ou uma versão alternativa de campanha poderão nascer em minutos, não em semanas.
Para o Brasil, isso tem duas leituras. A primeira é óbvia: mais uma ferramenta poderosa chegando para pressionar custos, prazos e modelos tradicionais de produção. A segunda é mais estratégica: países periféricos criativamente fortes, mas historicamente estrangulados por orçamento, podem ganhar uma janela rara. Se antes a distância entre uma ideia brasileira e uma execução visual de alto nível era medida em dinheiro, diária, equipe, locação, câmera, render e pós-produção, agora parte dessa distância começa a ser medida em prompt, direção criativa e domínio de workflow.
E é aí que o HappyHorse interessa diretamente ao ecossistema da MVAI. Não porque todo modelo novo de vídeo mereça fogos de artifício. Mas porque cada nova plataforma competitiva acelera a mesma transformação: a do audiovisual como linguagem cada vez mais acessível, iterativa e industrializada. O videoclipe, a publicidade, o conteúdo de rede, o curta, o teaser e o experimento visual entram numa fase em que a barreira principal deixa de ser equipamento e passa a ser direção.
O HappyHorse ainda precisa provar consistência, acesso internacional, qualidade em escala e utilidade real fora da bolha chinesa. Mas o recado já foi dado: a corrida do vídeo com IA não será vencida só por quem fizer a demo mais bonita. Será vencida por quem combinar qualidade, preço, velocidade, API, comunidade, ecossistema e uso comercial.
A Alibaba colocou seu cavalo na pista. Agora resta saber se o HappyHorse é só um bom nome de benchmark — ou se vai mesmo galopar por cima da velha indústria audiovisual.
Tecnologia & IA
Google Flow Music tenta enfrentar a Suno, mas chega atrasado à revolução da música com IA
Entre Lyria 3, Veo, Flow, Gemini e uma aposta bilionária na Anthropic, o Google parece finalmente ter entendido que a revolução da música com IA não é um “recurso experimental”. É uma nova indústria. O problema: a Suno entendeu isso antes.
O Google acaba de colocar mais uma peça no seu tabuleiro de inteligência artificial criativa: o chamado Google Flow Music, uma plataforma que promete funcionar como um estúdio all-in-one para criar músicas, remixar faixas, gerar clipes com IA, editar trechos, separar stems, publicar criações e até “vibe-codear” instrumentos, plugins, jogos musicais e DAWs customizadas. No papel, parece o tipo de ferramenta que um império tecnológico com dinheiro infinito deveria lançar. Na prática, o cheiro é outro: o de uma gigante correndo atrás de uma cena que explodiu sem pedir licença — e onde a Suno já virou linguagem, ferramenta, comunidade e cultura.
Segundo a própria página pública do Flow Music, a plataforma permite conversar com um agente chamado Producer, criar canções “full-length” com vocal dinâmico usando Lyria 3, dirigir videoclipes com o modelo Veo, remixar áudio, aplicar efeitos, dividir stems e criar ferramentas musicais dentro de espaços próprios. A proposta é bonita: um estúdio IA de bolso. Só que a execução, pelo menos nesse primeiro impacto, parece aquele velho Google pós-2010: tecnicamente poderoso, conceitualmente atrasado, emocionalmente frio e com cara de produto feito por comitê.
A comparação inevitável é com a Suno, e é aí que a coisa pega fogo.
O Google descobriu a música com IA depois que a pista já estava lotada
A Suno não é apenas uma ferramenta de geração musical. Ela virou, para muita gente, o primeiro contato real com a ideia de que uma pessoa sem banda, sem estúdio, sem produtor e sem gravadora pode criar uma música com letra, voz, melodia, arranjo e estrutura em minutos. A própria Wikipedia define a Suno como uma plataforma de IA generativa voltada à criação musical, capaz de gerar música com vocais e instrumentação a partir de prompts de texto ou áudio. A plataforma está amplamente disponível desde dezembro de 2023 e chegou a ser integrada ao Microsoft Copilot.
Isso é importante porque a Suno não chegou como “feature”. Ela chegou como instrumento cultural.
O Google, por outro lado, vem empilhando nomes: MusicLM, MusicFX, Music AI Sandbox, Lyria, Gemini, Flow, Veo, agora Flow Music. É IA criativa em modo gaveta corporativa. Cada gaveta tem uma plaquinha bonita, uma página institucional elegante, um vídeo de demonstração impecável — e pouca sensação de que há ali uma comunidade musical viva, suando, errando, criando atrocidades maravilhosas às três da manhã.
A Suno tem defeitos? Tem. Tem polêmica jurídica? Tem. Tem som plastificado em várias gerações? Tem também. Mas ela tem uma coisa que o Google raramente consegue fabricar: tesão de uso.
O que é o Flow Music?
O Flow Music aparece como uma plataforma de criação musical com IA que mistura geração de faixas, remixagem, edição, publicação e criação de videoclipes. A página do serviço fala em músicas completas com “musicalidade rica” e vocais dinâmicos, usando o modelo Lyria 3. Também promete usar o Veo para transformar músicas em videoclipes, dando ao usuário controle sobre personagens, estética e detalhes visuais.
Além disso, a documentação pública do Flow Music apresenta o Producer como uma espécie de parceiro de estúdio, um agente com quem o usuário conversa para produzir música.
Reportagens recentes no Brasil também descreveram o Flow Music como uma evolução ou rebatismo de um produto chamado ProducerAI, com funções de geração por prompt, recursos sociais e ferramentas como vibe-code para plugins, jogos musicais e DAWs personalizadas. O Canaltech, por exemplo, descreveu o acesso via navegador, com comando de texto no campo “Ask producer”.
A proposta, portanto, é clara: não é só gerar música. É criar um ambiente completo para composição, edição, remixagem, publicação e audiovisual. Em tese, o Google quer juntar o que hoje está espalhado entre Suno, Udio, DAWs, Runway, Luma, Kling, CapCut, plugins de áudio e plataformas sociais.
Bonito. Ambicioso. Mas também perigosamente “Google demais”.
O problema: o Google ainda parece pensar como engenheiro, não como músico
O Google tem modelos fortíssimos. O Lyria 3, integrado ao Gemini, já permite criar músicas por texto ou imagem. A página oficial do Gemini informa que o Lyria 3 gratuito cria faixas de até 30 segundos, enquanto o Lyria 3 Pro pode gerar músicas de até 3 minutos em planos pagos do Google AI Plus, Pro e Ultra.
Em fevereiro de 2026, o Google anunciou oficialmente que o Gemini passaria a criar músicas com o Lyria 3 em beta, com faixas de 30 segundos, capa gerada por IA e marca d’água SynthID para identificação de áudio criado por IA.
Ou seja: tecnologia existe. Modelo existe. Infraestrutura existe. O problema é outro.
Música não é só fidelidade. Música é acidente, sujeira, decisão errada que vira estética, refrão que gruda, timbre que machuca, grave que entra no peito, vocal imperfeito que parece humano porque quase cai do trilho. A Suno, com todos os seus vícios, entendeu isso melhor que o Google. Ela vende uma sensação: “eu fiz uma música”. O Google vende uma arquitetura.
E arquitetura, meu querido, não dança.
Suno: a máquina que virou brinquedo sério
A Suno vem evoluindo numa velocidade que explica o desespero tardio do Google. Em março de 2026, a empresa lançou a Suno v5.5, com foco em identidade musical, incluindo Voices, Custom Models e My Taste. A própria Suno descreve a v5.5 como seu modelo “mais expressivo”, com recursos para capturar voz, treinar modelos personalizados e adaptar gerações ao gosto do usuário.
A Suno também se vende como um ambiente completo para criação musical. Em material próprio atualizado em 2026, a empresa afirma que permite criar músicas, letras, beats, vocais e edições em um só lugar, além de destacar o Suno Studio como uma DAW nativa de IA, com edição em timeline, camadas, exportação MIDI e geração instantânea de vocais, bateria e sintetizadores.
Isso muda o jogo.
A briga não é mais “quem gera uma música engraçadinha por prompt”. A briga agora é: quem vira o Pro Tools da geração IA? Quem vira o Logic da garotada sintética? Quem vira o Ableton de uma geração que compõe conversando com modelo?
A Suno está tentando ocupar esse lugar por dentro da cultura musical. O Google está tentando ocupar por cima, pela força da infraestrutura.
O Veo é o que salva a operação
Se tem uma parte realmente forte na aposta do Google, ela se chama Veo.
O Flow, lançado pelo Google em maio de 2025, foi apresentado como uma ferramenta de produção cinematográfica com IA construída especialmente para os modelos Veo, Imagen e Gemini. O Google descreveu o Flow como um ambiente para criadores explorarem ideias, criarem cenas e clipes cinematográficos, com o Gemini ajudando na interpretação de prompts e o Veo entregando vídeo com física, realismo e aderência ao comando.
O próprio Google DeepMind afirma que o Veo 3 permite adicionar efeitos sonoros, ruído ambiente e diálogo gerados nativamente, além de entregar qualidade de vídeo com forte aderência ao prompt, realismo e física.
Aqui, sim, o Google tem uma carta pesada.
Para a MVAI, que pensa música, videoclipe e audiovisual como uma mesma cadeia criativa, o Veo é a parte realmente estratégica. Se o Flow Music conseguir costurar música e vídeo de forma orgânica, sem parecer uma gambiarra de produtos colados com fita dupla face, pode virar uma ferramenta relevante para videoclipes IA.
Mas esse é justamente o “se” gigante.
Porque música com IA sem cultura vira jingle de banco. Videoclipe com IA sem direção vira demo de benchmark. E plataforma all-in-one sem comunidade vira cemitério de produto Google.
Alô, Google Stadia. Alô, Google+. Alô, toda a ala de defuntos brilhantes do Google.
O Flow Music quer ser Suno, Runway, Ableton e YouTube ao mesmo tempo
O Flow Music parece nascer com uma ambição quase imperial: ser gerador musical, editor, remixador, rede social, estúdio de vídeo e ambiente de criação de ferramentas. Isso é, ao mesmo tempo, fascinante e suspeito.
Fascinante porque, se funcionar, pode encurtar drasticamente o caminho entre ideia, música, videoclipe e distribuição.
Suspeito porque o Google tem uma longa tradição de lançar produtos com nome bonito, matar produtos com frieza soviética e deixar criadores com cara de trouxa no acostamento.
Artista precisa confiar na ferramenta. Precisa acreditar que o projeto não vai desaparecer porque algum executivo achou que “não bateu OKR”. A Suno, por ser uma empresa nascida dentro do problema musical, parece ter mais clareza de missão. O Google parece ter mais capacidade computacional, mas menos alma.
E na música, alma ainda conta. Mesmo quando é alma sintética.
E os US$ 40 bilhões na Anthropic?
No mesmo tabuleiro, o Google também aparece aprofundando sua aposta na Anthropic. Segundo a Reuters, a Alphabet deve investir até US$ 40 bilhões na empresa criadora do Claude: US$ 10 bilhões em dinheiro agora, avaliando a Anthropic em US$ 350 bilhões, e mais US$ 30 bilhões condicionados a metas de performance.
A notícia é brutal porque mostra uma coisa: mesmo o Google, com DeepMind, Gemini, TPU, YouTube, Android, Search e dinheiro infinito, está comprando posição em concorrente. É o tipo de movimento que grita: “temos tudo, menos tranquilidade”.
E aí fica a pergunta: se o Google precisa colocar dezenas de bilhões na Anthropic para não perder o bonde dos modelos gerais, que confiança o mercado deve ter em mais uma plataforma criativa do Google tentando correr atrás da Suno?
É claro: Anthropic não é “plataforma duvidosa” no sentido técnico. Claude é forte, especialmente em código. A própria Reuters relata que o Claude Code ganhou tração entre desenvolvedores e que a receita anualizada da Anthropic ultrapassou US$ 30 bilhões em abril de 2026.
Mas estrategicamente, para o Google, a cena é esquisita: a empresa que prometia organizar a informação do mundo agora parece tentando organizar o próprio pânico.
Suno também tem telhado de vidro — mas está no lugar certo da revolução
Ser Team Suno não significa fingir que a Suno é santa. A plataforma foi processada por grandes gravadoras, junto com a Udio, em ações que acusam as empresas de uso indevido de gravações protegidas por copyright no treinamento de modelos. A Reuters noticiou em 2024 que as gravadoras pediam indenização de até US$ 150 mil por música supostamente copiada.
Também houve mudanças importantes no front jurídico: a Warner, uma das gravadoras que processava a Suno, fechou acordo de licenciamento com a empresa em 2025, encerrando sua parte no litígio e abrindo caminho para modelos mais licenciados. Segundo a Pitchfork, a parceria inclui compensação para artistas e compositores que optarem por acordos de IA, além da aquisição da Songkick pela Suno.
Ou seja, a Suno está no meio da guerra real: direito autoral, indústria fonográfica, criadores, modelos licenciados, comunidade, profissionalização. É um campo minado, mas é o campo minado certo.
O Google, por enquanto, parece mais preocupado em criar uma suíte elegante.
A Suno está brigando pela linguagem da música com IA. O Google está brigando pela dashboard.
A tese MVAI: ferramenta musical precisa nascer da música, não do PowerPoint
Para quem cria dentro da nova economia da IA audiovisual, o Flow Music é um sinal importante, mas não necessariamente uma ameaça imediata. Ele confirma a tese central da MVAI: música, vídeo, IA e distribuição vão virar uma cadeia única.
O que antes exigia compositor, banda, estúdio, produtor, câmera, locação, equipe de arte, editor, colorista e verba de gravadora agora começa a caber numa pilha de modelos generativos. Isso não elimina direção criativa — pelo contrário, torna direção criativa ainda mais importante.
Só que existe uma diferença entre plataforma e cultura.
A Suno já é usada como instrumento de composição popular. Já virou meme, laboratório, brinquedo, demo, ferramenta de artista independente, máquina de refrão, arma de provocação estética. O Google Flow Music chega com pinta de canivete suíço corporativo: cheio de lâminas, mas ainda sem sangue na ponta.
E música, desculpa, precisa sangrar um pouco.
Veredito: Flow Music pode ser útil, mas Suno ainda é a rua
O Google Flow Music merece atenção. Principalmente por causa da integração com Lyria 3 e Veo. Se o Google conseguir unir música e videoclipe com fluidez real, pode entregar uma ferramenta poderosa para criadores audiovisuais, publicitários, artistas independentes e produtoras IA.
Mas como concorrente direto da Suno, a largada é fraca.
Não porque o Google não tenha tecnologia. Tem até demais. O problema é que o Google parece continuar confundindo criatividade com capacidade computacional. Música não é só gerar áudio. É construir identidade, repertório, catarse, comunidade, vício de uso e desejo de voltar amanhã para fazer outra faixa.
A Suno, mesmo imperfeita, já entendeu isso.
O Google chegou com terno caro, modelo avançado e infraestrutura colossal. A Suno chegou com um refrão.
E na história da música popular, meu querido, quem tem o refrão geralmente vence.
Tecnologia & IA
Kling 3.0 promete vídeo em 4K nativo e transforma o criador em diretor de IA
A corrida dos vídeos gerados por inteligência artificial acaba de ganhar mais um capítulo importante. Segundo a Blockchain.News, a Krea passou a oferecer o Kling 3.0 com geração de vídeo em 4K nativo, sem depender de upscaling posterior, ampliando o potencial da ferramenta para publicidade, demonstrações de produto, pré-visualização de efeitos visuais e produção audiovisual de alta resolução.
O anúncio é relevante porque desloca a disputa entre modelos de vídeo por IA para um novo patamar: não basta mais gerar clipes “bonitos” ou virais para redes sociais. O mercado começa a cobrar resolução, consistência, controle de câmera, som, continuidade narrativa e qualidade comercial. É exatamente aí que o Kling 3.0 tenta se posicionar.
Desenvolvido pela chinesa Kuaishou, o Kling 3.0 foi apresentado oficialmente em fevereiro de 2026 como uma nova família de modelos, incluindo Video 3.0, Video 3.0 Omni, Image 3.0 e Image 3.0 Omni. A empresa afirma que a nova geração traz melhorias em consistência visual, fotorrealismo, geração de vídeo de até 15 segundos, áudio nativo em múltiplos idiomas, entrada multimodal e maior controle narrativo.
No Krea, o Kling 3.0 aparece como um modelo de fronteira voltado à criação profissional, com suporte a áudio nativo, duração estendida de até 15 segundos, geração a partir de prompts, uso de referências visuais e iteração rápida para equipes de produção. A própria plataforma destaca aplicações em storyboards, anúncios, conteúdo social e protótipos de vídeo.
Por que o 4K importa
A promessa de vídeo em 4K nativo é mais do que uma ficha técnica bonita. Para o mercado audiovisual, resolução maior significa mais margem para edição, recorte, pós-produção, exibição em telas grandes e entrega para marcas que exigem qualidade próxima ao padrão publicitário.
Até aqui, boa parte dos vídeos feitos por IA ainda carregava uma estética de “rascunho sofisticado”: boa para redes sociais, testes de conceito e experimentos criativos, mas nem sempre confiável para campanhas premium. Se o Kling 3.0 realmente entrega 4K nativo dentro do Krea, a ferramenta começa a mirar um território mais nobre: conteúdo finalizável, não apenas prévia ou referência visual.
Para produtoras, agências e criadores independentes, isso pode reduzir etapas caras do processo: filmagem, equipe técnica, locação, iluminação, motion graphics e parte da pós-produção. Mas também cria uma nova exigência: saber dirigir IA. O diferencial deixa de ser apenas apertar “generate” e passa a ser construir prompts, referências, linguagem de câmera e fluxo de produção.
O “diretor de IA” deixa de ser metáfora
A Kuaishou vende o Kling 3.0 como parte de uma virada em que “qualquer pessoa pode ser diretora”. O slogan é exagerado, claro, mas aponta para algo real: os modelos estão deixando de ser simples geradores de clipes isolados e começando a entender lógica de cena, continuidade, voz, movimento e encadeamento de planos.
Entre os recursos destacados pela empresa estão áudio nativo em inglês, chinês, japonês, coreano, espanhol, sotaques e dialetos; diálogos com múltiplos personagens; geração de até 15 segundos; storytelling multi-shot; maior preservação de textos e logos em cena; e saída fotorrealista com personagens mais expressivos.
Esse conjunto é especialmente importante para publicidade e videoclipes. Em vez de gerar uma imagem animada sem controle, o criador começa a pedir cenas com linguagem audiovisual: plano e contraplano, movimento de câmera, fala, marca visível, personagem consistente e transição narrativa.
Impacto para música, publicidade e videoclipes
Para o universo que interessa diretamente ao Portal MVAI, o avanço é evidente: modelos como Kling 3.0 aproximam o videoclipe de IA de uma lógica industrial. Não estamos falando apenas de vídeos experimentais, mas de um pipeline em que artistas, marcas e produtoras podem testar dezenas de versões de uma ideia antes de decidir qual caminho seguir.
No caso da música, isso pode acelerar a criação de visualizers, lyric videos, teasers, campanhas para TikTok, clipes curtos e até protótipos de videoclipes completos. Para marcas, o ganho está na possibilidade de criar campanhas visuais mais personalizadas, com múltiplas versões por público, produto ou território.
A Krea também destaca que os vídeos gerados em planos pagos podem ser usados comercialmente, o que torna o Kling 3.0 mais interessante para equipes que trabalham com campanhas, produtos e entregas para clientes.
A disputa fica mais pesada
O Kling 3.0 entra em um mercado cada vez mais competitivo, ao lado de modelos como Runway, Veo, Sora, Seedance, Hailuo e Pika. A diferença agora está menos na pergunta “qual modelo gera o vídeo mais bonito?” e mais em “qual modelo entrega fluxo de produção confiável?”.
A resposta envolve resolução, custo por geração, estabilidade de personagens, controle de prompt, qualidade do áudio, direitos de uso, velocidade, taxa de erro e integração com plataformas criativas. A presença do Kling 3.0 dentro do Krea importa porque coloca o modelo em um ambiente já voltado a designers, artistas, agências e criadores que precisam iterar rapidamente.
O alerta: nem tudo está totalmente claro
Apesar do entusiasmo, há uma observação importante: a reivindicação específica de vídeo 4K nativo no Krea aparece na matéria da Blockchain.News baseada em publicação da Krea no X. A página pública do Krea consultada confirma Kling 3.0, áudio nativo, até 15 segundos, referências e uso comercial, mas não detalha o 4K no corpo da página. Já o comunicado oficial da Kuaishou confirma 4K para a linha Image 3.0/Image 3.0 Omni e não explicita, no trecho público, vídeo 4K nativo como especificação principal do Video 3.0.
Ou seja: a notícia é forte, mas convém tratar o 4K nativo como uma promessa anunciada pela Krea, enquanto as capacidades oficialmente documentadas do Kling 3.0 incluem áudio nativo, multimodalidade, consistência, storytelling multi-shot e vídeos de até 15 segundos.
O que isso significa para a indústria criativa
O lançamento reforça uma tendência central de 2026: a IA de vídeo está deixando de ser brinquedo de laboratório e virando infraestrutura de produção. O impacto não será apenas técnico. Será econômico.
Agências pequenas poderão entregar peças com estética premium. Artistas independentes poderão produzir clipes sem orçamento de gravadora. Produtoras poderão testar cenas antes de filmar. Marcas poderão multiplicar variações de campanhas com mais velocidade. E, no meio desse terremoto, surge uma nova função profissional: o criador capaz de unir direção audiovisual, prompt, montagem, estética, branding e curadoria de modelos.
O Kling 3.0 no Krea é mais uma prova de que a nova disputa do audiovisual não será entre humanos e máquinas. Será entre quem sabe dirigir máquinas criativas e quem ainda acha que vídeo de IA é só apertar um botão.
Fonte: Blockchain News
Tecnologia & IA
Google pode despejar US$ 40 bilhões na Anthropic enquanto DeepSeek V4 desafia os modelos fechados
A corrida da inteligência artificial entrou em mais uma fase de concentração brutal de capital, chips e poder tecnológico. Um boletim publicado pela comunidade chinesa OpenAtom em 26 de abril reuniu os principais sinais do momento: Google ampliando sua aposta na Anthropic, Nvidia voltando ao patamar de US$ 5 trilhões em valor de mercado, DeepSeek V4 movimentando o ecossistema open source e empresas tradicionais acelerando a adoção de IA em software, varejo, robótica e edge computing.
O ponto mais explosivo é a possível nova rodada de investimento da Alphabet/Google na Anthropic. Segundo a Reuters, a empresa planeja investir até US$ 40 bilhões na criadora do Claude, começando com US$ 10 bilhões e podendo adicionar mais US$ 30 bilhões conforme metas de desempenho forem atingidas. A Reuters também informa que esse movimento avaliaria a Anthropic em cerca de US$ 350 bilhões, consolidando a startup como uma das peças centrais da disputa entre Big Techs, nuvem e modelos de fronteira.
Na prática, isso mostra que o jogo da IA deixou de ser apenas “quem tem o melhor chatbot”. Agora, a disputa é por uma cadeia completa: capital, data centers, chips, nuvem, clientes corporativos, ferramentas de programação e ecossistemas de agentes. A AP informou, dias antes, que a Anthropic também firmou um compromisso de mais de US$ 100 bilhões em serviços de nuvem com a AWS ao longo de dez anos, reforçando a dependência crescente entre modelos avançados e infraestrutura computacional de escala planetária.
Enquanto isso, a Nvidia segue como a grande vendedora de pás e picaretas da corrida do ouro da IA. Segundo o Times of India, a empresa voltou a superar a marca de US$ 5 trilhões em valor de mercado, impulsionada pela demanda por chips de IA, pela compra contínua de GPUs por hyperscalers e pela expectativa de que a infraestrutura de IA continue sendo o eixo mais valioso do ciclo tecnológico atual.
Esse dado é fundamental para entender o custo real da inteligência artificial. A IA generativa parece “software”, mas sua base econômica é profundamente material: energia, data centers, GPUs, interconexão, refrigeração e contratos bilionários de nuvem. Para startups, produtoras, agências e empresas criativas, isso significa que a queda de custo dos modelos convive com uma pressão crescente sobre infraestrutura — e quem controlar a computação controla boa parte do futuro.
Do lado chinês, o destaque é o DeepSeek V4 Preview. A documentação oficial da DeepSeek anuncia uma versão open source com contexto de até 1 milhão de tokens, em duas variantes principais: DeepSeek-V4-Pro, com 1,6 trilhão de parâmetros totais e 49 bilhões ativos, e DeepSeek-V4-Flash, com 284 bilhões de parâmetros totais e 13 bilhões ativos.
A importância do DeepSeek V4 não está apenas no desempenho técnico. O modelo aparece num momento em que a China tenta reduzir dependência tecnológica dos EUA, inclusive com adaptações para hardware nacional. The Verge destacou que o novo modelo foi apresentado como competidor de sistemas fechados de empresas americanas e que sua compatibilidade com tecnologia da Huawei reforça a dimensão geopolítica da disputa.
Para o ecossistema criativo, a mensagem é clara: a IA está deixando de ser um produto isolado e virando uma camada permanente da economia. No varejo, a Lowe’s está expandindo uma parceria com a RELEX para usar IA em planejamento, reposição e gestão de estoque, com foco em melhorar disponibilidade e eficiência operacional. No edge AI, a Qualcomm aparece apoiando mais de 60 startups em áreas como robótica, saúde, indústria e automação, segundo levantamento citado pelo Yahoo Finance.
O boletim da OpenAtom também chama atenção para uma mudança importante no mercado de software: a ascensão dos agentes de IA. A tese é que ferramentas corporativas tradicionais podem ser reconfiguradas por agentes capazes de executar tarefas, escrever código, operar fluxos de trabalho e interagir com sistemas internos. A Reuters informou nesta semana que a OpenAI está recorrendo a grandes consultorias globais para acelerar o uso corporativo do Codex, seu sistema voltado ao desenvolvimento de software.
Essa transição afeta diretamente o mercado audiovisual, musical e publicitário. Se os agentes passarem a operar partes inteiras da produção — roteiro, storyboard, edição, versionamento, motion, distribuição e análise de performance — o gargalo deixa de ser apenas ferramenta. O novo gargalo passa a ser direção criativa, propriedade intelectual, curadoria estética, acesso a modelos, custo computacional e capacidade de montar pipelines.
Para o Portal MVAI, a leitura é inevitável: estamos vendo a formação de uma nova indústria cultural automatizada, sustentada por três pilares. O primeiro é a infraestrutura, dominada por Nvidia, nuvens e data centers. O segundo é o modelo, disputado por OpenAI, Anthropic, Google, DeepSeek e outros laboratórios. O terceiro é a aplicação criativa, onde música, cinema, publicidade, games, creators e videoclipes começam a ser reconfigurados.
A disputa global da IA não é apenas uma corrida por respostas melhores em um chat. É uma corrida para definir quem será dono da máquina cultural, computacional e econômica dos próximos anos.
Fonte: OpenAtom
-
Tecnologia & IA1 semana atrásIA em 2026: os gráficos que revelam o verdadeiro estado da revolução tecnológica
-
Tecnologia & IA1 semana atrásAnthropic aposta em IA mais precisa e poderosa com Opus 4.7
-
Cinema1 semana atrás“Bitcoin: Killing Satoshi” pode inaugurar nova era do cinema por inteligência artificial
-
Cinema5 dias atrásHiggsfield quer transformar influenciadores em estrelas de séries feitas por IA
-
Videoclipe4 dias atrásK-pop encontra cinema de IA: XODIAC leva videoclipe “Alibi” para festival em Cannes
-
Tecnologia & IA4 dias atrásAI Index 2026: as 12 conclusões que revelam o tamanho real da revolução da IA
-
Cinema2 dias atrásWAIFF x Cannes: tradição e inteligência artificial duelam no coração do cinema mundial
-
Cinema5 dias atrásRunway AI Festival 2026 abre espaço para moda, design, games e publicidade