Tecnologia & IA
A nova máquina de cinema da ByteDance: Seedance 2.0 impressiona, mas enfrenta obstáculos para se espalhar
A gigante chinesa ByteDance, dona do TikTok, acaba de lançar um novo capítulo na corrida global da inteligência artificial audiovisual. Batizado de Seedance 2.0, o modelo promete transformar texto, imagem e áudio em vídeos com estética cinematográfica — algo que pode impactar diretamente as indústrias da música, do cinema e da cultura pop digital.
Na prática, a ferramenta funciona como um “diretor virtual”: o usuário descreve uma cena e a IA monta o vídeo completo, com movimento de câmera, continuidade entre cenas e até diálogos sincronizados com os lábios dos personagens.
Para criadores independentes, produtores musicais e artistas digitais, isso significa algo poderoso: a possibilidade de criar videoclipes, trailers ou narrativas visuais inteiras usando apenas prompts.
Uma nova fronteira para o audiovisual
O Seedance 2.0 é um modelo multimodal, capaz de gerar vídeo e áudio ao mesmo tempo — algo que ainda é um desafio técnico para muitas ferramentas de IA.
A tecnologia usa uma arquitetura que processa simultaneamente imagem e som, permitindo sincronização mais natural entre fala e movimento.
Entre as aplicações possíveis estão:
- produção de videoclipes e conteúdo musical
- trailers e cenas para cinema e games
- publicidade e marketing digital
- vídeos curtos para redes sociais
A promessa é clara: reduzir drasticamente o custo de produção audiovisual, democratizando a criação de conteúdo.
O hype existe — mas o caminho ainda é complicado
Apesar do impacto inicial na comunidade tecnológica chinesa, o Seedance 2.0 enfrenta dificuldades para ganhar escala global.
Um dos problemas é a infraestrutura computacional. O acesso ao sistema ainda é limitado, e usuários relatam filas e tempos de espera longos para gerar vídeos.
Outro obstáculo é jurídico.
Estúdios de Hollywood e entidades da indústria audiovisual acusam a tecnologia de reproduzir personagens e estilos protegidos por direitos autorais. A Motion Picture Association chegou a enviar notificações legais à ByteDance alegando uso indevido de propriedade intelectual.
Sindicatos de atores também criticaram a criação de vídeos com rostos de celebridades sem autorização, o que reacende debates sobre deepfakes e direitos de imagem.
A guerra da IA criativa
Mesmo com esses desafios, o Seedance 2.0 coloca a ByteDance diretamente na disputa com os principais players da IA generativa — como OpenAI, Google e startups especializadas em vídeo.
A corrida agora não é apenas tecnológica. É cultural.
Quem dominar a geração automática de vídeos pode redefinir a maneira como se produzem videoclipes, filmes independentes e conteúdo para redes sociais.
E se o TikTok já transformou a lógica da distribuição musical, ferramentas como Seedance sugerem o próximo passo: a criação audiovisual totalmente assistida por IA.
Para artistas, produtores e criadores digitais, a pergunta não é mais se isso vai acontecer.
Mas quem vai dirigir o próximo blockbuster: humanos ou algoritmos?
Fonte: Exame
Música
Suno, Udio e a batalha pelo direito de criar música com IA
A música com inteligência artificial passou muito rápido da fase “olha que bizarro esse Drake falso” para a fase “chama o jurídico, chama o investidor e chama o departamento de licenciamento”. O que até pouco tempo parecia um brinquedo de meme, uma curiosidade para viralizar no TikTok ou um delírio tecnófilo de artista futurista, virou um dos centros nervosos da indústria musical.
Hoje, plataformas como Suno e Udio conseguem gerar faixas completas em poucos minutos, com voz, letra, arranjo, mixagem e estética de gênero. Ao mesmo tempo, gravadoras como Universal, Sony e Warner processam, negociam, fazem acordos e tentam transformar o caos em contrato. Segundo a Pitchfork, a música por IA já não é um fenômeno marginal: ela entrou nas paradas, nos acordos de licenciamento, nas disputas de copyright e nos planos estratégicos das majors.
A treta central é simples de entender e difícil de resolver: essas plataformas são ferramentas criativas legítimas ou máquinas treinadas em cima de catálogos protegidos sem autorização? Em junho de 2024, a RIAA anunciou processos contra Suno e Udio, acusando as empresas de uso massivo de gravações protegidas por direitos autorais para treinar sistemas de geração musical.
Desde então, a guerra saiu do campo puramente judicial e entrou no campo do “vamos negociar antes que alguém perca tudo”. Universal e Udio chegaram a um acordo em 2025 para desenvolver uma plataforma licenciada de criação musical com IA. Warner também fechou acordos com Udio e Suno, resolvendo litígios e preparando modelos licenciados para 2026.
Ou seja: a velha indústria não está apenas tentando matar a IA musical. Está tentando domesticá-la, colocar coleira, cobrar pedágio e transformar cada prompt em nova linha de receita.
Suno: a estrela pop da IA musical
A Suno é hoje a empresa mais visível desse novo ecossistema. Lançada publicamente em dezembro de 2023, a plataforma popularizou a promessa direta: criar qualquer música que você imaginar. O usuário digita um prompt, escolhe estilos, ajusta parâmetros e recebe uma faixa com vocal, letra, instrumentação e estrutura pop pronta para circular.
A Pitchfork destaca que a Suno afirma gerar cerca de 7 milhões de músicas por dia, um número que ajuda a explicar tanto o fascínio quanto o pânico da indústria. Porque, se a música vira uma torneira infinita, a pergunta deixa de ser apenas “quem cria?” e passa a ser “quem filtra, quem monetiza e quem paga a conta dos direitos?”.
A empresa foi processada por gravadoras, mas o cenário começou a mudar quando a Warner Music Group fechou um acordo com a plataforma. Pelo anúncio da própria Warner, a parceria prevê novos modelos licenciados em 2026, substituição dos modelos atuais e restrições para downloads, especialmente em músicas criadas na camada gratuita.
A Reuters também informou que o acordo resolveu o processo da Warner contra a Suno e abriu caminho para modelos licenciados, enquanto Universal e Sony continuavam em litígio contra a empresa. Aqui está o ponto quente: a Suno virou grande demais para ser ignorada, mas ainda polêmica demais para ser plenamente absorvida pela indústria tradicional.
Udio: da explosão viral ao jardim murado
A Udio surgiu em abril de 2024 com credenciais de peso: ex-pesquisadores do Google DeepMind e apoio de investidores como a Andreessen Horowitz. Assim como a Suno, vende a ideia de música completa gerada por prompt. Mas sua trajetória recente mostra um movimento diferente: sair da internet aberta e caminhar para um modelo mais controlado, licenciado e fechado.
A plataforma ficou conhecida também por ter sido usada na criação de “BBL Drizzy”, faixa viral associada ao universo das diss tracks e da cultura remix. Mas a fama veio junto com processo. Udio e Suno foram alvo das ações das majors em 2024.
Em 2025, a Universal anunciou acordo com a Udio para criar uma nova plataforma licenciada de música com IA. A AP noticiou que, após o acordo, a Udio deixou de oferecer downloads de músicas geradas por IA, provocando reação negativa de usuários. A Warner também anunciou acordo semelhante com a Udio, estabelecendo uma estrutura para um serviço licenciado de criação musical com lançamento previsto para 2026.
Na prática, a Udio virou símbolo de uma tendência: a IA musical pode até nascer como ferramenta aberta, mas as majors preferem que ela viva dentro de um cercadinho bem iluminado, com controle de uso, licenciamento e dinheiro voltando para os donos dos catálogos.
Boomy: democratização, ruído e o fantasma da fraude
A Boomy é anterior à explosão Suno/Udio. Lançada em 2021, ela se posicionou como uma ferramenta para pessoas sem experiência musical criarem faixas rapidamente, com controles de gênero, andamento, instrumentos, mixagem e voz.
O problema é que a Boomy acabou associada a uma das histórias mais espinhosas da nova música automatizada: o caso Michael Smith. O Departamento de Justiça dos EUA acusou Smith de usar músicas geradas com IA e bots para fraudar plataformas de streaming e obter milhões de dólares em royalties.
Em março de 2026, o Guardian noticiou que Smith se declarou culpado de conspiração para cometer fraude eletrônica, em um esquema que teria usado músicas geradas por IA e audições automatizadas para desviar mais de US$ 10 milhões em royalties.
Esse caso é importante porque mostra o lado mais podre do “conteúdo infinito”: se qualquer um pode gerar milhares de faixas, criar artistas falsos e simular audiência, o streaming vira um cassino de robôs. E, nesse cassino, quem perde primeiro é o artista humano que já recebia pouco.
ElevenLabs: quando a voz vira território de guerra
A ElevenLabs ficou mais conhecida por ferramentas de voz sintética, clonagem vocal e dublagem com IA. No universo musical, isso toca num nervo exposto: a voz é identidade, marca, presença, corpo, assinatura emocional. Clonar uma voz não é a mesma coisa que gerar uma batida genérica.
Segundo a Pitchfork, a ElevenLabs ainda não fechou grandes acordos com gravadoras, mas já se aproximou do campo musical por meio de projetos envolvendo vozes sintéticas e figuras reconhecíveis. A empresa também enfrentou processo movido por dubladores e autores, que alegaram uso indevido de vozes a partir de audiolivros protegidos.
No fundo, a ElevenLabs representa uma camada específica da revolução: não é apenas “fazer música com IA”, mas manipular presença vocal. E isso é dinamite jurídica, artística e emocional.
Klay Vision: a startup misteriosa que agradou as majors
A Klay Vision é um caso curioso. Ainda sem um produto amplamente consolidado no mercado, a empresa ganhou atenção por buscar um caminho mais diplomático: licenciamento antes da guerra total.
A Pitchfork descreve a Klay como uma startup com pouco produto público, mas muito discurso de mercado, incluindo ambições de criar uma plataforma de streaming e uma rede social musical. O ponto mais relevante é que a empresa aparece associada a acordos com as três grandes gravadoras e suas editoras, um diferencial enorme num setor em que outras startups começaram sendo processadas.
É o modelo “não peça desculpas depois, peça licença antes”. Pode ser menos punk, menos viral e menos sexy para o usuário final, mas é exatamente o tipo de estratégia que costuma deixar advogado de major dormindo melhor.
Splice: IA para produtor, não para turista de prompt
A Splice já era relevante antes da febre generativa. Sua biblioteca de samples royalty-free virou parte do fluxo de trabalho de produtores de pop, eletrônica, hip-hop e música comercial. A diferença é que a IA, no caso da Splice, entra menos como “aperte um botão e receba uma música” e mais como ferramenta para encontrar, recombinar e transformar sons.
A própria Splice afirma que começou sua trajetória de IA voltada a criadores em 2019 com o Similar Sounds, ferramenta que usa machine learning para encontrar sons parecidos no catálogo. Em 2026, a empresa anunciou novas ferramentas de IA voltadas à compensação de criadores de samples quando seus sons são usados como fonte ou variação.
Esse é um caminho importante porque muda o enquadramento: em vez de substituir o produtor por um prompt, a IA vira uma extensão do estúdio. Menos “robô compositor” e mais “assistente de produção turbinado”.
Loudly e Soundraw: música funcional, royalty-free e mercado de fundo
Nem toda música com IA quer disputar o Grammy, imitar Drake ou ressuscitar Freddie Mercury em versão deepfake. Plataformas como Loudly e Soundraw miram um mercado gigantesco e menos glamouroso: trilhas, música de fundo, vídeos corporativos, redes sociais, games, publicidade barata, conteúdo de creator e sonorização sob demanda.
A Pitchfork aponta que a Loudly oferece geração por prompt, remix, compatibilidade com DAWs e distribuição, enquanto a Soundraw se posiciona como solução para música de fundo royalty-free, com material criado internamente.
Esse é talvez o setor mais silenciosamente ameaçador para compositores de biblioteca, produtores de trilha branca e músicos que vivem de sync pequeno. A IA pode não matar o artista pop, mas pode esmagar o mercado intermediário de música funcional — aquele jingle, aquela trilha de vídeo institucional, aquele loop de fundo que pagava o aluguel de muita gente.
Music Flamingo e a IA que não compõe: analisa
Outro ramo da corrida não é a geração, mas a análise musical. A Pitchfork cita o Music Flamingo, ligado à Nvidia, como uma plataforma voltada à compreensão de estrutura, instrumentação, letra e contexto cultural da música.
Esse tipo de IA não entra necessariamente para criar canções, mas para organizar, recomendar, classificar e extrair sentido de catálogos gigantescos. É uma camada menos visível para o público, mas altamente estratégica para gravadoras, plataformas de streaming e empresas que querem transformar gosto musical em dado acionável.
Aqui mora uma das partes mais assustadoras — e lucrativas — da história: a IA não precisa compor a próxima música para controlar o mercado. Ela pode simplesmente decidir qual música será descoberta.
A grande virada: de processo para licenciamento
O que está acontecendo agora é uma migração do conflito bruto para o contrato. Em 2024, as majors bateram forte em Suno e Udio. Em 2025 e 2026, começaram a aparecer acordos, modelos licenciados, plataformas fechadas, opt-in de artistas, controle de voz, nome, imagem e composição.
Isso não significa paz. Significa que a indústria percebeu que a IA musical não vai desaparecer. O novo jogo é decidir quem fica com o dinheiro quando a máquina canta.
Para os artistas, o cenário é ambíguo. Há oportunidades reais: novas ferramentas de composição, produção barata, experimentação estética, prototipagem rápida e distribuição criativa. Mas há também riscos brutais: diluição de mercado, clonagem de estilo, contratos abusivos, perda de controle sobre voz e imagem, além de um oceano de conteúdo sintético empurrando o valor médio da música ainda mais para baixo.
Para as gravadoras, a IA é ameaça e salvação ao mesmo tempo. Ela pode corroer o valor dos catálogos, mas também pode gerar novas receitas se for licenciada, cercada e convertida em produto corporativo.
Para startups, o recado é claro: crescer rápido demais sem acordo pode virar processo. Pedir licença cedo demais pode matar a cultura de usuário. O equilíbrio entre revolução e submissão ao velho mercado será a linha fina dessa década.
O que isso significa para a MVAI
Para a MVAI, a leitura é direta: a música com IA já entrou na fase industrial. Não estamos mais falando só de curiosidade tecnológica. Estamos falando de cadeia produtiva, catálogo, vídeo, artista virtual, licenciamento, distribuição, branding, publicidade, sync, comunidades e monetização.
A oportunidade não está apenas em gerar música. Isso qualquer ferramenta fará cada vez melhor. A oportunidade está em criar linguagem, narrativa, personagem, videoclipe, comunidade, estética, curadoria e modelo de negócio.
A nova indústria musical será menos parecida com uma gravadora tradicional e mais parecida com uma mistura de estúdio audiovisual, laboratório de IA, agência de publicidade, selo musical, canal de mídia e fábrica de propriedade intelectual.
Suno e Udio abriram a porteira. As majors tentam colocar cerca. Mas o território ainda está em disputa.
E, como sempre acontece quando uma tecnologia nova bagunça o coreto, quem entender antes que a música agora é software, mídia e personagem ao mesmo tempo vai sair na frente. Quem achar que é só “apertar um botão e fazer musiquinha” vai virar figurante no próprio futuro.
Fonte: Pitchfork
Tecnologia & IA
HappyHorse 1.0: Alibaba entra pesado na disputa contra Seedance, Kling e Veo
Depois de aparecer anonimamente no topo de rankings internacionais, o HappyHorse 1.0 foi assumido pela Alibaba e agora entra em fase de testes, prometendo geração de vídeo em 720p a partir de 0,44 yuan por segundo e mirando publicidade, e-commerce, redes sociais e produção audiovisual de baixo custo.
A corrida mundial dos vídeos gerados por inteligência artificial acaba de ganhar mais um competidor com nome de mascote, ambição de big tech e cheiro forte de guerra comercial. A Alibaba iniciou, em 27 de abril, a fase de testes do HappyHorse 1.0, seu novo modelo de geração e edição de vídeo com IA. Segundo o Science and Technology Daily, veículo estatal chinês de tecnologia, a plataforma foi aberta para criadores profissionais e clientes corporativos pelo site do HappyHorse e pela plataforma Alibaba Cloud Bailian; usuários comuns podem experimentar o recurso pelo app Qwen, conhecido na China como Tongyi Qianwen/千问.
A promessa que chama atenção é simples: vídeo com IA mais acessível. A tabela divulgada pela imprensa chinesa informa preço de referência de 0,9 yuan por segundo para vídeos em 720p, mas, com plano profissional e desconto temporário, esse valor cai para 0,44 yuan por segundo. Em conversão aproximada pela cotação de 29 de abril de 2026, isso dá algo perto de US$ 0,064 por segundo ou R$ 0,32 por segundo — ainda não é “de graça”, mas já começa a transformar vídeo generativo em custo operacional de creator, não em orçamento de produtora cinematográfica.
O modelo chega com as funções esperadas de um sistema moderno de vídeo com IA: texto para vídeo, imagem para vídeo, geração a partir de múltiplas imagens de referência e ferramentas de edição para retrabalhar o material gerado. A Alibaba afirma que o HappyHorse suporta narrativas de até 15 segundos com múltiplos planos, adaptação para diferentes proporções de tela e saída com super-resolução em 1080p. A empresa também destaca qualidade de imagem, iluminação, movimentos de câmera, transições, realismo humano e estilos visuais que vão de pintura chinesa a stop motion de argila.
O ponto mais interessante para quem trabalha com clipe, publicidade e audiovisual curto é que o HappyHorse não está sendo vendido apenas como um brinquedo de prompt. A estratégia parece mirar diretamente o pipeline de produção: publicidade, e-commerce, short dramas, conteúdo social e peças audiovisuais de alto giro. Em outras palavras: aquele território onde agências, marcas, creators e produtoras pequenas vivem espremidos entre a vontade de fazer cinema e a planilha dizendo “meu filho, baixa esse orçamento aí”.
Mas o HappyHorse não apareceu do nada. No início de abril, o modelo surgiu de forma anônima no ranking da Artificial Analysis, uma das plataformas de benchmark mais acompanhadas no setor de IA generativa. Sem paper, sem marca oficial e sem muita explicação, ele começou a liderar comparações às cegas em vídeo. Depois, em 10 de abril, a Alibaba confirmou que o HappyHorse havia sido desenvolvido pela unidade de inovação ligada ao Alibaba Token Hub — ATH, novo grupo interno que reúne frentes como Tongyi Lab, Qwen, MaaS, Wukong e outras iniciativas de IA.
Essa entrada “primeiro ranking, depois revelação” tem cara de campanha calculada. Em vez de uma apresentação tradicional, a Alibaba deixou o modelo circular como “cavalo preto” — ou, no jargão inglês, dark horse — e só depois colocou a marca na sela. O resultado foi óbvio: curiosidade, especulação e manchetes. Para um mercado saturado de demos bonitas e promessas grandiloquentes, aparecer vencendo teste às cegas é muito mais eficiente do que soltar vídeo institucional com executivo de blazer falando “nova era da criatividade”.
Nos rankings atuais da Artificial Analysis, o HappyHorse aparece em posição de destaque. A plataforma informa que o modelo lidera a categoria texto para vídeo com áudio, com Elo 1231, e também a categoria texto para vídeo sem áudio, com Elo 1368. A metodologia da Artificial Analysis se baseia em comparações cegas: usuários veem dois vídeos gerados a partir do mesmo prompt e escolhem o melhor, sem saber qual modelo produziu cada resultado.
Mesmo assim, ranking não é produto. E produto não é só vídeo bonito em demo. A imprensa chinesa especializada já aponta que o HappyHorse talvez não seja exatamente o “matador de preços” que alguns esperavam. Segundo análise do TMTPost, o preço do modelo é competitivo, mas não necessariamente destrutivo: em 720p, a vantagem sobre concorrentes como Seedance 2.0 existiria, mas não seria grande o suficiente para implodir a tabela do mercado.
O mesmo texto levanta uma questão mais importante: para clientes comerciais, o problema não é apenas preço. É estabilidade, previsibilidade de entrega, taxa de acerto e consistência visual. Quem já passou horas “puxando carta” em modelo de vídeo sabe: às vezes a IA entrega cinema; às vezes entrega um personagem com mão de siri, física de sonho febril e expressão de quem acabou de ver a fatura do cartão corporativo. Em produção real, cada erro vira custo.
Segundo avaliações citadas pela mídia chinesa, o HappyHorse se destaca visualmente, especialmente em lentes, movimentos de câmera, atmosfera e redução daquele “cheiro de IA” que denuncia muitos vídeos generativos. Mas ainda haveria pontos a melhorar em áudio, naturalidade de fala, física e estabilidade de resultados. Ou seja: é uma máquina promissora, mas ainda não é a câmera definitiva do pós-cinema.
A jogada da Alibaba também precisa ser lida dentro de uma estratégia maior. O HappyHorse não é apenas um modelo para disputar likes em comunidade de IA. Ele é uma peça da tentativa da empresa de transformar modelos generativos em receita de nuvem, API e ecossistema. A plataforma deve se conectar ao Alibaba Cloud Bailian e a outros agentes/plataformas, enquanto a imprensa chinesa informa que APIs estavam previstas para abertura em 30 de abril.
Esse detalhe é crucial. Diferentemente de ferramentas que começam fechadas em aplicativos próprios, o HappyHorse já nasce com vocação de infraestrutura. Se a Alibaba conseguir atrair desenvolvedores, plataformas de vídeo, e-commerces, agências e estúdios de short drama, o modelo deixa de ser “mais uma IA legal” e passa a ser uma camada de produção audiovisual distribuída. É aí que a briga fica séria.
A disputa também revela uma característica cada vez mais clara do mercado chinês de IA: a velocidade com que modelos saem do laboratório e entram no uso comercial. ByteDance, Kuaishou, Alibaba, Tencent e outras gigantes não estão apenas tentando criar “o melhor modelo”. Elas estão tentando prender o criador dentro de ecossistemas completos: app, nuvem, pagamento, API, template, comunidade e distribuição. A IA de vídeo não é só ferramenta criativa. É infraestrutura de plataforma.
Para o mercado global, o HappyHorse reforça uma tendência inevitável: vídeo generativo vai baratear, acelerar e se tornar cotidiano. O que hoje ainda parece truque técnico começa a virar unidade de produção. Uma peça de social media, um anúncio de e-commerce, um clipe curto, uma cena de teste, um storyboard animado ou uma versão alternativa de campanha poderão nascer em minutos, não em semanas.
Para o Brasil, isso tem duas leituras. A primeira é óbvia: mais uma ferramenta poderosa chegando para pressionar custos, prazos e modelos tradicionais de produção. A segunda é mais estratégica: países periféricos criativamente fortes, mas historicamente estrangulados por orçamento, podem ganhar uma janela rara. Se antes a distância entre uma ideia brasileira e uma execução visual de alto nível era medida em dinheiro, diária, equipe, locação, câmera, render e pós-produção, agora parte dessa distância começa a ser medida em prompt, direção criativa e domínio de workflow.
E é aí que o HappyHorse interessa diretamente ao ecossistema da MVAI. Não porque todo modelo novo de vídeo mereça fogos de artifício. Mas porque cada nova plataforma competitiva acelera a mesma transformação: a do audiovisual como linguagem cada vez mais acessível, iterativa e industrializada. O videoclipe, a publicidade, o conteúdo de rede, o curta, o teaser e o experimento visual entram numa fase em que a barreira principal deixa de ser equipamento e passa a ser direção.
O HappyHorse ainda precisa provar consistência, acesso internacional, qualidade em escala e utilidade real fora da bolha chinesa. Mas o recado já foi dado: a corrida do vídeo com IA não será vencida só por quem fizer a demo mais bonita. Será vencida por quem combinar qualidade, preço, velocidade, API, comunidade, ecossistema e uso comercial.
A Alibaba colocou seu cavalo na pista. Agora resta saber se o HappyHorse é só um bom nome de benchmark — ou se vai mesmo galopar por cima da velha indústria audiovisual.
Tecnologia & IA
Google Flow Music tenta enfrentar a Suno, mas chega atrasado à revolução da música com IA
Entre Lyria 3, Veo, Flow, Gemini e uma aposta bilionária na Anthropic, o Google parece finalmente ter entendido que a revolução da música com IA não é um “recurso experimental”. É uma nova indústria. O problema: a Suno entendeu isso antes.
O Google acaba de colocar mais uma peça no seu tabuleiro de inteligência artificial criativa: o chamado Google Flow Music, uma plataforma que promete funcionar como um estúdio all-in-one para criar músicas, remixar faixas, gerar clipes com IA, editar trechos, separar stems, publicar criações e até “vibe-codear” instrumentos, plugins, jogos musicais e DAWs customizadas. No papel, parece o tipo de ferramenta que um império tecnológico com dinheiro infinito deveria lançar. Na prática, o cheiro é outro: o de uma gigante correndo atrás de uma cena que explodiu sem pedir licença — e onde a Suno já virou linguagem, ferramenta, comunidade e cultura.
Segundo a própria página pública do Flow Music, a plataforma permite conversar com um agente chamado Producer, criar canções “full-length” com vocal dinâmico usando Lyria 3, dirigir videoclipes com o modelo Veo, remixar áudio, aplicar efeitos, dividir stems e criar ferramentas musicais dentro de espaços próprios. A proposta é bonita: um estúdio IA de bolso. Só que a execução, pelo menos nesse primeiro impacto, parece aquele velho Google pós-2010: tecnicamente poderoso, conceitualmente atrasado, emocionalmente frio e com cara de produto feito por comitê.
A comparação inevitável é com a Suno, e é aí que a coisa pega fogo.
O Google descobriu a música com IA depois que a pista já estava lotada
A Suno não é apenas uma ferramenta de geração musical. Ela virou, para muita gente, o primeiro contato real com a ideia de que uma pessoa sem banda, sem estúdio, sem produtor e sem gravadora pode criar uma música com letra, voz, melodia, arranjo e estrutura em minutos. A própria Wikipedia define a Suno como uma plataforma de IA generativa voltada à criação musical, capaz de gerar música com vocais e instrumentação a partir de prompts de texto ou áudio. A plataforma está amplamente disponível desde dezembro de 2023 e chegou a ser integrada ao Microsoft Copilot.
Isso é importante porque a Suno não chegou como “feature”. Ela chegou como instrumento cultural.
O Google, por outro lado, vem empilhando nomes: MusicLM, MusicFX, Music AI Sandbox, Lyria, Gemini, Flow, Veo, agora Flow Music. É IA criativa em modo gaveta corporativa. Cada gaveta tem uma plaquinha bonita, uma página institucional elegante, um vídeo de demonstração impecável — e pouca sensação de que há ali uma comunidade musical viva, suando, errando, criando atrocidades maravilhosas às três da manhã.
A Suno tem defeitos? Tem. Tem polêmica jurídica? Tem. Tem som plastificado em várias gerações? Tem também. Mas ela tem uma coisa que o Google raramente consegue fabricar: tesão de uso.
O que é o Flow Music?
O Flow Music aparece como uma plataforma de criação musical com IA que mistura geração de faixas, remixagem, edição, publicação e criação de videoclipes. A página do serviço fala em músicas completas com “musicalidade rica” e vocais dinâmicos, usando o modelo Lyria 3. Também promete usar o Veo para transformar músicas em videoclipes, dando ao usuário controle sobre personagens, estética e detalhes visuais.
Além disso, a documentação pública do Flow Music apresenta o Producer como uma espécie de parceiro de estúdio, um agente com quem o usuário conversa para produzir música.
Reportagens recentes no Brasil também descreveram o Flow Music como uma evolução ou rebatismo de um produto chamado ProducerAI, com funções de geração por prompt, recursos sociais e ferramentas como vibe-code para plugins, jogos musicais e DAWs personalizadas. O Canaltech, por exemplo, descreveu o acesso via navegador, com comando de texto no campo “Ask producer”.
A proposta, portanto, é clara: não é só gerar música. É criar um ambiente completo para composição, edição, remixagem, publicação e audiovisual. Em tese, o Google quer juntar o que hoje está espalhado entre Suno, Udio, DAWs, Runway, Luma, Kling, CapCut, plugins de áudio e plataformas sociais.
Bonito. Ambicioso. Mas também perigosamente “Google demais”.
O problema: o Google ainda parece pensar como engenheiro, não como músico
O Google tem modelos fortíssimos. O Lyria 3, integrado ao Gemini, já permite criar músicas por texto ou imagem. A página oficial do Gemini informa que o Lyria 3 gratuito cria faixas de até 30 segundos, enquanto o Lyria 3 Pro pode gerar músicas de até 3 minutos em planos pagos do Google AI Plus, Pro e Ultra.
Em fevereiro de 2026, o Google anunciou oficialmente que o Gemini passaria a criar músicas com o Lyria 3 em beta, com faixas de 30 segundos, capa gerada por IA e marca d’água SynthID para identificação de áudio criado por IA.
Ou seja: tecnologia existe. Modelo existe. Infraestrutura existe. O problema é outro.
Música não é só fidelidade. Música é acidente, sujeira, decisão errada que vira estética, refrão que gruda, timbre que machuca, grave que entra no peito, vocal imperfeito que parece humano porque quase cai do trilho. A Suno, com todos os seus vícios, entendeu isso melhor que o Google. Ela vende uma sensação: “eu fiz uma música”. O Google vende uma arquitetura.
E arquitetura, meu querido, não dança.
Suno: a máquina que virou brinquedo sério
A Suno vem evoluindo numa velocidade que explica o desespero tardio do Google. Em março de 2026, a empresa lançou a Suno v5.5, com foco em identidade musical, incluindo Voices, Custom Models e My Taste. A própria Suno descreve a v5.5 como seu modelo “mais expressivo”, com recursos para capturar voz, treinar modelos personalizados e adaptar gerações ao gosto do usuário.
A Suno também se vende como um ambiente completo para criação musical. Em material próprio atualizado em 2026, a empresa afirma que permite criar músicas, letras, beats, vocais e edições em um só lugar, além de destacar o Suno Studio como uma DAW nativa de IA, com edição em timeline, camadas, exportação MIDI e geração instantânea de vocais, bateria e sintetizadores.
Isso muda o jogo.
A briga não é mais “quem gera uma música engraçadinha por prompt”. A briga agora é: quem vira o Pro Tools da geração IA? Quem vira o Logic da garotada sintética? Quem vira o Ableton de uma geração que compõe conversando com modelo?
A Suno está tentando ocupar esse lugar por dentro da cultura musical. O Google está tentando ocupar por cima, pela força da infraestrutura.
O Veo é o que salva a operação
Se tem uma parte realmente forte na aposta do Google, ela se chama Veo.
O Flow, lançado pelo Google em maio de 2025, foi apresentado como uma ferramenta de produção cinematográfica com IA construída especialmente para os modelos Veo, Imagen e Gemini. O Google descreveu o Flow como um ambiente para criadores explorarem ideias, criarem cenas e clipes cinematográficos, com o Gemini ajudando na interpretação de prompts e o Veo entregando vídeo com física, realismo e aderência ao comando.
O próprio Google DeepMind afirma que o Veo 3 permite adicionar efeitos sonoros, ruído ambiente e diálogo gerados nativamente, além de entregar qualidade de vídeo com forte aderência ao prompt, realismo e física.
Aqui, sim, o Google tem uma carta pesada.
Para a MVAI, que pensa música, videoclipe e audiovisual como uma mesma cadeia criativa, o Veo é a parte realmente estratégica. Se o Flow Music conseguir costurar música e vídeo de forma orgânica, sem parecer uma gambiarra de produtos colados com fita dupla face, pode virar uma ferramenta relevante para videoclipes IA.
Mas esse é justamente o “se” gigante.
Porque música com IA sem cultura vira jingle de banco. Videoclipe com IA sem direção vira demo de benchmark. E plataforma all-in-one sem comunidade vira cemitério de produto Google.
Alô, Google Stadia. Alô, Google+. Alô, toda a ala de defuntos brilhantes do Google.
O Flow Music quer ser Suno, Runway, Ableton e YouTube ao mesmo tempo
O Flow Music parece nascer com uma ambição quase imperial: ser gerador musical, editor, remixador, rede social, estúdio de vídeo e ambiente de criação de ferramentas. Isso é, ao mesmo tempo, fascinante e suspeito.
Fascinante porque, se funcionar, pode encurtar drasticamente o caminho entre ideia, música, videoclipe e distribuição.
Suspeito porque o Google tem uma longa tradição de lançar produtos com nome bonito, matar produtos com frieza soviética e deixar criadores com cara de trouxa no acostamento.
Artista precisa confiar na ferramenta. Precisa acreditar que o projeto não vai desaparecer porque algum executivo achou que “não bateu OKR”. A Suno, por ser uma empresa nascida dentro do problema musical, parece ter mais clareza de missão. O Google parece ter mais capacidade computacional, mas menos alma.
E na música, alma ainda conta. Mesmo quando é alma sintética.
E os US$ 40 bilhões na Anthropic?
No mesmo tabuleiro, o Google também aparece aprofundando sua aposta na Anthropic. Segundo a Reuters, a Alphabet deve investir até US$ 40 bilhões na empresa criadora do Claude: US$ 10 bilhões em dinheiro agora, avaliando a Anthropic em US$ 350 bilhões, e mais US$ 30 bilhões condicionados a metas de performance.
A notícia é brutal porque mostra uma coisa: mesmo o Google, com DeepMind, Gemini, TPU, YouTube, Android, Search e dinheiro infinito, está comprando posição em concorrente. É o tipo de movimento que grita: “temos tudo, menos tranquilidade”.
E aí fica a pergunta: se o Google precisa colocar dezenas de bilhões na Anthropic para não perder o bonde dos modelos gerais, que confiança o mercado deve ter em mais uma plataforma criativa do Google tentando correr atrás da Suno?
É claro: Anthropic não é “plataforma duvidosa” no sentido técnico. Claude é forte, especialmente em código. A própria Reuters relata que o Claude Code ganhou tração entre desenvolvedores e que a receita anualizada da Anthropic ultrapassou US$ 30 bilhões em abril de 2026.
Mas estrategicamente, para o Google, a cena é esquisita: a empresa que prometia organizar a informação do mundo agora parece tentando organizar o próprio pânico.
Suno também tem telhado de vidro — mas está no lugar certo da revolução
Ser Team Suno não significa fingir que a Suno é santa. A plataforma foi processada por grandes gravadoras, junto com a Udio, em ações que acusam as empresas de uso indevido de gravações protegidas por copyright no treinamento de modelos. A Reuters noticiou em 2024 que as gravadoras pediam indenização de até US$ 150 mil por música supostamente copiada.
Também houve mudanças importantes no front jurídico: a Warner, uma das gravadoras que processava a Suno, fechou acordo de licenciamento com a empresa em 2025, encerrando sua parte no litígio e abrindo caminho para modelos mais licenciados. Segundo a Pitchfork, a parceria inclui compensação para artistas e compositores que optarem por acordos de IA, além da aquisição da Songkick pela Suno.
Ou seja, a Suno está no meio da guerra real: direito autoral, indústria fonográfica, criadores, modelos licenciados, comunidade, profissionalização. É um campo minado, mas é o campo minado certo.
O Google, por enquanto, parece mais preocupado em criar uma suíte elegante.
A Suno está brigando pela linguagem da música com IA. O Google está brigando pela dashboard.
A tese MVAI: ferramenta musical precisa nascer da música, não do PowerPoint
Para quem cria dentro da nova economia da IA audiovisual, o Flow Music é um sinal importante, mas não necessariamente uma ameaça imediata. Ele confirma a tese central da MVAI: música, vídeo, IA e distribuição vão virar uma cadeia única.
O que antes exigia compositor, banda, estúdio, produtor, câmera, locação, equipe de arte, editor, colorista e verba de gravadora agora começa a caber numa pilha de modelos generativos. Isso não elimina direção criativa — pelo contrário, torna direção criativa ainda mais importante.
Só que existe uma diferença entre plataforma e cultura.
A Suno já é usada como instrumento de composição popular. Já virou meme, laboratório, brinquedo, demo, ferramenta de artista independente, máquina de refrão, arma de provocação estética. O Google Flow Music chega com pinta de canivete suíço corporativo: cheio de lâminas, mas ainda sem sangue na ponta.
E música, desculpa, precisa sangrar um pouco.
Veredito: Flow Music pode ser útil, mas Suno ainda é a rua
O Google Flow Music merece atenção. Principalmente por causa da integração com Lyria 3 e Veo. Se o Google conseguir unir música e videoclipe com fluidez real, pode entregar uma ferramenta poderosa para criadores audiovisuais, publicitários, artistas independentes e produtoras IA.
Mas como concorrente direto da Suno, a largada é fraca.
Não porque o Google não tenha tecnologia. Tem até demais. O problema é que o Google parece continuar confundindo criatividade com capacidade computacional. Música não é só gerar áudio. É construir identidade, repertório, catarse, comunidade, vício de uso e desejo de voltar amanhã para fazer outra faixa.
A Suno, mesmo imperfeita, já entendeu isso.
O Google chegou com terno caro, modelo avançado e infraestrutura colossal. A Suno chegou com um refrão.
E na história da música popular, meu querido, quem tem o refrão geralmente vence.
-
Tecnologia & IA1 semana atrásIA em 2026: os gráficos que revelam o verdadeiro estado da revolução tecnológica
-
Tecnologia & IA1 semana atrásAnthropic aposta em IA mais precisa e poderosa com Opus 4.7
-
Cinema1 semana atrás“Bitcoin: Killing Satoshi” pode inaugurar nova era do cinema por inteligência artificial
-
Cinema6 dias atrásHiggsfield quer transformar influenciadores em estrelas de séries feitas por IA
-
Videoclipe5 dias atrásK-pop encontra cinema de IA: XODIAC leva videoclipe “Alibi” para festival em Cannes
-
Cinema3 dias atrásWAIFF x Cannes: tradição e inteligência artificial duelam no coração do cinema mundial
-
Tecnologia & IA5 dias atrásAI Index 2026: as 12 conclusões que revelam o tamanho real da revolução da IA
-
Cinema6 dias atrásRunway AI Festival 2026 abre espaço para moda, design, games e publicidade