Tecnologia & IA
Maestro, da Beatoven.ai: IA musical com pagamento de royalties e dataset 100% licenciado
A startup indiana propõe um sistema que promete resolver um dos pontos mais sensíveis da IA musical: como treinar modelos sem violar direitos e ainda remunerar artistas.
A Beatoven.ai, startup indiana especializada em IA musical, lançou o Maestro (em agosto de 2025) “novidade” que começa a ganhar atenção no debate brasileiro sobre modelos generativos e direitos autorais.
A empresa afirma ter construído o primeiro modelo base treinado integralmente com datasets licenciados e estruturado para pagar royalties recorrentes a artistas cujas obras contribuírem para cada geração.
A Beatoven.ai explica que essa abordagem é resultado de um processo iniciado em 2021, quando desenvolveu um sistema baseado em regras e treinado com um conjunto menor de músicas autorizadas. A tecnologia tinha limitações, mas serviu como prova de conceito para um modelo de grande porte construído sem coleta indiscriminada de catálogos.
O que é o Maestro Beatoven
O Maestro é um gerador de música instrumental e efeitos sonoros controlado por texto. O modelo produz faixas com taxa de amostragem de 44.1 kHz, permite determinar instrumentação, andamento, tonalidade e gênero, e pode gerar peças com duração solicitada de até 2min30.
Segundo a empresa, os dados de treinamento vêm inteiramente de parcerias formais com Rightsify, Soundtrack Loops, Symphonic Distribution, Bobby Cole, Vadi Sound e Pro Sound Effects. A Musical AI é a responsável pela rastreabilidade e pela administração das licenças, apontando quais obras influenciam cada saída para viabilizar o pagamento proporcional de royalties.
Entre as capacidades divulgadas estão:
– geração rápida e estável;
– suporte a múltiplos gêneros (jazz, rock, latina, ambient, cinematográfica, house, techno etc.);
– controle criativo detalhado por comando de texto;
– faixas liberadas para uso comercial;
– mecanismo interno de rastreamento e compartilhamento de receita.
A promessa de um “modelo justo”
Em comunicado à imprensa, a Musical AI afirmou:
“Estamos mostrando como um acordo justo de IA deve funcionar: atribuição, respeito aos direitos e pagamentos contínuos sempre que uma obra humana contribuir para um resultado.”
A fala ganha relevância neste momento, já que o setor musical enfrenta pressões jurídicas crescentes e questionamentos sobre datasets usados por ferramentas concorrentes.
Criar sem copiar
O CEO da Beatoven.ai, Mansoor Rahimat Khan, defende que o Maestro não busca apenas reproduzir padrões humanos, mas ampliar o campo criativo:
“A maioria das ferramentas tenta copiar os humanos. A IA deveria criar sons que nunca ouvimos antes. As ‘alucinações’ dos modelos não são falhas, mas características.”
A visão se alinha ao aumento global do debate sobre criatividade generativa e originalidade de modelos musicais.
Para quem o Maestro importa agora
Para podcasters, cineastas independentes, desenvolvedores de jogos e criadores que precisam de trilhas livres para uso comercial, o Maestro tenta resolver três problemas recorrentes:
– licenciamento complexo;
– risco jurídico ao usar bibliotecas de procedência incerta;
– dificuldade em encontrar trilhas realmente sob medida.
Ao gerar faixas com uso comercial liberado e compensação rastreável aos artistas, o modelo tenta se posicionar como uma alternativa mais segura — e agora, três meses depois do lançamento, encontra um cenário brasileiro mais atento às discussões sobre ética de treinamento e direitos autorais na IA.
📖 Glossário rápido (para entender o básico) 📖
Dataset
Conjunto de dados usado para treinar uma IA. Pode incluir músicas, imagens, textos, vídeos ou qualquer conteúdo necessário para ensinar o modelo.
Treinamento
Etapa em que a IA “aprende” analisando milhares (ou milhões) de exemplos presentes no dataset para identificar padrões e gerar novos resultados.
Scraping
Coleta automática de conteúdo da internet por robôs. Muitas empresas usam scraping para pegar músicas, textos ou imagens sem pedir autorização — o que gera debates sobre direitos autorais.
Modelo de IA (ou modelo base)
A “máquina” que aprende com os dados. Depois de treinado, é o modelo que cria músicas, textos, imagens ou sons a partir de comandos.
Rastreabilidade
Capacidade de identificar quais obras foram usadas no treinamento e quais influenciaram cada resultado gerado pela IA.
Royalties
Pagamentos feitos aos artistas ou detentores de direitos quando suas obras são usadas ou contribuem para uma nova criação.
Tecnologia & IA
Kling 3.0 promete vídeo em 4K nativo e transforma o criador em diretor de IA
A corrida dos vídeos gerados por inteligência artificial acaba de ganhar mais um capítulo importante. Segundo a Blockchain.News, a Krea passou a oferecer o Kling 3.0 com geração de vídeo em 4K nativo, sem depender de upscaling posterior, ampliando o potencial da ferramenta para publicidade, demonstrações de produto, pré-visualização de efeitos visuais e produção audiovisual de alta resolução.
O anúncio é relevante porque desloca a disputa entre modelos de vídeo por IA para um novo patamar: não basta mais gerar clipes “bonitos” ou virais para redes sociais. O mercado começa a cobrar resolução, consistência, controle de câmera, som, continuidade narrativa e qualidade comercial. É exatamente aí que o Kling 3.0 tenta se posicionar.
Desenvolvido pela chinesa Kuaishou, o Kling 3.0 foi apresentado oficialmente em fevereiro de 2026 como uma nova família de modelos, incluindo Video 3.0, Video 3.0 Omni, Image 3.0 e Image 3.0 Omni. A empresa afirma que a nova geração traz melhorias em consistência visual, fotorrealismo, geração de vídeo de até 15 segundos, áudio nativo em múltiplos idiomas, entrada multimodal e maior controle narrativo.
No Krea, o Kling 3.0 aparece como um modelo de fronteira voltado à criação profissional, com suporte a áudio nativo, duração estendida de até 15 segundos, geração a partir de prompts, uso de referências visuais e iteração rápida para equipes de produção. A própria plataforma destaca aplicações em storyboards, anúncios, conteúdo social e protótipos de vídeo.
Por que o 4K importa
A promessa de vídeo em 4K nativo é mais do que uma ficha técnica bonita. Para o mercado audiovisual, resolução maior significa mais margem para edição, recorte, pós-produção, exibição em telas grandes e entrega para marcas que exigem qualidade próxima ao padrão publicitário.
Até aqui, boa parte dos vídeos feitos por IA ainda carregava uma estética de “rascunho sofisticado”: boa para redes sociais, testes de conceito e experimentos criativos, mas nem sempre confiável para campanhas premium. Se o Kling 3.0 realmente entrega 4K nativo dentro do Krea, a ferramenta começa a mirar um território mais nobre: conteúdo finalizável, não apenas prévia ou referência visual.
Para produtoras, agências e criadores independentes, isso pode reduzir etapas caras do processo: filmagem, equipe técnica, locação, iluminação, motion graphics e parte da pós-produção. Mas também cria uma nova exigência: saber dirigir IA. O diferencial deixa de ser apenas apertar “generate” e passa a ser construir prompts, referências, linguagem de câmera e fluxo de produção.
O “diretor de IA” deixa de ser metáfora
A Kuaishou vende o Kling 3.0 como parte de uma virada em que “qualquer pessoa pode ser diretora”. O slogan é exagerado, claro, mas aponta para algo real: os modelos estão deixando de ser simples geradores de clipes isolados e começando a entender lógica de cena, continuidade, voz, movimento e encadeamento de planos.
Entre os recursos destacados pela empresa estão áudio nativo em inglês, chinês, japonês, coreano, espanhol, sotaques e dialetos; diálogos com múltiplos personagens; geração de até 15 segundos; storytelling multi-shot; maior preservação de textos e logos em cena; e saída fotorrealista com personagens mais expressivos.
Esse conjunto é especialmente importante para publicidade e videoclipes. Em vez de gerar uma imagem animada sem controle, o criador começa a pedir cenas com linguagem audiovisual: plano e contraplano, movimento de câmera, fala, marca visível, personagem consistente e transição narrativa.
Impacto para música, publicidade e videoclipes
Para o universo que interessa diretamente ao Portal MVAI, o avanço é evidente: modelos como Kling 3.0 aproximam o videoclipe de IA de uma lógica industrial. Não estamos falando apenas de vídeos experimentais, mas de um pipeline em que artistas, marcas e produtoras podem testar dezenas de versões de uma ideia antes de decidir qual caminho seguir.
No caso da música, isso pode acelerar a criação de visualizers, lyric videos, teasers, campanhas para TikTok, clipes curtos e até protótipos de videoclipes completos. Para marcas, o ganho está na possibilidade de criar campanhas visuais mais personalizadas, com múltiplas versões por público, produto ou território.
A Krea também destaca que os vídeos gerados em planos pagos podem ser usados comercialmente, o que torna o Kling 3.0 mais interessante para equipes que trabalham com campanhas, produtos e entregas para clientes.
A disputa fica mais pesada
O Kling 3.0 entra em um mercado cada vez mais competitivo, ao lado de modelos como Runway, Veo, Sora, Seedance, Hailuo e Pika. A diferença agora está menos na pergunta “qual modelo gera o vídeo mais bonito?” e mais em “qual modelo entrega fluxo de produção confiável?”.
A resposta envolve resolução, custo por geração, estabilidade de personagens, controle de prompt, qualidade do áudio, direitos de uso, velocidade, taxa de erro e integração com plataformas criativas. A presença do Kling 3.0 dentro do Krea importa porque coloca o modelo em um ambiente já voltado a designers, artistas, agências e criadores que precisam iterar rapidamente.
O alerta: nem tudo está totalmente claro
Apesar do entusiasmo, há uma observação importante: a reivindicação específica de vídeo 4K nativo no Krea aparece na matéria da Blockchain.News baseada em publicação da Krea no X. A página pública do Krea consultada confirma Kling 3.0, áudio nativo, até 15 segundos, referências e uso comercial, mas não detalha o 4K no corpo da página. Já o comunicado oficial da Kuaishou confirma 4K para a linha Image 3.0/Image 3.0 Omni e não explicita, no trecho público, vídeo 4K nativo como especificação principal do Video 3.0.
Ou seja: a notícia é forte, mas convém tratar o 4K nativo como uma promessa anunciada pela Krea, enquanto as capacidades oficialmente documentadas do Kling 3.0 incluem áudio nativo, multimodalidade, consistência, storytelling multi-shot e vídeos de até 15 segundos.
O que isso significa para a indústria criativa
O lançamento reforça uma tendência central de 2026: a IA de vídeo está deixando de ser brinquedo de laboratório e virando infraestrutura de produção. O impacto não será apenas técnico. Será econômico.
Agências pequenas poderão entregar peças com estética premium. Artistas independentes poderão produzir clipes sem orçamento de gravadora. Produtoras poderão testar cenas antes de filmar. Marcas poderão multiplicar variações de campanhas com mais velocidade. E, no meio desse terremoto, surge uma nova função profissional: o criador capaz de unir direção audiovisual, prompt, montagem, estética, branding e curadoria de modelos.
O Kling 3.0 no Krea é mais uma prova de que a nova disputa do audiovisual não será entre humanos e máquinas. Será entre quem sabe dirigir máquinas criativas e quem ainda acha que vídeo de IA é só apertar um botão.
Fonte: Blockchain News
Tecnologia & IA
Google pode despejar US$ 40 bilhões na Anthropic enquanto DeepSeek V4 desafia os modelos fechados
A corrida da inteligência artificial entrou em mais uma fase de concentração brutal de capital, chips e poder tecnológico. Um boletim publicado pela comunidade chinesa OpenAtom em 26 de abril reuniu os principais sinais do momento: Google ampliando sua aposta na Anthropic, Nvidia voltando ao patamar de US$ 5 trilhões em valor de mercado, DeepSeek V4 movimentando o ecossistema open source e empresas tradicionais acelerando a adoção de IA em software, varejo, robótica e edge computing.
O ponto mais explosivo é a possível nova rodada de investimento da Alphabet/Google na Anthropic. Segundo a Reuters, a empresa planeja investir até US$ 40 bilhões na criadora do Claude, começando com US$ 10 bilhões e podendo adicionar mais US$ 30 bilhões conforme metas de desempenho forem atingidas. A Reuters também informa que esse movimento avaliaria a Anthropic em cerca de US$ 350 bilhões, consolidando a startup como uma das peças centrais da disputa entre Big Techs, nuvem e modelos de fronteira.
Na prática, isso mostra que o jogo da IA deixou de ser apenas “quem tem o melhor chatbot”. Agora, a disputa é por uma cadeia completa: capital, data centers, chips, nuvem, clientes corporativos, ferramentas de programação e ecossistemas de agentes. A AP informou, dias antes, que a Anthropic também firmou um compromisso de mais de US$ 100 bilhões em serviços de nuvem com a AWS ao longo de dez anos, reforçando a dependência crescente entre modelos avançados e infraestrutura computacional de escala planetária.
Enquanto isso, a Nvidia segue como a grande vendedora de pás e picaretas da corrida do ouro da IA. Segundo o Times of India, a empresa voltou a superar a marca de US$ 5 trilhões em valor de mercado, impulsionada pela demanda por chips de IA, pela compra contínua de GPUs por hyperscalers e pela expectativa de que a infraestrutura de IA continue sendo o eixo mais valioso do ciclo tecnológico atual.
Esse dado é fundamental para entender o custo real da inteligência artificial. A IA generativa parece “software”, mas sua base econômica é profundamente material: energia, data centers, GPUs, interconexão, refrigeração e contratos bilionários de nuvem. Para startups, produtoras, agências e empresas criativas, isso significa que a queda de custo dos modelos convive com uma pressão crescente sobre infraestrutura — e quem controlar a computação controla boa parte do futuro.
Do lado chinês, o destaque é o DeepSeek V4 Preview. A documentação oficial da DeepSeek anuncia uma versão open source com contexto de até 1 milhão de tokens, em duas variantes principais: DeepSeek-V4-Pro, com 1,6 trilhão de parâmetros totais e 49 bilhões ativos, e DeepSeek-V4-Flash, com 284 bilhões de parâmetros totais e 13 bilhões ativos.
A importância do DeepSeek V4 não está apenas no desempenho técnico. O modelo aparece num momento em que a China tenta reduzir dependência tecnológica dos EUA, inclusive com adaptações para hardware nacional. The Verge destacou que o novo modelo foi apresentado como competidor de sistemas fechados de empresas americanas e que sua compatibilidade com tecnologia da Huawei reforça a dimensão geopolítica da disputa.
Para o ecossistema criativo, a mensagem é clara: a IA está deixando de ser um produto isolado e virando uma camada permanente da economia. No varejo, a Lowe’s está expandindo uma parceria com a RELEX para usar IA em planejamento, reposição e gestão de estoque, com foco em melhorar disponibilidade e eficiência operacional. No edge AI, a Qualcomm aparece apoiando mais de 60 startups em áreas como robótica, saúde, indústria e automação, segundo levantamento citado pelo Yahoo Finance.
O boletim da OpenAtom também chama atenção para uma mudança importante no mercado de software: a ascensão dos agentes de IA. A tese é que ferramentas corporativas tradicionais podem ser reconfiguradas por agentes capazes de executar tarefas, escrever código, operar fluxos de trabalho e interagir com sistemas internos. A Reuters informou nesta semana que a OpenAI está recorrendo a grandes consultorias globais para acelerar o uso corporativo do Codex, seu sistema voltado ao desenvolvimento de software.
Essa transição afeta diretamente o mercado audiovisual, musical e publicitário. Se os agentes passarem a operar partes inteiras da produção — roteiro, storyboard, edição, versionamento, motion, distribuição e análise de performance — o gargalo deixa de ser apenas ferramenta. O novo gargalo passa a ser direção criativa, propriedade intelectual, curadoria estética, acesso a modelos, custo computacional e capacidade de montar pipelines.
Para o Portal MVAI, a leitura é inevitável: estamos vendo a formação de uma nova indústria cultural automatizada, sustentada por três pilares. O primeiro é a infraestrutura, dominada por Nvidia, nuvens e data centers. O segundo é o modelo, disputado por OpenAI, Anthropic, Google, DeepSeek e outros laboratórios. O terceiro é a aplicação criativa, onde música, cinema, publicidade, games, creators e videoclipes começam a ser reconfigurados.
A disputa global da IA não é apenas uma corrida por respostas melhores em um chat. É uma corrida para definir quem será dono da máquina cultural, computacional e econômica dos próximos anos.
Fonte: OpenAtom
Tecnologia & IA
DeepSeek V4 mostra que a corrida da IA agora é também uma corrida por soberania tecnológica
A corrida global da inteligência artificial entrou em mais uma semana de aceleração brutal. Poucas horas depois da OpenAI apresentar o GPT-5.5, a chinesa DeepSeek anunciou o DeepSeek V4, uma nova geração de modelo de base com versões Pro e Flash, pesos abertos e foco em contexto longo, agentes inteligentes e redução de custos computacionais. Segundo a Caixin, o lançamento ocorreu em 24 de abril e marca uma nova ofensiva chinesa no campo dos modelos de IA de fronteira.
O ponto mais simbólico do anúncio é que o DeepSeek V4 chega como um modelo open weight — isto é, com pesos abertos — em um momento em que boa parte da IA de ponta continua concentrada em empresas americanas de modelos fechados. A versão DeepSeek V4 Pro teria 1,6 trilhão de parâmetros totais e 49 bilhões de parâmetros ativados, enquanto a versão Flash teria 284 bilhões de parâmetros totais e 13 bilhões ativados. Ambas trabalham com uma janela de contexto de até 1 milhão de tokens, o que amplia a capacidade de lidar com documentos longos, bases de código, fluxos complexos de trabalho e aplicações agentivas.
Mais do que uma atualização técnica, o V4 mostra uma mudança estratégica. Segundo a Reuters, o novo modelo da DeepSeek foi adaptado para rodar em chips Huawei Ascend, reforçando a tentativa chinesa de reduzir a dependência de GPUs da Nvidia e de tecnologias sujeitas às restrições de exportação dos Estados Unidos. A Huawei também teria confirmado suporte ao V4 em clusters baseados na linha Ascend 950, um movimento que liga diretamente a evolução dos modelos chineses à disputa por soberania computacional.
A disputa ficou ainda mais quente porque o DeepSeek-V4 chegou praticamente colado ao lançamento do GPT-5.5, apresentado pela OpenAI como seu modelo mais avançado até agora. A OpenAI afirma que o GPT-5.5 melhora desempenho em programação, tarefas profissionais, uso de ferramentas, pesquisa online, raciocínio e segurança, com disponibilidade inicial para planos pagos do ChatGPT e integrações com Codex.
Na prática, a semana mostrou duas filosofias competindo em velocidade máxima. De um lado, empresas como OpenAI continuam apostando em modelos fechados, forte integração com produtos e infraestrutura premium. Do outro, DeepSeek tenta ocupar o espaço simbólico e técnico dos modelos abertos de alta performance, oferecendo à comunidade e às empresas uma alternativa mais flexível — especialmente atraente para desenvolvedores, startups e países que buscam autonomia tecnológica.
Tencent e Xiaomi também entram no jogo
A ofensiva chinesa não veio só da DeepSeek. A Tencent também apresentou uma atualização importante do seu modelo Hunyuan, com o Hy3 preview, considerado o primeiro grande lançamento desde a chegada de Yao Shunyu, ex-pesquisador da OpenAI, para liderar os esforços de modelos fundacionais da companhia. Segundo o South China Morning Post, a Tencent descreve o Hy3 como seu modelo mais poderoso até agora, com avanços em raciocínio complexo e programação.
A Xiaomi, por sua vez, vem ampliando a família MiMo, com modelos voltados a capacidades multimodais e agentivas. Reportagens recentes apontam que a empresa lançou ou vem preparando versões como MiMo-V2.5 e MiMo-V2.5-Pro, combinando texto, imagem, áudio e vídeo em um mesmo sistema, com foco em eficiência, codificação e automação de tarefas.
Esse movimento é importante porque mostra que a IA chinesa não está mais concentrada apenas em chatbots ou modelos de texto. As empresas estão mirando diretamente em agentes, programação, automação empresarial, multimodalidade e infraestrutura própria. Ou seja: a disputa deixou de ser apenas “quem responde melhor a uma pergunta” e passou a ser “quem constrói o sistema operacional da próxima economia digital”.
A camada invisível: falta de computação
Por trás da corrida dos modelos existe um gargalo cada vez mais evidente: computação. A Caixin destaca que fabricantes de modelos enfrentam uma espécie de “escassez de poder computacional”, enquanto a Reuters aponta que a adaptação do DeepSeek aos chips da Huawei faz parte da tentativa chinesa de contornar limitações impostas pelo acesso restrito a hardware americano de ponta.
É aqui que a guerra da IA encontra a geopolítica. Modelos melhores exigem mais dados, mais energia, mais datacenters e chips mais poderosos. A disputa entre Estados Unidos e China, portanto, não é só uma corrida de software. É também uma corrida de semicondutores, nuvem, energia, infraestrutura e talento científico.
O que isso significa para a economia criativa
Para o mercado audiovisual, musical e de conteúdo, essa semana tem um recado claro: a IA está ficando mais barata, mais longa, mais agentiva e mais integrada aos fluxos de produção. Modelos com contexto de 1 milhão de tokens podem analisar roteiros extensos, organizar bibliotecas de cenas, operar bases de conhecimento, auxiliar na edição e coordenar pipelines complexos de produção.
Já os modelos agentivos, como os que estão sendo explorados por OpenAI, DeepSeek, Tencent e Xiaomi, apontam para um futuro em que a IA deixa de ser apenas uma ferramenta de geração e passa a atuar como assistente de produção, programador, editor, pesquisador, roteirista técnico e até coordenador de tarefas.
Para empresas como a MVAI, esse cenário é especialmente relevante. O avanço simultâneo de modelos fechados premium e modelos abertos mais baratos cria um ambiente ideal para montar pipelines híbridos: usar modelos abertos para volume, automação e customização; e modelos fechados para tarefas de maior precisão, raciocínio avançado ou acabamento premium.
A nova fase da corrida
O lançamento do DeepSeek-V4 reforça uma tendência que já vinha se desenhando desde 2025: a IA de ponta está se dividindo entre plataformas fechadas superintegradas e modelos abertos cada vez mais competitivos. A novidade é que agora essa disputa também se apoia em hardware nacional, cadeias de suprimento próprias e estratégias de soberania tecnológica.
A OpenAI tenta consolidar o GPT-5.5 como referência global em produtividade, programação e uso de ferramentas. A DeepSeek tenta provar que modelos abertos podem competir em escala de fronteira. A Tencent quer transformar o Hunyuan em infraestrutura empresarial e agentiva. A Xiaomi começa a conectar IA multimodal ao seu ecossistema de dispositivos, APIs e automação.
A conclusão é simples: a corrida da inteligência artificial não desacelerou. Ela mudou de marcha.
E, daqui para frente, cada novo modelo não será apenas uma atualização técnica. Será um movimento no tabuleiro global da tecnologia, da economia criativa e da soberania digital.
Fonte: Caixin
-
Tecnologia & IA1 semana atrásIA em 2026: os gráficos que revelam o verdadeiro estado da revolução tecnológica
-
Tecnologia & IA1 semana atrásAnthropic aposta em IA mais precisa e poderosa com Opus 4.7
-
Cinema1 semana atrás“Bitcoin: Killing Satoshi” pode inaugurar nova era do cinema por inteligência artificial
-
Cinema4 dias atrásHiggsfield quer transformar influenciadores em estrelas de séries feitas por IA
-
Videoclipe3 dias atrásK-pop encontra cinema de IA: XODIAC leva videoclipe “Alibi” para festival em Cannes
-
Tecnologia & IA3 dias atrásAI Index 2026: as 12 conclusões que revelam o tamanho real da revolução da IA
-
Cinema1 dia atrásWAIFF x Cannes: tradição e inteligência artificial duelam no coração do cinema mundial
-
Cinema4 dias atrásRunway AI Festival 2026 abre espaço para moda, design, games e publicidade