Música
Scorpio Era e a nova fronteira criativa da música com inteligência artificial
Em 2026, a música pop brasileira se encontra em uma encruzilhada criativa: onde a máquina não é mais apenas ferramenta, mas parte da própria linguagem sonora. Esse cenário ganha um marco simbólico com Scorpio Era, o primeiro álbum brasileiro concebido com o apoio sistemático de inteligência artificial — sem, no entanto, renegar a autoria humana.
Lançado em 1º de janeiro com 13 faixas construídas ao longo de 14 meses, Scorpio Era é projeto do músico e produtor Bruno Mendonça de Menezes, carioca de Petrópolis e CEO da Mendonça X, casa de produção que transita entre música, audiovisual e estratégias digitais.
Mais do que curiosidade tecnológica, o álbum propõe uma reflexão sobre como algoritmos, modelos generativos e fluxos automatizados podem dialogar com as pulsões mais íntimas da criação humana. As letras, narrativas e conceitos partem de relatos de vida — identidade, transformação, superação — e só depois recebem a intervenção algorítmica para refinamento estrutural e exploração sonora. “A IA foi utilizada como instrumento de apoio ao processo criativo, não como fonte de autoria”, afirma Menezes.
Um dos traços mais instigantes de Scorpio Era é a figura de Mënez, um intérprete digital gerado a partir de um clone virtual do próprio autor. Longe de substituir o artista, essa persona funciona como extensão narrativa e estética, projetando a presença criativa para além do físico — um gesto que retoma debates globais sobre identidade, performance e autoria na era digital.
Sonoramente, o álbum navega por marés pop latino contemporâneo, misturando funk, elementos gypsy e bases eletrônicas. No terreno audiovisual, os clipes de “Vira Página” e “I’m Scorpio” — ambos concebidos com o auxílio de IA sob direção humana — somam mais de 2 milhões de visualizações nas redes sociais, provando que a experimentação pode encontrar público mesmo fora das bolhas tecnológicas.
O uso de inteligência artificial na criação musical já não é um aviso distante: no mercado internacional, projetos como Breaking Rust e artistas virtuais como Xania Monet ganharam espaço nas paradas e contratos significativos, indicando que a tecnologia não é apenas repertório experimental, mas força ativa no pop global.
Para Menezes, Scorpio Era não é um ponto final, mas um começo. A proposta inclui ampliar o universo narrativo do álbum para um espetáculo teatral multimídia e aprofundar o uso de clones autorais e ferramentas híbridas que combinam algoritmos e direção artística humana.
Seja vista como tendência ou provocação estética, a incursão de IA na música questiona fronteiras e abre uma pergunta que já reverbera no meio artístico: até que ponto a tecnologia expande — ou redefine — a própria noção de expressão criativa?
Música
Com inteligência artificial, novo clipe de Gabriel o Pensador vira tributo pop-cultural
O rapper carioca Gabriel o Pensador mergulha no universo da inteligência artificial para revisitar ícones da música em seu mais recente videoclipe, ligado ao single Festa da Música Tupiniquim. A produção multimídia, concebida pela agência especializada Seven Content, mistura referências visuais e digitais para colocar artistas de diferentes gerações — inclusive figuras que já faleceram — no mesmo espaço narrativo virtual.
Ao longo das cenas geradas digitalmente, surgem representações visuais de nomes como Gal Costa, Rita Lee, Erasmo Carlos — muitas vezes ao lado de Robertos Carlos — e até versões estilizadas de Michael Jackson cantando em um pequeno palco. A narrativa visual flerta com a nostalgia, ao mesmo tempo em que provoca reflexões sobre memória e legado na cultura popular.
Artistas vivos também aparecem, como Gilberto Gil, flagrado numa cena em que é interceptado por um segurança, e Alceu Valença, em gestos expansivos para a câmera. A escolha de figuras tão distintas reforça a ideia de que Festa da Música Tupiniquim é uma celebração plural dos som que atravessaram décadas no Brasil — e fora dele.
No Instagram, Gabriel descreveu o videoclipe como “uma viagem em que homenageio parte dos artistas que admiro, incluindo alguns que tornaram-se meus parceiros e amigos”. O rapper sublinhou que a peça deve ser encarada “como brincadeira, sem a intenção de parecer real”, reforçando seu uso da tecnologia como linguagem artística, não como substituto da presença humana.
A recepção do público tem sido majoritariamente entusiasmada. Nas redes sociais, o videoclipe foi celebrado como uma homenagem criativa e afetuosa à memória da música brasileira, com muitos fãs destacando o impacto emocional de ver artistas de diferentes gerações reunidos em uma mesma narrativa audiovisual. A proposta estética e o uso da inteligência artificial como ferramenta de linguagem — e não de substituição — também foram amplamente elogiados. O engajamento se reflete nos números: o vídeo já ultrapassou a marca de 4,5 milhões de visualizações, consolidando-se como um dos lançamentos mais comentados de Gabriel o Pensador nos últimos anos.
O single Festa da Música Tupiniquim já faz parte do repertório histórico de Gabriel — originalmente um hit de seu álbum Quebra-Cabeça (1997) que cita e presta tributo a uma enorme galeria de nomes da música brasileira e internacional, incluindo o “Rei do Pop” Michael Jackson.
Fonte: Diário de Cuiabá
Música
Will.i.am compara IA a revolução do sampling e chama desenvolvedores de artistas
Em conversa recente com a CNBC, will.i.am, veterano produtor, compositor e líder do Black Eyed Peas, mergulhou no debate mais quente da indústria musical: o uso de inteligência artificial na criação de música. Para o artista, que tem uma carreira construída sobre o uso criativo de sampling, comparar a tecnologia generativa a uma ameaça teria pouco sentido — afinal, segundo ele, “não dá pra ser tão crítico com IA porque eu tenho uma carreira inteira baseada em sampling”.
Na visão de will.i.am, o artefato tecnológico que hoje causa tanto furor na música é apenas mais um capítulo na longa história da inovação sonora — do vinil ao sampler, do sintetizador aos computadores. Ele traça um paralelo histórico entre a resistência inicial ao sampling no hip-hop e as atuais preocupações com modelos de IA que treinam em bibliotecas gigantes de músicas humanas. “Imaginem 1970, falando de jazz… um músico poderia perguntar: ‘sampling é música?’” — e o que era dúvida virou um dos pilares da cultura hip-hop mundial.
O produtor não hesitou em defender também os criadores da tecnologia em si: programadores e engenheiros que escrevem os algoritmos, na avaliação dele, merecem reconhecimento artístico e remuneração justa. Isso porque, embora muitos modelos de IA aprendam com o acervo musical humano, há um esforço criativo e técnico próprio na construção das ferramentas.
E mais: will.i.am lançou um olhar prospectivo sobre o futuro da IA na música. Segundo ele, estamos longe de ver o ápice dessa tecnologia — e por isso o setor precisa se preparar para ferramentas que criem música de forma cada vez mais autônoma e sofisticada. Para o artista, a próxima geração de inteligência artificial não será simplesmente um reprodutor de estilos do passado, mas uma força criativa própria, capaz de ampliar as fronteiras do que consideramos música.
Essa perspectiva coloca o diálogo sobre IA no centro não só das discussões técnicas e legais, mas também da estética e identidade musical na era digital — onde as linhas entre autor, ferramenta e produção cada vez mais se fundem.
Fonte: Vice
A foto em destaque é de RogDel / Wikimedia Commons
Música
AI e Arte em Xeque: o Caso “I Run”, o Hit que Virou Drama na Era Digital
No final de outubro de 2025, a cena eletrônica global foi pega de surpresa por um fenômeno que misturou virilidade TikTok, música de pista e um debate ético que virou manchete: o single I Run, do duo britânico Haven (composto por Harrison Walker e Jacob Donaghue), explodiu nas redes sociais antes de ser abruptamente retirado das principais plataformas de streaming.
O que parecia ser mais um viral dance track — com pulsos de EDM e pitadas de UK garage — transformou-se num dos episódios mais emblemáticos da música em 2025: um duelo entre criatividade assistida por inteligência artificial e os limites legais e culturais dessa tecnologia.
📈 De “bop” viral a polêmica global
I Run foi lançado oficialmente em 29 de outubro e rapidamente ganhou tração no TikTok, somando milhões de interações em poucos dias. A curiosidade dos fãs logo foi além da batida: muitos começaram a especular sobre a identidade da voz sem créditos no registro.
Alguns internautas chegaram a apostar que a voz lembrava a da estrela britânica Jorja Smith — suposição que ela mesma desmentiu em um vídeo no TikTok, afirmando que não era ela.
Mas os rumores não pararam por aí.
🔍 O que realmente aconteceu
Segundo investigações e declarações à imprensa especializada, Haven admitiu que usou ferramentas de inteligência artificial — especificamente a plataforma Suno — para transformar a própria voz de Donaghue em samples femininos, criando a impressão de um vocalista não identificado.
Os produtores afirmaram que não pediram ao modelo para imitar qualquer artista específico, apenas solicitaram “samples vocais com alma” (“soulful vocal samples”). Mesmo assim, o resultado soou próximo demais da sonoridade de uma artista conhecida para alguns ouvintes.
⚖️ Reações da indústria e retirada de serviços
A controvérsia rapidamente escalou para o lado jurídico: a gravadora de Jorja Smith, a FAMM, juntamente com a RIAA (Recording Industry Association of America) e a IFPI (International Federation of the Phonographic Industry), emitiram notificações de remoção alegando violação de direitos autorais e uso indevido da “identidade vocal”.
Diante da pressão, plataformas como Spotify e Apple Music tiraram I Run de seus catálogos — o que gerou um dos debates mais instigantes sobre o papel do AI na produção musical moderna.
🎤 O “toque humano” que virou resposta
Enquanto a versão original gerada com IA sofria rejeição e retirada, surgiu uma alternativa humana: a cantora Kaitlin Aragon, cujo cover da música no TikTok viralizou, foi convidada a gravar os vocais oficiais para uma nova edição do single.
Para Aragon, o episódio acende uma discussão essencial: “as pessoas querem sentir uma conexão humana com o que ouvem”. Ela argumenta que artistas sempre usaram tecnologia — de sintetizadores a Auto-Tune — e que o desafio é como utilizar ferramentas como IA de forma responsável e transparente.
📊 O futuro da música com IA
Especialistas em musicologia observam que o desconforto do público em relação a músicas com partes geradas por inteligência artificial não é novo: revoluções tecnológicas no passado — desde o rádio até o Auto-Tune — também geraram resistência antes de se tornarem normais.
O que I Run mostrou é que a narrativa cultural sobre IA na música ainda está sendo escrita. À medida que grandes gravadoras firmam acordos de licenciamento com plataformas de IA e debatem compensações e direitos, o episódio serve como um possível ponto de virada no debate sobre ética, autoria e identidade artística em um mundo onde algoritmos podem cantar tão bem quanto humanos.
-
Tecnologia & IA2 meses atrásRunway Gen-4.5: IA eleva geração de vídeo a um novo patamar e supera Google e OpenAI
-
Tecnologia & IA2 meses atrásDisney investe US$ 1 bilhão na OpenAI
-
Cinema2 meses atrásDo grunge à sobriedade: Antiheroine traz o retrato sem filtros de Courtney Love
-
Notícias2 meses atrásLiah Soares transforma IA em poesia visual no clipe de “Amor pela Metade”, trilha de Três Graças
-
Cinema2 meses atrásCinema em Código: “The Sweet Idleness” e a Revolução da Direção Artificial
-
Notícias2 meses atrásPersonalidades do Ano 2025: Os ‘construtores’ da inteligência artificial”
-
Tecnologia & IA2 meses atrás3 anos de ChatGPT: como a IA sacudiu — e vai continuar mudando — nossas vidas
-
Tecnologia & IA2 meses atrásUdio corta downloads e deixa músicos presos à plataforma