Entusiastas da música experimental agora têm uma ferramenta para composição em tempo real: o Magenta RealTime do Google. O que diferencia essa IA é seu método não convencional — em vez de construir faixas completas, ela trabalha com micro-fragmentos de apenas dois segundos de duração.
Essa técnica desbloqueia algumas vantagens surpreendentes. Primeiro, o sistema funciona suavemente mesmo em laptops padrão; a demonstração funciona de forma confiável no nível gratuito do Google Colab. Em segundo lugar, os músicos podem ajustar o som instantaneamente durante a geração, espelhando a improvisação ao vivo. A IA "ouve" constantemente os últimos 10 segundos de saída, garantindo transições suaves.
Por trás dos panos, o Magenta RealTime é um modelo Transformer com 800 milhões de parâmetros, treinado em 190.000 horas de música instrumental. Os usuários o guiam com prompts de texto ou amostras de áudio, e o sistema responde com trechos de dois segundos, de qualidade de estúdio (48 kHz). O resultado parece como se estivesse improvisando com o algoritmo.
A tecnologia tem algumas peculiaridades, no entanto. Devido aos seus dados de treinamento, ela lida melhor com gêneros ocidentais e não consegue produzir vocais inteligíveis. Também há um leve atraso de reação; mudanças de estilo levam de 2 a 3 segundos para se manifestar. Os desenvolvedores já estão trabalhando para encurtar esse atraso.
O código-fonte e os pesos do modelo agora são de código aberto, permitindo que os entusiastas experimentem com o sistema por trás das câmeras. Atualmente, o Magenta RealTime parece menos um produto polido e mais um sandbox experimental para exploração sonora. Dito isso, a equipe enfatiza que seu objetivo não é substituir músicos — mas estimular a criatividade espontânea, dando aos artistas um tipo fundamentalmente novo de instrumento digital.