Top Qs
Linha do tempo
Chat
Contexto
Música e inteligência artificial
pandemias de COVID-19 por país pandemia por novo Coronavírus de 2020 Este artigo documenta os países afetados e as respostas ao Novo Coronavírus(SARS-CoV-2), responsável pela pandemia de COVID-19 em Wuhan, China e pode não incluir todas as principai Da Wikipédia, a enciclopédia livre
Remove ads
A pesquisa em inteligência artificial (IA) é conhecida por ter afetado o diagnóstico médico, a negociação de ações, o controle de robôs e vários outros campos. Talvez menos popular seja a contribuição da IA no campo da música. No entanto, a inteligência artificial e música (AIM) tem sido, por muito tempo, um assunto comum em várias conferências e workshops, incluindo a Conferência Internacional de Computação, a Conferência da Sociedade de Computação[1] e a Conferência Internacional Conjunta sobre Inteligência Artificial. De fato, a primeira Conferência Internacional de Música por Computador foi o ICMC 1974, Universidade Estadual de Michigan, East Lansing, Estados Unidos.[2] A pesquisa atual inclui a aplicação da IA na composição musical, desempenho, teoria e processamento de som digital.[3]
Vários programas de software de música foram desenvolvidos e usam IA para produzir música.[4] Assim como suas aplicações em outros campos, a IA neste caso também simula uma tarefa mental. Uma característica proeminente é a capacidade do algoritmo de IA de aprender com base em informações obtidas, como a tecnologia de acompanhamento por computador, que é capaz de escutar e seguir um executante humano, para que possa executar em sincronia.[5] A inteligência artificial também impulsiona a chamada tecnologia de composição interativa, em que um computador compõe música em resposta ao desempenho de um músico ao vivo. Existem vários outros aplicativos de IA para música que abrangem não apenas a composição, a produção e o desempenho da música, mas também a forma como ela é comercializada e consumida.
Remove ads
História
Resumir
Perspectiva
Nas décadas de 1950 e 1960, a música criada por inteligência artificial não era totalmente original, mas gerada a partir de modelos predefinidos por humanos, conhecidos como sistemas baseados em regras. Com o tempo, os computadores tornaram-se mais potentes, permitindo que o aprendizado de máquina e as redes neurais artificiais auxiliassem a indústria musical, fornecendo à IA grandes quantidades de dados para aprender como a música é feita, em vez de usar modelos preestabelecidos. No início dos anos 2000, avanços na inteligência artificial, como redes generativas adversariais (GANs) e aprendizado profundo, permitiram que a IA compusesse músicas mais originais, complexas e variadas do que antes. Projetos notáveis, como o MuseNet da OpenAI e o Magenta do Google, demonstraram a capacidade da IA de gerar composições que imitam diversos estilos musicais.[6]
Linha do tempo
A inteligência artificial na música começou com o problema da transcrição: registrar com precisão uma performance em notação musical. O esquema de Père Engramelle para um "rolo de piano", que registrava automaticamente o tempo e a duração das notas, foi implementado pelos engenheiros alemães J.F. Unger e J. Hohlfeld em 1952.[7]
Em 1957, o computador ILLIAC I produziu a "Illiac Suite for String Quartet", uma peça totalmente gerada por computador, programada pelo compositor Leonard Isaacson e pelo matemático Lejaren Hiller.[8]
Em 1960, o pesquisador russo Rudolf Zaripov publicou o primeiro artigo mundial sobre composição algorítmica usando o computador Ural-1.[9]
Em 1965, o inventor Ray Kurzweil estreou uma peça de piano criada por um computador capaz de reconhecer padrões em várias composições. O computador foi então capaz de analisar e usar esses padrões para criar novas melodias. O computador foi lançado no programa "I've got a secret", de Steve Allen, e confundiu os apresentadores até que o astro de cinema Henry Morgan adivinhou o segredo de Ray.[10]
Em 1983, o sistema Kansei Music System da Yamaha ganhou destaque, e um artigo sobre seu desenvolvimento foi publicado em 1989. O software usava processamento de informações musicais e técnicas de IA para resolver o problema da transcrição em melodias simples, embora melodias mais complexas ainda sejam um desafio para o aprendizado profundo.[7][11]
Em 1997, o programa Experiments in Musical Intelligence (EMI) superou um compositor humano ao imitar o estilo de Bach.[12] Mais tarde, o EMI evoluiu para um algoritmo mais sofisticado chamado Emily Howell.
Em 2002, a equipe de pesquisa musical do Sony Computer Science Laboratory Paris, liderada por François Pachet, criou o Continuator, um algoritmo capaz de continuar uma composição após um músico parar de tocar.[13]
A Emily Howell continuou a avançar, lançando seu primeiro álbum, From Darkness, Light, em 2009.[14] Desde então, muitas outras peças compostas por IA foram publicadas.
Em 2010, o Iamus tornou-se a primeira IA a produzir um fragmento de música clássica contemporânea original, no seu próprio estilo: "Iamus' Opus 1". Localizado na Universidade de Málaga (Espanha), o computador podia gerar peças totalmente originais em vários estilos.[15][8] Em agosto de 2019, um grande conjunto de dados com 12.197 músicas MIDI, cada uma com letras e melodias, foi criado para investigar a geração neural de melodias a partir de letras usando um método LSTM-GAN condicional.
Com o avanço da IA generativa, surgiram modelos capazes de criar composições completas (incluindo letras) a partir de uma simples descrição textual. Dois aplicativos notáveis são o Suno AI (lançado em dezembro de 2023) e o Udio (abril de 2024).[16]
O ano de 2025 marcou um novo capítulo na evolução da música criada por inteligência artificial, desafiando as convenções da indústria musical. Entre os destaques, surgiu Tata, cantora virtual desenvolvida pelo renomado produtor norte-americano Timbaland.[17] Outro fenômeno que chamou atenção foi The Velvet Sundown, uma banda totalmente criada por IA por meio da plataforma Suno. O projeto surpreendeu a imprensa especializada ao ultrapassar a marca de 1 milhão de ouvintes mensais no Spotify, provando que composições geradas por algoritmos podem alcançar o mesmo sucesso que obras humanas. A repercussão foi tamanha que levantou debates sobre autoria, direitos autorais e o futuro da criatividade musical em um mundo onde máquinas podem produzir arte de forma autônoma.[18]
Remove ads
Aplicações de software
Resumir
Perspectiva
Pontuações interativas
Cenários Multimídia em escores interativos são representados por objetos temporais, relações temporais e objetos interativos. Exemplos de objetos temporais são sons, vídeos e controles de luz. Objetos temporais podem ser acionados por objetos interativos (geralmente lançados pelo usuário) e vários objetos temporais podem ser executados simultaneamente. Um objeto temporal pode conter outros objetos temporais: essa hierarquia nos permite controlar o início ou o fim de um objeto temporal controlando o início ou o fim de seu pai. A hierarquia está sempre presente em todos os tipos de música: as peças musicais são muitas vezes hierarquizadas por movimentos, partes, motivos, medidas, entre outras segmentações.[19][20]
Acompanhamento de computador (Carnegie Mellon University)
O Computer Music Project da CMU desenvolve música de computador e tecnologia de performance interativa para melhorar a experiência musical humana e a criatividade. Este esforço interdisciplinar baseia-se em teoria musical, ciência cognitiva, inteligência artificial e aprendizado de máquina, interação homem - computador, sistemas em tempo real, computação gráfica e animação, multimídia, linguagens de programação e processamento de sinal.[21]
ChucK
Desenvolvido na Universidade de Princeton por Ge Wang e Perry Cook, ChucK é uma linguagem multiplataforma baseada em texto que permite síntese, composição, desempenho e análise de música em tempo real.[22] É usado pelo SLOrk (Stanford Laptop Orchestra)[23] e pelo PLOrk (Princeton Laptop Orchestra).
MorpheuS
MorpheuS[24] é um projeto de pesquisa de Dorien Herremans e Elaine Chew na Queen Mary University de Londres, financiado por um projeto europeu Marie Skłodowská-Curie. O sistema usa uma abordagem de otimização baseada em um algoritmo de busca de vizinhança variável para transformar peças de modelo existentes em novas peças com um nível de tensão tonal que muda dinamicamente ao longo da peça. Esta abordagem de otimização permite a integração de uma técnica de detecção de padrões, a fim de reforçar a estrutura de longo prazo e temas recorrentes na música gerada. Peças compostas por MorpheuS foram realizadas em concertos em Stanford e Londres.
AIVA
Criado em fevereiro de 2016, no Luxemburgo, o AIVA é um programa que produz trilhas sonoras para qualquer tipo de mídia. Os algoritmos por trás do AIVA são baseados em arquiteturas de aprendizado profundo.[25] OAIVA também foi usado para compor uma faixa de Rock chamada On the Edge,[26] bem como uma música pop Love Sick[27] em colaboração com a cantora Taryn Southern,[28] para a criação de seu álbum de 2018 "I am AI".
Remove ads
Música gerada por inteligência artificial
Muitos geradores de música foram criados e podem ser gerados usando uma frase de texto, opções de gênero e bibliotecas em loop de compassos e riffs.[29]
Inteligência artificial aplicada à música: questões éticas sobre uma simbiose criativa[30]
Resumir
Perspectiva
A aplicação da Inteligência Artificial (IA) na música tem gerado impactos multidimensionais, especialmente na educação musical e nos processos criativos. O uso de algoritmos avançados permite a personalização do ensino, a análise de desempenho musical e até mesmo a composição automatizada, criando novas possibilidades para músicos e educadores.[31] No entanto, a introdução dessas tecnologias levanta questões éticas fundamentais, como a privacidade dos dados dos alunos e artistas, além da influência da IA na definição do que é criatividade humana.[32] À medida que a música se torna cada vez mais mediada por algoritmos, cresce a necessidade de uma abordagem crítica sobre os limites dessa integração tecnológica.
A incorporação da IA nos processos educacionais musicais ocorre em um cenário de rápidas transformações tecnológicas. Ferramentas como redes neurais e aprendizado de máquina permitem que softwares analisem e gerem composições musicais, influenciando diretamente a experiência de ensino e aprendizado. Essas inovações, no entanto, trazem desafios legais e éticos, incluindo a questão dos direitos autorais sobre obras geradas com auxílio de IA e a equidade no acesso a essas tecnologias.[33]. A introdução de assistentes inteligentes em salas de aula pode tornar o ensino mais acessível, mas também gera preocupações quanto ao uso indevido de dados e ao risco de padronização excessiva da criatividade musical.[34]
Outro aspecto relevante na simbiose entre IA e música é a transformação do mercado musical. Sistemas de recomendação baseados em IA, como os empregados por plataformas de streaming, influenciam os hábitos de escuta dos usuários, moldando tendências e direcionando a exposição de determinados artistas. A automatização da curadoria musical levanta preocupações sobre transparência algorítmica e concentração de poder, já que grandes empresas de tecnologia controlam esses sistemas de recomendação. Além disso, a música gerada por IA desafia conceitos tradicionais de autoria e originalidade, uma vez que algoritmos podem criar composições sem intervenção humana direta;
Diante desses desafios, pesquisadores e educadores defendem a necessidade de um debate ético e colaborativo sobre o uso da IA na música. A proposta é que a tecnologia seja utilizada como uma ferramenta complementar, em vez de substituir o papel humano no processo criativo.[35] Abordagens interdisciplinares, envolvendo músicos, tecnólogos e especialistas em ética digital, como as contempladas pelo Grupo de Pesquisa - As Tecnologias Digitais da Informação e Comunicação nos processos de Formação Musical que é certificado pelo Conselho Nacional de Desenvolvimento Científico e Tecnológico,[36] são essenciais para garantir que a IA amplie as possibilidades musicais sem comprometer a diversidade cultural e os direitos dos criadores.[37] Dessa forma, a inteligência artificial pode ser integrada de forma responsável na educação musical e na produção artística, contribuindo para o desenvolvimento de novas formas de expressão e inovação sonora.
Remove ads
Deepfakes musicais
Resumir
Perspectiva
Um desenvolvimento recente da IA na música é o uso de deepfakes de áudio para adaptar letras ou estilos musicais de uma música existente à voz ou estilo de outro artista. Isso levantou preocupações sobre a legalidade e a ética do uso dessa tecnologia, especialmente em relação à identidade artística. Além disso, questiona-se a quem pertence a autoria dessas obras, já que a IA não pode ser considerada autora.[38] Recentemente, medidas preventivas começaram a ser desenvolvidas por Google e Universal Music Group, que estão trabalhando em sistemas de royalties e atribuição de créditos para permitir a replicação de vozes e estilos de artistas.[39]
"Heart on My Sleeve"
Em 2023, um artista conhecido como ghostwriter977 criou um deepfake musical chamado "Heart on My Sleeve", que clonou as vozes de Drake e The Weeknd usando um algoritmo de aprendizado profundo.[40] A faixa foi submetida para consideração no Grammy, viralizou no TikTok e foi lançada oficialmente em plataformas como Apple Music e Spotify, mas acabou sendo removida pela Universal Music Group.[41] O produtor afirmou que a composição, produção e vocais originais (antes da conversão) foram feitos por ele.
"Where That Came From"
Em 2013, o cantor de música country Randy Travis sofreu um derrame que o impediu de cantar. Em maio de 2024, Travis e seu produtor Kyle Lehning lançaram uma nova música, "Where That Came From", usando IA para recriar a voz de Travis a partir de mais de 40 gravações vocais existentes, combinadas com as do vocalista James Dupré.[42][43] Foi a primeira música nova de Travis desde seu derrame.
Remove ads
Covers retrô
Há casos de covers fakes, como o canal brasileiro Blow Records, que transforma sucessos do funk carioca em releituras nos estilos retrô como jazz, blues, disco, funk americano e soul. Alguns artistas originais chegaram a aprovar as versões e até firmaram parcerias, como o MC MM.[44] Criada por Raul Vinicius em 2024, a Blow Records viralizou nas redes em 2025, especialmente após a versão retrô de Casa dos Machos, de Pocah, que a própria cantora compartilhou. O projeto acumula milhões de visualizações no TikTok, Instagram e YouTube, e Vinicius afirma ter cuidados com direitos autorais, buscando diálogo com os artistas e compartilhando royalties.[45]
Remove ads
Referências
- INFORMS Computing Society Conference: Annapolis: Music, Computation and AI Arquivado em 2012-06-30 na Archive.today. Rcf.usc.edu. Retrieved on 2010-12-22.
- International Computer Music Association - ICMC. Computermusic.org (2010-11-15). Retrieved on 2010-12-22.
- Research in Music and Artificial Intelligence - Ergonomics Abstracts. Informaworld.com. Retrieved on 2010-12-22.
- «A Functional Taxonomy of Music Generation Systems». ACM Computing Surveys. 50. doi:10.1109/TAFFC.2017.2737984
- «Artificial Intelligence, Machine Learning, and Music Understanding» (PDF). Semantic Scholar
- «AI and the Sound of Music». www.yalelawjournal.org. Consultado em 26 de fevereiro de 2025
- Roads, Curtis (1985). «Research in music and artificial intelligence». ACM Computing Surveys (em inglês). 17 (2): 163–190. doi:10.1145/4468.4469. Consultado em 6 de março de 2024. Cópia arquivada em 7 April 2024 Verifique data em:
|arquivodata=(ajuda) - Miranda, Eduardo Reck, ed. (2021). «Handbook of Artificial Intelligence for Music». SpringerLink (em inglês). ISBN 978-3-030-72115-2. doi:10.1007/978-3-030-72116-9. Consultado em 10 September 2024. Cópia arquivada em 10 September 2024 Verifique o valor de
|url-access=subscription(ajuda); Verifique data em:|acessodata=, |arquivodata=(ajuda) - «Об алгоритмическом описании процесса сочинения музыки (On algorithmic description of process of music composition)». Proceedings of the USSR Academy of Sciences. 132
- «About Ray Kurzweil». www.kurzweiltech.com. Consultado em 9 de julho de 2025
- Katayose, Haruhiro; Inokuchi, Seiji (1989). «The Kansei Music System». Computer Music Journal. 13 (4): 72–77. ISSN 0148-9267. JSTOR 3679555. doi:10.2307/3679555. Consultado em 6 March 2024. Cópia arquivada em 26 March 2020 Verifique o valor de
|url-access=subscription(ajuda); Verifique data em:|acessodata=, |arquivodata=(ajuda) - Johnson, George (11 November 1997). «Undiscovered Bach? No, a Computer Wrote It». The New York Times. Consultado em 29 April 2020. Cópia arquivada em 19 March 2024.
Dr. Larson was hurt when the audience concluded that his piece -- a simple, engaging form called a two-part invention -- was written by the computer. But he felt somewhat mollified when the listeners went on to decide that the invention composed by EMI (pronounced Emmy) was genuine Bach.
Verifique data em:|acessodata=, |arquivodata=, |data=(ajuda) - Pachet, François (September 2003). «The Continuator: Musical Interaction With Style». Journal of New Music Research. 32 (3): 333–341. ISSN 0929-8215. doi:10.1076/jnmr.32.3.333.16861. hdl:2027/spo.bbp2372.2002.044
Verifique data em: |data=(ajuda) - Lawson, Mark (22 de outubro de 2009). «This artificially intelligent music may speak to our minds, but not our souls». The Guardian (em inglês). ISSN 0261-3077. Consultado em 10 de setembro de 2024
- «Iamus: Is this the 21st century's answer to Mozart?». BBC News (em inglês). 2 de janeiro de 2013. Consultado em 10 de setembro de 2024. Cópia arquivada em 10 September 2024 Verifique data em:
|arquivodata=(ajuda) - Nair, Vandana (11 de abril de 2024). «AI-Music Platform Race Accelerates with Udio». Analytics India Magazine (em inglês). Consultado em 19 de abril de 2024. Cópia arquivada em 19 April 2024 Verifique data em:
|arquivodata=(ajuda) - Cardoso (@agiuliacardoso), Giulia (10 de junho de 2025). «Timbaland lança empresa de música feita com IA e anuncia artista digital». Rolling Stone Brasil. Consultado em 9 de julho de 2025
- «Banda seguida por 1 milhão de fãs no Spotify admite ser gerada por IA». www.folhape.com.br. Consultado em 9 de julho de 2025
- Mauricio Toro, Myriam Desainte-Catherine, Camilo Rueda. Formal semantics for interactive music scores: a framework to design, specify properties and execute interactive scenarios. Journal of Mathematics and Music 8 (1)
- Computer Music Group. 2.cs.cmu.edu. Retrieved on 2010-12-22.
- ChucK => Strongly-timed, On-the-fly Audio Programming Language. Chuck.cs.princeton.edu. Retrieved on 2010-12-22.
- Driver, Dustin. (1999-03-26) Pro - Profiles - Stanford Laptop Orchestra (SLOrk), pg. 1. Apple. Retrieved on 2010-12-22.
- «MorpheuS: Automatic music generation with recurrent pattern constraints and tension profiles». IEEE Transactions on Affective Computing. PP(1). doi:10.1109/TAFFC.2017.2737984
- «9 "Best" AI Music Generators (February 2024) - Unite.AI». www.unite.ai. Consultado em 29 de fevereiro de 2024
- Ribeiro, Tauan da Cunha; Marins, Paulo Roberto Affonso (5 de dezembro de 2023). «Inteligência Artificial aplicada aos processos de formação musical: questões éticas sobre uma simbiose criativa». Consultado em 12 de março de 2025
- BRIOT, Jean-Pierre; HADJERES, Gaëtan; PACHET, François-David. «Deep Learning Techniques for Music Generation – A Survey» (PDF)
- ZUBOFF, Shoshana (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. (PDF). New York: PublicAffairs
- MARINS, Paulo Roberto Affonso (2022). «Licenciatura em música a distância: o uso das TDIC como objeto.». Revista da Abem. Revista da Abem. v. 30 (n. 1, e30106, 2022.). Consultado em 12 de março de 2025
- GABRIEL, Martha (2018). Você, eu e os robôs: pequeno manual do mundo digital. São Paulo: Atlas
- Tauan da Cunha Ribeiro; Paulo Roberto Affonso Marins (5 de dezembro de 2023). «Inteligência Artificial aplicada aos processos de formação musical: questões éticas sobre uma simbiose criativa». ISSN 2675-8105. doi:10.5281/ZENODO.10262254. Consultado em 12 de março de 2025
- Marques, Eduardo Marks de; Krüger, Luana De Carvalho (30 de abril de 2019). «Vida artificial: a mobilidade do conceito de transumano e pós-humano». Voluntas: Revista Internacional de Filosofia (1). 31 páginas. ISSN 2179-3786. doi:10.5902/2179378636453. Consultado em 12 de março de 2025
- «AI and Deepfake Voice Cloning: Innovation, Copyright and Artists' Rights» (PDF). Consultado em 6 March 2024. Cópia arquivada (PDF) em 3 June 2024 Verifique data em:
|acessodata=, |arquivodata=(ajuda) - Murgia, Madhumita; Nicolaou, Anna (8 August 2023). «Google and Universal Music negotiate deal over AI 'deepfakes'». Financial Times. Consultado em 3 de abril de 2024. Cópia arquivada em 28 March 2024 Verifique data em:
|arquivodata=, |data=(ajuda) - Robinson, Kristin (11 de outubro de 2023). «Ghostwriter, the Mastermind Behind the Viral Drake AI Song, Speaks For the First Time». Billboard (em inglês). Consultado em 3 de abril de 2024. Cópia arquivada em 5 April 2024 Verifique data em:
|arquivodata=(ajuda) - «The AI deepfake of Drake and The Weeknd will not be eligible for a GRAMMY». Mixmag. Consultado em 3 de abril de 2024. Cópia arquivada em 3 April 2024 Verifique data em:
|arquivodata=(ajuda) - Marcus K. Dowling (May 6, 2024). «Randy Travis' shocks music industry with AI pairing for 'Where That Came From.' How the song came together». The Tennesseean. Consultado em May 6, 2024 Verifique data em:
|acessodata=, |data=(ajuda) - Maria Sherman (May 6, 2024). «With help from AI, Randy Travis got his voice back. Here's how his first song post-stroke came to be». AP News. Consultado em May 6, 2024. Cópia arquivada em 7 May 2024 Verifique data em:
|acessodata=, |arquivodata=, |data=(ajuda) - «Criar funk vintage com IA custa mais de mil reais por mês, diz autor de virais». G1. 7 de julho de 2025. Consultado em 7 de setembro de 2025
- «'Minha mãe não sabe que viralizei': com 22 anos, ele usa IA para dar batida anos 80 a hits do funk». Exame. Consultado em 7 de setembro de 2025
Remove ads
Leitura adicional
Ligações externas
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads