Computação musical

Origem: Wikipédia, a enciclopédia livre.

Computação Musical (CM) é um campo de pesquisa em ciência da computação com características multidisciplinares, voltado ao tratamento de elementos musicais por meio do computador.[1] Trabalhos realizados neste campo envolvem conceitos como interação humano-computador, sistemas de recomendação, inteligência computacional, projeto de hardware, educação mediada por computador, sistemas interativos de tempo real, jogos digitais, realidade virtual, entre outros. Em seu processo de desenvolvimento, diversas áreas de conhecimento - como pedagogia, saúde, engenharias e psicologia - têm sido relacionadas nos mais variados tipos de aplicações.[2]

Segundo a Sociedade Brasileira de Computação (SBC), a Computação Musical compreende pesquisa científica, tecnológica e artística nas seguintes áreas:

Um pouco de história[editar | editar código-fonte]

Quando em 1957 o engenheiro eletrônico Max Mathews escreveu em Assembly o software Music I para o IBM704, ele provavelmente não sabia que estava criando a área de pesquisa chamada hoje de Computação Musical. Max Mathews era doutor em Engenharia Elétrica pelo MIT e trabalhava naquela época no Bell Telephone Laboratories, pesquisando acústica e codificação de voz. O projeto de Max foi talvez o primeiro, ou um dos primeiros, programas de computador feitos para gerar/sintetizar sons digitais e produzir diferentes formas de onda. Este programa foi utilizado para criar a primeira composição feita totalmente em um computador, uma peça de 17 segundos, chamada "The silver scale".[8]

Max trabalhou na evolução do Music I e acabou criando uma série de programas de síntese sonora, chamados de família MUSIC N.[9] Esta série de programas culminou, em 1986, na criação de uma linguagem de programação musical chamada CSound, que ainda existe e é amplamente utilizada por cientistas da computação ao redor do mundo. Outras linguagens de programação também surgiram como evolução do Music N, como o CMusic (1980) e o CMix (1984), que ainda possuem usuários e atualizações, mas que não são tão difundidas como o CSound. Mais recentemente, outras linguagens de programação musical surgiram, as dessa vez abordando outros conceitos de programação, como o FAUST, uma linguagem funcional, o Pure Data, uma ferramenta visual para codificação, e o SuperCollider, orientado a objetos.[10][11]

Além de culminar nessas diversas linguagens de programação, o projeto de Max motivou o surgimento de outros centros de pesquisa interessados em trabalhar com computação e música, como o  Center for Computer Research in Music and Acoustics (CCRMA) em Stanford, nos Estados Unidos; o Institut de Recherche et Coordination Acoustique/Musique (IRCAM) em Paris, na França; e o Centro di Sonologia Computazionale (CSC) em Padova, Itália.

Gradualmente, o interesse em computação e música foi convencendo pesquisadores em diversas universidades a trabalharem com este conceito e tal área se popularizou não somente em departamentos de computação, mas também em departamentos de música, culminando em setores e/ou cursos próprios em algumas instituições, como os chamados cursos de música e tecnologia (Musitech, em inglês).

No Brasil, o tema é área de pesquisa da Sociedade Brasileira de Computação sendo organizado pela Comissão Especial em Computação Musical da SBC. Esta comissão reúne os pesquisadores da área em um evento bienal chamado Simpósio Brasileiro de Computação Musical, que acontece desde 1994. Além deste evento, existe o congresso da Associação Nacional de Pesquisa e Pós-graduação em música (ANPPOM) e o workshop de Música Ubíqua (Ubimus).

Computação musical e música em rede[editar | editar código-fonte]

O formato digital do sinal trouxe a possibilidade de distribuir conteúdo musical em tempo real em uma rede de computadores. Isso trouxe possibilidades de criar Performances Musicais sobre a Rede (Networked Music Performance - NMP)[12], performances musicais com os participantes geograficamente localizados em pontos distantes. Isso permitiu que concertos de música acusmática pudessem ocorrer de forma telemática, utilizando a telepresença como fator estético computacional[13].

As redes locais também foram utilizadas para a criação de música em grupo, como é possível encontrar nas chamadas Orquestras de Notebook (Laptop Orchestras ou Laptop Ensemble)[14]. Estes grupos de criação e performance musical se baseiam na utilização do computador como instrumento musical, ou meta-instrumento[15], e unem criação tecnológica com criação musical[16]. Há diversas LOrcs espalhadas pelo Mundo, como a CLOrk (Concordia Laptop Orchestra), CMLO (CMU Laptop Orchestra, Carnegie Mellon), L2Ork (Virginia Tech Linux Laptop Orchestra) OLO (Oslo Laptop Orchestra), PLOrk (Princeton Laptop Orchestra) e SLOrk (Stanford Laptop Orchestra).

A pesquisa sobre computação e rede inspirou a criação de ferramentas para o compartilhamento de dados musicais por redes de computadores, como o protocolo Open Sound Control - OSC[17], e ferramentas como JackTrip[18]. Muitas destas pesquisas envolvem pensar na questão da latência, jitter e perda de pacotes em comunicação em rede e em como isso pode afetar a performance musical utilizando estas redes[19]

Computação musical x computação gráfica[editar | editar código-fonte]

A computação musical encontra-se juntamente com a Computação Gráfica[20] no campo da Computação Aplicada, uma área da Ciência da computação que aplica os conhecimentos em determinado contexto ou problema. Além disso, estas áreas encontram-se fortemente atreladas por serem utilizadas em conjunto em áreas como o Cinema, Jogos, Sensoreamento, Realidade Virtual,[21] Realidade ampliada, e outras.

Está também nestas áreas as questões sobre, por exemplo, a forma de representação de dados e informação que são específicas para seu domínio de informação. Estas representações podem partir da aquisição de um dado do mundo real, sendo este dado uma imagem ou um som, e permitir a manipulação do mesmo em seu formato digital. Na computação gráfica, esta aquisição é feita por meio de câmeras digitais e scanners, enquanto na computação musical isso é feito por meio de uma placa de captura de som. O dado adquirido pode então ser armazenado em arquivos de imagem, como BMP, JPEG, TIFF, e PNG; ou em arquivos de áudio, como MP3, OGG,[22] e WAV.[23] Esta aquisição pode ser feita ainda em tempo real de forma que os dados são capturados não para serem armazenados mas para serem processados e utilizados logo após sua aquisição. Estes dados podem ser filtrados, manipulados, alterados e processados digitalmente por meio de técnicas de processamento de sinais sendo que em muitos casos os algoritmos são exatamente os mesmos para processamento de imagem, som e vídeo.[24]

Entre estes processamentos temos uma coleção de algoritmos que modificam a representação original do sinal de imagem ou de som, aplicando sobre ele uma transformação de domínios.[25] Algoritmos como a Transformada Rápida de Fourier, Transformada de Seno e de cosseno, Transformada de Laplace e Transformada Wavelet[26] são exemplos deste processamentos.[27] Com a mudança de representação, é possível visualizar outras informações sobre o dado e com isso surge a possibilidade de utilizar estes processamentos para identificar informações em arquivos de imagens ou de sons. Esta identificação envolve a área de Visão Computacional,[28] para reconhecimento de imagens, e de Recuperação de Informação Musical (Music Information Retrieval - MIR),[29] para identificação de determinadas características sonoras.

Há ainda, para ambas as áreas, a possibilidade de utilizar outra forma de representação de dados que não partem da captura de um dado mas da sua representação a partir de informações sobre dado. É o caso de imagens vetoriais, para as imagens, e de música simbólica, para a música. Neste tipo de representação, são utilizados formatos de representação simbólica para a música, como o MIDI,[30] ABC Music Notation, LilyPond,[31] MusicXML. Tais formatos de representação musical são utilizados em aplicações para edição de partituras e criação musical, como o MuseScore[32] e Rosegarden.[33]

Há ainda uma área de pesquisa que está na interseção entre computação gráfica e computação musical que atua na recuperação de dados musicais a partir de imagens de partituras. Assim, da mesma forma que a Computação Gráfica possui pesquisas em Reconhecimento Óptico de Caracteres[34] (OCR) para o reconhecimento de textos em imagens, temos na música o Reconhecimento Óptico Musical (OMR),[35] que reconhece partituras em imagens. Estes algoritmos normalmente aceitam como entrada uma imagem e irá fornecer como saída um arquivo de música simbólica.[36]

Pesquisa[editar | editar código-fonte]

Uma vez que a música se tornou onipresente na sociedade atual, surgiu também um considerável interesse pela Computação Musical. Sendo assim, a área passou a ter congressos e conferências próprias para que os pesquisadores pudessem trocar suas experiências. Alguns deles são listados a seguir:

Surgiram também revistas especializadas para publicar trabalhos desta área interdisciplinar, como:

Artistas[editar | editar código-fonte]

Karlheinz Stockhausen: Foi um compositor alemão de música contemporânea, sendo apontado pela crítica especializada como um dos grandes visionários do século XX na música pós-moderna. Stockhausen criou a primeira peça que fazia uso da técnica da síntese aditiva com base na unidade da onda senoidal e compôs dois estudos de música eletrônica (Studie I e Studie II), com o objetivo de analisar as potencialidades dos sons eletrônicos e criar novos timbres sem o auxílio de instrumentos, apenas misturando ondas senoidais e a vibração de uma película com a onda resultante das misturas sonoras.[52]

György Ligeti: Foi um compositor húngaro que criou trabalhos na computação musical enquanto residia em Colônia, na Alemanha, onde conheceu e colaborou com Karlheinz Sotckhausen e Gottfried Koenig. Ele criou poucas obras nesse estilo, como Glissandi (1957) e Artikulation (1958), mas a computação musical e suas experiências eletrônicas continuaram a influenciar suas obras instrumentais posteriores.[53]

Iánnis Xenákis: Foi um engenheiro, arquiteto, teórico musical e compositor grego naturalizado francês. Desenvolveu trabalhos artísticos marcados pela utilização futurista de efeitos eletrônicos, ruído e fenômenos sonoros, usando como meio o sistemas Xenakis UPIC. Dentre suas principais obras, destacam-se: Polytopes e Concrete PH, além da sua teoria da música estocástica na teoria dos jogos, o livro “Formalized Music: Thought and Mathematics in Composition”, considerado como um dos trabalhos mais importantes sobre música no século XX, e o disco “Xenakis: Electronic Music” que reúne trabalhos e experimentos musicais.[54][55][56]

John Cage: Foi um compositor, teórico musical, escritor e artista norte-americano. Pioneiro na música aleatória e eletroacústica, Cage fazia uso de instrumentos não convencionais para a prática musical e é uma das principais figuras da vanguarda pós-guerra. Sua análise sobre a participação do público nas artes abriu espaço para o conceito de interação humano-computador e interatividade. Sua obra mais conhecida é chamada “4’33”.[57][58]

Rogério Duprat: Foi um compositor, arranjador e maestro brasileiro, mais conhecido pelo seu trabalho no movimento Tropicália. Ao lado de Damiano Cozzela, usou um computador IBM 1620 para compor a peça "Klavibm II", sendo uma experiência inédita no país e caracterizada como precursora da música eletrônica.[59][60]

Brian Eno: É um música, compositor, produtor musical e artista visual britânico, mais conhecido por ter criado e cunhado o termo música ambiente. Eno também ajudou a introduzir abordagens conceituais e técnicas de gravação singulares na música contemporânea e pelo uso de sintetizadores. Além disso, realizou outros trabalhos multimédia e instalações sonoras que fazem uso da tecnologia.[61][62][63]

Kraftwerk: É um grupo alemão de música eletrônica, tido como precursos da dance music moderna. Fazem uso de vozes gravadas em vocoder ou geradas sinteticamente, abordando temas como a vida urbana e a tecnologia.[64][65][66]

Aphex Twin: Nome artístico de Richard David James, um produtor e compositor de música eletrônica irlandês. Considerado pelo jornal inglês The Guardian como "a mais influente e criativa figura da música eletrônica contemporânea",[67] onde seu trabalho é marcado pela originalidade da textura dos sons que cria. Na questão da computação musical e música eletrônica, Aphex Twin é reputado pela criação de seus próprios instrumentos, por ser um dos primeiros músicos a utilizar computadores e softwares para composições complexas e ricas em detalhes, pelo uso de música ambiente, drill e bass. É influenciado por John Cage, Brian Eno, Erik Satie e Kraftwerk.[68]

Curtis Roads: É um compositor, programador e escritor norte-americano. Seu trabalho artístico envolve música eletrônica e eletroacústica que fazem uso de síntese granular. É o atual vice-presidente do programa de Arte e Tecnologia de Mídia da Universidade da Califórnia, além de ter sido confundador da International Computer Music Association e editor do Computer Music Journal. É criador de softwares usados para a prática musical e pesquisa sobre o método de análise de som chamado decomposições atômicas.[69]

Hatsune Miku: É um software de banco de vozes para Vocaloid desenvolvido pela Crypton Future Media. Posteriormente, foi desenvolvido um antropomorfismo chamado Moe, uma tecnologia de sintetização de canto que utiliza o Vocaloid 2, 3 e 4, onde o tom das amostras pode ser alterado por sintetizadores. Sua voz é modelada com base na dubladora japonesa Saki Fujita e a personificação de Moe é comercializada como uma ídolo virtual, se apresentando em vários shows a partir de uma projeção 3D.[70][71]

Coldplay: O Coldplay é uma banda britânica de rock alternativo, com grande tráfego no mainstream. No especial de televisão para o disco "Ghost Stories", eles fazem uso de diversas ferramentas comuns a computação musical, como sintetizadores, harpa de luz e uma mesa com tangíveis. A partir das interações do usuário com esses objetos, é possível controlar as propriedades de sintetizadores de som. Cada tangível possui um fiducial e uma marcação utilizada por algoritmos de visão computacional para identificar o objeto, posição e rotação.[72][73]

Steve Reich: É um compositor e teórico musical norte-americano, tido como um dos principais nomes da música minimalista e modalista. Sua arte rejeita a complexidade da harmonia e tonalidade das músicas clássicas do século XX para focar em obras com materiais mínimos, como um único acorde ou exclamação falada, que são repetidos longamente com pequenas variações. Reich faz grande uso de loops em fitas, combinando performances ao vivo com áudios pré-gravados. Apresenta colaborações com diversos artistas e obras multimédia, sendo seu principal trabalho a peça "Music for 18 Musicians", de 1976.[74][75][76][77]

Jean Claude Risset: Foi um compositor francês, conhecido pelo seu pioneirismo na música computacional. Foi ex-colega de trabalho de Max Mathews na Bell Labs, onde usou o software MUSIC IV para recriar digitalmente os sons de instrumentos de sopro, além de fazer gravações digitais e estudar composição tímbrica no mesmo equipamento. Realizou os primeiros experimentos em técnicas de síntese e criou a escala de Risset, onde os passos entre cada tom são contínuos. Foi chefe de departamento no IRCAM, compôs o primeiro dueto para um pianista e graças aos seus trabalhos em computação musical, recebeu prêmios Golden Nica (1987), Grand Prix National de la Musique (1990), Medalha de Ouro do Centre National de la Recherche Scientifique (1999) e Gigahertz (2009).[78][79][80][81]

Para além dos artistas citados, diversos outros fizeram e/ou fazem uso de conceitos da computação musical em suas obras, como:

Referências

  1. Gimenes, Marcelo S., et al. (2009). As estruturas verticais na improvisação de Bill Evans. (PDF). Anais do XIV Congresso da ANPPOM, Porto Alegre-RS, Brasil. 
  2. Miletto, Evandro M., et al. (2004). Introdução à computação musical (PDF). IV Congresso Brasileiro de Computação. Itajaí-SC, Brasil, ISSN 1677-2822, 883-902. 
  3. Sociedade Brasileira de Computação. «Computação Musical». Consultado em 6 de agosto de 2016 
  4. Schedl, Markus (2014). Music information retrieval : recent developments and applications. Emilia Gómez, Julián Urbano, Now Publishers. [Hanover, Massachusetts]: [s.n.] OCLC 905837683 
  5. Keller, Damián; Lazzarini, Victor; Pimenta, Marcelo S., eds. (2014). Ubiquitous Music. Col: Computational Music Science. Cham: Springer International Publishing 
  6. Zölzer, Udo (1997). Digital audio signal processing. [S.l.]: Wiley. OCLC 37694831 
  7. Zölzer, Udo (2011). DAFX : digital audio effects. Udo Zölzer 2nd ed ed. Chichester, West Sussex, England: Wiley. OCLC 711779424 
  8. Roads, C.; Mathews, Max (1980). «Interview with Max Mathews». Computer Music Journal (4): 15–22. ISSN 0148-9267. doi:10.2307/3679463. Consultado em 15 de outubro de 2021 
  9. Mathews, M. V.; Moore, F. R.; Risset, J. C. (1974). «Computers and Future Music». Science (4122): 263–268. ISSN 0036-8075. Consultado em 15 de outubro de 2021 
  10. Araujo, Rodrigo Ramos de; Sandy, José Mauro da Silva; Cirilo, Elder José Reioli; Schiavoni, Flávio Luiz (1 de setembro de 2018). «Análise e classificação de Linguagens de Programação Musical». Revista Vórtex (2). Consultado em 15 de outubro de 2021 
  11. Dannenberg, Roger B. (2018). «Languages for Computer Music». Frontiers in Digital Humanities. 26 páginas. ISSN 2297-2668. doi:10.3389/fdigh.2018.00026. Consultado em 15 de outubro de 2021 
  12. Gabrielli, Leonardo; Squartini, Stefano (30 de dezembro de 2015). «Networked Music Performance». Singapore: Springer Singapore: 3–19. Consultado em 19 de outubro de 2021 
  13. «Telematic Music: Six Perspectives». Leonardo Music Journal: 95–96. Dezembro de 2009. ISSN 0961-1215. doi:10.1162/lmj.2009.19.95. Consultado em 19 de outubro de 2021 
  14. Trueman, Dan (4 de julho de 2007). «Why a laptop orchestra?». Organised Sound (2): 171–179. ISSN 1355-7718. doi:10.1017/s135577180700180x. Consultado em 19 de outubro de 2021 
  15. Acker, Anne Beetem (25 de maio de 2016). Meta-Instrument. Col: Oxford Music Online. [S.l.]: Oxford University Press 
  16. Ogborn, David (14 de fevereiro de 2012). «Composing for a Networked, Pulse-Based, Laptop Orchestra». Organised Sound (1): 56–61. ISSN 1355-7718. doi:10.1017/s1355771811000513. Consultado em 19 de outubro de 2021 
  17. WRIGHT, MATTHEW (29 de novembro de 2005). «Open Sound Control: an enabling technology for musical networking». Organised Sound (3): 193–200. ISSN 1355-7718. doi:10.1017/s1355771805000932. Consultado em 19 de outubro de 2021 
  18. Cáceres, Juan-Pablo; Chafe, Chris (setembro de 2010). «JackTrip: Under the Hood of an Engine for Network Audio». Journal of New Music Research (3): 183–187. ISSN 0929-8215. doi:10.1080/09298215.2010.481361. Consultado em 19 de outubro de 2021 
  19. Luiz, Schiavoni, Flávio; Marcelo, Queiroz,; Marcelo, Wanderley, (2013). «ALTERNATIVES IN NETWORK TRANSPORT PROTOCOLS FOR AUDIO STREAMING APPLICATIONS». International Computer Music Conference Proceedings (em inglês). ISSN 2223-3881. Consultado em 19 de outubro de 2021 
  20. «O que é CGI e computação gráfica?». Canaltech. Consultado em 17 de outubro de 2021 
  21. Schiavoni, Flávio Luiz; Gonçalves, Luan Luiz (novembro de 2017). «From Virtual Reality to Digital Arts with Mosaicode»: 200–206. doi:10.1109/SVR.2017.33. Consultado em 17 de outubro de 2021 
  22. Kosaka, A.; Yamaguchi, S.; Okuhata, H.; Onoye, T.; Shirakawa, I. «VLSI implementation of Ogg Vorbis decoder for embedded applications». IEEE. doi:10.1109/asic.2002.1158024. Consultado em 17 de outubro de 2021 
  23. «O que é WAV ou WAVE?». Canaltech. Consultado em 17 de outubro de 2021 
  24. J., Wysocki, Tadeusz. Honary, Bahram. Wysocki, Beata (2005). Signal processing for telecommunications and multimedia. [S.l.]: Springer. OCLC 58548452 
  25. Snell, John; Moore, F. Richard (1990). «Elements of Computer Music». Computer Music Journal (4). 67 páginas. ISSN 0148-9267. doi:10.2307/3680793. Consultado em 17 de outubro de 2021 
  26. G., Petrosian, Arthur A. Meyer, François (2011). Wavelets in signal and image analysis : from theory to practice. [S.l.]: Springer. OCLC 751542419 
  27. 1945-, Loy, Gareth (2011). Musimathics : the mathematical foundations of music. [S.l.]: MIT Press. OCLC 935185987 
  28. author., Forsyth, David,. Computer vision : a modern approach. [S.l.: s.n.] OCLC 1078786835 
  29. «Music Information Retrieval». Auerbach Publications. 20 de dezembro de 2011: 429–438. Consultado em 17 de outubro de 2021 
  30. author., Huber, David Miles,. The MIDI manual : a practical guide to MIDI within modern music production. [S.l.: s.n.] OCLC 1155484880 
  31. «LilyPond – Notação musical para todos». lilypond.org. Consultado em 17 de outubro de 2021 
  32. «Musescore.com | The world's largest free sheet music catalog and community». musescore.com. Consultado em 17 de outubro de 2021 
  33. «Rosegarden: music software for Linux». www.rosegardenmusic.com. Consultado em 17 de outubro de 2021 
  34. H., Mori, S. Nishida, H. Yamada, (1999). Optical character recognition. [S.l.]: Wiley. OCLC 475036538 
  35. Rebelo, Ana; Fujinaga, Ichiro; Paszkiewicz, Filipe; Marcal, Andre R. S.; Guedes, Carlos; Cardoso, Jaime S. (2 de março de 2012). «Optical music recognition: state-of-the-art and open issues». International Journal of Multimedia Information Retrieval (3): 173–190. ISSN 2192-6611. doi:10.1007/s13735-012-0004-6. Consultado em 17 de outubro de 2021 
  36. Laia, Marcos; Schiavoni, Flávio; Madeira, Daniel; Carvalho, Dárlinton; Moreira, João Pedro; Resende, Júlio; Ferreira, Rodrigo (2017). Aramaki, Mitsuko; Kronland-Martinet, Richard; Ystad, Sølvi, eds. «The Framework of Copista: An OMR System for Historical Music Collection Recovery». Cham: Springer International Publishing. Lecture Notes in Computer Science (em inglês): 65–87. ISBN 978-3-319-67738-5. doi:10.1007/978-3-319-67738-5_4. Consultado em 17 de outubro de 2021 
  37. «International Computer Music Association». www.computermusic.org. Consultado em 15 de outubro de 2021 
  38. «SMC Network». smcnetwork.org. Consultado em 15 de outubro de 2021 
  39. «Welcome to the DAFX Conference Web Page». www.dafx.de. Consultado em 15 de outubro de 2021 
  40. «ISMIR». Consultado em 16 de outubro de 2021 
  41. «Audio Engineering Society». Consultado em 16 de outubro de 2021 
  42. «Linux Audio Conference» 
  43. «The Web Audio Conference». Consultado em 16 de outubro de 2021 
  44. «A NIME Reader | SpringerLink» (PDF) (em inglês). doi:10.1007/978-3-319-47214-0.pdf. Consultado em 15 de outubro de 2021 
  45. «Audio Mostly». Consultado em 16 de outubro de 2021 
  46. «International Symposium on Computer Music Multidisciplinary Research | SpringerLink». link.springer.com (em inglês). Consultado em 15 de outubro de 2021 
  47. «Ubiquitous Music 2021». Ubiquitous Music 2021. Consultado em 21 de outubro de 2021 
  48. «Journal of New Music Research». Taylor & Francis (em inglês). Consultado em 16 de outubro de 2021 
  49. «Computer Music Journal | MIT Press». direct.mit.edu. Consultado em 16 de outubro de 2021 
  50. «Leonardo Music Journal». Consultado em 16 de outubro de 2021 
  51. «Organised Sound». Cambridge Core (em inglês). Consultado em 16 de outubro de 2021 
  52. «Compositor Karlheinz Stockhausen morre aos 79 anos de idade». DW Brasil. 7 de dezembro de 2007. Consultado em 22 de outubro de 2021 
  53. «György Ligeti». Composition Today. Consultado em 22 de outubro de 2021 
  54. Harley, James. «Xenakis: His Life In Music». University of Guelph. Consultado em 22 de outubro de 2021 
  55. «Iannis Xenakis Biography». 8notes. Consultado em 22 de outubro de 2021 
  56. DeLaurenti, Cristopher. «The Score». The Score. Consultado em 22 de outubro de 2021 
  57. Eldridge, Richard (setembro de 1995). «Into the Light of Things: The Art of the Commonplace from Wordsworth to John Cage. George J. Leonard.The Romantic Virtuoso. Morse Peckham.». The Wordsworth Circle (4): 176–178. ISSN 0043-8006. doi:10.1086/twc24042707. Consultado em 22 de outubro de 2021 
  58. Koprowski, Richard; Greene, David Mason (junho de 1986). «Greene's Biographical Encyclopedia of Composers». Notes (4). 787 páginas. ISSN 0027-4380. doi:10.2307/897798. Consultado em 22 de outubro de 2021 
  59. «Morre Rogério Duprat, o maestro da Tropicália». G1. 26 de outubro de 2006. Consultado em 22 de outubro de 2021 
  60. «Rogério Duprat». Cliquemusic. Consultado em 22 de outubro de 2021 
  61. «Brian Eno Biography». All Music. Consultado em 22 de outubro de 2021 
  62. «Brian Eno on music that thinks for itself». Wired. 28 de setembro de 2012. Consultado em 22 de outubro de 2021 
  63. «Changes to the BBC Music website». BBC Music. Consultado em 22 de outubro de 2021 
  64. «The Kraftwerk conference: Why a bunch of academics consider the German electropoppers worthy of their own symposium». Indepedent. 21 de janeiro de 2015. Consultado em 22 de outubro de 2021 
  65. Stubbs, David (27 de janeiro de 2013). «Ladies und Gentlemen, the future has arrived». Independent. Consultado em 22 de outubro de 2021 
  66. Buckley, David (outubro de 1994). «Kraftwerk: Man, Machine and Music. By Pascal Bussy. Middlesex: SAF Publishing Ltd., 1993. 192 pp.». Popular Music (3): 363–364. ISSN 0261-1430. doi:10.1017/s0261143000007303. Consultado em 22 de outubro de 2021 
  67. «Tank Boy». The Guardian. Consultado em 22 de outubro de 2021 
  68. Haddon, Mimi (outubro de 2019). «Warp's Music Videos: Affective Communities, Genre and Gender in Electronic/Dance Music's Visual Aesthetic». Journal of British Cinema and Television (4): 571–590. ISSN 1743-4521. doi:10.3366/jbctv.2019.0499. Consultado em 22 de outubro de 2021 
  69. Thrall, Michael Voyne (1997). «Synthese 96: The 26th International Festival of Electroacoustic Music». Computer Music Journal (2). 90 páginas. ISSN 0148-9267. doi:10.2307/3681110. Consultado em 22 de outubro de 2021 
  70. «Japanese pop star Hatsune Miku takes the stage -- as a 3-D hologram». Los Angeles Times. 10 de novembro de 2010. Consultado em 22 de outubro de 2021 
  71. «Hatsune Miku Virtual Idol Performs 'Live' Before 25,000». Anime News Network. 23 de agosto de 2009. Consultado em 22 de outubro de 2021 
  72. «Coldplay - Midnight (live from Ghost Stories TV Special)». YouTube. 13 de agosto de 2014. Consultado em 22 de outubro de 2021 
  73. Vieira, Rômulo; Rocha, Gabriel; Schiavoni, Flávio (26 de outubro de 2020). «Current research on the use of HCI in decision-making to build digital musical instruments: a survey». New York, NY, USA: Association for Computing Machinery. IHC '20: 1–6. ISBN 978-1-4503-8172-7. doi:10.1145/3424953.3426646. Consultado em 22 de outubro de 2021 
  74. «Steve Reich». Red Bull Music Academy. 2010. Consultado em 20 de outubro de 2021 
  75. «Steve Reich – 10 of the best». The Guardian. Consultado em 22 de outubro de 2021 
  76. «Legendary Composer Steve Reich on Making Music with Sibelius». Avid. Consultado em 22 de outubro de 2021 
  77. Britannica, The Editors of Encyclopaedia. "Steve Reich". Encyclopedia Britannica, Invalid Date, https://www.britannica.com/biography/Steve-Reich. Accessed 22 October 2021.
  78. Risset, Jean‐Claude (setembro de 1986). «Pitch and rhythm paradoxes: Comments on Auditory paradox based on fractal waveform [J. Acoust. Soc. Am. 7 9 , 186–189 (1986)]». The Journal of the Acoustical Society of America (em inglês) (3): 961–962. ISSN 0001-4966. doi:10.1121/1.393919. Consultado em 22 de outubro de 2021 
  79. «Jean-Claude Risset». Resources IRCAM. Consultado em 22 de outubro de 2021 
  80. «Jean-Claude Risset 1938-2016». Musicologie. Consultado em 22 de outubro de 2021 
  81. Kirn, Peter. «Jean-Claude Risset, who reimagined digital synthesis, has died». CDM. Consultado em 22 de outubro de 2021