scientists use ai to reconstruct pink floyd using the brain 55m8 - Cientistas usaram IA para reconstruir música de Pink Floyd por meio de atividades cerebrais de pacientes

Cientistas conseguiram reconstruir “Another Brick in the Wall Part 1” do Pink Floyd decodificando a atividade cerebral de pacientes que ouviram a música enquanto esperavam por uma cirurgia no cérebro. Espera-se que a pesquisa, um dia, ajude a conceder uma voz mais expressiva àqueles que sofrem de paralisia e distúrbios de desenvolvimento ou neurológicos.

Os dados usados ​​no estudo foram capturados em 2008 e 2015 por uma coleção de 2.379 eletrodos que foram colocados diretamente no cérebro de 29 indivíduos que aguardavam cirurgia de epilepsia no Albany Medical Center, em Nova York.

Durante esse período, os pacientes ouviram passivamente a música clássica do Pink Floyd, “Another Brick in the Wall, Part 1”, na esperança de que os dados ajudassem os pesquisadores a entender melhor como o cérebro percebe a música.

Em um novo artigo publicado na revista PLOS Biology, os cientistas revelaram que conseguiram decodificar com sucesso a atividade elétrica do córtex auditivo para reconstruir uma versão reconhecível da música do Pink Floyd. A versão reconstruída da música, que foi decodificada a partir de leituras de eletrodos e recodificada em uma peça musical reconhecível usando uma IA., pode ser ouvida aqui.

“A decodificação dos córtices auditivos, que estão mais próximos da acústica dos sons, em oposição ao córtex motor, que está mais próximo dos movimentos que são feitos para gerar a acústica da fala, é super promissora”, explicou o pós-doutorando Ludovic Bellier da Universidade da Califórnia, Berkeley, que foi um dos autores do novo estudo. “Isso dará um pouco de cor ao que está decodificado.”

Um campo totalmente novo para interfaces cérebro-máquina

Os pesquisadores esperam que seu trabalho um dia ajude na criação de um sistema de cérebro para fala que ajude aqueles que sofrem de paralisia a se comunicarem com uma voz rica em elementos musicais como estresse e entonação, que ajudam a transmitir significado além do escopo das palavras entregues roboticamente.

“À medida que todo esse campo de interfaces cérebro-máquina progride, isso oferece uma maneira de adicionar musicalidade a futuros implantes cerebrais para pessoas que precisam, alguém que tenha esclerose lateral amiotrófica ou algum outro distúrbio neurológico de desenvolvimento incapacitante que comprometa a produção da fala”, explicou o co-autor do estudo Robert Knight, que é professor de psicologia na Universidade da Califórnia, Berkeley. “Dá a você a capacidade de decodificar não apenas o conteúdo linguístico, mas parte do conteúdo prosódico da fala, parte do afeto. Acho que é nisso que realmente começamos a decifrar o código.”

Knight espera que os avanços futuros nos sensores de gravação cerebral permitam que esse sistema funcione lendo rapidamente sinais elétricos do lado de fora do crânio, em vez de eletrodos colocados diretamente na superfície do cérebro por meio de cirurgia invasiva, como é o caso atualmente.

Os pesquisadores também puderam confirmar que o hemisfério direito do cérebro humano está mais envolvido com a percepção da música do que o lado esquerdo do cérebro, além de identificar regiões que lidavam com a detecção de ritmos musicais.

*Matéria traduzida por Maria Eduarda Cury.


Inscreva-se no canal do IGN Brasil no Youtube e visite as nossas páginas no Facebook, Twitter, Instagram e Twitch!

Fonte: Via IGN