
Neurocientíficos reconstruyen canción de Pink Floyd desde ondas cerebrales
8 de julio de 2025

Un equipo de neurocientíficos de la Universidad de Berkeley, California, ha logrado un avance significativo al utilizar inteligencia artificial para reconstruir la canción “Another Brick In The Wall, Part 1” de Pink Floyd a partir de las ondas cerebrales de pacientes sometidos a cirugía de epilepsia mientras escuchaban la música.
La investigación representa un importante avance en neurociencia y neurotecnología, pues traduce directamente la actividad cerebral en música, lo que abre puertas a aplicaciones clínicas para pacientes con discapacidades neurológicas severas.
La posibilidad de decodificar sonidos y música desde la actividad cerebral podría revolucionar dispositivos de comunicación asistida y la comprensión de cómo el cerebro procesa la información auditiva y emocional. Utilizar una canción icónica de Pink Floyd, reconocida mundialmente, como modelo ha servido para demostrar la capacidad del método y sus aplicaciones futuras.
El estudio, publicado en la revista PLOS Biology, representa un hito mundial, siendo la primera vez que una canción se recrea directamente a partir de grabaciones de actividad cerebral.
Los investigadores analizaron los registros cerebrales de 29 pacientes tratados en el Centro Médico Albany en Nueva York entre 2009 y 2015.
Los pacientes tenían electrodos implantados en el cerebro como parte de su tratamiento para epilepsia, lo que permitió a los científicos registrar la actividad neuronal mientras escuchaban música. En total se emplearon 2,668 electrodos, de los cuales 347 estaban relacionados específicamente con la percepción musical.
El resultado fue la reconstrucción sonora de la canción de Pink Floyd, donde la frase icónica “All in all it’s just another brick in the wall” y los patrones rítmicos se mantuvieron reconocibles. Aunque la calidad del sonido tiene un efecto similar a escuchar bajo el agua, los científicos celebran este logro pionero.
Este avance demuestra que las señales cerebrales pueden ser traducidas para captar elementos musicales del habla, como la prosodia, que incluye ritmo, acentuación y entonación, elementos que transmiten significados más allá de las palabras mismas.
Los investigadores creen que estos hallazgos abren nuevas posibilidades para comprender cómo el cerebro procesa la música y podrían impulsar el desarrollo de dispositivos protésicos que mejoren la percepción del ritmo y la melodía, especialmente para personas con afecciones neurológicas como esclerosis lateral amiotrófica (ELA), daño cerebral traumático o parálisis.
Las interfaces cerebro-computadora podrían permitir que estos pacientes se comuniquen de manera más natural y efectiva.



