La investigación cerebral sobre cómo los humanos escuchan el sonido podría impulsar la próxima generación de dispositivos auditivos

Regístrate gratis para escuchar este artículo.

Gracias. Escuche este artículo usando el reproductor de arriba. ✖

¿Quieres escuchar este artículo GRATIS?

Complete el siguiente formulario para desbloquear el acceso a TODOS los artículos de audio.

Un nuevo estudio de la Universidad Macquarie tiene conocimientos avanzados sobre cómo los humanos determinan de dónde provienen los sonidos y podría revelar el secreto para crear una nueva generación de dispositivos auditivos más adaptables y eficientes, desde audífonos hasta teléfonos inteligentes.

El santo grial de las tecnologías de audio como los audífonos y los implantes es imitar la audición humana, incluida la localización precisa de la fuente de los sonidos, pero el grial sigue siendo difícil de alcanzar.

El enfoque actual para resolver este problema se basa en un modelo desarrollado por ingenieros en la década de 1940 para explicar cómo los humanos localizan una fuente de sonido basándose en diferencias de apenas unas pocas decenas de millonésimas de segundo en el momento en que el sonido llega a cada oído.

El modelo utiliza la teoría de que cada lugar en el espacio está representado por una neurona dedicada en el cerebro humano, cuya única función es determinar de dónde proviene un sonido.

Sus supuestos han estado guiando e influyendo en la investigación (y en las tecnologías de audio) desde entonces.

El único problema es que existen fallos en este enfoque de ingeniería.

Un nuevo artículo de investigaciónr en revista internacional Biología actual realizado por los investigadores de audición de la Universidad Macquarie, el Dr. Jaime Undurraga, el Dr. Robert Luke, la Dra. Lindsey Van Yper, la Dra. Jessica Monaghan y el distinguido profesor David McAlpine, finalmente ha revelado lo que realmente está sucediendo.

Y parece que, al menos en este aspecto, no somos tan diferentes de pequeños mamíferos como los jerbos y los cobayas como podríamos pensar.

¿Una red dedicada?

El autor principal del artículo, el profesor McAlpine, creó por primera vez ondas en el estanque de la investigación sobre la audición hace casi 25 años al desafiar el modelo de ingeniería en un artículo publicado en Neurociencia de la naturaleza.

La vieja guardia se opuso firmemente a su teoría en ese momento, pero él continuó reuniendo pruebas para respaldarla. Pudo demostrar que el antiguo modelo no se aplicaba a una especie tras otra, ni siquiera a la lechuza común, que siempre ha sido el animal emblemático de la escucha espacial.

leer más  “Huellas dactilares ópticas” en un haz de electrones

Sin embargo, demostrarlo en humanos siguió siendo difícil, porque era mucho más difícil mostrar este proceso en acción en el cerebro humano.

El profesor McAlpine y su equipo ahora han podido demostrar que, lejos de tener un conjunto dedicado de neuronas, cada una de las cuales está sintonizada únicamente en un punto del espacio, nuestros cerebros procesan sonidos de la misma forma simplificada que muchos otros mamíferos.

¿Quieres más noticias de última hora?

Suscríbase al boletín diario de Technology Networks, que ofrece noticias científicas de última hora directamente en su bandeja de entrada todos los días.

Suscríbete GRATIS“Nos gusta pensar que nuestro cerebro debe ser mucho más avanzado que el de otros animales en todos los sentidos, pero eso es pura arrogancia”, afirma.

“Para mí estaba claro que se trataba de una función que no requería un cerebro excesivamente diseñado porque los animales vienen en todas las formas y tamaños.

“Siempre se daría el caso de que los humanos usarían un sistema neuronal similar al de otros animales para la escucha espacial, uno que había evolucionado para ser energéticamente eficiente y adaptable”.

La clave para demostrar esto residió en desarrollar una evaluación auditiva que pedía a los participantes del estudio que determinaran si los sonidos que escuchaban estaban enfocados (como sonidos de primer plano) o borrosos (más como ruido de fondo).

Los participantes también se sometieron a imágenes de electro y magnetoencefalografía (EEG y MEG) mientras escuchaban los mismos sonidos.

Las imágenes revelaron patrones que eran los mismos que los de los mamíferos más pequeños y fueron explicados por una red multifuncional de neuronas que codificaban información, incluida la ubicación y el tamaño de la fuente.

leer más  Jamais Vu: Cuando lo familiar se vuelve inquietantemente nuevo

Y cuando escalaron la distribución de estos detectores de ubicación según el tamaño de la cabeza, también fue notablemente parecida a la de los monos rhesus, que tienen cabezas relativamente grandes y cortezas similares a las de los humanos.

“Esa fue la última casilla de verificación y nos dice que los primates que tienen audición direccional utilizan el mismo sistema neuronal simplificado que los pequeños mamíferos”, dice el profesor McAlpine.

“Los jerbos son como los conejillos de indias, los conejillos de indias son como los monos rhesus y los monos rhesus son como los humanos en este sentido.

“Una forma escasa y energéticamente eficiente de circuito neuronal está realizando esta función: nuestro cerebro de jerbo, por así decirlo”.

Pensar de forma más sencilla para construir mejores dispositivos

Estos hallazgos son importantes no sólo para desacreditar una vieja teoría, sino también para el futuro diseño de máquinas de escucha.

También sugieren que nuestros cerebros utilizan la misma red para distinguir de dónde provienen los sonidos que la que utilizan para seleccionar el habla a partir del ruido de fondo.

Esto es importante porque en entornos ruidosos resulta difícil, incluso para personas con audición sana, aislar una única fuente de sonido. Para las personas con problemas de audición, el desafío se vuelve insuperable.

Este “problema del cóctel” también es un factor limitante importante para los dispositivos que utilizan escucha automática, como audífonos, implantes cocleares y teléfonos inteligentes.

Si bien estos sistemas funcionan relativamente bien en espacios silenciosos con uno o dos parlantes, a todos les cuesta aislar una sola voz de muchas, o escuchar si hay un alto nivel de reverberación.

Esto significa que el sonido se convierte en un manto de ruido confuso, lo que obliga a los usuarios de dispositivos auditivos a concentrarse mucho más para distinguir los sonidos individuales.

En los teléfonos inteligentes, se traduce como la incapacidad de distinguir instrucciones habladas tanto en lugares ruidosos como andenes de trenes como en espacios relativamente silenciosos como cocinas donde los azulejos y otros objetos duros pueden generar mucha reverberación.

leer más  Todos los fundadores de la empresa de TI se declararon en quiebra tras impago de sueldos y una causa penal contra el director general.

El profesor McAlpine dice que esto se debe a que la escucha automática actual funciona para recrear fielmente una señal de alta fidelidad, no sobre cómo ha evolucionado el cerebro para traducir esa señal.

Esto tiene repercusiones para las nuevas tecnologías, como los modelos de lenguaje grande (LLM), que son IA que pueden comprender y generar el lenguaje humano, y se utilizan cada vez más en dispositivos de escucha.

“Los LLM son brillantes a la hora de predecir la siguiente palabra de una frase, pero están intentando hacer demasiado”, dice el profesor McAlpine.

“Lo importante aquí es poder localizar la fuente de un sonido y, para ello, no necesitamos un cerebro de lenguaje de ‘mente profunda’. Otros animales pueden hacerlo y no tienen lenguaje.

“Nuestros cerebros no siguen un sonido todo el tiempo, como intentan hacer los grandes procesadores del lenguaje.

“Al igual que otros animales, utilizamos nuestro ‘cerebro superficial’ para seleccionar fragmentos muy pequeños de sonido, incluido el habla, y utilizar estos fragmentos para etiquetar la ubicación y tal vez incluso la identidad de la fuente.

“No tenemos que reconstruir una señal de alta fidelidad para hacer esto, sino que necesitamos entender cómo nuestro cerebro representa esa señal neuronalmente, mucho antes de que llegue a un centro del lenguaje en la corteza.

“Esto nos muestra que una máquina no necesita estar entrenada para el lenguaje como el cerebro humano para poder escuchar con eficacia”.

Referencia: Undurraga JA, Luke R, Yper LV, Monaghan JJM, McAlpine D. La representación neuronal de una señal espacial auditiva en la corteza de los primates. Curr Biol. 2024. doi: 10.1016/j.cub.2024.04.034

Este artículo ha sido republicado desde lo siguiente. materiales. Nota: es posible que el material haya sido editado en cuanto a extensión y contenido. Para obtener más información, póngase en contacto con la fuente citada. Puede acceder a nuestra política de publicación de comunicados de prensa aquí.

2024-05-09 08:50:01
1715245265
#investigación #cerebral #sobre #cómo #los #humanos #escuchan #sonido #podría #impulsar #próxima #generación #dispositivos #auditivos

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.