Nuevos artículos
"Dos contadores, una solución": Cómo el cerebro combina sonido e imagen para pulsar un botón más rápido
Último revisado: 18.08.2025

Todo el contenido de iLive se revisa médicamente o se verifica para asegurar la mayor precisión posible.
Tenemos pautas de abastecimiento estrictas y solo estamos vinculados a sitios de medios acreditados, instituciones de investigación académica y, siempre que sea posible, estudios con revisión médica. Tenga en cuenta que los números entre paréntesis ([1], [2], etc.) son enlaces a estos estudios en los que se puede hacer clic.
Si considera que alguno de nuestros contenidos es incorrecto, está desactualizado o es cuestionable, selecciónelo y presione Ctrl + Intro.

Cuando percibimos un crujido en la hierba y una sombra parpadeante, reaccionamos más rápido que si solo hubiera un sonido o un destello. Clásico. Pero ¿qué ocurre exactamente en el cerebro en esas fracciones de segundo? Un nuevo artículo publicado en Nature Human Behaviour muestra que la visión y la audición acumulan evidencia por separado y, en el momento de la decisión, su "suma" activa un único mecanismo motor. En otras palabras, hay dos acumuladores sensoriales en la cabeza que coactivan un único mecanismo motor.
Fondo
Cómo el cerebro toma decisiones rápidas en un “mundo ruidoso” de sonidos e imágenes es una pregunta de siglos de antigüedad, pero sin una respuesta clara. Desde finales del siglo XIX y del siglo XX, el “efecto de señales redundantes” (RSE) se conoce en psicofísica: si un objetivo se presenta simultáneamente en dos modalidades (por ejemplo, un destello y un tono), la reacción es más rápida que con una sola señal. La disputa giraba en torno al mecanismo: una “carrera” de canales independientes (modelo de carrera), donde gana el proceso sensorial más rápido, o la coactivación, donde la evidencia de diferentes modalidades realmente se suma antes de desencadenar una respuesta. Las pruebas formales (como la desigualdad de Miller) ayudaron a nivel conductual, pero no mostraron dónde ocurre exactamente el “pliegue”, si en el lado de los acumuladores sensoriales o ya en el disparador motor.
Durante los últimos 10 a 15 años, la neurofisiología ha ofrecido marcadores fiables de estas etapas latentes. En particular, la positividad centroparietal (CPP), una señal de EEG supramodal de "acumulación hasta el umbral" que se ajusta bien a los modelos de deriva-difusión para la toma de decisiones, y la reducción beta (~20 Hz) en la corteza motora izquierda como indicador de preparación para el movimiento. Estas señales han permitido vincular modelos computacionales con circuitos cerebrales reales. Sin embargo, persisten lagunas clave: ¿se acumulan las pruebas auditivas y visuales en uno o dos acumuladores separados? ¿Existe un único umbral motor para la toma de decisiones multimodal, o cada modalidad se evalúa con criterios separados?
Una complicación adicional es la sincronización. En condiciones reales, la visión y la audición presentan desincronizaciones de microsegundos a milisegundos: un ligero desfase temporal puede ocultar la verdadera arquitectura del proceso. Por lo tanto, se necesitan paradigmas que controlen simultáneamente la regla de respuesta (responder a cualquier modalidad o solo a ambas a la vez), varíen la asincronía y permitan combinar las distribuciones conductuales de los tiempos de reacción con la dinámica de los marcadores EEG en un único modelo. Este enfoque nos permite distinguir la «suma de acumuladores sensoriales con el consiguiente arranque motor único» de los escenarios de «carrera de canales» o «fusión temprana en un único flujo sensorial».
Finalmente, existen motivaciones prácticas más allá de la teoría básica. Si los acumuladores sensoriales están efectivamente separados y el desencadenante motor es compartido, entonces, en grupos clínicos (p. ej., parkinsonismo, TDAH, trastornos del espectro) el cuello de botella puede residir en diferentes niveles: en la acumulación, en la convergencia o en la preparación motora. Para las interfaces hombre-máquina y los sistemas de alerta, la fase y la sincronización de las señales son cruciales: la sincronización correcta del sonido y la imagen debe maximizar la contribución conjunta al umbral motor, y no simplemente "aumentar el volumen/brillo". Estas preguntas son el contexto de un nuevo artículo publicado en Nature Human Behaviour, que explora la detección multimodal simultáneamente a nivel de comportamiento, dinámica del EEG (CPP y beta) y modelado computacional.
¿Qué descubrieron exactamente?
- En dos experimentos de EEG (n=22 y n=21), los participantes detectaron cambios en una animación de puntos (visión) y una serie de tonos (audición) al presionar un botón cuando alguno de ellos cambiaba (detección redundante) o solo cuando ambos cambiaban (detección conjuntiva).
- Los investigadores monitorearon un "contra" de evidencia neuronal —la positividad centroparietal (CPP)— y la dinámica de la actividad beta del hemisferio izquierdo (~20 Hz) como marcador de la preparación para el movimiento. Estas señales se compararon con distribuciones de tiempo de reacción y modelos computacionales.
- En resumen: la evidencia auditiva y visual se acumulan en procesos separados y, cuando se detectan de manera redundante, su contribución acumulativa coactiva de manera subaditiva (menos que una simple suma) un proceso motor umbral: el "desencadenante" mismo de la acción.
Un detalle importante es la comprobación de la "falta de sincronización". Cuando los investigadores introdujeron una pequeña asincronía entre las señales auditivas y visuales, un modelo en el que los acumuladores sensoriales primero integran y luego informan al sistema motor explicó los datos mejor que la "competición" entre los acumuladores. Esto refuerza la idea de que los flujos sensoriales fluyen en paralelo, pero convergen en un único nodo de decisión motora.
Por qué necesitas saber esto (ejemplos)
- Clínica y diagnóstico. Si los acumuladores sensoriales están separados y el umbral motor es común, diferentes grupos de pacientes (con TEA, TDAH, parkinsonismo) pueden esperar diferentes "nódulos de ruptura": en acumulación, en convergencia o en activación motora. Esto facilita el diseño de biomarcadores y el entrenamiento de atención/reacción con mayor precisión.
- Interfaces hombre-máquina: el diseño de señales de advertencia e interfaces multimodales puede beneficiarse de una sincronización óptima de las señales sonoras y visuales, de modo que la coactivación motora sea más rápida y estable.
- Modelos neuronales de toma de decisiones. Los resultados vinculan las controversias conductuales a largo plazo (raza vs. coactivación) con marcadores electroencefalográficos específicos (CPP y ritmo beta de la corteza motora), acercando los modelos computacionales a la fisiología real.
Cómo se hizo (metodología, pero brevemente)
- Paradigmas: redundante (responde a cualquier modalidad) y conjuntivo (responde solo a ambas a la vez): una técnica clásica que permite ponderar la contribución de cada rama sensorial. Además, se incluye un experimento independiente con una asincronía dada entre audio y video.
- Neuroseñales:
- CPP - índice “supramodal” de acumulación de evidencia sensorial hasta el umbral;
- La disminución de la beta en la corteza motora izquierda es un indicador de preparación para el movimiento. La comparación de sus perfiles temporales mostró diferentes amplitudes de la CPP para los objetivos auditivos y visuales (señal de acumuladores separados) y un impulso conjunto del mecanismo beta (señal de un umbral motor común).
- Simulación: Ajuste conjunto de las distribuciones conductuales de RT y la dinámica del EEG. El modelo con integración de acumuladores sensoriales antes del nodo motor resultó ganador en la comparación, especialmente en presencia de asincronía.
¿Qué cambia esto en la imagen cerebral?
- Multimodalidad ≠ "mezclar y olvidar". El cerebro no concentra toda la evidencia en un solo recipiente; mantiene registros paralelos en todos los canales, y la integración ocurre más cerca de la acción. Esto explica por qué las señales multimodales aceleran el tiempo de reacción: activan conjuntamente la misma señal motora.
- La subaditividad es la norma. La suma de las entradas sensoriales es menor que la simple aritmética, pero suficiente para alcanzar el umbral motor más rápidamente. Por lo tanto, el objetivo de la interfaz no es añadir volumen y brillo, sino sincronizar la convergencia.
- Un puente entre la psicofísica y la neurofisiología: los antiguos efectos de “señales redundantes” conductuales reciben una explicación mecanicista a través de CPP y marcadores beta.
Limitaciones y el siguiente paso
- La muestra está compuesta por adultos sanos en pruebas de laboratorio; las conclusiones clínicas son la siguiente etapa. Se requieren pruebas en pacientes y en entornos multimodales naturales.
- El EEG proporciona una excelente imagen temporal pero espacial limitada; es lógico complementarlo con registro MEG/invasivo y modelos de conectividad efectivos.
- La teoría predice que el entrenamiento en la sincronización de señales audiovisuales debería mejorar selectivamente la etapa motora sin cambiar los acumuladores sensoriales: esta es una hipótesis comprobable en tareas aplicadas (deportes, aviación, rehabilitación).
Resumen
El cerebro mantiene contadores separados para la visión y la audición, pero decide con un solo botón. Al comprender exactamente dónde se produce la "transferencia" de la información sensorial a la acción, podemos ajustar con mayor precisión los diagnósticos, las interfaces y la rehabilitación, desde los cascos de piloto hasta la telemedicina y la neuroeducación de la atención.
Fuente: Egan, J. M., Gomez-Ramírez, M., Foxe, J. J. et al. Distintos acumuladores auditivos y visuales coactivan la preparación motora para la detección multisensorial. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02280-9