La investigadora postdoctoral Erin Kunz posee una red de microelectrodos que se pueden colocar en la superficie del cerebro como parte de una interfaz cerebral.
Jim Gensheimer
esconder
leyenda inclinada
Jim Gensheimer
Los dispositivos establecidos quirúrgicamente que permiten a las personas paralizadas hablar también pueden escuchar su monólogo interno.
Esta es la conclusión de un estudiar de interfaces cerebrales (Bcis) en el periódico Celúla.
La observación podría conducir a BCIS que permiten a los usuarios paralizados producir un discurso sintetizado más rápido y con menos esfuerzo.

Pero la idea de que la nueva tecnología puede decodificar la voz interior de una persona es “inquietante”, dice RebañoProfesor de Derecho y Filosofía en la Universidad de Duke y autor del libro: Batalla por tu cerebro.
“Cuanto más impulsamos esta investigación, más transparente se vuelve nuestro cerebro”, dijo Farahany, y agregó que las medidas para proteger la privacidad de las personas están retrasando la tecnología que decodifica las señales en el cerebro.
De la señal cerebral al habla

Los BCI pueden decodificar la palabra utilizando pequeños electrodos de electrodos que monitorean la actividad en la corteza del motor del cerebro, que controla los músculos involucrados en el habla. Hasta ahora, estos dispositivos se han basado en las señales de producto cuando una persona paralizada intenta decir una palabra o una oración.
“Grabamos las señales porque intentan hablar y reflejar estas señales neuronales en las palabras que están tratando de decir”, dijo Erin KunzInvestigador postdoctoral en el Laboratorio de Traducción para Prostasis Neural de la Universidad de Stanford.
Basado en las señales de producto cuando una persona paralizada intenta el discurso le permite a esta persona apretar mentalmente el labio y evitar caminar. Pero eso también significa que deben hacer un esfuerzo concertado para transmitir una palabra o una oración, lo que puede ser agotador y largo.

Kunz y un equipo de científicos, por lo tanto, decidieron encontrar una mejor manera, estudiando las señales cerebrales de cuatro personas que ya usaban BCI para comunicarse.
El equipo quería saber si podía decodificar señales cerebrales que son mucho más sutiles que las producidas por intentar discurso. El equipo quería decodificar imaginado discurso.
Durante el intento de discurso, una persona paralizada hace todo lo posible para producir físicamente palabras pronunciadas, incluso si ya no pueden. En un discurso imaginado o interior, el individuo simplemente piensa en una palabra o una oración, tal vez imaginando cómo se vería.

El equipo descubrió que el discurso imaginario produce señales en la corteza del motor que son similares, pero más débiles que las del intento de discurso. Y con la ayuda de la inteligencia artificial, pudieron traducir estas señales más débiles en palabras.
“Pudimos obtener oraciones de decodificación de precisión del 74% de un vocabulario de 125,000 palabras”, explica Kunz.
La decodificación del discurso interno de una persona ha hecho que la comunicación sea más rápida y fácil para los participantes. Pero Kunz dice que el éxito ha planteado una pregunta incómoda: “Si el discurso interno es lo suficientemente similar al intento de habla, ¿podría huir involuntariamente cuando alguien usa un BCI?”

Su investigación sugirió que esto podría, en ciertas circunstancias, como cuando una persona recordó en silencio una secuencia de direcciones.
Protección de contraseña?
Por lo tanto, el equipo intentó dos estrategias para proteger la confidencialidad de los usuarios de BCI.
En primer lugar, programaron el dispositivo para ignorar las señales del discurso interior. Esto funcionó, pero eliminó la velocidad y la facilidad asociadas con la decodificación del discurso interno.
Por lo tanto, Kunz dice que el equipo tomó prestado un enfoque utilizado por asistentes virtuales como Alexa y Siri, quienes solo se despiertan cuando escuchan una oración específica.
“Hemos elegido Chitty Chitty Bang Bang, porque no sucede con demasiada frecuencia en las conversaciones y es muy identificable”, explica Kunz.
Esto permitió a los participantes controlar cuándo su discurso interno podría decodificarse.
Pero las garantías han intentado en el estudio “supongamos que podemos controlar nuestro pensamiento de una manera que realmente no corresponde a la forma en que funcionan nuestras mentes”, dice Farahany.
Por ejemplo, dice Farahany, los participantes del estudio no pudieron evitar que el BCI decodificara las cifras que pensaban, incluso si no tenían la intención de compartirlas.
Esto sugiere que “la frontera entre el pensamiento público y privado puede ser más vago de lo que suponemos”, dice Farahany.
Los problemas de confidencialidad son menos un problema con BCI quirúrgicamente, que los usuarios entienden bien y estarán regulados por la Administración de Alimentos y Medicamentos cuando lleguen al mercado. Pero este tipo de educación y regulación puede no extenderse al próximo BCIS de los consumidores, que probablemente se usará como techos y se utilizará para actividades como jugar videojuegos.
Los primeros dispositivos de consumo no serán lo suficientemente sensibles como para detectar palabras, así como los dispositivos establecidos, dice Farahany. Pero el nuevo estudio sugiere que la capacidad podría agregarse algún día.
Si este es el caso, dice Farahany, compañías como Apple, Amazon, Google y Meta podrían saber lo que está sucediendo en la mente de un consumidor, incluso si esta persona no tiene la intención de compartir la información.
“Debemos reconocer que esta nueva era de transparencia cerebral es realmente una frontera completamente nueva para nosotros”, dijo Farahany.
Pero es alentador, dice, que los científicos ya están pensando en formas de ayudar a las personas a mantener sus pensamientos privados privados.