Anuncios
U.S. markets closed
  • S&P 500

    5,127.79
    +63.59 (+1.26%)
     
  • Dow Jones

    38,675.68
    +450.02 (+1.18%)
     
  • Nasdaq

    16,156.33
    +315.37 (+1.99%)
     
  • Russell 2000

    2,035.72
    +19.61 (+0.97%)
     
  • Petróleo

    77.99
    -0.96 (-1.22%)
     
  • Oro

    2,310.10
    +0.50 (+0.02%)
     
  • Plata

    26.78
    -0.04 (-0.16%)
     
  • dólar/euro

    1.0767
    +0.0039 (+0.37%)
     
  • Bono a 10 años

    4.5000
    -0.0710 (-1.55%)
     
  • dólar/libra

    1.2546
    +0.0013 (+0.11%)
     
  • yen/dólar

    152.9490
    -0.7300 (-0.48%)
     
  • Bitcoin USD

    62,950.73
    +3,894.70 (+6.59%)
     
  • CMC Crypto 200

    1,359.77
    +82.79 (+6.48%)
     
  • FTSE 100

    8,213.49
    +41.34 (+0.51%)
     
  • Nikkei 225

    38,236.07
    -37.98 (-0.10%)
     

La inteligencia artificial ya puede leer la mente de los seres humanos y plasmar sus pensamientos en palabras

Este año se han publicado dos estudios en los que se ha demostrado el desarrollo de interfaces capaces de descodificar el lenguaje continuo mediante grabaciones no invasivas de los pensamientos.

Inteligencia artificial abstracta (Getty Creative)
Inteligencia artificial abstracta (Getty Creative) (Vitalii Gulenok via Getty Images)

La inteligencia artificial no solo es una herramienta destinada a realizar trabajos complejos que hasta ahora solo pueden hacer ingenieros, artistas o programadores. También es un avance que puede ayudar a los seres humanos a alcanzar un grado de sofisticación casi imposible, ni siquiera visto en la ciencia ficción. Y lo más increíble es que ese tipo de avances jamás imaginados están a la vuelta de la esquina. ¿Uno de ellos? La capacidad de leer, literalmente, el pensamiento.

Este 2023 que está a punto de terminar nos ha dejado dos descubrimientos en este sentido. En el primero de ellos, un grupo de científicos desarrolló un sistema que puede leer la mente de una persona y reproducir la actividad cerebral en un flujo de texto, basándose en parte en un modelo de transformador similar a los que impulsan ChatGPT de Open AI y Bard de Google; el segundo, conocido esta misma semana a través de este artículo de New Scientist, otros científicos han utilizado un casco lleno de sensores combinado con inteligencia artificial, para convertir los pensamientos de una persona en palabras escritas.

El primer descubrimiento es un paso importante en el camino hacia el desarrollo de interfaces cerebro-ordenador capaces de descodificar el lenguaje continuo a través de grabaciones no invasivas de los pensamientos. Los resultados se publicaron en un estudio el pasado mes de mayo en la revista Nature Neuroscience, dirigido por Jerry Tang, estudiante de doctorado en informática, y Alex Huth, profesor adjunto de neurociencia e informática en la Universidad de Texas Austin.

Un método no invasivo

El descodificador semántico de Tang y Huth no se implanta directamente en el cerebro, sino que utiliza imágenes de resonancia magnética funcional para medir la actividad cerebral. Para el estudio, los participantes en el experimento escucharon podcasts mientras la IA intentaba transcribir sus pensamientos a texto.

PUBLICIDAD

"Para un método no invasivo, se trata de un verdadero salto adelante en comparación con lo que se ha hecho antes, que suele consistir en palabras sueltas o frases cortas", afirma Alex Huth en el artículo científico. "Estamos consiguiendo que el modelo decodifique un lenguaje continuo durante largos periodos de tiempo con ideas complicadas".

Este tipo de sistemas podría ser especialmente útil para las personas que no pueden hablar físicamente, como las que han sufrido un ictus, y permitirles comunicarse con mayor eficacia.

Según Tang y Huth, los resultados del estudio demuestran la viabilidad de las interfaces cerebro-ordenador no invasivas para el lenguaje. Afirman que el descodificador semántico aún necesita algo más de trabajo y sólo puede proporcionar la "esencia" básica de lo que alguien está pensando. El descodificador de inteligencia artificial produjo un texto que coincidía con el pensamiento del sujeto sólo la mitad de las veces.

La inteligencia artificial ya es capaz de leer, literalmente, el pensamiento. Foto: Getty Images.
La inteligencia artificial ya es capaz de leer, literalmente, el pensamiento. Foto: Getty Images. (Yuichiro Chino via Getty Images)

El descodificador en acción

El estudio ofrece algunos ejemplos del descodificador en acción. En un caso, un sujeto de prueba escuchó y, en consecuencia, pensó la frase "... No sabía si gritar, llorar o salir corriendo, en lugar de eso dije déjame en paz, no necesito tu ayuda, Adam desapareció".

El descodificador reprodujo esta parte de la frase como "... empecé a gritar y a llorar y entonces ella sólo dijo te he dicho que me dejes en paz no puedes hacerme más daño lo siento y entonces él se marchó furioso".

Los investigadores también añadieron que les preocupaba el aspecto de la privacidad mental. "Nos tomamos muy en serio la preocupación de que pueda utilizarse con malos fines y hemos trabajado para evitarlo", argumenta Jerry Tang en Nature Neuroscience. "Queremos asegurarnos de que la gente sólo utiliza este tipo de tecnologías cuando quiere y le ayuda".

Por esta razón, también probaron si el éxito de la descodificación requiere la cooperación de la persona que está siendo descodificada, y descubrieron que la cooperación es absolutamente necesaria para que el descodificador funcione.

Un casco que lee los pensamientos

En el segundo descubrimiento, el más reciente, los participantes en el estudio científico leían pasajes de texto mientras llevaban una gorra que registraba la actividad eléctrica cerebral a través del cuero cabelludo. Estas grabaciones del electroencefalograma (EEG) se convertían en texto mediante un modelo de inteligencia artificial llamado DeWave que interpreta las mediciones. Es decir, que lee los pensamientos.

Chin-Teng Lin, de la Universidad Tecnológica de Sydney (UTS), Australia, afirma que la tecnología no es invasiva, es relativamente barata y fácilmente transportable. Aunque el sistema dista mucho de ser perfecto, con una precisión aproximada del 40%, Lin afirma que los datos más recientes que se están revisando actualmente muestran una mejora de la precisión superior al 60%.

El modelo DeWave se entrenó observando montones de ejemplos en los que las señales cerebrales coincidían con frases concretas, explica Charles Zhou, miembro del equipo en la UTS. Por ejemplo, cuando piensas en decir "hola", tu cerebro envía determinadas señales", explica Zhou. "DeWave aprende cómo se relacionan estas señales con la palabra 'hola' viendo muchos ejemplos de estas señales para diferentes palabras u oraciones", explica en declaraciones recogidas por New Scientist.

Sin duda, dos avances revolucionarios que auguran la llegada de una nueva era: una en la que las máquinas son capaces de acceder a nuestra mente de una forma en la que nadie en la historia ha podido hacerlo.

Más noticias que te pueden interesar:

EN VÍDEO | Microsoft y AFL-CIO acuerdan dialogo sobre IA en el trabajo