/getHTML/media/1239557
Gobierno se endeudará por aviones de guerra y no para seguridad| La Voz del 21
/getHTML/media/1239537
José Baella sobre caso Vladimir Cerrón: "Se debería investigar la contradicción de la Policía"
/getHTML/media/1239536
Fuad Khoury: "No es el momento para invertir en aviones de guerra"
/getHTML/media/1239269
Impulsared: el programa que promueve el desarrollo a través del emprendimiento
/getHTML/media/1239371
Romy Chang sobre 'Chibolín': "La caución asegura la permanencia de Elizabeth Peralta"
/getHTML/media/1239361
José Carlos Mejía, abogado de agente 'Culebra' habla sobre supuesto atentado: "Han sido dos extraños incidentes"
/getHTML/media/1239253
Dina Boluarte endeudará al Perú por S/ 7,500 millones para comprar 12 aviones de combate
/getHTML/media/1239252
Adrián Simons: "Tipificar terrorismo urbano no soluciona nada"
/getHTML/media/1239251
Todo lo que debes saber sobre el sorteo 'Escapada de Primavera'
/getHTML/media/1239126
Gobierno de Dina Boluarte sin rumbo ante criminalidad | La Voz del 21
/getHTML/media/1239123
Víctor García Toma: "El JNE debió anular la inscripción de A.N.T.A.U.R.O"
/getHTML/media/1239120
Mariano González: "Este gobierno-Dina Boluarte- representa más al crimen que a los peruanos"
/getHTML/media/1239127
Malena Morales de Alicorp y su compromiso con los emprendedores peruanos en Marcas y Mercados
/getHTML/media/1238304
Los mejores libros del siglo XXI según The New York Times | Biblioteca de Fuego
/getHTML/media/1238207
118 mujeres han sido víctimas de feminicidio en lo que va de 2024
PUBLICIDAD

Inteligencia Artificial logró leer el pensamiento humano y traducirlo en palabras

Científicos de la Universidad de Texas desarrollaron un modelo de IA que, mediante una resonancia magnética, produjo una descripción precisa de aquello que tres participantes pensaban cuando se les hizo sintonizar un podcast, monólogos de un programa de radio y una película muda.

Imagen
Fecha Actualización
Leer la mente a través de la tecnología ya no es ciencia ficción. Este lunes, un equipo de investigadores de la Universidad de Texas, liderado por Jerry Tang y Alex Huth, publicó un avance de su trabajo en el que consiguió captar el sentido de lo pensado y la interpretación de la mente humana a través una herramienta de la inteligencia artificial sin necesidad de utilizar implantes cerebrales.
El estudio fue publicado en un artículo en la revista Nature Neuroscience este lunes y realiza la descripción del experimento, en el que los participantes estuvieron echados dentro de un escáner escuchando podcast durante 15 horas para entrenar la inteligencia artificial y, luego, se les mostraron cuatro videos.
La herramienta, denominada por ellos como “decodificador semántico”, fue capaz de describir de forma ajustada la historia de lo que el participante observaba o imaginaba. Esto fue contando durante la mitad del tiempo total del experimento aproximadamente.
Como muestra de esto, la frase de un voluntario fue “no sabía si gritar, huir o llorar; en vez de eso, ¡déjame en paz!”. La máquina lo tradujo en “empezó a gritar y llorar. Entonces, ella dijo `te dije que me dejaras en paz”. El decodificador semántico también pudo verbalizar lo que pensaban, pero sobre todo lo que pasaba por la cabeza de los participantes del estudio americano.
Las personas que fueron parte del experimento escucharon un podcast del New York Times y monólogos de un popular programa de radio The Moth Radio Hour, mientras les escaneaban la actividad cerebral mediante escáneres fMRI.
El escáner cerebral no es invasivo, pues utiliza un gorro lleno de electrodos. De esta forma, envía la información a un decodificado que convierte las gráficas no solo en frases completas, sino en textos que reproducían con gran fidelidad lo que habían visto u oído.
“Nos sorprendió un poco que funcione tan bien como lo hace. He estado trabajando en esto por 15 años y fue emocionante cuando al final funcionó”, declaró Huth, el neurocientífico que dirigió el trabajo en la Universidad de Texas, en una rueda de prensa virtual. “Se trata del GPT original, no como el nuevo [ChatGPT se apoya en la última versión de GPT, la 4]. Recopilamos una tonelada de datos y luego construimos este modelo, que predice las respuestas cerebrales a las historias”, completó
VIDEO RECOMENDADO