El lanzamiento de , ahora en su versión 4, nos acerca significativamente a la construcción de entidades con inteligencia artificial general (AIG), algo que hasta hace poco solo resultaba imaginable en los escritos de ciencia ficción. Si bien estos sistemas tienen el potencial de impulsar el progreso científico y generar gran bienestar para la humanidad, también nos plantean enormes desafíos y riesgos existenciales.

Por sistemas AIG me refiero a plataformas capaces de trascender ámbitos específicos de conocimiento, con respuestas y aplicaciones de uso amplio y múltiple. Los avances en la configuración de redes neuronales artificiales que emulan la forma como nuestros cerebros procesan la información y aprenden de ella, está facilitando la emergencia de estas plataformas, cada vez más potentes y sofisticadas.

El crecimiento exponencial del procesamiento computacional y el volumen de información digitalizada (el corpus entero de Internet) han resultado fundamentales para entrenar los grandes modelos de lenguaje detrás de ChatGPT, con miles de millones de parámetros y creciendo. Esto le permite a las nuevas plataformas sostener conversaciones, redactar ensayos, escribir poesía (bastante mala todavía) y hasta elaborar programas de cómputo.

Sin embargo, el potencial más importante de la AIG no es está en el diseño de Chatbots, sino en la investigación e innovación en campos tan diversos como la química, biología, ciencia de materiales, física, entre otros. Para muestra, AlphaFold2 de DeepMind, que develó el año pasado las estructuras de 200 millones de proteínas, tarea que hasta ahora había evadido al talento humano.

Al ritmo del progreso actual, en breve los sistemas AIG podrían resultar más inteligentes, por varios órdenes de magnitud, que cualquier ser humano. ¿Será entonces posible controlar sus motivaciones –si acaso cabe hablar de tal concepto–, o asegurar que su funcionamiento esté alineado con nuestros intereses? ¿Y qué si los objetivos de estos nuevos sistemas colisionan con los nuestros?

Tampoco podemos descartar la posibilidad de que estas plataformas superinteligentes desarrollen algún tipo de “conciencia”, producto de la complejidad de las redes neuronales que las impulsan y cuyo funcionamiento aún no logramos comprender del todo. ¿Les reconoceríamos entonces algún tipo de agencia? ¿Podrían ser sujetos de derechos? Estamos frente a debates éticos que resultan fundamentales para orientar el desarrollo futuro de estas nuevas tecnologías.

No en vano, colectivos de connotados científicos y empresarios se vienen movilizando para plantear una moratoria al desarrollo de la AIG debido a las grandes amenazas que la misma podría representar para nuestra supervivencia.

Como nos lo recuerda el neurocientífico Erick Hoel, conviene no perder de vista lo que sucedió la última vez que compartimos el planeta con otros seres inteligentes, hace más de 300 mil años. Entonces, el Homo sapiens se impuso a las otras nueve especies de homínidos a las que logró desplazar en virtud de su mayor inteligencia y capacidad adaptativa. De aquellos rivales hoy solo nos queda el rastro de algunos restos fósiles. Si no actuamos con cautela, podría ocurrir lo mismo, pero al revés, con la AIG.

VIDEO RECOMENDADO

Entrevista a Álvaro Reyes sobre Alejandro Toledo

TAGS RELACIONADOS