Inteligencia Artificial: ¿Por qué un grupo de expertos consideran que es un gran riesgo para la humanidad?

Desde desinformación hasta la falta de debate. El uso de la IA también entra al ojo de la tormenta.
Inteligencia Artificial: ¿Por qué un grupo de expertos consideran que es un gran riesgo para la humanidad?

Si el 2023 fue el año de la popularización de la Inteligencia Artificial, el 2024 fue el año de su consolidación. Sin duda fue la aparición de ChatGPT, la herramienta creada por , la “culpable” de su expansión o por lo menos que usuario hasta hace pocos ignorantes de tal tecnología comiencen a saber de ella e incluso, a usarla. A la fecha, son varias las herramientas de IA (que aprovechan algoritmos de aprendizaje automático y redes neuronales para imitar funciones cognitivas humanas) que ya forman parte del día a día. A se ha unido Google Bard, Dall-E. MIdjourney, entre otras.

MIRA: ¿Más humana? OpenAI presentó su nuevo ChatGPT que puede escuchar y hablar en tiempo real

Sin embargo, entre la euforia que existe por estos días, también han aparecido señales de alerta. Y no cualquiera. Hace unos días se conoció que un grupo de empleados actuales y anteriores de la ya famosa Open AI se sumaron a otros trabajadores de empresas de IA para advertir que esta tecnología planea graves riesgos para la humanidad.


Son en total 13 personas las que firman esta carta dirigida a las empresas que están a la vanguardia del desarrollo de esta tecnología. En una mirada general, piden que el debate sobre este tema sea abierto, más incisivo y cuenten con una mayor supervisión. ¿Las razones? Explican que la IA puede exacerbar la desigualdad , aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas.

Tal como lo indica un informe de , estos reclamos ocurren mientras vemos la salida de trabajadores importantes de empresas como Open Ai, que tuvo que ver irse a su cofundador, Ilya Sutskever, y el investigador senior Jan Leike. El diario estadounidense cita a otro ex empleado de Open AI que señaló que dejó la compañía debido que no tomaban en cuenta los riesgos por la Inteligencia Artificial. “Perdí la esperanza de que actuaran de manera responsable, particularmente en lo que respecta a la inteligencia artificial general”, dijo el empleado.

Frente a la carta de advertencia sólo algunas compañías se animaron a dar comentarios. Liz Bourgeois, portavoz de OpenAI, dijo que la compañía está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”.


El logotipo de Open AI en una computadora portátil dispuesta en Crockett, California, EE.UU. (Foto: Bloomberg)


ÉPOCAS DE DESINFORMACIÓN

Por otro lado, otro grupo de expertos hizo también un llamado de atención a la desinformación causada por el uso de la IA. En específico, precisa que esta tecnología permite generar millones de mensajes en pocas horas y discusiones falsas en foros, lo que multiplica a un coste menor el impacto de la desinformación y de las operaciones de injerencia extranjera.

En plenas elecciones en la Unión Europea (llevadas a cabo el último domingo), hubo “una masificación general” de contenidos procedentes del extranjero y la IA “es una nueva etapa en la cadena de automatización de esas publicaciones que permite masificar la producción”, explicó a la agencia AFP Valentin Chatelet, del laboratorio de análisis digital de Atlantic Council (DFRLab).

Por otro lado, según los datos del colectivo Antibot4Navalny, que rastrea las operaciones de influencia digital vinculadas a Rusia, miles de bots (cuentas automáticas) se utilizan diariamente para propaganda prorrusa en la red social X.

OpenAI indicó a finales de mayo que grupos de influencia rusos, chinos, iraníes y una “empresa comercial de Israel” utilizaron sus programas para intentar manipular la opinión pública en otros países. Los contenidos producidos abarcaban una “amplia gama de temas, entre ellos la invasión de Ucrania, el conflicto de Gaza (o) las elecciones indias” e incluían “principalmente texto y a veces imágenes, como dibujos” satíricos, según OpenAI.

El futuro de la IA, como vemos, continúa incierto. Quizás el camino más necesario sea el que plantean los exempleados de las grandes compañías tecnológicas: mayor debate y transparencia. El momento es ahora.



ESTE VIDEO TE PUEDE INTERESAR

Infectólogo Juan Celis sobre viruela del mono en Perú



Tags Relacionados:

Más en Tecnología

Cinco consejos esenciales para proteger tus datos en los aeropuertos

Robo de cuentas de WhatsApp: ¿Cómo mantenerte seguro y evitar fraudes?

¡Un héroe en el juego y en casa! La creciente tendencia de los padres geek

El doble de las empresas usa IA generativa a nivel global

Inteligencia Artificial: ¿Por qué un grupo de expertos consideran que es un gran riesgo para la humanidad?

WWDC 2024: Todo lo que Apple reveló sobre la inteligencia artificial y su nuevo sistema operativo

Siguiente artículo