/getHTML/media/1231610
Día Del Gato: ¿Los peruanos somos gatunos? en Ciudadanos & Consumidores
/getHTML/media/1231609
Postergan audiencia de prisión preventiva contra Nicanor Boluarte
/getHTML/media/1231608
Ganador de "El reloj Centenario" de Universitario: "Soy hincha de la U desde niño"
/getHTML/media/1231597
Elio Riera, abogado de Alberto Fujimori presenta pedido para prescripción del caso Pativilica
/getHTML/media/1231467
¿El Poder Judicial dictará prisión preventiva contra Nicanor?
/getHTML/media/1231466
Sonia Cunliffe y la importancia de la memoria en Ciudad de Cuentos
/getHTML/media/1231454
Aníbal Quiroga: ¿TC admitirá demanda competencial en favor de Dina? La voz del 21
/getHTML/media/1231439
Luis Vivanco, abogado de Nicanor Boluarte: "Mi cliente se pondrá a derecho"
/getHTML/media/1231099
Congreso le corta los dientes a la Sunedu
/getHTML/media/1231096
¿Es momento de aumentar el salario mínimo vital?
/getHTML/media/1231089
Gobierno de Dina cobrará impuestos a toda aplicación digital
/getHTML/media/1230926
¿Se merecía Patricia Chirinos ser expulsada a insultos de un bar en Barranco?
/getHTML/media/1230913
¿Qué esconde la creación del Ministerio de Seguridad Pública?
/getHTML/media/1230465
¿Alberto Fujimori merece una pensión vitalicia?
PUBLICIDAD
¿DEBEMOS PREOCUPARNOS?

ChatGPT: ¿Sam Altman tiene un botón de apagado de emergencia para la IA?

El hombre que dirige OpenAI, la empresa creadora de ChatGPT y protagonista principal de la revolución de la Inteligencia Artificial (IA) se ha convertido en uno de los más poderosos del mundo y su alcance ha despertado la preocupación de muchos, no solo en el ámbito tecnológico. 

Imagen
Sam Altman (AFP)
Sam Altman. (AFP)
Fecha Actualización

Sam Altman, el hombre detrás de OpenAI y del desarrollo de ChatGPT, la Inteligencia Artificial (IA) que más llama la atención de los medios y el mundo, poco a poco se ha convertido en uno de los personajes más poderosos del planeta, pero los comentarios de exempleados y gente que lo ha conocido en el ámbito del desarrollo de esta tecnología, despiertan preocupaciones. 

Un hecho peculiar que no ha pasado desapercibido por muchos y que ha fomentado toda una serie de especulaciones es la enigmática mochila azul que Altman parece llevar siempre consigo. En ella, se cree, estaría la laptop con el botón de apagado de emergencia de la IA. Una suerte de maletín nuclear que todo presidente estadounidense tiene para lanzar la poderosa arma, solo que en el caso de Altman, sería un botón que apagaría la IA en caso esta se vuelva contra la humanidad y la ponga en peligro. 

MIRA: Sandro Marcone sobre la IA en las aulas: “Hay que replantear las tareas, cómo utilizan esta herramienta”

Sin embargo, este hecho parece ser solo un rumor que se ha tejido en las redes sociales a manera de teoría conspirativa, pues el mismo Altman parece haber desmentido la existencia de un botón del pánico en una entrevista concedida a The Economist.

"No hay un gran botón rojo mágico que tenemos, que volaría el centro de datos, que creo que la gente asume que existe. No es una decisión binaria, de “vamos / para”, son varias decisiones pequeñas por el camino que permiten esto, no permiten aquello, cómo predecir cuáles serán los riesgos del futuro, cómo mitigarlos, aplicar este nuevo valor aquí, cosas así", se le escucha explicar.

 

¿EL HOMBRE MÁS PODEROSO DEL MUNDO?

 

Sin embargo, algo parece haber cambiado desde que sucedió el mediático despido intempestivo de Altman de OpenAI y su posterior reposición. Pues desde este suceso, una serie de renuncias a la compañía de miembros, principalmente del área que aparentemente vela porque la IA se mantenga dentro de los parámetros seguros, ha despertado la preocupación de los que siguen de cerca los avances de esta prometedora tecnología. 

A esto se suman las denuncias de que la compañía de tecnología obliga a sus empleados a firmar acuerdos de desvinculación con cláusulas de no desprestigio al momento de dejar la empresa. Si te niegas a firmar uno, renuncias a tu participación en la empresa, lo que significa que potencialmente perderás millones de dólares.

Imagen
Sam Altman

Pese a todo esto, ya han salido a la luz los comentarios de varios exempleados que critican las labores internas de la compañía en detrimento de la seguridad y el control sobre esta tecnología, todo esto con la finalidad de construir una inteligencia artificial general (IAG), un sistema hipotético que puede funcionar a niveles humanos o sobrehumanos en muchos dominios.

Uno de estos exempleados que se negó a firmar el acuerdo de salida es Daniel Kokotajlo, que se unió a OpenAI en 2022 con la esperanza de orientarla hacia una implementación segura de la IA y trabajó en el equipo de gobernanza hasta que renunció en abril de este año.

“OpenAI está entrenando sistemas de inteligencia artificial cada vez más potentes con el objetivo de superar en algún momento la inteligencia humana en todos los ámbitos. Esto podría ser lo mejor que le haya pasado a la humanidad, pero también podría ser lo peor si no procedemos con cuidado”, reveló Kokotajlo, según informa Vox.

Imagen
Sam Altman

“Me uní con la esperanza de que OpenAI estuviera a la altura de las circunstancias y se comportara de manera más responsable a medida que se acercaran a lograr la IAG. Poco a poco, a muchos de nosotros nos quedó claro que eso no sucedería. Poco a poco perdí la confianza en el liderazgo de OpenAI y en su capacidad para manejar de manera responsable la IAG, así que renuncié”, agrega.

Jan Leike, líder del equipo de superalineación de la empresa, encargado de garantizar que la IA se mantenga alineada con los objetivos de sus creadores, en lugar de actuar de manera impredecible y dañar a la humanidad, también renunció a la empresa y explicó en un extenso hilo un panorama muy similar. "He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura", escribió.

A estas renuncias se suman otros exempleados como William Saunders, un ingeniero de investigación que dejó OpenAI en febrero, Carroll Wainwright, Jacob Hilton y Daniel Ziegler. Todos ellos firmaron una carta abierta dirigida a la compañía en la que expresan sus preocupaciones y que también ha sido respaldada por varios empleados actuales de OpenAI, pero de forma anónima, según informa el New York Times.

Todos coinciden en que OpenAI, que comenzó como un laboratorio de investigación sin fines de lucro y se hizo público con el lanzamiento de ChatGPT en 2022, ahora está dando prioridad a las ganancias y el crecimiento a medida que intenta construir la IAG, capaz de hacer cualquier cosa que un humano pueda hacer.

 

VIDEO RECOMENDADO

 

 

 

 

 

PUBLICIDAD
PUBLICIDAD