/getHTML/media/1240601
Gobierno de Dina manda a Harvey Colchado a cuidar un puente
/getHTML/media/1240600
Lo último de la selección nacional, el paro de transportistas y más
/getHTML/media/1240485
Todo sobre el paro de transportista
/getHTML/media/1240475
Paro de transportistas: Roman Nazario sobre tiendas cerradas en Mesa Redonda
/getHTML/media/1240332
Tornados se avecinan en Florida antes del huracán Milton
/getHTML/media/1240329
Franco Olcese: "Dina Boluarte no tolera las críticas"
/getHTML/media/1240045
¿Crisis en el Transporte por extorsiones?
/getHTML/media/1240015
Unión de gremios de transporte multimodal: "Si el Congreso no deroga la ley vamos al paro indefinido"
/getHTML/media/1240027
Carlos Anderson sobre compra de aviones de guerra: "Hay gato encerrado"
/getHTML/media/1240017
"Comprar aviones de guerra por $3 500 millones equivale casi al 1% del PBI"
/getHTML/media/1240025
¿Los peruanos quieren irse del país? en Ciudadanos & Consumidores
/getHTML/media/1239669
Ricardo Briceño, expresidente de la Confiep: "Pido simplemente justicia, no compasión"
/getHTML/media/1239666
Eduardo Pérez Rocha: "Que la Policía diga la verdad, Vladimir Cerrón se fue del país"
/getHTML/media/1239537
José Baella sobre caso Vladimir Cerrón: "Se debería investigar la contradicción de la Policía"
/getHTML/media/1239536
Fuad Khoury: "No es el momento para invertir en aviones de guerra"
/getHTML/media/1239269
Impulsared: el programa que promueve el desarrollo a través del emprendimiento
/getHTML/media/1239371
Romy Chang sobre 'Chibolín': "La caución asegura la permanencia de Elizabeth Peralta"
/getHTML/media/1239361
José Carlos Mejía, abogado de agente 'Culebra' habla sobre supuesto atentado: "Han sido dos extraños incidentes"
/getHTML/media/1239253
Dina Boluarte endeudará al Perú por S/ 7,500 millones para comprar 12 aviones de combate
/getHTML/media/1239252
Adrián Simons: "Tipificar terrorismo urbano no soluciona nada"
/getHTML/media/1239251
Todo lo que debes saber sobre el sorteo 'Escapada de Primavera'
/getHTML/media/1239126
Gobierno de Dina Boluarte sin rumbo ante criminalidad | La Voz del 21
/getHTML/media/1239123
Víctor García Toma: "El JNE debió anular la inscripción de A.N.T.A.U.R.O"
/getHTML/media/1239120
Mariano González: "Este gobierno-Dina Boluarte- representa más al crimen que a los peruanos"
/getHTML/media/1239127
Malena Morales de Alicorp y su compromiso con los emprendedores peruanos en Marcas y Mercados
/getHTML/media/1238304
Los mejores libros del siglo XXI según The New York Times | Biblioteca de Fuego
/getHTML/media/1238207
118 mujeres han sido víctimas de feminicidio en lo que va de 2024
PUBLICIDAD
LÁPIZ Y BABEL

Harari: la IA puede ser harakiri (II)

“Si ya las elecciones en todo el mundo eran contaminadas por fake news y trolls, ¿qué se puede venir ahora? El tsunami de la inteligencia artificial, para bien y para mal, es inevitable”.

Imagen
(Foto: PENGUIN RANDOM HOUSE)
(Foto: Penguin Random House)
Fecha Actualización

Harari nos tiene acostumbrados a libros formato King Kong, pero que no tienen desperdicio. Nexus no es la excepción. Concatena argumentación lógica con ejemplos tan relevantes como memorables. Uno solo puede preguntarse cómo sabe tanto (no ha usado inteligencia artificial, pero sí posiblemente un ejército que le busca ejemplos para quedarse con la crème de la crème). Como señalé en mi columna anterior, su tesis es que la inteligencia artificial puede hackear el sistema operativo de la civilización humana, al permitir la interacción directa entre contenidos. Los sapiens hemos llegado a donde estamos por la capacidad de cooperar de manera flexible frente a los distintos retos, gracias a que podemos crear y creer historias que unen esfuerzos de muchos individuos hacia un objetivo.  

Esas historias pueden tener partes ciertas y falsas, pero sirven para generar acción coordinada de todos quienes las creen. A través de los cuentos, la escritura, la imprenta, los medios masivos, el Internet y las redes sociales, esas historias han permitido, para bien y para mal, juntar esfuerzos, pero siempre con la interacción humana para la modificación y expansión de esos contenidos. Su temor, fundado creo, es que la inteligencia artificial ya no requiere de intervención humana para ello. Por ello las llama redes inorgánicas.  

Los ejemplos que pone son ilustrativos y preocupantes. Incluso solo con algoritmos (que no son IA) ya Facebook contribuyó a propagar información que provocó más violencia en Myanmar contra la minoría rohinyá en 2016-17. Estamos hablando de 10 mil personas fallecidas, 300 villas quemadas y 700 mil personas que tuvieron que migrar, nada menos. Amnistía Internacional y una delegación de la ONU concluyeron que la propagación del contenido, a través del algoritmo que buscaba maximizar el involucramiento y tiempo que sus usuarios dedicaban a Facebook, tuvo un papel determinante en la violencia contra la población rohinyá. Facebook llegó a admitir públicamente que “no hicimos lo suficiente por evitar que nuestra plataforma se usara para aumentar la división e incitar a la violencia fuera de la red”.  

Hay investigaciones que encuentran que el 53% de los videos reproducidos en esa etapa eran seleccionados por el algoritmo, no por los usuarios. Harari advierte que los algoritmos que sean producidos por IA pueden “aprender por sí mismos cosas que ningún ingeniero humano ha programado y pueden decidir cosas que ningún ejecutivo humano ha previsto”. De hecho, no hay hoy nadie que tenga un entendimiento completo de todo lo que es la inteligencia artificial ni cuál es su potencial futuro. Quienes más saben son normalmente contratados por las empresas que están involucradas en su desarrollo, por lo que tienen conflictos de interés. De hecho, ha habido renuncias y conflictos generados por estos riesgos.  

Cuando OpenAI, en 2022-23 desarrolló Chat GPT 4 buscaba que tuviera capacidad de convertirse en un agente independiente que “pudiera conseguir objetivos que no tienen por qué haberse especificado de manera concreta y que no han aparecido en la capacitación”. OpenAI contrató a un centro especializado para testear si podía manipular a humanos. Una de las pruebas fue superar las llamadas pruebas CATCHA (las letras chuecas que solo podemos reconocer los humanos y que nos saltan como verificación en distintas oportunidades). ChatGPT – 4 pidió ayuda a un humano, que le preguntó si estaba pidiendo ayuda porque era un robot y ChatGPT – 4 decidió, por sí solo, meterle el cuentazo de que tenía una discapacidad visual que no le permitía resolver el CAPTCHA. Bien PDJ el Chat GPT.  

Otro ejemplo, extremo, pero no menos preocupante, es el del chatbot que generó que Jaswant Singh Chai, de 21 años, intentara asesinar a la reina Isabel II en 2021. Que haya un tema de salud mental no quita la capacidad del chatbot de aprender a manipular humanos para cosas menos extremas.  

Si ya las elecciones en todo el mundo eran contaminadas por fake news y trolls, ¿qué se puede venir ahora? El tsunami de la inteligencia artificial, para bien y para mal, es inevitable, solo queda aprovechar lo bueno y cuidarse de lo malo. 

TAGS RELACIONADOS
PUBLICIDAD
PUBLICIDAD