/getHTML/media/1239126
Gobierno de Dina Boluarte sin rumbo ante criminalidad | La Voz del 21
/getHTML/media/1239123
Víctor García Toma: "El JNE debió anular la inscripción de A.N.T.A.U.R.O"
/getHTML/media/1239120
Mariano González: "Este gobierno-Dina Boluarte- representa más al crimen que a los peruanos"
/getHTML/media/1239127
Malena Morales de Alicorp y su compromiso con los emprendedores peruanos en Marcas y Mercados
/getHTML/media/1238511
Lo último del paro de Transportistas
/getHTML/media/1238503
Rubén Vargas sobre inseguridad: "Se necesita inteligencia no estado de emergencia"
/getHTML/media/1238497
Gilmer Meza de Sutep Lima: "Ministro de Educación -Morgan Quero- debería de renunciar"
/getHTML/media/1238485
Alfonso Bustamante CONFIEP sobre inseguridad: "No hay liderazgo, hay ineficiencia"
/getHTML/media/1238306
Mariana Costa de Laboratoria habla sobre sus encuentros Obama y Zuckerberg en La del Estribo
/getHTML/media/1238304
Los mejores libros del siglo XXI según The New York Times | Biblioteca de Fuego
/getHTML/media/1238303
¿Cementos y fútbol femenino? Gabriel Barrio de Unacem en Marcas y Mercados
/getHTML/media/1238207
118 mujeres han sido víctimas de feminicidio en lo que va de 2024
/getHTML/media/1238198
Lo último: allanan la casa de 'Chibolín'
/getHTML/media/1237508
Hugo de Zela sobre viaje a EE.UU.: "Se intentó explicar al Congreso, pero Dina no quiso"
/getHTML/media/1237506
Abraham Levy: "Hay mucho desinterés sobre los incendios forestales"
/getHTML/media/1237484
Darío Sztajnszrajber, filósofo: "Aprendamos a vivir el amor también con sus sombras"
PUBLICIDAD

Conoce a Tay, el robot de Microsoft que se convirtió en amante de Hitler en menos de 24 horas

El programa informático de inteligencia artificial en Twitter comenzó a emitir comentarios e insultos racistas y xenófobos.

Imagen
Fecha Actualización
Tay es un chatbot —programa informático que imita el comportamiento humano— que fue presentado este miércoles por Microsoft como un experimento para conocer más sobre la interacción entre las computadoras y los seres humanos.
El bot fue diseñado para mantener una conversación informal —e incluso divertida— en las redes sociales (en Twitter, @TayandYou) con una audiencia entre 18 y 24 años ('milleanials'), según explicó la compañía en su página web.
Pero la gran apuesta de Microsoft terminó escapándosele de las manos. A tan sólo un día de su lanzamiento, sus primera publicaciones revelaban que estaba entusiasmada de conocer a las personas y hablar con ellas por las redes sociales.
Pero luego vino lo malo: Tay comenzó a emitir comentarios e insultos racistas y xenófobos.
Frases como "odio a las feministas, deberían morir todas y pudrirse en el infierno", "Hitler tenía razón y odio a los judíos", "vamos a construir un muro y México lo va a pagar" o "odio a todos los humanos" han obligado a Microsoft a paralizar por el momento este proyecto.
La compañía tecnológica no ha hecho comentario sobre estos tuits. Sin embargo los ha eliminado de la cuenta, por lo que la evidencia ha quedado únicamente en capturas de pantalla.
¿CÓMO SE EXPLICA SU COMPORTAMIENTO?Según consigna la BBC, un portavoz de Microsoft dijo que la compañía está haciendo ajustes para asegurarse de que esto no vuelva a suceder y responsabilizó a los usuarios, en parte, por la reacción de Tay.
"Desafortunadamente, a las 24 horas de ser colocada en internet, observamos un esfuerzo coordinado de algunos usuarios para abusar de las capacidades de conversación de Tay para que respondiera de forma inapropiada", explicó en un comunicado.
En efecto, el bot fue creado para emitir respuestas personalizadas a los usuarios, recabando información sobre cada uno de ellos durante la interacción, lo cual explicaría ciertos comentarios, según la naturaleza del interlocutor.
La compañía decidió editar o borrar los tweets ofensivos emitidos por Tay, una medida que criticaron algunos usuarios, quienes pidieron que "la dejen aprender por ella misma".
Microsoft dijo que reprogramará y lanzará proximamente de nuevo su bot adolescente, aunque no confirmó la fecha exacta.
DISCULPAS PÚBLICASTras el contratiempo, Microsoft dijo en una publicación en un blog que sólo volvería a activar Tay cuando sus ingenieros encontrasen una manera de evitar que los usuarios influyan en el robot mediante mensajes que socaven los principios y valores de la empresa.
“Lamentamos profundamente los tuits ofensivos e hirientes no intencionados publicados a través de Tay, los cuales no representan quiénes somos ni lo que buscábamos cuando diseñamos Tay”, escribió el viernes Peter Lee, vicepresidente de Microsoft Research.
TAGS RELACIONADOS