¡La Inteligencia Artificial será regulada! Europa inició la búsqueda de las leyes de la robótica

La  Comisión Europea  reunió a 52 expertos con los que se ha creado el nuevo Grupo de Alto Nivel sobre Inteligencia Artificial , que entre sus temas relacionados se encuentra la "ética de las personalidades artificiales". 

Alvaro Treneman
Alvaro Treneman

Isaac Asimov se convirtió en un visionario con las tres leyes de la robótica que plantea en sus libros. Ahora, la Comisión Europea (CE) busca sus propias leyes para regular el rápido avance que se está logrando en el campo de la inteligencia artificial (IA). 

Para ello, la CE reunió a 52 expertos con los que se ha creado el nuevo Grupo de Alto Nivel sobre Inteligencia Artificial , que entre sus temas relacionados se encuentra la "ética de las personalidades artificiales", con el objetivo de legislar al respecto para principios del 2020. 

"Se busca que las personalidades artificiales tengan algo así como una religión robótica, un código ético interno que se añade al crear el software para que tenga unos mínimos éticos", explican los juristas.

Este grupo busca legislar incluso en el ámbito militar, en el que plantearán "cinco reglas básicas" que los desarrolladores deberán aplicar a sus personalidades IA "sí o sí", al mismo estilo de lo que hemos visto en la ciencia ficción.

Inteligencia Artificial: En busca de las leyes de la robótica. (Getty)

Inteligencia Artificial: En busca de las leyes de la robótica. (USI)

Inteligencia Artificial: En busca de las leyes de la robótica. (USI)

LAS TRES LEYES Y LA ÉTICA ARTIFICIAL

Como se sabe, el profesor de bioquímica y escritor de ciencia ficción de origen ruso y nacionalizado estadounidense, Isaac Asimov, fue el primero en plantear una ética artificial para los robots en sus libros. La primera mención a las famosas tres leyes de la robótica apareció en el relato 'Círculo vicioso' (1942). 

En este relato se planteaban tres leyes que toda inteligencia artificial debía cumplir:

1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

El principal problema que se tiene que resolver al hablar de robots e inteligencias artificiales es que estos deben tener la capacidad de aprender y ser entrenados. Esta capacidad ya se vio parcialmente desarrollada en algunas IA a cargo de Facebook o Microsoft, pero con resultados espeluznantemente inesperados. 

Inteligencia Artificial: En busca de las leyes de la robótica. (Getty)

Inteligencia Artificial: En busca de las leyes de la robótica. (Getty)

Inteligencia Artificial: En busca de las leyes de la robótica. (Getty)


CASO FACEBOOK

En el caso de Facebook, su IA dedicada a las negociaciones tuvo que ser inmediatamente desactivada cuando se descubrió que había creado su propio lenguaje. 

Días después de se sus primeras pruebas el sistema comenzó a conversar en un lenguaje extraño y aparentemente erróneo. Sin embargo, luego de notar ciertos patrones, los investigadores notaron que no se trataba de un error, sino que esta había creado su propio idioma, motivo por el que la compañía decidió apagarla.

CASO MICROSOFT

Por su parte, Microsoft creó a 'Tay', una IA diseñada para mantener una conversación "casual y fluida" con jóvenes de 18 y 24 años. Esta tenía la capacidad de aprender a medida que hablaba con los humanos mediante chats.

Sin embargo, en menos de 24 horas de interacción, la IA se volvió racista, antisemita, homófoba y xenófoba. Con afirmaciones como "Hitler tenía razón", "odio a los judíos" o diciendo que esperaba que las feministas "ardiesen en el infierno".

Inteligencia Artificial: En busca de las leyes de la robótica

Inteligencia Artificial: En busca de las leyes de la robótica. (Getty)

Inteligencia Artificial: En busca de las leyes de la robótica. (Getty)


¿QUÉ PASA CON LA INTELIGENCIA ARTIFICAL?

Esto se debe a que una vez que la IA tiene la capacidad de aprender, existe el dilema sobre ¿qué es lo que debe aprender? Cuando las labores de aprendizaje se vuelven más complejas, los datos entregados para su entrenamiento son más sesgados o demasiado parciales. Aquí entran los temas raciales, de intereses o diferencias de pensamiento.

Es sobre dónde se han conseguido los datos de aprendizaje, el punto en el que se debe empezar a regular y legislar, según la opinión del jurista especializado en Derecho Tecnológico desde Términos y Condiciones , Jorge Morrell, citado por Hipertextual.

EL PELIGRO DE LA IA

Uno de los más famosos críticos al desarrollo de esta tecnología es el magnate y fundador de las compañías Tesla y SpaceX, Elon Musk, quien considera el desarrollo de las IA como un peligro futuro de no ser efectivamente reguladas.

"Soy muy cercano a lo más puntero de la IA y me asusta muchísimo. Es capaz de mucho más de lo que casi nadie sabe y su tasa de mejora es exponencial" manifestó Musk durante una conferencia sobre tecnología en Texas.

"La inteligencia artificial es mucho más peligrosa que las ojivas nucleares", agregó.

Elon Musk

¿Qué planea Elon Musk con esta nueva compañía? (Composición/Difusión)

Inteligencia Artificial: En busca de las leyes de la robótica. (Composición/Difusión)

(Composición/Difusión)

El magnate afirmó que pese a estar en contra de las regulaciones, considera que la humanidad corre grave peligro y por eso es "extremadamente importante" la creación de un organismo público con la información suficiente para supervisar el desarrollo de la IA.

Todo parece indicar que pronto tendremos nuestra propias leyes robóticas, lo que demuestra también que la ciencia ficción le ganó una vez más a la realidad.

Con información de: Comisión Europea, Hipertextual, El Mundo, RT, El País, Gizmodo

Tags Relacionados:

Inteligencia artificial

Ir a portada