Parlamento Europeo. (Foto de FREDERICK FLORIN / AFP)
Parlamento Europeo. (Foto de FREDERICK FLORIN / AFP)

El advenimiento de la (AI, por sus siglas en inglés) en el mundo ha generado una serie de cambios a los que los usuarios deberán acostumbrarse. Esta tecnología se expande a gran velocidad en distintos nichos debido, principalmente, a la versatilidad que tiene de adaptarse y ofrecer soluciones a distintas necesidades de manera automática y cada vez más eficiente.

Sin embargo, la rápida expansión e impacto de esta novedosa tecnología es un tema que sigue generando debate, pues nos encontramos ante un escenario completamente nuevo y que se viene transformando en tiempo real.

MIRA: Inteligencia Artificial: ¿Cuál es el límite?

Ante esta incertidumbre, no es de extrañar que las regulaciones políticas exclusivas para esta tecnología empiecen a debatirse en distintos foros, gubernamentales o académicos. El primer paso lo ha dado el Parlamento Europeo, que recientemente ha aprobado una regulación de inteligencia artificial, la primera de su tipo, y que está muy cerca de convertirse en ley.

Pantalla de computadora con la página de inicio del sitio web de inteligencia artificial OpenAI, mostrando su robot chatGPT. (Foto de Marco BERTORELLO / AFP)
Pantalla de computadora con la página de inicio del sitio web de inteligencia artificial OpenAI, mostrando su robot chatGPT. (Foto de Marco BERTORELLO / AFP)


Alto a la Acción


Conocida como ‘’, se trata de un conjunto de disposiciones que adopta un enfoque basado en el riesgo para regular esta tecnología donde se especifican los requisitos para los proveedores de los llamados “modelos básicos” como ChatGPT, que se han convertido en una preocupación clave, debido a los cambios que están generando en ámbitos esenciales de la vida humana como, por ejemplo, el laboral y el académico

Esta ley clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.

“En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la puntuación social administrada por el gobierno del tipo que se usa en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular”, se lee en la de la propuesta de Ley.

Las aplicaciones de riesgo inaceptable están prohibidas de forma predeterminada y no se pueden implementar en el bloque. Estas incluyen:

  • Sistemas de IA que utilizan técnicas subliminales o técnicas de manipulación o engañosas para distorsionar el comportamiento
  • Sistemas de IA que explotan las vulnerabilidades de individuos o grupos específicos
  • Sistemas de categorización biométrica basados en atributos o características sensibles
  • Sistemas de inteligencia artificial utilizados para la calificación social o la evaluación de la confiabilidad
  • Sistemas de IA utilizados para evaluaciones de riesgo que predicen infracciones penales o administrativas
  • Sistemas de IA que crean o expanden bases de datos de reconocimiento facial a través de raspado no dirigido
  • Sistemas de inteligencia artificial que infieren emociones en la aplicación de la ley, la gestión de fronteras, el lugar de trabajo y la educación

Por su parte, no son pocas las herramientas de IA pueden considerarse de , como las que se utilizan en infraestructura crítica, aplicación de la ley, la educación, la migración o la seguridad de los productos.

Por encontrarse a un nivel por debajo de las “inaceptables”, estas herramientas no están prohibidas del todo, pero probablemente se verán obligadas a completar rigurosas evaluaciones de riesgo, registrar sus actividades y poner la información que obtengan a disposición de las autoridades.


¿POR QUÉ LA LEY?


Entre las justificaciones que se presentaron, la principal fue la preocupación ante el rápido desarrollo de diferentes herramientas en las que se implementa la IA. Resulta que se ha dejado que las empresas privadas desarrollen tecnologías de inteligencia artificial a su gusto y conveniencia, lo que ha dado lugar a sistemas como Microsoft ChatGPT de OpenAI y Bard de Google, novedosos chatbots que han cautivado a multitud de usuarios por su capacidad para producir respuestas similares a las humanas gracias a sus modelos de lenguaje.

Incluso, Google anunció ya una serie de actualizaciones de sus sistemas de IA, incluido un modelo de lenguaje avanzado llamado PaLM 2, que según la compañía supera a otros sistemas líderes en algunas tareas.

Pero esta tecnología ha existido durante años y está integrada en más aplicaciones y sistemas de lo que se cree. Es una IA la que determina qué videos virales o imágenes vemos en nuestras cuentas de TikTok o Instagram, por ejemplo.

OpenAI está asociado con Microsoft en el proyecto de ChatGPT. Google ofrece su propio servicio con Bard.
OpenAI está asociado con Microsoft en el proyecto de ChatGPT. Google ofrece su propio servicio con Bard.


¿HABRÁ SANCIONES?


Según lo que se lee en las propuestas, las empresas que infrinjan la Ley AI enfrentarán multas de hasta 30 millones de euros o incluso el 6% de las ganancias globales, que multiplicarían la multa considerablemente.

Es decir, para una empresa como Microsoft que maneja el ya conocido ChatGPT, creado por la desarrolladora OpenAI, podría significar una multa de más de 10 mil millones de dólares si se descubre que viola alguna de las reglas establecidas en la ley.

Estas regulaciones han incomodado a la industria tecnológica, pues podrían afectar a algunas usos elementales de las IA que son francamente inofensivos. “Es preocupante ver que amplias categorías de aplicaciones útiles de IA, que plantean riesgos muy limitados, o ninguno en absoluto, ahora enfrentarán requisitos estrictos, o incluso podrían prohibirse en Europa”, refirió a CNBC Boniface de Champris, gerente de políticas de la Asociación de la Industria de la Computación y las Comunicaciones de Europa (CCIA por sus siglas en inglés).

Si bien la industria espera que la Ley se apruebe este año, no hay una fecha límite concreta. (KENZO TRIBOUILLARD / AFP).
Si bien la industria espera que la Ley se apruebe este año, no hay una fecha límite concreta. (KENZO TRIBOUILLARD / AFP).


DATOS

  • Si bien la industria espera que la Ley se apruebe este año, no hay una fecha límite concreta. La ley está siendo discutida por los parlamentarios y, una vez que lleguen a un terreno común, habrá un entre representantes del Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea.
  • Una vez finalizados los términos, habría un período de gracia de alrededor de dos años para permitir que las partes afectadas cumplan con las regulaciones.
  • China, por su parte, ha desarrollado un borrador de reglas diseñado para supervisar cómo las empresas desarrollan productos de IA generativa como ChatGPT.

Con información de la Unión Europea, Reuters, CNBC.


VIDEO RECOMENDADO


Fans21 - "Transformes el Despertar de las Bestias"