/getHTML/media/1229342
Nicolás Yerovi: "Celebramos la sobrevivencia"
/getHTML/media/1229339
Fernán Altuve: "¿Presentar candidato de 87 años se puede considerar estabilidad?"
/getHTML/media/1229338
Orgullo de ser peruano: ¿Qué nos hace sentirlo?
/getHTML/media/1229336
Nancy Arellano sobre Elecciones en Venezuela: "Esta no es una elección tradicional"
/getHTML/media/1229265
Zelmira Aguilar: "Alejandro Villanueva creó el estilo de juego de Alianza y Selección"
/getHTML/media/1229195
Cherman: "Quien me quiebra el lado patriótico fue Juan Acevedo con Paco Yunque"
/getHTML/media/1229190
Marco Poma CEO de Tkambio: "Perú está atrasado en materia de 'open banking'"
/getHTML/media/1229009
Javier Arévalo, escritor: "Sin bibliotecas, el hábito de leer no nace en los niños"
/getHTML/media/1228674
Mujeres Aymaras sorprenden con su arte en Desfile de Modas
PUBLICIDAD

Alto AI: Parlamento Europeo aprobó primera regulación de las tecnologías de Inteligencia Artificial

Conocida como ‘Ley Europea de IA’, la aprobación de este reglamento marca un hito en la carrera entre las autoridades gubernamentales para regular la IA, que viene evolucionando a una velocidad vertiginosa.

Imagen
Parlamento Europeo. (Foto de FREDERICK FLORIN / AFP)
Fecha Actualización
El advenimiento de la Inteligencia Artificial (AI, por sus siglas en inglés) en el mundo ha generado una serie de cambios a los que los usuarios deberán acostumbrarse. Esta tecnología se expande a gran velocidad en distintos nichos debido, principalmente, a la versatilidad que tiene de adaptarse y ofrecer soluciones a distintas necesidades de manera automática y cada vez más eficiente.
Sin embargo, la rápida expansión e impacto de esta novedosa tecnología es un tema que sigue generando debate, pues nos encontramos ante un escenario completamente nuevo y que se viene transformando en tiempo real.
Ante esta incertidumbre, no es de extrañar que las regulaciones políticas exclusivas para esta tecnología empiecen a debatirse en distintos foros, gubernamentales o académicos. El primer paso lo ha dado el Parlamento Europeo, que recientemente ha aprobado una regulación de inteligencia artificial, la primera de su tipo, y que está muy cerca de convertirse en ley.
Imagen

Alto a la Acción

Conocida como ‘Ley Europea de IA’, se trata de un conjunto de disposiciones que adopta un enfoque basado en el riesgo para regular esta tecnología donde se especifican los requisitos para los proveedores de los llamados “modelos básicos” como ChatGPT, que se han convertido en una preocupación clave, debido a los cambios que están generando en ámbitos esenciales de la vida humana como, por ejemplo, el laboral y el académico
Esta ley clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.
“En primer lugar, se prohíben las aplicaciones y los sistemas que crean un riesgo inaceptable, como la puntuación social administrada por el gobierno del tipo que se usa en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran parte sin regular”, se lee en la web oficial de la propuesta de Ley.
Las aplicaciones de riesgo inaceptable están prohibidas de forma predeterminada y no se pueden implementar en el bloque. Estas incluyen:
Sistemas de IA que utilizan técnicas subliminales o técnicas de manipulación o engañosas para distorsionar el comportamientoSistemas de IA que explotan las vulnerabilidades de individuos o grupos específicosSistemas de categorización biométrica basados en atributos o características sensiblesSistemas de inteligencia artificial utilizados para la calificación social o la evaluación de la confiabilidadSistemas de IA utilizados para evaluaciones de riesgo que predicen infracciones penales o administrativasSistemas de IA que crean o expanden bases de datos de reconocimiento facial a través de raspado no dirigidoSistemas de inteligencia artificial que infieren emociones en la aplicación de la ley, la gestión de fronteras, el lugar de trabajo y la educación
Por su parte, no son pocas las herramientas de IA pueden considerarse de alto riesgo, como las que se utilizan en infraestructura crítica, aplicación de la ley, la educación, la migración o la seguridad de los productos.
Por encontrarse a un nivel por debajo de las “inaceptables”, estas herramientas no están prohibidas del todo, pero probablemente se verán obligadas a completar rigurosas evaluaciones de riesgo, registrar sus actividades y poner la información que obtengan a disposición de las autoridades.

¿POR QUÉ LA LEY?

Entre las justificaciones que se presentaron, la principal fue la preocupación ante el rápido desarrollo de diferentes herramientas en las que se implementa la IA. Resulta que se ha dejado que las empresas privadas desarrollen tecnologías de inteligencia artificial a su gusto y conveniencia, lo que ha dado lugar a sistemas como Microsoft ChatGPT de OpenAI y Bard de Google, novedosos chatbots que han cautivado a multitud de usuarios por su capacidad para producir respuestas similares a las humanas gracias a sus modelos de lenguaje.
Incluso, Google anunció ya una serie de actualizaciones de sus sistemas de IA, incluido un modelo de lenguaje avanzado llamado PaLM 2, que según la compañía supera a otros sistemas líderes en algunas tareas.
Pero esta tecnología ha existido durante años y está integrada en más aplicaciones y sistemas de lo que se cree. Es una IA la que determina qué videos virales o imágenes vemos en nuestras cuentas de TikTok o Instagram, por ejemplo.
Imagen

¿HABRÁ SANCIONES?

Según lo que se lee en las propuestas, las empresas que infrinjan la Ley AI enfrentarán multas de hasta 30 millones de euros o incluso el 6% de las ganancias globales, que multiplicarían la multa considerablemente.
Es decir, para una empresa como Microsoft que maneja el ya conocido ChatGPT, creado por la desarrolladora OpenAI, podría significar una multa de más de 10 mil millones de dólares si se descubre que viola alguna de las reglas establecidas en la ley.
Estas regulaciones han incomodado a la industria tecnológica, pues podrían afectar a algunas usos elementales de las IA que son francamente inofensivos. “Es preocupante ver que amplias categorías de aplicaciones útiles de IA, que plantean riesgos muy limitados, o ninguno en absoluto, ahora enfrentarán requisitos estrictos, o incluso podrían prohibirse en Europa”, refirió a CNBC Boniface de Champris, gerente de políticas de la Asociación de la Industria de la Computación y las Comunicaciones de Europa (CCIA por sus siglas en inglés).
Imagen

DATOS
Si bien la industria espera que la Ley se apruebe este año, no hay una fecha límite concreta. La ley está siendo discutida por los parlamentarios y, una vez que lleguen a un terreno común, habrá un diálogo tripartito entre representantes del Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea.Una vez finalizados los términos, habría un período de gracia de alrededor de dos años para permitir que las partes afectadas cumplan con las regulaciones.China, por su parte, ha desarrollado un borrador de reglas diseñado para supervisar cómo las empresas desarrollan productos de IA generativa como ChatGPT.
Con información de la Unión Europea, Reuters, CNBC.

VIDEO RECOMENDADO