ChatGPT de OpenAi.
ChatGPT de OpenAi.

Aunque la ha explotado en popularidad en los últimos meses, también ha llamado la atención de muchas figuras de autoridad por sus cuestionable potencial. Un reporte de la señala que se usaría indebidamente inteligencias como el ChatGPT para la estafa de parte de delincuentes.

Según la página de Hipertextual, la agencia europea está en el proceso de crear talleres para observar el peligro que carga consigo el chatbot. En el informe , se explica cómo la delincuencía se aprovecharía de la IA para cometer sinfín de crímenes. Algunos de los crímenes mencionados son el fraude, la suplantación de identidad, los hackeos, el terrorismo, la propaganda o la desinformación.

MIRA: ChatGPT admitió haber expuesto los datos privados de sus usuarios

Aunque los IA ofrecen grandes beneficios para la sociedad, también pueden conllever a que nuestra seguridad peligre. Aunque millones de personas han sido programas como ChatGPT, muchos lo han hecho con intenciones nefastas; como lo es planear ataques terroristas.

El hecho de que las IA tengan habilidades como lo es el reproducir textos falsificados con gran precisión, incluso imitando un estilo definido (siguiendo los programas de modelo de lenguaje extenso); esto llevaría a que las habilidades para cometer phishing incrementen. “Con el uso de las IA, estos tipos de phishing y fraude en línea se pueden crear de manera más rápida, mucho más auténtica y a una escala significativamente mayor”, señala la Europol.

Incluso la Europol señala que las ChatGPT pueden ayudar con los procesos de investigación, si fuera el caso de que un delincuente no supiera sobre en tema en particular. Solo escribiendo una pregunta “contextual” llevaría a que encuentre la información necesaria para cometer delitos.

ChatGPT puede dar información sobre varios temas de posibles áreas delictivas sin necesidad de conocimiento previo; como el allanamiento de morada hasta el terrorismo, la ciberdelincuencia y el abuso sexual infantil. También incrementaría el cibercrimen, ya que obteniendo acceso a distintos códigos de programación llevaría a que cualquier delincuente novato comience a crear su propia web de phishing y manipulación.

Ya ha habido personas que han observado que con el lenguaje adecuado, ChatGPT puede darte consejos sobre cómo maniobrar un robo o un ataque terrorista. Vaibhav Kumar pudo ser testigo de ello; al ser un ex empleado de Amazon que encontró en la IA una petición para provocar un ataque terrorista con gran número de daño y muertes.

VIDEO RECOMENDADO

Jose Elice