La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformación. Aunque también un aliado de ciberdelincuentes con pocos conocimientos técnicos al generar códigos en varios lenguajes de programación. Lo advirtió Europol.
Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admite la agencia de coordinación policial. Se ha publicado este lunes su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes. “Ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.
@ac2ality Has probado ya ChatGPT? 😳 Fuente: Mundo Deportivo @Gabi Campbell #chatgpt #ia #noticiasfaciles #aprendecontiktok ♬ original sound – Naut Blonden
El modelo actual de acceso público a ChatGPT facilita actividades delictivas. Estas van desde ayudar a los delincuentes a permanecer en el anonimato hasta delitos específicos, como el terrorismo y la explotación sexual infantil.
El Laboratorio de Innovación de Europol se sumó a la creciente atención pública prestada a Chat GPT, una chatbot al que ya han salido rivales como Bard y Bing. Los expertos de Europol han investigado cómo los delincuentes pueden abusar de estos modelos de lenguaje extenso.
Han identificado numerosas áreas de preocupación, pero destacan tres ámbitos relevantes.
La primera es su forma de facilitar las tareas de fraude, suplantación de identidad e ingeniería social, puesto que la capacidad de ChatGPT para redactar textos muy auténticos.
Con la tecnología artificial, estos “phishing” y fraude virtual se pueden crear de “manera más rápida, mucho más auténtica y a una escala significativamente mayor”. Además, permiten “responder a mensajes en contexto y adoptar un estilo de escritura específico”.
El modelo se puede usar para la financiación del terrorismo o el intercambio anónimo de archivos.
Junto al fraude y la desinformación, Europol destaca la ciberdelincuencia como tercer área de preocupación. El Software es capaz de producir código en varios lenguajes de programación distintos, con una variedad de resultados prácticos en cuestión de minutos ingresando las indicaciones correctas.
Las medidas de seguridad que impiden que ChatGPT genere un código con posible uso malicioso solo funcionan si la herramienta entiende lo que está haciendo. En cambio, si se le dan indicaciones que se dividen en pasos individuales, es “trivial eludir estas medidas de seguridad”.}
Con la información de Forbes