Plisq Logo Blanco con borde





Gijón – Sede

C/ Anselmo Solar, 41
33204 Gijón, España

Kit Digital

Hasta 12.000 Euros en subvenciones para digitalizar tu negocio.

Ver

+34 689 928 259
hola@plisq.com

Plisq Logo Watermark

Europol alerta para el uso de ChatGPT con fines criminales

Mar 29, 2023

En respuesta a la creciente atención pública prestada a ChatGPT, el Laboratorio de Innovación de Europol ya está estudiando cómo los delincuentes pueden abusar de los grandes modelos lingüísticos (LLM) como ChatGPT.

La agencia europea cree que ChatGPT podría utilizarse pronto en ataques de phishing, campañas de desinformación e incluso para crear códigos maliciosos.

Europol ha hecho pública este lunes una nota en la que alerta del uso delictivo de ChatGPT, la plataforma de inteligencia artificial de OpenAI que ha sacudido el mercado. Esta plataforma ha obligado a varias empresas a dar un paso al frente en este ámbito de los chatbots, para no perder terreno.

La agencia europea prevé tres grandes tipos de riesgos, en el contexto del uso con fines delictivos de la tecnología:

  1. Puede ser fácilmente utilizada en esquemas de fraude e ingeniería social, como el phishing.
  2. Facilita y promueve la desinformación.
  3. Es una plataforma con potencial elevado de servir los intereses criminales de la ciberdelincuencia.

¿Qué son los grandes modelos lingüísticos?

Un gran modelo lingüístico es un tipo de sistema de IA capaz de procesar, manipular y generar texto.

El entrenamiento de un LLM consiste en alimentarlo con grandes cantidades de datos, como libros, artículos y páginas web, de modo que pueda aprender los patrones y las conexiones entre palabras para generar nuevos contenidos.

ChatGPT es un LLM desarrollado por OpenAI y puesto a disposición del público en general como parte de un avance de investigación en noviembre de 2022.

El modelo actual de acceso público subyacente a ChatGPT es capaz de procesar y generar texto similar al humano en respuesta a las preguntas de los usuarios. En concreto, el modelo puede responder a preguntas sobre diversos temas, traducir texto, participar en intercambios conversacionales («chatear»), generar nuevos contenidos y producir código funcional.

El lado oscuro de los grandes modelos lingüísticos

«Se están mejorando las capacidades de los LLM (grandes modelos lingüísticos), como ChatGPT. La potencial explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes nos depara sombrías perspectivas», afirmó un responsable de la agencia europea al presentar un informe sobre el tema.

Europol alerta

En una nota publicada en su página web, Europol destaca la capacidad de ChatGPT para escribir textos muy realistas. Puede ser una herramienta útil para montar ataques de phishing. Europol subraya el potencial mal uso de la capacidad de la tecnología para reproducir patrones de lenguaje específicos de individuos o grupos, y facilitar la interacción con las víctimas potenciales.

En cuanto a la difusión de información falsa, destaca el posible uso indebido de ChatGPT por su capacidad de producir textos rápidamente y a gran escala, con un bajo nivel de esfuerzo y con un contenido realísticamente creíble.

La agencia también señala el riesgo de que la tecnología pueda ser utilizada para crear código malicioso, por agentes con menos conocimientos técnicos. Además de generar lenguaje natural, ChatGPT es capaz de producir código en varios lenguajes de programación diferentes. Para un delincuente potencial con pocos conocimientos técnicos, se trata de un recurso inestimable para producir código malicioso.

Desde que OpenAI abrió el acceso a ChatGPT, la tecnología ha estado en el centro de la actualidad. Microsoft, uno de los inversores del proyecto, ya la está integrando en su software empresarial.

Desde entonces, varias empresas han revelado sus planes para lanzar sus chatbots. Alphabet, propietaria de Google, no sólo presentó Bard, sino que detalló sus planes para integrar la tecnología en diferentes herramientas.

Peligros y oportunidades

Las capacidades de ChatGPT han subido el tono del debate sobre los peligros y las oportunidades de la IA y han hecho que varios gurús de la tecnología compartan opinión sobre el tema, como Bill Gates, que recientemente publicó un texto de siete páginas sobre el tema.

Siempre en colaboración

Loading...