ChatGPT detectado en una red de vigilancia social

El desarrollador de LLM actúa contra el uso indebido de sus modelos de IA

OpenAI ha detectado que algunos usuarios están abusando de ChatGPT para desarrollar herramientas de vigilancia ilegal en redes sociales. Este artículo detalla cómo OpenAI enfrenta estos usos indebidos y las medidas que ha tomado.

El uso malicioso de ChatGPT pone en evidencia la necesidad de vigilancia y regulación de las tecnologías de inteligencia artificial. OpenAI continúa trabajando para evitar estos abusos y garantizar el uso ético de sus modelos.

Informe sobre usos indebidos

Recientemente, OpenAI publicó un informe destacando intentos de uso indebido de su servicio de ChatGPT. La compañía detectó usuarios en China explotando las capacidades de 'razonamiento' de ChatGPT para desarrollar una herramienta de vigilancia en redes sociales.

Objetivo de OpenAI

OpenAI ha señalado que su misión es construir modelos de IA 'democráticos', una tecnología que beneficie a todos mediante la aplicación de reglas sensatas. La compañía busca activamente potenciales usos indebidos y ha descrito algunos casos provenientes de China.

Casos detectados

Vigilancia Social

Uno de los casos más interesantes involucra un conjunto de cuentas que utilizaban el modelo de IA de ChatGPT para generar descripciones detalladas y discursos de venta para una herramienta de monitoreo de redes sociales. El software generaba informes en tiempo real sobre protestas en Occidente, enviados a servicios de seguridad chinos.

Evasión de detección

Los actores chinos intentaron ocultar su ubicación mediante el uso de VPNs y herramientas de acceso remoto como AnyDesk y VoIP para simular que operaban desde los Estados Unidos. Sin embargo, el patrón de tiempo de actividad correspondía con el horario laboral chino y también solicitaban a ChatGPT en chino. La herramienta de vigilancia usaba modelos de IA de Meta para generar documentos basados en la vigilancia.

Otras instancias de abuso

Otro caso de abuso de ChatGPT involucró a usuarios chinos generando informes de rendimiento de campañas de phishing. OpenAI también bloqueó una cuenta que usaba LLM en una campaña de desinformación contra Cai Xia, una disidente china viviendo en EE.UU.

Primera detección

El investigador de inteligencia de amenazas de OpenAI, Ben Nimmo, declaró al New York Times que esta fue la primera vez que la compañía detectó intentos de usar ChatGPT para crear una herramienta de vigilancia basada en IA. A pesar de estos incidentes, la mayoría de los usuarios utilizan la plataforma para propósitos legítimos.

1 me gusta

¿Qué medidas toma OpenAI? :thinking::face_with_raised_eyebrow: