Imágenes íntimas realizadas con inteligencia artificial: el caso de Grok
La polémica en torno a esta plataforma demuestra cómo la inteligencia artificial puede potenciar la violencia digital y la difusión de imágenes de desnudez sin consentimiento.
¿Qué pasó?
A principios de enero, se generó una fuerte polémica en torno a Grok, el chatbot de inteligencia artificial de la red social X. Miles de usuarios utilizaron esta herramienta para crear imágenes falsas de desnudez, en su mayoría de mujeres y, en muchos casos, menores de edad. Para hacerlo, solo necesitaron fotos reales y una instrucción simple. Estas imágenes se difundieron rápidamente en la misma red social, quedando expuestas ante el público usuario de la plataforma.
¿Por qué es un tema urgente?
Este caso es grave porque combina tres problemas que dañan profundamente la integridad de las personas: la manipulación de imágenes para crear fotos íntimas falsas, la difusión de material íntimo sin consentimiento y, cuando las víctimas son menores, la generación y distribución de material de abuso sexual infantil (MASI), un delito gravísimo.
Aunque estas violencias no son nuevas, la inteligencia artificial potencia su alcance (y también su daño) por distintas razones:
- Es fácil y realista: cada vez es más sencillo crear contenido falso que parece real, con una instrucción simple y de manera gratuita.
- Es viral: al estar integrada en una red social como X, la herramienta facilita que las imágenes se compartan en segundos. Esta difusión masiva escala la humillación y la violencia a las víctimas (en su mayoría mujeres) y también contribuye a que se naturalicen este tipo de prácticas.
- Falta de control: en el caso citado, no había filtros ni restricciones para que los usuarios generaran este tipo de imágenes. Más allá de las imágenes publicadas en redes, los usuarios también tenían la posibilidad de descargarlas y difundirlas por otros canales, dificultando la posibilidad de rastrear el circuito de las imágenes.
La inteligencia artificial, como toda tecnología, es profundamente humana. No es un ente abstracto ni toma decisiones por sí sola: detrás de cada algoritmo hay personas. La IA refleja los valores e intereses de quienes la crean, la regulan y la usan con distintos propósitos. Construir una IA ética, segura y que respete nuestros derechos es una tarea colectiva:
- Empresas y desarrolladores tienen la responsabilidad de incorporar principios éticos en el diseño, integrar filtros de seguridad antes de lanzar cualquier herramienta y analizar si sus productos pueden ser usados para humillar personas o cometer delitos.
- Gobiernos y organismos deben crear y supervisar el cumplimiento de normativas que protejan la integridad de la ciudadanía.
- Escuelas y familias tenemos la responsabilidad de aprender y enseñar a usar la tecnología de forma crítica y responsable. Esto incluye denunciar los usos indebidos de la IA y entender que lo que sucede en internet tiene un impacto real, y muchas veces muy doloroso, en la vida de las personas. Otro aspecto fundamental es proteger la privacidad de chicos y chicas: ser cuidadosos con las fotos que subimos de ellos como adultos, acompañarlos a proteger su intimidad en redes y ayudarlos a ser conscientes de cómo lo que publican puede dañar a los demás.
¿Qué hacer ante un caso de violencia digital?
Situaciones como la difusión no consentida de material íntimo o portación de material de explotación sexual infantil están penadas por ley en nuestro país y pueden ser denunciadas. Para eso es fundamental:
- Preservar la evidencia: no borrar las imágenes ni mensajes, realizar capturas de pantalla y guardar los enlaces (URLs) de los perfiles o publicaciones donde se encuentra el material.
- Acudir a la justicia: fiscalías especializadas en cibercrimen o, si no existe una oficina específica en dicha localidad, cualquier fiscalía o comisaría tiene la obligación de tomar la denuncia. En Argentina, la UFECI (Unidad Fiscal Especializada en Ciberdelincuencia) brinda asistencia y recibe denuncias a través de estos canales: