Imágenes íntimas realizadas con inteligencia artificial: el caso de Grok

La polémica en torno a esta plataforma demuestra cómo la inteligencia artificial puede potenciar la violencia digital y la difusión de imágenes de desnudez sin consentimiento.

¿Qué pasó?

A principios de enero, se generó una fuerte polémica en torno a Grok, el chatbot de inteligencia artificial de la red social X. Miles de usuarios utilizaron esta herramienta para crear imágenes falsas de desnudez, en su mayoría de mujeres y, en muchos casos, menores de edad. Para hacerlo, solo necesitaron fotos reales y una instrucción simple. Estas imágenes se difundieron rápidamente en la misma red social, quedando expuestas ante el público usuario de la plataforma. 

¿Por qué es un tema urgente?

Este caso es grave porque combina tres problemas que dañan profundamente la integridad de las personas: la manipulación de imágenes para crear fotos íntimas falsas, la difusión de material íntimo sin consentimiento y, cuando las víctimas son menores, la generación y distribución de material de abuso sexual infantil (MASI), un delito gravísimo. 

Aunque estas violencias no son nuevas, la inteligencia artificial potencia su alcance (y también su daño) por distintas razones:

  • Es fácil y realista: cada vez es más sencillo crear contenido falso que parece real, con una instrucción simple y de manera gratuita.
  • Es viral: al estar integrada en una red social como X, la herramienta facilita que las imágenes se compartan en segundos. Esta difusión masiva escala la humillación y la violencia a las víctimas (en su mayoría mujeres) y también contribuye a que se naturalicen este tipo de prácticas. 
  • Falta de control: en el caso citado, no había filtros ni restricciones para que los usuarios generaran este tipo de imágenes. Más allá de las imágenes publicadas en redes, los usuarios también tenían la posibilidad de descargarlas y difundirlas por otros canales, dificultando la posibilidad de rastrear el circuito de las imágenes. 

La inteligencia artificial, como toda tecnología, es profundamente humana. No es un ente abstracto ni toma decisiones por sí sola: detrás de cada algoritmo hay personas. La IA refleja los valores e intereses de quienes la crean, la regulan y la usan con distintos propósitos. Construir una IA ética, segura y que respete nuestros derechos es una tarea colectiva:

  • Empresas y desarrolladores tienen la responsabilidad de incorporar principios éticos en el diseño, integrar filtros de seguridad antes de lanzar cualquier herramienta y analizar si sus productos pueden ser usados para humillar personas o cometer delitos.
  • Gobiernos y organismos deben crear y supervisar el cumplimiento de normativas que protejan la integridad de la ciudadanía. 
  • Escuelas y familias tenemos la responsabilidad de aprender y enseñar a usar la tecnología de forma crítica y responsable. Esto incluye denunciar los usos indebidos de la IA y entender que lo que sucede en internet tiene un impacto real, y muchas veces muy doloroso, en la vida de las personas. Otro aspecto fundamental es proteger la privacidad de chicos y chicas: ser cuidadosos con las fotos que subimos de ellos como adultos, acompañarlos a proteger su intimidad en redes y ayudarlos a ser conscientes de cómo lo que publican puede dañar a los demás. 

¿Qué hacer ante un caso de violencia digital?

Situaciones como la difusión no consentida de material íntimo o portación de material de explotación sexual infantil están penadas por ley en nuestro país y pueden ser denunciadas. Para eso es fundamental: 

  • Preservar la evidencia: no borrar las imágenes ni mensajes, realizar capturas de pantalla y guardar los enlaces (URLs) de los perfiles o publicaciones donde se encuentra el material.
  • Acudir a la justicia: fiscalías especializadas en cibercrimen o, si no existe una oficina específica en dicha localidad, cualquier fiscalía o comisaría tiene la obligación de tomar la denuncia. En Argentina, la UFECI (Unidad Fiscal Especializada en Ciberdelincuencia) brinda asistencia y recibe denuncias a través de estos canales:

También puede interesarte

Cómo impacta la Inteligencia Artificial en las aulas argentinas
La revolución de la inteligencia artificial en las escuelas
Lanzan un sitio web para que estudiantes y docentes se acerquen a la inteli[...]
Inteligencia Artificial: cuando los árboles no te dejan ver el bosque
A un año del Chat GPT, ni magia ni ciencia ficción
HumanIA: cómo es la nueva inteligencia artificial para guiar el uso de la t[...]
Los desafíos de integrar la Inteligencia Artificial en las aulas
Día de Internet: ¿Habremos aprendido algo?
Chat gpt, activismo y nuevas regulaciones: un 2023 de cambios y desafíos
IA Y Género: ¿Cómo romper el círculo de la exclusión?
"Si lo hablaste, ya ganaste". Celebramos 25 años de inclusión digital promo[...]
Wiki: una herramienta colaborativa para entender todos los conceptos claves[...]
Inteligencia Artificial para mejorar el aprendizaje
Cómo integrar la Inteligencia Artificial en la educación y qué desafíos enf[...]
El Cronista | Inclusión digital: promueven un diálogo clave entre generacio[...]
El Destape | Lanzan campañas por el Día de la Internet Segura
Google, Fundación Chile y Chicos.net llevan la Inteligencia Artificial a la[...]
ProgramON concluye el año beneficiando a más de 20 mil jóvenes y comparte s[...]
¿Cómo hacemos una internet más segura en tiempos de inteligencia artificial[...]
Infobae: El desafío no es la IA, sino cómo elegimos utilizarla
FM Posadas: Chicos.Net presentó HumanIA, su programa de Inteligencia Artifi[...]