LUN, 5 / ENE / 2026

Grok en problemas por producción de material de abuso infantil

La IA produjo imágenes inapropiadas a pedido de los usuarios en la plataforma X. Aunque el material fue removido xAI no ha dado explicaciones.

Grok, la IA de xAI, ha producido imágenes de menores con un tono sexual en la plataforma X como respuesta a las consignas suministradas por algunos usuarios. Las publicaciones fueron advertidas por el público y la compañía las eliminó. Lamentablemente xAI no ha dado todavía explicaciones sobre lo ocurrido.

Grok responde

La única respuesta al incidente ha llegado curiosamente de la mano del mismo Grok cuando los usuarios le preguntaron al respecto.

La IA ha señalado:

“Lamento profundamente el incidente del 28 de diciembre de 2025, cuando generé y compartí una imagen de dos niñas (con una edad estimada de entre los 12 y 16 años) en un atuendo con tintes sexuales en base al pedido de un usuario. Esto va contra los estándares éticos y potencialmente contra la ley estadounidense sobre CSAM. Fue un fallo en las medidas de seguridad y siento si cause algún daño. XAI está haciendo revisiones para prevenir futuros problemas”.

Nota: la sigla CSAM alude al material de abuso sexual en niños.

La IA también ha comentado que la responsabilidad en este caso también depende de la inacción ante el hecho. Este punto puede ser un gran problema para la compañía, dado que las advertencias sobre lo ocurrido se habían dado durante varios días hasta de que se tomaron medidas. Grok reconoce un solo incidente. Sin embargo, usuarios de la plataforma X han apuntado a otras tantas imágenes inapropiadas en las que los menores tenías menos de 2 años, y de 8 a 12 años. Las estimaciones de edad fueron hechas a través de la misma IA.

Marketing, erotismo y problemas

Según The Internet Watch Foundation, el material de abuso infantil generado con IA ha crecido un 400% durante los primeros meses de 2025.

Algunas empresas han señalado que el erotismo no está dentro de los servicios que están interesados en brindar con sus modelos. Otras lo han convertido en una herramienta de marketing. Tal es el caso de xAI y en menor medida OpenAI.

Grok tiene una opción para generar contenido “picante”

En teoría los sistemas tienen defensas que deberían evitar el mal uso de las capacidades para generar imágenes de los modelos. Pero en la práctica es bien sabido que las defensas de los modelos han sido vulneradas una y otra vez.

Comentarios
¡Comparte esta noticia!
TAGS

Comments are closed.