El escándalo y las posibles repercusiones legales han sido de tal magnitud que xAI finalmente ha reaccionado y decidido cortar por lo sano. O algo así. Durante los últimos días de diciembre y principios de enero una serie de imágenes de tinte sexual involucrando a menores fueron creadas por la IA Grok y publicadas en la red social X. Pero aún antes de que este material fuera descubierto, cientos de ilustraciones con mujeres en bikinis o algún otro atuendo sugestivo fueron producidas por el mismo sistema. El problema era que no habían sido realizadas con consentimiento de las protagonistas.
Como hemos señalado anteriormente, la IA reconoció sus faltas, aún cuando la empresa se mantuvo en silencio.
Grok en problemas por producción de material de abuso infantil
Poco y demasiado tarde
Se sabe, gracias a Grok, que la empresa está trabajando en el problema. Pero no en qué tipo de soluciones. Por el momento se ha desactivado el acceso a la generación de imágenes de todos los usuarios no pagos. Cuando alguien pide una imagen, Grok le avisa que debe suscribirse para que esto sea posible.
Aunque estamos tentados a decir que se trata de pagar para cometer un delito, la realidad es que el cambio supone que todo aquel que produzca una imagen dejará un registro a través del medio de pago que haya elegido para la suscripción. Por lógica esto debería disuadir a los usuarios de producir material no permitido.
Sin embargo, la edición de imágenes sigue disponible para todo el mundo en la aplicación y el sitio web de la IA.
Criticas
La medida tomada ha sido criticada desde varios ángulos. El principal siendo su relativa efectividad. Pero también se ha señalado que la inteligencia artificial nunca debió tener la capacidad para realizar ese tipo de trabajos. También se apunta que ahora muchos de los usuarios que no hicieron nada malo han sido perjudicados.
Poco ayuda el hecho de que Musk sabía de las capacidades del sistema y las tomaba a broma, incluso a su propia costa.






