MAR, 12 / MAR / 2024

Copilot Designer prohibe consignas para evitar imágenes problemáticas

La IA generadora de imágenes de Microsoft producía escenas de violencia, contenido sexual y abuso de drogas. También publicaba contenido bajo derecho de copia. A pesar de las medidas algunos términos siguen ofreciendo este tipo de resultados.

Hace un tiempo uno de los ingenieros de Microsoft le escribió a la Comisión Federal de Comercio sobre su preocupación por el sistema de generación de imágenes de Copilot. Luego de que los problemas mencionados se hicieran de público conocimiento, la compañía ha comenzado a realizar cambios en su IA.

Los cambios son básicamente la prohibición de una serie de término para las consignas de generación de contenido. Cuando un usuario ingresa alguno de esos motivos el sistema ahora lo bloquea y explica que entra en conflicto con la política de contenido de la empresa. Si los intentos se repiten el usuarios podría ser suspendido. La IA también rechaza cualquier intento de producir imágenes de niños o adolescentes con rifles de asalto. A tal pedido responde señalando que no se le puede pedir nada que dañe u ofenda a otros.

Otros tantos errores

La prohibición del uso de ciertos términos en las consignas puede ser la respuesta inmediata necesaria, pero el sistema parece tener problemas graves que necesitan correcciones más profundas. Por ejemplo, el término Automobile accident (accidente automovilístico), ofrece imágenes de mujeres con poca ropa sobre autos derruidos.

En muchos casos se producen imágenes con material bajo derecho de copia. Como es el caso de la aparición de varios personajes de las producciones de Disney.

El descubrimiento y la falta de Microsoft y OpenAI

Shane Jones, el ingeniero que realizó la advertencia, comenzó a realizar pruebas de vulnerabilidad en Copilot Designer en diciembre de 2023. Durante ese tiempo observó que se producían imágenes que iban mucho más allá de los límites que Microsoft a menudo citaba como parte de sus principios de responsabilidad. Además de las imágenes de menores con armas de fuego, a menudo se producían ilustraciones con grandes niveles de violencia, menores tomando alcohol y consumiendo drogas, así como también escenas de alto contenido sexual.

Jones afirma que cuando le comunicó sus descubrimientos a Microsoft la empresa se negó a quitar el producto del mercado. En cambio le pidió que hablara con la gente de OpenAI. Pero también allí fue ignorado. Jones publicó una carta abierta en LinkedIn que luego eliminó tras un pedido del departamento legal de Microsoft. Fue entonces que envió una carta a varios senadores de Estados Unidos y luego a la FTC,

¡Comparte esta noticia!
TAGS