Los agentes de inteligencia artificial son un desafío cada vez más evidente para las compañías que intenta promoverlos. Aunque la tecnología todavía no ha alcanzado un nivel de madurez aceptable para muchas organizaciones, para poder vender el producto primero hay que usarlo. Tal es el caso de Meta.
Según un reporte interno revelado al medio The Information, un incidente significativo se produjo cuando un empleado de Meta realizó una consulta técnica en un foro interno. Otro ingeniero utilizó a la IA para producir una respuesta, pero el agente publicó la respuesta por su cuenta sin la aprobación del usuario.
Cuando el primer empleado encontró el mensaje se dispuso a seguir las instrucciones de la IA. Al hacerlo, sin que fuera esta su intención, expuso una gran cantidad de información sensible a un grupo de ingenieros que no debía tener acceso a ella.
Mucha suerte
Meta clasificó al incidente como un quiebre de seguridad de nivel Sev 1. El más alto posible. La compañía también advirtió que hubo problemas adicionales que hicieron posible lo ocurrido.
Afortunadamente para los involucrados no parece que alguien haya aprovechado el momento para acceder a la información, tampoco se han filtrado los datos al público. La compañía ha señalado que en ningún momento se ha comprometido la información de los usuarios.
Este problema nos ha recordado un experimento del que hablamos hace poco y apuntaba a los peligros de los sistemas de agentes.
Agentes de IA hackean su propia empresa para cumplir con una tarea





