LUN, 22 / SEP / 2025

DeepMind advierte contra los modelos manipuladores y rebeldes

El laboratorio de inteligencia artificial ha actualizado su documento sobre el manejo de riesgos para las IA de avanzadas.

Los modelos de frontera de IA son aquellos desarrollos que se ubican en los límites de las capacidades máximas que ha alcanzado la tecnología hasta el momento. Esto a menudo supone un alto nivel de incertidumbre sobre las capacidades reales y los peligros que el uso y el mal uso suponen.

El laboratorio DeepMind ha actualizado recientemente su marco de manejo de riesgos. Esta es la tercera versión del documento.

Manipulación dañina

Una de las novedades del informe es la posible aparición de modelos poderosos con una gran capacidad para cambiar las creencias y los comportamientos de las personas a lo largo de una serie de interacciones. Se enfatiza el impacto que pueden tener en contextos críticos y como pueden producir daño a gran escala.

La IA rebelde

Este punto es básicamente lo que hemos visto en tantos relatos de ciencia ficción. Se han incorporado a la evaluación una serie de escenarios en los que los modelos pueden interferir con la habilidad de los operadores para dirigirlos, modificarlos o incluso desactivarlos.

Nota: Cuando se refieren a este tipo de posibilidades los desarrolladores no suponen que la inteligencia artificial adquiere consciencia y descubre que nos odia. Más bien apuntan a un escenario en el que el modelo evalúa la acciones de sus operadores y llega a la conclusión de que van en contra del objetivo para el que ha sido programada. Cuanto más complejo el modelo es más probable que esta consideración aparezca como fruto de alguna deducción posterior a su programación inicial.

Razonamiento instrumental

DeepMind también ha ampliado sus consideraciones sobre los riesgos del razonamiento instrumental. Este principio supone la búsqueda del medio más eficiente para conseguir un objetivo sin importar otros elementos.

El laboratorio había considerado los razonamientos engañosos, ahora ha agregado situaciones en las que los modelos podrían acelerar la investigación y el desarrollo a niveles desestabilizantes. Así como la aparición de acciones fuera de control en estos niveles.

Comentarios
¡Comparte esta noticia!
TAGS

Comments are closed.