Microsoft ha anunciado que un grupo de sus investigadores ha logrado aprovechar una vulnerabilidad en los sistemas de seguridad de las IA generativas empleadas para crear secuencias genéticas. Como resultado de esto las herramientas podrían ser utilizadas para desarrollar toxinas mortales u otro tipo de patógenos peligrosos.
La buena noticia es que el equipo ha detallado todo lo ocurrido en un informe que ya ha sido publicado en medios de divulgación científica. Antes de esto ha informado a todas las empresas involucradas y el defecto parece haber sido corregido.
Así pues, en teoría, estamos un poco más a salvo…
La medida de seguridad
Los sistemas examinados son empleados para el desarrollo de nuevos fármacos. Tienen un enorme potencial para mejorar nuestras vidas. Pero como hemos visto en otras ocasiones, tienen la misma capacidad para hacer daño, y a gran escala. En esencia, el conocimiento que se necesita para una cosa y la otra es el mismo.
Para evitar un disgusto, las empresas que producen las proteínas examinan las secuencias de ADN que les envían los investigadores comparándolas con registros de muestras tóxicas y otros patógenos. Si se advierte una similitud el pedido es negado e imaginamos que se da aviso a las autoridades.
El truco
Los investigadores de Microsoft produjeron varios modelos de proteínas destinadas a la fabricación de toxinas. Lograron cambiar las estructuras ligeramente para que conservaran sus propiedades nocivas pero no fueran reconocidas en un ejercicio comparativo. Varios modelos de generación de proteínas fueron utilizados en este ejercicio.
Es importante notar que nunca se desarrollaron las toxinas.
El peligro persiste
Los investigadores han advertido que las correcciones realizadas por las empresas son valiosas pero están lejos de ser el fin de la historia. Es necesario desarrollar procesos de seguridad, en las empresas productoras, que sean notablemente más avanzados. Sin embargo, otros expertos apunta que el sistema de seguridad debería estar instalado en los sistemas de IA.