El Servicio Nacional de Salud británico (NHS) le ha indicado a sus desarrolladores de software que deben ir cerrando sus proyectos. Es decir, sacarlos del ecosistema de código abierto. En teoría la medida es temporal y obedece a la irrupción de los últimos modelos de inteligencia artificial y su capacidad para encontrar vulnerabilidades.
Cambio de política
Hasta ahora la organización había tenido una política clara que establece que, dado que el servicio se sostiene con dinero público, el código producido en relación al mismo debe estar disponible para que la gente lo utilice y construya a partir de él. Salvo que exista una buena razón para no hacerlo. Al parecer ahora existe una buena razón. Como consecuencia los repositorios relacionados con la NHS en GitHub han ido cerrándose y se espera que una buena parte de ellos aparezcan como privados para el 11 de mayo.
Culpa de las IA
El mensaje que ha circulado señala que los repositorios públicos incrementan el riesgo de que se revelen detalles del código fuente, decisiones arquitectónicas, configuración e información contextual que podrían ser mal utilizados. Se destaca el peligro que suponen los modelos avanzados de inteligencia artificial.
La mesa de ingenieros de la organización ha establecido que los proyectos no deben hacerse públicos salvo que haya una necesidad excepcional. La postura oficial de la NHS es que el cambio es temporal, se produce mientras se evalúan medidas para fortalecer la seguridad de cara al rápido desarrollo de los modelos de inteligencia artificial. Oficialmente solo algunos proyectos se están cerrando. Solo aquellos que contienen información sensible. Como por ejemplo los que ofrecen el código base para herramientas internas o están vinculados a aplicaciones para el manejo de las clínicas.
Una cuestión de velocidad
Hasta el momento no existe indicación alguna sobre cuándo podría cambiar la situación. Durante años utilizar software de código abierto ha sido una gran ventaja. Ha permitido agilizar el desarrollo y someterlo a la mirada de expertos que podrían encontrar mejoras y puntos débiles. Con algo de suerte las deficiencias serían detectadas primero por profesionales de buena voluntad antes de que criminales desarrollaran herramientas para aprovecharlas. Por supuesto que no siempre ha sido así. Pero ahora con las nuevas IA, cualquier falencia supone un peligro inminente.





