El avance de los últimos modelos de IA debe haber causado algunos sustos a empresarios y funcionarios por igual. Al menos debe haberlos convencido de que algo tenía que cambiar. Lo cierto es que Estados Unidos ha anunciado que de ahora en más cualquier nuevo modelo deberá ser evaluado antes de que las empresas puedan lanzarlo al mercado.
El gobierno federal ha llegado a un acuerdo con Microsoft, Google y xAI. La idea es establecer un grupo de trabajo, que incluirá a ejecutivos y funcionarios. Dicho grupo se encargará de elaborar un proceso de revisión para los nuevos modelos.
El Centro de Estándares e Innovación para las IA del Departamento de Comercio ha afirmado que se encargará de las evaluaciones previas y la investigación para evaluar las capacidades de los modelos más avanzados de IA y la seguridad relacionada. No ha quedado claro si esta agencia está relacionada con el grupo de ejecutivos y funcionarios o son dos instancias separadas.
Un nuevo cambio de era
Curiosamente, mucho de esto es posible por acuerdos anteriores establecidos durante la administración de Joe Biden. Durante la era Biden era necesario que los desarrolladores compartieron los resultados de sus pruebas de seguridad con el gobierno y sus agencias federales. Donald Trump adoptó una postura con mucho menos supervisión. Y muchas de esas exigencias desaparecieron.
Mythos
Medios y analistas asumen que la principal causa para este nuevo cambio de postura ha sido la salida de Mythos. Como el lector recordará este modelo se ha destacado por su capacidad para analizar código y encontrar vulnerabilidades.
Por dicha razón fue suministrado primero a agencias y organizaciones de confianza. Aunque de forma posterior se filtró a otros organismos.





