JUE, 26 / FEB / 2026

Anthropic advierte que el destilado es un problema de seguridad nacional

La compañía ha detectado campañas coordinadas de varias empresas chinas. Advierte que los modelos derivados ajustan sus respuestas a la censura del gobierno chino y podrían no tener los mismos límites para producir armas biológicas.

Hace unos días les contamos como OpenAI había advertido que la compañía china DeepSeek se aprovechaba de su trabajo al utilizar a ChatGPT para entrenar sus propios modelos. La técnica empleada es conocida como destilación.

Más recientemente Anthropic se ha sumado a esta queja y apuntado que DeepSeek, Moonshot y MiniMax se valen del mismo recurso. Aún más, según la compañía estadounidense las empresas chinas actúan de forma coordinada en campañas de escala industrial. Anthropic afirma haber detectado más de 24 mil cuentas falsas, que generaron más de 16 millones de intercambios. Los esfuerzos son cada vez más intensos y cada vez más sofisticados.

La técnica prohibida, o no tan prohibida

La destilación es un método legítimo de entrenamiento. Pero por lo general supone utilizar un modelo propio de mayor extensión para enseñarle a uno más pequeño y específico. Los conflictos se dan cuando una empresa aprovecha un modelo ajeno para esta tarea.

La compañía que hizo famosa a esta técnica fue DeepSeek, cuando presentó al público una IA de gran calidad para la que había necesitado muchos menos recursos que sus competidoras occidentales. Poco tiempo pasó para que indicios dentro de las respuestas del modelo apuntaran al método empleado.

OpenAI advierte que DeepSeek se aprovecha del esfuerzo de las desarrolladoras de EEUU

El hecho de que se ocultara la técnica deja en claro mucho de su naturaleza conflictiva.

Anthropic apunta a los mecanismos fraudulentos. La utilización de la técnica a escondidas, la intención de sacar provecho del trabajo de otros.

Como tantas otras veces, las desarrolladoras de inteligencia artificial parecen no poder ver o no querer ver que eso mismo es lo que han hecho para entrenar sus modelos. Ignorar propiedad intelectual, tomar información de plataformas ajenas, consumir recursos de otros, etcétera.

Una versión aceptable para China

Un punto que si debe tomarse con seriedad es que las empresas chinas podrían imponerse en muchos mercados poco a poco gracias a las ventajas conseguidas en el desarrollo. El problema no es el negocio en sí, sino que los modelos son manipulados para ofrecer una versión censurada de la historia a favor del partido de gobierno. En algunas tareas detectadas Claude ha sido empleado por las empresas chinas para generar versiones aceptable de ciertos hechos históricos o simplemente evitar dar ciertas respuestas.

Imagina buscar algo en Google, pero que nunca salga nada que incomode al gobierno de tu país.

Otra amenaza

Anthropic ha presentado el destilado como un problema de seguridad nacional para Estados Unidos. Argumenta que los modelos derivados podrían carecer de los mecanismos de seguridad del original. Por tanto, podrían ser utilizados, por ejemplo, para la fabricación de armas biológicas o para realizar ataques informáticos. Serían grandes recursos para los sistemas de vigilancia masiva y las campañas de desinformación de los gobiernos autoritarios.

Cabe recordar que hace poco la empresa tuvo problemas con el Pentágono por sostener ciertos límites de prácticas para sus modelos.

Anthropic y el Pentágono en conflicto por el uso de las IA

Comentarios
¡Comparte esta noticia!
TAGS

Comments are closed.