Hace unos días les contamos como OpenAI había advertido que la compañía china DeepSeek se aprovechaba de su trabajo al utilizar a ChatGPT para entrenar sus propios modelos. La técnica empleada es conocida como destilación.
Más recientemente Anthropic se ha sumado a esta queja y apuntado que DeepSeek, Moonshot y MiniMax se valen del mismo recurso. Aún más, según la compañía estadounidense las empresas chinas actúan de forma coordinada en campañas de escala industrial. Anthropic afirma haber detectado más de 24 mil cuentas falsas, que generaron más de 16 millones de intercambios. Los esfuerzos son cada vez más intensos y cada vez más sofisticados.
La técnica prohibida, o no tan prohibida
La destilación es un método legítimo de entrenamiento. Pero por lo general supone utilizar un modelo propio de mayor extensión para enseñarle a uno más pequeño y específico. Los conflictos se dan cuando una empresa aprovecha un modelo ajeno para esta tarea.
La compañía que hizo famosa a esta técnica fue DeepSeek, cuando presentó al público una IA de gran calidad para la que había necesitado muchos menos recursos que sus competidoras occidentales. Poco tiempo pasó para que indicios dentro de las respuestas del modelo apuntaran al método empleado.
OpenAI advierte que DeepSeek se aprovecha del esfuerzo de las desarrolladoras de EEUU
El hecho de que se ocultara la técnica deja en claro mucho de su naturaleza conflictiva.
Anthropic apunta a los mecanismos fraudulentos. La utilización de la técnica a escondidas, la intención de sacar provecho del trabajo de otros.
Como tantas otras veces, las desarrolladoras de inteligencia artificial parecen no poder ver o no querer ver que eso mismo es lo que han hecho para entrenar sus modelos. Ignorar propiedad intelectual, tomar información de plataformas ajenas, consumir recursos de otros, etcétera.
Una versión aceptable para China
Un punto que si debe tomarse con seriedad es que las empresas chinas podrían imponerse en muchos mercados poco a poco gracias a las ventajas conseguidas en el desarrollo. El problema no es el negocio en sí, sino que los modelos son manipulados para ofrecer una versión censurada de la historia a favor del partido de gobierno. En algunas tareas detectadas Claude ha sido empleado por las empresas chinas para generar versiones aceptable de ciertos hechos históricos o simplemente evitar dar ciertas respuestas.
Imagina buscar algo en Google, pero que nunca salga nada que incomode al gobierno de tu país.
Otra amenaza
Anthropic ha presentado el destilado como un problema de seguridad nacional para Estados Unidos. Argumenta que los modelos derivados podrían carecer de los mecanismos de seguridad del original. Por tanto, podrían ser utilizados, por ejemplo, para la fabricación de armas biológicas o para realizar ataques informáticos. Serían grandes recursos para los sistemas de vigilancia masiva y las campañas de desinformación de los gobiernos autoritarios.
Cabe recordar que hace poco la empresa tuvo problemas con el Pentágono por sostener ciertos límites de prácticas para sus modelos.





