empresa americana antrópico anunció que tres entidades chinas líderes que desarrollan modelos avanzados de IA utilizarían su sistema a gran escala claudio para mejorar sus propias soluciones. Según la empresa DeepSeek, Moonshot y MiniMax llevado a cabo conjuntamente aproximadamente 16 millones de consultasusando cerrar 24 mil cuentas falsas.
OpenAI ya ha llamado la atención sobre el mismo problema
Estamos hablando aquí de los llamados destilación – una técnica en la que un modelo más pequeño se entrena con las respuestas de uno más fuerte, en lugar de con los datos sin procesar. El método es legal y se utiliza ampliamente, pero en este caso hubo una violación de los términos de la licencia y de las regulaciones de exportación de Estados Unidos. Anthropic advierte que esto podría llevar a la eliminación de la seguridad y al uso de IA en sistemas militares.
Según la información proporcionada Las entidades chinas supuestamente utilizaron intermediarios y crearon extensas redes de cuentas, que dispersó el tráfico a través de la API y la nube. En un caso, una única infraestructura de proxy supuestamente controlaba más de 20.000 cuentas. El tráfico de adquisición de datos fue mixto con el uso normal, pero se distinguió por volúmenes muy altos, repetición y enfoque en funciones específicas.que indicó su uso para el entrenamiento de modelos.
Se suponía que DeepSeek generaría más de 150.000 consultas centradas en tareas que requerían razonamiento avanzado.evaluar respuestas en términos de modelos de recompensa y procesar contenido políticamente sensible. Moonshot, fabricante de los modelos Kimi, ha contabilizado más de 3,4 millones de reposicionescentrándose en el razonamiento, la programación y el análisis de datos basados en agentes.
La mayor escala de actividades se asignó a MiniMax, que debía realizar más de 13 millones de consultas relacionadas con la codificación de agentes y la orquestación de tareas. Es importante destacar que, tras el estreno de la nueva versión de Claude, una parte importante del tráfico se redirigió rápidamente al último modelo.
Los estadounidenses dicen basta y construyen un muro contra los chinos
En respuesta a estas acciones Anthropic anuncia seguridad mejorada. La empresa ha implementado los llamados sistemas de huellas conductuales que tienen como objetivo identificar patrones característicos de la destilación en masa. La compañía también declara cooperar con otros laboratorios de inteligencia artificial, proveedores de nube y autoridades estatales, así como una verificación más estricta de las cuentas educativas, de investigación y de inicio, que a menudo se utilizan para crear acceso no autorizado.
Al mismo tiempo, Anthropic admite que la escala de tales operaciones muestra que Una defensa eficaz requiere no sólo soluciones técnicas, sino también una acción industrial coordinada. y apoyo regulatorio. El conflicto en torno a la destilación modelo puede convertirse Otro frente de competencia tecnológica entre EE.UU. y China en el campo de la inteligencia artificial.