Antrópico el lunes inculpado tres desarrolladores chinos líderes de modelos de inteligencia industrial de vanguardia utilizan la destilación a gran escalera para mejorar sus propios modelos mediante el uso de las capacidades de Claude de Anthropic. En total, DeepSeek, Moonshot y MiniMax realizaron 16 millones de intercambios utilizando 24.000 cuentas fraudulentas.
Profundice con TH Premium: IA y centros de datos
“La destilación puede ser legítima: los laboratorios de IA la utilizan para crear modelos más pequeños y más baratos para sus clientes”, afirma. revelación por Anthropic publicado en X lecturas. “Pero los laboratorios extranjeros que destilan ilícitamente modelos estadounidenses pueden eliminar las salvaguardias, alimentando las capacidades del maniquí en sus propios sistemas militares, de inteligencia y de vigilancia”.
Empresas estadounidenses como OpenAI han inculpado durante mucho tiempo a DeepSeek de utilizar la destilación para entrenar algunos de sus modelos de frontera utilizando resultados de ChatGPT y otros servicios, pero no han presentado una explicación detallada, a diferencia de Anthropic.
Cómo las empresas chinas utilizan la destilación de los modelos de IA estadounidenses
Según Anthropic, los perpetradores siguieron el mismo patrón: utilizaron servicios comerciales que revenden el acercamiento a modelos fronterizos y construyeron lo que la compañía fogata redes de ‘clúster hidra’: grandes grupos de cuentas que distribuyen el tráfico a través de la API de Anthropic y nubes de terceros.
En un caso, una única configuración de proxy supuestamente controlaba más de 20.000 cuentas fraudulentas a la vez. Para evitar producir alertas, mezcló el tráfico de linaje con solicitudes de uso ordinario. Sin confiscación, sus patrones de respuesta se destacaron: volúmenes muy altos, estrechamente centrados en capacidades específicas y muy repetitivos. Tal comportamiento era consistente con el entrenamiento del maniquí, pero ciertamente no era la interacción típica del favorecido final.
Solo DeepSeek generó más de 150.000 intercambios dirigidos a tareas de razonamiento, calificaciones basadas en rúbricas adecuadas para modelos de galardón de formación por refuerzo y reescrituras seguras de censura de consultas políticamente sensibles, según Anthropic. Anthropic todavía observó indicaciones diseñadas para producir razonamiento interno paso a paso y, por lo tanto, revelar datos de entrenamiento de la sujeción de pensamiento.
Moonshot, conocida por sus modelos Kimi, representó más de 3,4 millones de intercambios, según Anthropic. Sus áreas de enfoque incluyeron razonamiento agente, uso de herramientas, codificación, estudio de datos, agentes de uso de computadoras y visión por computadora. Moonshot supuestamente utilizó cientos de cuentas fraudulentas que abarcaban múltiples vías de acercamiento y luego intentó extraer y reedificar los rastros del razonamiento de Claude.
MiniMax llevó a término la campaña más alto con más de 13 millones de intercambios dirigidos a la codificación y orquestación agentes. Anthropic dice que detectó esta operación mientras aún estaba en curso, ya que MiniMax estaba entrenando su maniquí que se lanzaría en el futuro, lo que proporciona a la empresa estadounidense una visión única del ciclo de vida de la linaje. Posteriormente de que Anthropic presentara un nuevo maniquí de Claude, MiniMax supuestamente redirigió casi la porción de su tráfico en 24 horas para capturar capacidades del postrero maniquí.
La respuesta antrópica
Para batallar contra futuros intentos de destilación, Anthropic dice que está fortaleciendo las defensas para hacer que la destilación a gran escalera sea más difícil de realizar y más viable de detectar. La compañía ha implementado clasificadores y sistemas de huellas dactilares de comportamiento para identificar patrones de linaje en el tráfico API, incluida la consecución de cadenas de pensamiento y la actividad coordinada de múltiples cuentas. La compañía todavía comparte indicadores técnicos de la operación de destilación a gran escalera con otros laboratorios de inteligencia industrial, proveedores de nimbo y autoridades, encima de reanimar la demostración de cuentas educativas, de investigación y de inicio que a menudo se utilizan para crear acercamiento fraudulento. Paralelamente, está desarrollando salvaguardas a nivel de producto, API y maniquí para compendiar la utilidad de los resultados para la capacitación ilícita sin dañar a los usuarios legítimos. Al mismo tiempo, la empresa admite que contrarrestar ataques a esta escalera requiere una movimiento industrial y política coordinada.
Seguir Hardware de Tom en Google Newso agréganos como fuente preferidapara tomar nuestras últimas noticiero, estudio y reseñas en sus feeds.





