Dans la course effrénée à l'intelligence artificielle entre les États-Unis et la Chine, les accusations de plagiat portent un coup dur. Lorsqu'OpenAI, Google et d'autres entreprises américaines s'efforcent d'améliorer leurs chatbots, certaines startups chinoises, dont Deepseek, semblent privilégier des méthodes moins scrupuleuses.
Selon Anthropic, le 23 février, des campagnes massives menées par ces entreprises chinoises ont été identifiées, utilisant des techniques de distillation pour reproduire les capacités de Claude. Ce procédé, normalement utilisé en interne par les entreprises pour optimiser leurs modèles, est ici exploitée à des fins illicites, suscitant des inquiétudes au sein de la communauté technologique.
Un accès frauduleux à 16 millions de requêtes
Étant donné que Claude n'est pas accessible en Chine, ces entreprises ont eu recours à des services proxy ainsi qu'à environ 24 000 comptes frauduleux pour contourner les restrictions. Ce réseau a généré plus de 16 millions de requêtes pour extraire des capacités spécifiques de l'IA, une approche qualifiée de "soigneusement orchestrée" par Anthropic. La start-up a réussi à détecter ce schéma à cause de la répétition des demandes.
"Lorsque des variantes de ce message arrivent en masse, ciblant la même fonctionnalité, le schéma devient évident," a déclaré Anthropic.
L'objectif de ces manœuvres semble clair : obtenir des réponses de qualité pour alimenter l'apprentissage des modèles de manière directe, ou générer un grand volume de tâches pour l'apprentissage par renforcement.
Minimax en première ligne
Parmi les trois entreprises acculées, Minimax se distingue par son niveau d'activité, avec plus de 13 millions d'échanges. Son intérêt particulier pour les capacités de codage de Claude démontre une volonté évidente de reproduire les meilleures technologies de l'IA, tout comme l'indique Reuters.
Moonshot, pour sa part, a mené plus de 3,4 millions d'interactions ciblant divers aspects de Claude, y compris son raisonnement et ses compétences analytiques. Par le biais de multiples faux comptes, cette entreprise a rendu le suivi des activités encore plus complexe, bien que Anthropic ait réussi à établir des liens grâce à des métadonnées.
Deepseek dans le viseur
Quant à Deepseek, la société penchant pour les approches créatives, plus de 150 000 interactions ont été détectées, focalisées cette fois-ci sur les capacités de raisonnement de Claude. Parmi les techniques exploitées, l'une consistait à interroger Claude pour élaborer son processus de réponses pas à pas, quête révélatrice.
Des accusations similaires avaient déjà été formulées par OpenAI, qui avait prétendu que Deepseek utilisait des modèles américains de manière illégale pour optimiser son développement, un fait réaffirmé lors d'une récente réunion au Congrès américain. D'autres révélations, comme celles de Reuters, visent à montrer que des entreprises comme Deepseek ne se contentent pas de plagier des modèles mais enfreignent également les restrictions commerciales.
Alors que la bataille des chatbots se intensifie, ces accusations de plagiat et d'activités illicites se heurtent à des débats éthiques croissants sur la créativité et l'innovation dans le domaine de l'IA.







