Aller au contenu
Accueil » Pourquoi le modèle IA de DeepSeek se prend-il pour ChatGPT ?

Pourquoi le modèle IA de DeepSeek se prend-il pour ChatGPT ?

  • IA

DeepSeek, un laboratoire chinois d’intelligence artificielle bien financé, a récemment lancé un modèle IA « ouvert » qui surpasse plusieurs concurrents sur des benchmarks réputés. Ce modèle, nommé DeepSeek V3, se distingue sa taille et son efficacité, capable d’exceller dans des tâches telles que l’écriture ou la programmation.

Cependant, DeepSeek V3 semble convaincu d’être ChatGPT, la célèbre plateforme d’OpenAI.

Une identité troublante

Selon des publications sur X et des tests réalisés, DeepSeek V3 s’identifie comme ChatGPT. Lorsque le modèle est interrogé, il affirme être une version de GPT-4, le modèle d’OpenAI lancé en 2023. Ce comportement va même plus loin : lorsqu’on lui pose des questions sur l’API de DeepSeek, il répond avec des explications destinées à l’API d’OpenAI. Il reproduit également certaines blagues typiques de GPT-4, jusqu’aux punchlines.

Pourquoi ce comportement ?

Les modèles d’IA comme ChatGPT et DeepSeek V3 sont des systèmes statistiques formés sur d’immenses ensembles de données. Leur but est de détecter des schémas et de générer des prédictions. Cependant, DeepSeek n’a pas fourni de précisions sur les données utilisées pour entraîner V3. Or, des ensembles publics contenant des textes générés ChatGPT (et donc GPT-4) circulent en ligne. Si ces données ont été intégrées à l’entraînement de DeepSeek V3, le modèle aurait pu mémoriser des réponses de GPT-4 et les reproduire.

Mike Cook, chercheur spécialisé en IA au King’s College de Londres, souligne que cette situation n’est pas nécessairement volontaire. « Le modèle a visiblement été exposé aux réponses brutes de ChatGPT à un moment donné, mais il est difficile de savoir comment », explique-t-il. Cependant, il ajoute que certains développeurs entraînent délibérément leurs modèles sur les sorties d’autres systèmes pour en tirer profit.

Une pratique risquée et illégale ?

Selon Cook, utiliser les résultats d’autres modèles pour former un nouvel outil peut gravement nuire à la qualité du produit final. Cela peut provoquer des hallucinations et des réponses erronées. « C’est comme copier une photocopie : plus on répète l’opération, plus on perd en précision et en connexion avec la réalité », précise-t-il.

En outre, cette approche pourrait contrevenir aux règles d’utilisation des systèmes originaux. Par exemple, OpenAI interdit explicitement d’utiliser les sorties de ses modèles, comme ChatGPT, pour concevoir des produits concurrents.

Ni DeepSeek ni OpenAI n’ont réagi aux demandes de commentaires. Néanmoins, Sam Altman, le PDG d’OpenAI, a publié une critique implicite sur X, déclarant : « Copier quelque chose qui fonctionne est relativement facile. Créer quelque chose de nouveau, risqué et incertain, est infiniment plus difficile. »

Un problème généralisé

DeepSeek V3 n’est pas le seul modèle à se méprendre sur son identité. Gemini, le modèle de Google, prétend parfois être le chatbot Wenxinyiyan de Baidu lorsqu’il est interrogé en mandarin. Cette confusion résulte de la prolifération des contenus générés des IA sur Internet, rendant les données d’entraînement de plus en plus contaminées.

D’ici 2026, certaines estimations suggèrent que 90 % des contenus en ligne pourraient être créés des IA. Cette « pollution » rend presque impossible le filtrage exhaustif des données utilisées pour entraîner de nouveaux modèles.

Une stratégie controversée

DeepSeek a-t-il intentionnellement formé V3 sur des textes produits ChatGPT ? Si cela reste une hypothèse, Google a déjà été accusé de pratiques similaires. Heidy Khlaaf, chercheuse principale en IA à l’AI Now Institute, estime que cette méthode, bien que risquée, peut séduire des développeurs en quête de réduction des coûts.

« Même si Internet regorge de contenus générés des IA, un modèle qui s’entraînerait accidentellement sur des sorties de GPT-4 ne produirait pas nécessairement des réponses aussi proches de celles d’OpenAI », explique-t-elle. Si DeepSeek a partiellement utilisé des sorties d’OpenAI pour distiller son modèle, cela ne serait pas surprenant.

Quoi qu’il en soit, il est probable que des données issues de ChatGPT ou GPT-4 aient été largement incluses dans l’entraînement de DeepSeek V3. Cela soulève des préoccupations non seulement sur la fiabilité du modèle, mais aussi sur le risque d’amplifier les biais et faiblesses présents dans GPT-4.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *