Il n’aura pas fallu une semaine pour que l’euphorie débordante suscitée par la dernière version de l’IA chinoise DeepSeek (R1) se transforme en défiance grandissante. Premiers indices visibles forts de ce revirement, la décision de Taïwan, suivi trois jours plus tard par l’Australie d’interdire l’utilisation, dès le 4 février, des programmes de DeepSeek sur tous les appareils gouvernementaux, invoquant à chaque fois des investigations ayant conclu à un « risque inacceptable pour la sécurité nationale ». A côté, la Corée du Sud, la France, l’Italie ont exigé de DeepSeek des explications qu’ils n’ont pas eues concernant la sécurité des données des usagers. Pékin a aussitôt répliqué, accusant de politiser les questions technologiques et commerciales, oubliant au passage que DeepSeek venait de faire l’objet d’une attaque massive révélant de probables failles.

Une semaine de folie

Suite au piratage massif qui a donc momentanément paralysé DeepSeek, le WE des 25-26 janvier, de nombreux experts en cyber sécurité se sont penchés sur la fiabilité de ses sécurités. Comme la société Wiz Reseach qui a voulu évaluer la vulnérabilité des protections de l’IA chinoise dont l’efficacité et le coût d’usage venaient d’enthousiasmer le monde.

Dans un blog dédié, la firme roumaine experte en systèmes digitaux complexes, tranche, dès le 29 janvier :

« En quelques minutes, nous avons trouvé une base de données ClickHouse accessible au public et liée à DeepSeek, complètement ouverte et non authentifiée, exposant des données sensibles ». Et d’enfoncer le clou quelques lignes plus loin : « Plus important encore, l’exposition a permis un contrôle total de la base de données et une éventuelle élévation des privilèges au sein de l’environnement DeepSeek, sans aucun mécanisme d’authentification ou de défense vis-à-vis du monde extérieur » !

Depuis, les mises en garde se sont multipliées, au fil des découvertes de failles, de fragilités et même de connexions suspectes avec des entités chinoises. Et la méfiance institutionnelle s’est donc instaurée jusqu’à pousser plusieurs gouvernements, dès le 2 février, à interdire ou restreindre l’usage de l’IA chinoise sur les sites et matériels gouvernementaux.

Des reproches en cascade

Les diverses investigations menées par des sociétés ou laboratoires experts en cybersécurité ont ainsi permis de mettre à jour de multiples problèmes de sécurité des données, celles des usagers particuliers comme celles d’organisations classées « sensibles ». Il en ressort au moins trois types de risques.

  • Risques de cybersécurité : une base de données contenant des millions d’informations sensibles a été découverte sans besoin d’authentification, exposant potentiellement des mots de passe et des données confidentielles. Bien que corrigé rapidement, cet incident a révélé un manque flagrant de sécurité.
  • Vulnérabilité aux jailbreaks : De nombreux modèles d’IA, dont DeepSeek, intègrent une « invite système » qui permet de définir le comportement et les limites de l’IA. Cette invite est, bien évidemment sécurisée et confidentielle, mais des chercheurs de Wallarm, plateforme américaine spécialisée dans les API, ont réussi à extraire de DeepSeek cette invite et à modifier les paramètres de comportement.
  • Soupçons d’ingérence chinoise : DeepSeek est aussi perçue comme une menace en raison soupçons de liens avec le gouvernement chinois. Selon le media The Independent, des chercheurs ont découvert dans DeepSeek un code dissimulé suspect. Sensé permettre l’échange de données des utilisateurs avec l’opérateur China Mobile, il s’activerait lors de la création de compte et de la connexion à DeepSeek à partir d’un navigateur Web. Problème, China Mobile est dans le collimateur des autorités américaines car soupçonné d’avoir des liens étroits avec l’armée chinoise. Voilà qui rappelle d’autres tensions, celles issues de l’arrivée sur le marché des réseaux 5G d’un autre chinois suspecté d’accointance avec le régime de Pékin et boycotté par certains pays : Huawei.

Un nouveau sujet pour le Sommet pour l’action sur l’IA

Ces exemples illustrent à tout le moins les graves lacunes en matière de sécurité chez DeepSeek, exposant les utilisateurs à des risques significatifs de vol de données et de compromission de leur vie privée.

Alors que l’émergence de DeepSeek R1 s’apprêtait à alimenter les discussions sur le modèle d’IA le plus efficient, lors du Sommet pour l’action sur l’IA organisé à Paris les 11 et 12 février, il est fort probable que le modèle DeepSeek s’invite dorénavant dans les débats sur la sécurité encore très insuffisante des IA génératives et particulièrement des productions chinoises.