urgence sécuritaire : pourquoi deepseek inquiète les rssi britanniques

urgence sécuritaire : pourquoi deepseek inquiète les rssi britanniques

Pourquoi les responsables de la sécurité exigent une régulation urgente de l'IA comme DeepSeek

Anxiété croissante des RSSI face à DeepSeek, l'IA chinoise controversée

Les responsables de la sécurité informatique (RSSI) au Royaume-Uni expriment de plus en plus d'inquiétudes concernant DeepSeek, un chatbot IA développé en Chine. Alors que l'intelligence artificielle est souvent perçue comme un levier majeur de productivité et d’innovation, elle soulève aujourd'hui des menaces sérieuses dans les centres de défense sécuritaire des grandes entreprises.

Selon une enquête menée par Absolute Security pour son UK Resilience Risk Index Report, 81 % des RSSI britanniques estiment que DeepSeek nécessite une régulation gouvernementale immédiate. Leur crainte : sans une intervention rapide, cette technologie pourrait déclencher une crise nationale de cybersécurité.

Des décisions drastiques face à un danger bien réel

Ces inquiétudes ne sont pas de simples spéculations. Le maniement discutable des données par DeepSeek, ainsi que son potentiel de détournement, alarment les experts en sécurité au plus haut niveau.

Parmi les 250 RSSI interrogés dans le Royaume-Uni :

  • 34 % ont déjà interdit les outils d’IA dans leur organisation.
  • 30 % ont interrompu certains projets IA en cours en raison de risques de cybersécurité.

Ces mesures montrent une prise de conscience critique face à une menace qui dépasse largement l’imaginaire de ces dernières années. Les cyberattaques se multiplient, comme le prouve la récente faille de sécurité chez Harrods, et de nombreux RSSI peinent à suivre le rythme. L’IA ajoute une complexité redoutable à un paysage déjà très hostile.

L'écart grandissant entre l'IA et la capacité défensive

DeepSeek représente selon certains RSSI une véritable bombe à retardement pour la sécurité des données en entreprise. Trois responsables sur cinq (60 %) prévoient une augmentation directe des cyberattaques en raison de la diffusion de cette plateforme.

Dans le même temps, 42 % des RSSI considèrent aujourd'hui que l'IA est devenue une menace plus qu'un outil de protection. Au lieu d’un rempart, elle est perçue comme un vecteur d’attaque de plus en plus difficile à contrôler.

Andy Ward, Vice-Président International chez Absolute Security, commente :

« Notre étude met en lumière les risques majeurs créés par des outils IA émergents comme DeepSeek. Ces technologies transforment brutalement le paysage des menaces. Les entreprises doivent agir maintenant pour renforcer leur résilience et adapter leur cadre de sécurité. »

Des organisations à la peine face aux nouvelles menaces IA

Autre constat inquiétant : 46 % des RSSI admettent que leurs équipes ne sont tout simplement pas prêtes à affronter les menaces spécifiques liées à l’IA. La rapidité avec laquelle ces outils évoluent dépasse les capacités défensives actuelles de nombreuses entreprises.

Andy Ward poursuit :

« Ces risques ne sont pas théoriques. Des interdictions d’outils IA sont déjà en place dans plusieurs entreprises. Sans réglementation nationale pour encadrer l’usage, le suivi et la gouvernance de ces outils, chaque secteur de l’économie britannique pourrait être gravement perturbé. »

Les entreprises investissent pour une IA plus sûre

Malgré les menaces, les entreprises ne tournent pas complètement le dos à l’intelligence artificielle. Il s’agit d’une pause stratégique, et non d’un abandon.

Pour adopter l’IA en toute sécurité :

  • 84 % des entreprises comptent recruter des spécialistes en IA d’ici fin 2025.
  • 80 % investissent dans la formation IA pour leurs dirigeants (C-suite).

L’objectif est double : faire monter en compétences les équipes actuelles, et attirer de nouveaux talents capables de maîtriser les complexités inhérentes à ces technologies.

Le message des RSSI est clair : ils ne cherchent pas à freiner l’innovation, mais à s’assurer qu’elle se développe dans un cadre sécurisé, avec le soutien actif du gouvernement.

Vers une stratégie nationale pour encadrer l’IA comme DeepSeek

Pour accompagner la transition vers une intelligence artificielle responsable, les experts proposent plusieurs axes d’action :

  • Instaurer une réglementation nationale claire encadrant les usages IA.
  • Créer une autorité de surveillance dédiée.
  • Développer un vivier de professionnels qualifiés en cybersécurité et IA.
  • Impliquer les acteurs publics et privés dans une stratégie cohérente.

Comme le conclut Andy Ward :

« Le temps du débat est révolu. Il est temps de mettre en place des politiques et une supervision efficaces pour faire de l’IA un levier de progrès, et non un facteur de crise. »

Lire aussi : L’Institut Alan Turing : les sciences humaines sont essentielles au futur de l’IA

Découvrez les événements à venir sur l’intelligence artificielle, les données et la cybersécurité organisés par TechForge ici.

@ReservoirLive