L’intelligence artificielle DeepSeek alarme les experts en cybersécurité
```html
Pourquoi les responsables de la sécurité réclament une régulation urgente de l'IA comme DeepSeek
L'inquiétude monte dans les centres d'opérations de sécurité informatique (SOC) au Royaume-Uni, notamment chez les Chief Information Security Officers (CISOs), face à la montée en puissance du géant chinois de l’intelligence artificielle DeepSeek.
L’IA : promesse de progrès ou menace pour la cybersécurité ?
Initialement perçue comme un levier majeur d’innovation et d’efficience, l’intelligence artificielle soulève désormais de sérieuses préoccupations dans les milieux de la cybersécurité. Selon une enquête menée par Absolute Security, 81 % des CISOs britanniques estiment que DeepSeek nécessite une régulation gouvernementale urgente. Leur crainte : cette technologie pourrait être le déclencheur d'une crise cybernétique nationale.
Ces inquiétudes ne sont pas infondées. Les pratiques de gestion des données de DeepSeek et son potentiel de mésusage suscitent un véritable sentiment d'urgence dans les grandes entreprises.
Des mesures concrètes déjà mises en place
Parmi les 250 responsables interrogés dans l’étude, une proportion significative a déjà pris des décisions fortes :
- 34 % ont interdit purement et simplement l’usage d’outils d’IA dans leur entreprise.
- 30 % ont supprimé certaines implémentations d’IA existantes suite à des préoccupations de sécurité.
Il ne s’agit pas d’un rejet technologique mais d’une réponse pragmatique à un environnement de menaces de plus en plus complexe, comme l’a illustré récemment la violation de données chez Harrods.
Un fossé croissant entre IA et préparation sécuritaire
Les plateformes comme DeepSeek sont perçues comme un risque direct pour la sécurité des données sensibles, et un outil potentiel pour les cybercriminels. Voici quelques chiffres clés issus du rapport :
- 60 % des CISOs anticipent une augmentation des cyberattaques liée à l’usage de DeepSeek.
- 60 % indiquent que l’IA complique déjà les cadres de gouvernance et de confidentialité de leurs entreprises.
- 42 % estiment que l’IA constitue aujourd’hui une menace plus grande qu’un atout pour leur cybersécurité.
L’évolution rapide de technologies comme DeepSeek dépasse les capacités de défense actuelles, ce qui renforce la demande d'une intervention législative immédiate.
Des experts alertent sur la nécessité d’une action réglementaire
Andy Ward, Vice-Président International chez Absolute Security, résume la situation :
« Nos recherches révèlent que des outils comme DeepSeek redéfinissent en profondeur le paysage des menaces. Il est crucial d’adapter nos cadres de sécurité à ces usages afin de rester résilients face à des attaques de plus en plus complexes. »
Presque la moitié (46 %) des responsables interrogés reconnaissent que leurs équipes ne sont pas prêtes à contrer les menaces générées par l’IA. L’écart se creuse entre les technologies émergentes et les dispositifs de sécurité existants.
« Il ne s’agit plus de scénarios hypothétiques. L’interdiction proactive de certains outils d'IA signale bien la gravité du problème. Sans cadre national réglementaire, nous pouvons nous attendre à des perturbations majeures dans tous les secteurs de l’économie », ajoute Ward.
Des investissements stratégiques pour une adoption maîtrisée de l’IA
Face à la menace, les entreprises ne renoncent pas à l’IA, mais choisissent une approche stratégique et prudente :
- 84 % prévoient de recruter des spécialistes IA en 2025.
- 80 % mettent en place des formations à l’intelligence artificielle pour les membres de la direction (C-level).
L’objectif est double : développer une expertise interne capable de gérer les risques, tout en continuant à exploiter le potentiel de l’IA de manière maîtrisée.
Vers un partenariat renforcé avec le gouvernement
Les CISOs britanniques ne rejettent pas le progrès. Ils souhaitent au contraire l’encadrer intelligemment. Cela passe par :
- Des lignes directrices claires sur l’usage et la gouvernance des outils d’intelligence artificielle.
- Un soutien institutionnel dans la création de normes de sécurité.
- Le développement d’un vivier de talents spécialisés dans l'IA.
« Le temps du débat est écoulé. Il faut passer à l’action pour garantir que l’IA serve l’innovation et non la vulnérabilité », conclut Andy Ward.
À lire aussi : L’approche humaniste de l’IA selon l’Institut Alan Turing
Découvrez les prochains événements IA & Big Data à l’AI & Big Data Expo à Amsterdam, Californie et Londres. Événements partenaires : Intelligent Automation Conference, BlockX, Digital Transformation Week et Cyber Security & Cloud Expo.
@ReservoirLive
Comments ()