Google cloud et l’ia pour une cybersécurité réinventée

Cybersécurité et intelligence artificielle : Google Cloud face aux menaces de demain
Cybersécurité : Google Cloud alerte face à une perte de contrôle inquiétante
Dans les bureaux modernes de Google à Singapour, Mark Johnston, Directeur de l’Office du CISO pour Google Cloud Asie-Pacifique, a livré un constat alarmant : malgré 50 ans d’évolution, la cybersécurité reste en échec. « Dans 69 % des incidents en Asie-Pacifique, ce sont des entités extérieures qui informent les entreprises de leurs propres violations », a-t-il déclaré lors de la table ronde « Cybersecurity in the AI Era ».
Alors que les outils basés sur l’intelligence artificielle redéfinissent à la fois les stratégies de défense et les capacités des cybercriminels, Google Cloud tente d’utiliser l’IA pour renverser cette dynamique.
Un demi-siècle d’échecs en cybersécurité
Selon Johnston, le problème ne date pas d’hier. Il cite James P. Anderson, pionnier de la sécurité informatique, qui en 1972 affirmait déjà que « les systèmes ne savent pas se protéger ». Cette réalité semble toujours d’actualité aujourd’hui.
Les failles les plus élémentaires persistent :
- 76 % des violations proviennent d’erreurs de configuration ou de compromission d’identifiants.
- Un exemple récent évoqué : une faille « zero-day » dans Microsoft SharePoint, exploitée de manière continue.
L’IA : nouvel enjeu stratégique entre défenseurs et attaquants
Pour Kevin Curran, professeur en cybersécurité à l’Université d’Ulster, la cybersécurité actuelle est devenue une « course aux armements ». Si l’IA permet aux entreprises d’analyser en temps réel d’immenses flux de données pour détecter les anomalies, elle profite aussi aux attaquants.
- Automatisation du phishing
- Création de logiciels malveillants
- Scan automatisé des réseaux
Google Cloud affirme que l’intelligence artificielle offre une opportunité unique de rééquilibrer les forces grâce à des cas d’usage multiples : détection de failles, renforcement du code, intelligence des menaces, et réponse aux incidents.
Project Zero : quand l’IA trouve ce que l’humain ne voit pas
Avec son initiative “Big Sleep”, Google Cloud montre comment l’IA peut surpasser l’humain. En analysant le code de bibliothèques open-source, cette technologie a permis d’identifier 47 failles en un seul mois.
Johnston qualifie cette transformation comme le passage « du manuel au semi-autonome », où des outils comme Gemini assurent la majorité des tâches de sécurité, tout en déléguant les cas complexes à des experts humains.
L’automatisation : promesse ou piège ?
Google Cloud développe sa vision de la cybersécurité sur quatre étapes :
- Manuelle
- Assistée
- Semi-autonome
- Autonome
L’objectif final étant que l’IA « pilote tout le cycle de sécurité ». Cependant, Johnston prévient : une surexposition à cette automatisation pourrait conduire à des manipulations malveillantes. Il alerte aussi sur l’absence actuelle d’un cadre réglementaire clair pour authentifier les outils utilisés.
Curran ajoute : « Il faut éviter la dépendance totale à l’IA. Le jugement humain reste crucial. »
Contrôler la part imprévisible de l’IA
Face aux réponses hors contexte fréquentes des IA, Google a mis en place une technologie nommée Model Armor.
Ce filtre intelligent permet de :
- Bloquer les réponses inappropriées ou hors sujet
- Exclure les données personnelles
- Maintenir l’image de marque
Google s’attaque également au phénomène du « shadow AI » — des outils d’IA non autorisés présents sur les réseaux d’entreprise — en analysant plusieurs environnements cloud et systèmes internes via des solutions de protection des données sensibles.
Des budgets limités face à des attaques en hausse
Le principal frein pour les RSSI en Asie-Pacifique : le manque de budget à l'heure où les attaques se multiplient.
« Il y a plus de bruit. Cela rend la détection plus coûteuse, même si les attaques ne sont pas toujours plus sophistiquées », explique Johnston. Les responsables cherchent des partenaires technologiques capables de soulager les équipes sans ressources humaines supplémentaires.
Défis à venir : entre efficacité et dérives
Alors que Google Cloud observe une amélioration de 50 % dans la rédaction des rapports d'incidents grâce à l’IA, Johnston reconnaît que des erreurs subsistent : « Les humains se trompent aussi, mais il ne faut pas les écarter pour autant. »
Par ailleurs, bien qu’aucune attaque exploitant une IA de manière inédite n’ait encore été observée, les pirates l’utilisent déjà pour démultiplier des méthodes classiques.
Vers l’ère post-quantique
En anticipant les menaces à venir, Google Cloud a déjà déployé des algorithmes post-quantiques entre ses centres de données. L’objectif : se protéger contre les futures générations de décryptage accéléré par les ordinateurs quantiques.
Conclusion : adopter l’IA avec vigilance
L’intelligence artificielle marque un tournant majeur en cybersécurité. Mais comme le souligne Johnston, elle doit être intégrée de manière réfléchie et progressive : « Il faut l’adopter sur des cas à faible risque et l’évaluer sur le long terme. »
Comme le résume Kevin Curran : « Les cyberattaques sont inévitables. L’IA accélère leur fréquence. Seule une stratégie proactive intégrant à la fois technologie et supervision humaine permettra de garder une longueur d’avance. »
À lire aussi : Google Cloud : une IA pour épauler les équipes de sécurité
@ReservoirLive
Comments ()