Google cloud mise sur l’ia pour contrer les cybermenaces croissantes

Google cloud mise sur l’ia pour contrer les cybermenaces croissantes

Cybersécurité et intelligence artificielle : Google Cloud face aux menaces de demain

Cybersécurité : Google Cloud alerte sur une situation critique en Asie-Pacifique

Au siège de Google à Singapour, Mark Johnston, Directeur de l'équipe CISO (Chief Information Security Officer) pour Google Cloud en Asie-Pacifique, a livré une réalité préoccupante : « Dans 69 % des incidents en Asie-Pacifique, ce sont des entités externes qui informent les organisations de leur propre compromission. »

Cette confession a ouvert une table ronde d'une heure intitulée « La cybersécurité à l’ère de l’IA », où l’accent a été mis sur les échecs persistants des systèmes de défense, malgré cinquante ans d'évolution sécuritaire. Google Cloud tente aujourd’hui d’inverser la tendance avec l’intelligence artificielle.

50 ans d’échec en cybersécurité

Le problème n’est pas nouveau. Mark Johnston rappelle l’observation datant de 1972 du pionnier James P. Anderson : « Les systèmes que nous utilisons ne se protègent pas réellement eux-mêmes. »

Les brèches actuelles sont souvent dues à des erreurs basiques :

  • Erreurs de configuration
  • Vols ou fuites d’identifiants

Un exemple récent : une faille “zero-day” dans Microsoft SharePoint a été exploitée massivement dès sa découverte.

IA et cybersécurité : une course aux armements

Selon Kevin Curran, expert de l’IEEE, « nous vivons une véritable course à l’armement, où les entreprises et les cybercriminels utilisent l’IA pour prendre l’avantage. »

Pour les défenseurs :

  • Analyse des données en temps réel
  • Automatisation de la détection d’anomalies

Pour les attaquants :

  • Création automatisée de malwares
  • Phishing intelligent
  • Scan de vulnérabilités à grande échelle

Google mise sur l’IA générative pour inverser cet avantage, notamment dans les domaines suivants :

  • Détection de vulnérabilités
  • Génération de code sécurisé
  • Analyse des menaces
  • Réponse automatisée aux incidents

Project Zero : l’IA détecte ce que les humains manquent

Le programme Project Zero : Big Sleep s’appuie sur des modèles de langage IA pour repérer des failles dans du code réel. Résultat : en août, 47 vulnérabilités ont été identifiées grâce à cette technologie.

« C’est un passage du manuel vers le semi-autonome », explique Johnston, indiquant que l’IA Gemini gère efficacement la majorité des étapes du cycle de sécurité.

Le paradoxe de l’automatisation

Google Cloud envisage 4 étapes pour ses systèmes de cybersécurité : Manuel → Assisté → Semi-autonome → Autonome.

Mais cet avenir automatisé comporte des risques. Johnston avertit : « Ces services pourraient être attaqués ou manipulés. »

Curran va plus loin : « Une dépendance excessive à l’IA pourrait marginaliser les jugements humains, essentiels en situation critique. »

Un contrôle strict contre l’imprévu de l’IA

Google Cloud déploie des garde-fous pour éviter les dérives de réponse de l’IA, comme un assistant IA qui donnerait des conseils médicaux dans un contexte de vente au détail.

La solution : technologie Model Armor, qui filtre les réponses générées pour respecter le contexte et la confidentialité.

En parallèle, Google combat l’IA « fantôme », c’est-à-dire l’utilisation de centaines d’outils IA non autorisés au sein des entreprises, via une surveillance multi-cloud et locale renforcée.

Des budgets limités face à des menaces croissantes

Le plus grand obstacle identifié par Johnston est budgétaire. Alors que les cyberattaques se multiplient, les ressources des entreprises stagnent.

« Même des attaques peu sophistiquées créent du bruit, et gérer ce bruit coûte cher », souligne-t-il. Les responsables cherchent donc des solutions évolutives… sans embaucher une armée d’experts.

Un avenir incertain : les questions en suspens

Les IA sont-elles réellement efficaces dans cette guerre ? Johnston reste prudent : « À ce jour, nous n’avons pas encore vu d’attaques complètement inédites via IA, mais elle permet d’amplifier et d’industrialiser les méthodes existantes. »

Même si la vitesse de génération de rapports s’améliore (jusqu’à +50 %), l’exactitude reste un défi. « L’IA fait des erreurs… mais les humains aussi », concède-t-il.

Cap sur l’avenir quantique

En anticipation des menaces liées à l’informatique quantique, Google déploie déjà le chiffrement post-quantique dans ses centres de données.

Conclusion : tirer parti de l'IA sans excès

L’IA représente un atout majeur pour la cybersécurité, mais il ne suffit pas de déployer des algorithmes de pointe pour assurer sa protection.

Comme le souligne Curran : « Il ne s'agit pas de savoir si une attaque aura lieu, mais quand. L’IA ne fait qu'accélérer les opportunités d’attaque. »

La clé du succès ? Un équilibre entre innovation technologique et vigilance humaine. Johnston conclut : « L’adoption doit se faire par étapes, dans des contextes à faible risque. »

Pour aller plus loin : Google Cloud dévoile son assistant IA pour les équipes de sécurité

Envie d'en apprendre plus sur l'IA et la data ? Découvrez les événements AI & Big Data Expo à Amsterdam, Californie et Londres, organisés par TechEx.

Article en partenariat avec TechForge Media.

@ReservoirLive