L’ia de Standard Chartered au service d’une confidentialité mondiale
Comment Standard Chartered déploie l’intelligence artificielle en respectant les règles de confidentialité
Comment Standard Chartered déploie l’intelligence artificielle en respectant les règles de confidentialité
Pour les banques qui souhaitent utiliser l'intelligence artificielle (IA) de manière pratique, les défis les plus importants surviennent souvent bien avant l'entraînement d’un modèle. Il faut d'abord déterminer si les données sont exploitables, où elles peuvent être stockées et qui en assume la responsabilité une fois le système activé. Chez Standard Chartered, ces questions de confidentialité sont aujourd’hui au cœur de la conception et du déploiement des systèmes d’IA.
Pour une banque mondiale opérant dans plusieurs juridictions, ces décisions initiales sont tout sauf simples. Les lois sur la confidentialité diffèrent selon les pays, ce qui impose des contraintes variables à un même système d'IA selon sa localisation. Cela pousse les équipes de conformité à jouer un rôle plus important dans la conception, l’approbation et la supervision des systèmes d’IA de l’organisation.
« Les fonctions de confidentialité des données sont devenues le point de départ de la plupart des réglementations sur l’IA », explique David Hardoon, responsable mondial de l’activation de l’IA chez Standard Chartered. En pratique, cela influence les types de données autorisées, le niveau de transparence requis et les mécanismes de surveillance à mettre en place une fois l’IA déployée.
La confidentialité structure le fonctionnement de l’IA
La banque utilise déjà des solutions d’IA en environnement réel. Le passage des phases pilotes aux opérations en production soulève des défis sous-estimés. Lors d’expérimentations contrôlées, les sources de données sont limitées et bien connues. En production, les systèmes d’IA tirent souvent des données de plusieurs plateformes, avec des structures et qualités différentes.
« Assurer la qualité des données devient un défi lorsqu'on passe d’un pilote limité à des opérations à grande échelle, avec diverses sources en amont », précise Hardoon.
De plus, les règles de confidentialité peuvent interdire l’utilisation de données clients réelles pour entraîner les modèles. Les équipes doivent alors recourir à des données anonymisées, ce qui peut impacter la rapidité de développement et les performances globales de l’outil.
« Dans une démarche d’adoption responsable et centrée sur le client, nous mettons l’accent sur les principes d’équité, d’éthique, de responsabilité et de transparence, surtout lorsqu’il s’agit du traitement de données à grande échelle », souligne Hardoon.
Réglementation et géographie dictent l’usage de l’IA
La manière dont les systèmes d'IA sont conçus et implantés dépend aussi fortement de la géographie. Les réglementations varient selon les régions, certaines imposant des exigences strictes sur la localisation et l’accès aux données. Ces contraintes influencent directement la façon dont Standard Chartered implémente l’IA, surtout pour les systèmes utilisant des données sensibles ou personnelles.
« La souveraineté des données est un facteur clé dans de nombreux marchés », affirme Hardoon. Dans certains pays, l’IA doit être déployée sur place ou s’assurer qu’aucune donnée sensible ne traverse les frontières. Dans d’autres cas, des plateformes partagées sont possibles avec un niveau de contrôle adéquat.
Les compromis entre plateformes centralisées et solutions locales reflètent aussi ces exigences. Bien que certaines lois n’interdisent pas la circulation des données à l’étranger, elles exigent des garanties fortes. Mais certaines données restent intransférables, et certaines réglementations s’appliquent même en dehors du pays d’origine des données.
Cette réalité conduit souvent les banques à adopter une structure hybride : des bases d’IA partagées à l’échelle mondiale, associées à des déploiements locaux conformes aux lois spécifiques de chaque marché.
Une supervision humaine indispensable
L’intégration grandissante de l’IA dans la prise de décision met en avant la nécessité d’explicabilité et de consentement. L’automatisation peut améliorer l'efficacité, mais elle n’élimine pas la responsabilité humaine. « La transparence est plus essentielle que jamais », indique Hardoon.
Même avec des fournisseurs externes, l’obligation de rendre des comptes reste interne à l’entreprise. C’est pourquoi la supervision humaine reste indispensable, notamment lorsque les décisions influencent les clients ou relèvent de contraintes réglementaires.
La technologie ne représente qu’une partie des risques liés à la confidentialité : les utilisateurs internes jouent un rôle tout aussi important. « Les collaborateurs restent le facteur le plus crucial dans l’application des contrôles liés à la confidentialité », insiste Hardoon. D’où l’importance de la formation et de la sensibilisation, pour que chaque équipe maîtrise les données qu’elle peut utiliser et sache comment les traiter correctement.
Pour déployer l’IA à grande échelle en conformité avec les exigences croissantes, Standard Chartered mise également sur la standardisation. En mettant en place des modèles types, des architectures validées et des classifications des données, les équipes gagnent en rapidité sans négliger la conformité.
« La standardisation et la réutilisabilité sont essentielles », conclut Hardoon. En encadrant l’utilisation des données (stockage, accès, conservation), la banque traduit des réglementations complexes en règles claires et réutilisables.
Conclusion : l’avenir de l’IA bancaire façonné par la confidentialité
À mesure que l’intelligence artificielle devient un outil courant dans les opérations bancaires, la confidentialité ne représente plus un simple défi de conformité. Elle façonne directement la conception des systèmes d’IA, leur zone de fonctionnement, et le niveau de confiance qu’ils peuvent inspirer. Chez Standard Chartered, cette réalité influence d’ores et déjà la façon dont l’IA est utilisée au quotidien.
@ReservoirLive
Comments ()