À l’heure où l’intelligence artificielle s’insère toujours plus profondément dans nos vies, posant des défis éthiques, sociaux et sécuritaires majeurs, Genève se positionne comme l’épicentre d’une initiative internationale sans précédent. Le Geneva Artificial Intelligence Governance Institute (GAIGI), fondé par le Genevois Dr Axel Mazolo, expert reconnu en gouvernance des systèmes d’IA critiques, va établir un cadre mondial neutre et rigoureux pour la certification des « IA sensibles », ces technologies dont les décisions peuvent affecter de manière significative la santé, la sécurité, les libertés individuelles ou les services vitaux.
La nécessité d’une régulation transparente
Face à la prolifération des applications d’IA dans des secteurs stratégiques comme la défense, la santé, les infrastructures ou les médias, la nécessité d’une régulation crédible et transparente est devenue urgente. GAIGI ne délivrera pas directement de certifications, mais son rôle essentiel sera d’accréditer des organismes certificateurs à travers le monde, sur la base de standards techniques, éthiques et de gouvernance élaborés à Genève. Cette méthode innovante garantit une couche de contrôle indépendante, une qualité constante assurée par des audits réguliers, et une supervision humaine renforcée afin d’éviter toute délégation aveugle aux machines.
De la neutralité et de l’indépendance
Le modèle de gouvernance de GAIGI reflète les valeurs suisses de neutralité et d’indépendance. Il repose sur un conseil d’administration international composé de personnalités influentes issues d’ONG, de l’industrie, de la défense, du droit et du milieu académique, soutenu par des comités spécialisés techniques, éthiques et de conformité. La supervision exclusive par l’autorité cantonale genevoise, sans délégation possible aux instances fédérales ou étrangères, renforce la crédibilité et la neutralité de l’institut.
Un cadre rigoureux et de confiance
Cette initiative stratégique arrive à un moment clé, alors que différentes régions du monde s’engagent dans des régulations parfois disparates ou contradictoires. GAIGI propose une voie médiane et pragmatique, offrant une infrastructure de confiance flexible et rigoureuse, capable de dépasser les rivalités géopolitiques et de s’imposer comme une référence mondiale. Genève entend ainsi s’imposer en capitale globale de l’encadrement de l’IA sensible, à l’image de son rôle historique dans la diplomatie et les droits humains.
Pour le Dr Axel Mazolo, l’ambition va au-delà de la simple régulation technique : « Il s’agit d’éviter que l’IA reproduise les erreurs du passé, en protégeant les plus vulnérables grâce à des garde-fous concrets comme la supervision humaine, la traçabilité, l’explicabilité et la gestion systématique des incidents. » Cette démarche s’inspire aussi des meilleures pratiques de certification volontaire et de confiance pour faire de l’éthique un avantage compétitif et sociétal.
Le calendrier de GAIGI est aussi clair que méthodique. Débutant par une conférence de lancement en septembre 2025 au sein de l’Organisation mondiale du commerce, il s’étendra sur deux ans avec des phases sectorielles : médias, santé, finance, usages militaires, puis infrastructures critiques (transports, énergie, télécommunications). Chaque étape posera les bases d’une certification sectorielle, combinant principes universels et mise en œuvre pratique via des forums internationaux.
Cette initiative unique en son genre appelle à une mobilisation collective : entreprises, régulateurs, experts et société civile sont invités à rejoindre cette mission vitale pour garantir un futur où l’intelligence artificielle protège sans menacer, innove sans exclure, et donne confiance aux citoyens.
GAIGI sera présenté officiellement à Bruxelles le 12 septembre 2025, un rendez-vous à ne pas manquer pour tous les acteurs engagés dans la gouvernance technologique.
Date : le 12 septembre 2025 – 10h à 12h
Adresse du jour : Press Club Brussels Europe (Quartier européen, à Bruxelles)
Inscription & infos :
Sébastien Boussois – Consultant & Communication
📞 +32 (0)4 76580677 | ✉️ boussois@yahoo.fr