MIT AI Risk Repository
Un référentiel pour mieux comprendre les risques liés à l'IA

Les risques liés à l’intelligence artificielle sont réels et documentés, tant sur le plan technique que scientifique.
Le MIT AI Risk Repository propose un cadre structuré basé sur plus de 1 000 risques identifiés, issus de 56 cadres et classifications existants.
Ces risques sont organisés selon trois axes :
La cause : une taxonomie décrivant comment, quand et pourquoi ces risques émergent.
Le domaine : une classification en sept catégories et 23 sous-domaines (désinformation, biais, sécurité, etc.).
La documentation : chaque risque est sourcé avec des références académiques et des preuves concrètes.
Ce référentiel offre un intérêt particulier pour les chercheurs, développeurs, entreprises et régulateurs, en fournissant :
Une base commune pour analyser et comparer les risques.
Une mise à jour continue intégrant les nouveaux risques et avancées scientifiques.
Un outil d’aide à la décision pour encadrer l’IA et prévenir ses dérives.
L’AI Incident Tracker complète cette approche en suivant et classifiant les incidents réels liés à l’IA. Le projet s’appuie sur :
Les taxonomies du MIT AI Risk Repository pour catégoriser les incidents selon leurs causes et domaines.
Un système de gravité des préjudices, basé sur la taxonomie du CSET, distinguant dix types de dommages (préjudice physique, perte financière, atteinte aux droits humains…).
Une interface interactive avec des tableaux de bord pour observer :
La progression des incidents (2015-2024) et les tendances par sous-domaines.
Les incidents de forte gravité affectant jusqu’à un million de personnes.
Les acteurs impliqués dans les incidents à impact élevé.
Ces outils permettent :
Une vision concrète des dangers de l’IA, fondée sur des faits.
Le suivi évolutif de l’émergence de nouveaux risques.
La mise à disposition d’un cadre structuré pour régulateurs, auditeurs et chercheurs.
Comprendre ces risques constitue une étape nécessaire pour développer une IA bénéfique et encadrée.
➡️ Explorez le MIT AI Risk Repository : https://airisk.mit.edu
➡️ Découvrez l’AI Incident Tracker : https://lnkd.in/dbgtY5S8
Les décideurs, chefs d’entreprise, médias et citoyens peuvent ainsi agir en connaissance de cause. Les données disponibles permettent une analyse rigoureuse, loin des discours alarmistes ou d’un optimisme naïf. L’IA influencera probablement notre avenir : il est essentiel de veiller à ce que ce progrès soit maîtrisé, et non subi.

