Miles Brundage, l'ancien responsable de la politique de sécurité chez OpenAI, vient de franchir une étape majeure vers une régulation plus transparente de l'intelligence artificielle. Il a officiellement lancé AVERI (AI Verification and Evaluation Research Institute), un institut à but non lucratif dont la mission est d'auditer de manière indépendante les modèles d'IA les plus puissants, dits « frontier models ». Le constat est clair : on ne peut plus se fier uniquement aux auto-évaluations des laboratoires de recherche. Avec ce nouvel organisme, Brundage souhaite instaurer des protocoles de vérification externes et rigoureux, garantissant que la course à l'AGI ne se fasse pas au détriment de la sécurité publique et de la stabilité internationale.
OpenAI
AVERI
Miles Brundage
Sécurité de l'IA
Gouvernance
Source originale :
Lire l'article complet sur le site source ↗