← Retour aux Actus
Business & Légal Article source en anglais

Sécurité de l'IA : L'ex-chef d'OpenAI lance AVERI pour des audits indépendants

Former OpenAI policy chief creates nonprofit institute, calls for independent safety audits of frontier AI models

Miles Brundage, l'ancien responsable de la politique de sécurité chez OpenAI, vient de franchir une étape majeure vers une régulation plus transparente de l'intelligence artificielle. Il a officiellement lancé AVERI (AI Verification and Evaluation Research Institute), un institut à but non lucratif dont la mission est d'auditer de manière indépendante les modèles d'IA les plus puissants, dits « frontier models ». Le constat est clair : on ne peut plus se fier uniquement aux auto-évaluations des laboratoires de recherche. Avec ce nouvel organisme, Brundage souhaite instaurer des protocoles de vérification externes et rigoureux, garantissant que la course à l'AGI ne se fasse pas au détriment de la sécurité publique et de la stabilité internationale.
OpenAI AVERI Miles Brundage Sécurité de l'IA Gouvernance