SaferAI alerte sur les risques pour la sécurité de l’IA après la révocation du décret Biden

Tout juste investi 47ème président des États-Unis, Donald Trump a révoqué lundi dernier le décret de Joe Biden du 30 octobre 2023 qui visait à encadrer les risques liés à l’IA. Bien que ce décret ait eu pour objectif de soutenir le développement d’une IA responsable, le nouveau président le considère avant tout comme un frein à l’innovation.

Le décret de Joe Biden exigeait que les entreprises développant des systèmes d’IA avancés présentant des risques potentiels pour la sécurité nationale, l’économie ou la santé partagent leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement.

Cette décision, de révoquer ce décret intervient à un moment critique où les principales entreprises d’IA présentent des lacunes significatives dans leurs pratiques de gestion des risques, selon une évaluation de SaferAI, une organisation à but non-lucratif française spécialisée dans la gestion des risques de l’IA.

Siméon Campos, fondateur et directeur exécutif de SaferAI, affirme :

“Les garde-fous qui viennent d’être supprimés doivent être urgemment remplacés. Notre récente notation, mesurant la maturité de gestion des risques des entreprises d’IA, montre que même les entreprises leaders obtiennent des scores entre 1,5 et 1,9 sur 5 en matière de pratiques de gestion des risques, certaines entreprises n’obtenant que 0,1. Ces évaluations révèlent que même les leaders de l’industrie sont loin de mettre en œuvre des pratiques de gestion des risques adéquates, et sans régulation, ces lacunes préoccupantes pourraient s’aggraver.”

Selon l’organisation, les enjeux sont particulièrement élevés compte tenu des développements récents des capacités de l’IA. Le modèle o1 d’OpenAI a démontré des capacités qui pourraient aider des experts à développer des armes biologiques, tandis que les capacités du modèle o3 semblent encore plus significatives. Encore en phase de test, il devrait être lancé d’ici quelques semaines, o3-mini, une version plus rapide et plus économique, le sera d’ici la fin du mois. Si le décret de Biden avait été pleinement mis en œuvre, il aurait exigé le partage des résultats des tests de sécurité et le partage d’information clés au gouvernement pour de tels systèmes.

Henry Papadatos, Managing Director de SaferAI, déclare :

“Sans les exigences du décret en matière de tests de sûreté et de transparence, nous naviguons à l’aveugle avec des systèmes d’IA de plus en plus avancés. Comme le montrent nos notations, les pratiques de gestion des risques que nous observons dans l’industrie suggèrent que les engagements volontaires seuls ne suffisent pas à garantir une gestion adéquate des risques.

Les experts en gestion des risques de SaferAI appellent à de nouvelles mesures législatives pour combler le vide réglementaire laissé par la suppression du décret. Les dispositions du décret concernant la gestion des risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité ne seront plus appliquées, suscitant des inquiétudes quant à l’utilisation potentiellement abusive des systèmes d’IA avancés.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.