OpenAI et Anthropic demandent au NIST de tester leurs modèles avant leur sortie

OpenAI et Anthropic, sociétés rivales dans l’intelligence, ont signé séparément des accords avec le National Institute of Standards and Technology (NIST) pour tester la sécurité de leurs modèles avant leur lancement sur le marché. Il s’agira d’identifier, d’évaluer et de corriger les risques de ces systèmes. Cette collaboration vise à faire progresser l’innovation en matière d’IA sûre et fiable pour tous.

OpenAI, maison mère de ChatGPT, et Anthropic, développeur de Claude, ont signé lundi des accords individuels avec le National Institute of Standards and Technology (NIST) pour tester la sécurité de leurs modèles avant leur sortie. Régulièrement pointés du doigt pour les risques liés à leurs modèles et l’utilisation non autorisée des données pour leur entraînement, les deux startups de la GenAI veulent montrer patte blanche.

Le NIST va collaborer avec l’U.K. AI Safety Institute pour tester les modèles d’OpenAI et d’Anthropic

Le NIST, un organisme rattaché au Département du Commerce, doit identifier, évaluer et corriger les dangers associés aux systèmes des deux entreprises en termes de sécurité et de données, avant qu’ils ne parviennent au grand public. Ensuite, l’institution transmettra des retours aux deux sociétés sur les améliorations potentielles à apporter. Elle effectuera ce travail en collaboration avec son partenaire de l’institut de sécurité de l’IA du Royaume-Uni (U.K. AI Safety Institute).

Les évaluations réalisées dans le cadre de ces accords permettront de faire progresser le développement et l’utilisation sûres, sécurisées et dignes de confiance de l’IA. Elles renforceront aussi les travaux du NIST sur l’intelligence artificielle en facilitant une collaboration approfondie et des recherches exploratoires sur les systèmes avancés dans un large éventail de domaines à risque.

L’administration Biden-Harris a pris un décret sur l’IA

Ces accords signés entre le NIST, OpenAI et Anthropic s’appuient sur le décret de l’administration Biden-Harris sur l’intelligence artificielle et sur les engagements volontaires pris envers par les principaux développeurs de modèles d’IA. Le président américain a signé en 2023 un décret visant à mettre en place une série de normes, de mesures de protection de la sécurité et de la vie privée pour le développement et l’utilisation de l’IA.

Le NIST veut garantir le développement sûr de l’intelligence artificielle

Ce décret exécutif a permis la création de l’Institut américain de sécurité de l’IA, situé au sein du ministère du Commerce du National Institute of Standards and Technology (NIST). En février dernier, le NIST a pris plusieurs dispositions, dont la formation d’un groupe consultatif sur la sécurité de l’IA. Celui-ci comprend des créateurs de modèles, des utilisateurs et des universitaires. Son but est de mettre en place des garde-fous pour l’utilisation et le développement de cette technologie.

Des géants technologiques comme OpenAI, Meta, Google, Microsoft, Amazon, Intel et Nvidia ont rejoint ce consortium afin de brider l’intelligence artificielle. Début juillet, le NIST a également publié un logiciel libre appelé Dioptra disponible sur GitHub pour les développeurs. Objectif : déterminer le type d’attaques qui rendraient un modèle moins performant. En outre, l’organisme a publié plusieurs documents visant à promouvoir la sécurité et les normes en matière d’IA, conformément au décret.

Un début de régulation de l’IA aux Etats avec un projet de loi californien

Les accords signés par OpenAI et Anthropic permettront d’assainir un le domaine de l’intelligence artificielle aux Etats Unis, où les régulateurs se montrent moins pressants comparés à ceux de l’Union européenne. Toutefois, la situation pourrait bientôt changer. La Californie, par exemple, ficelle actuellement un projet de loi sur la sécurité de l’IA. Baptisé SB1407, ce projet de loi contraint notamment les développeurs à suivre des protocoles de sécurité stricts avant de former des modèles et à se soumettre à des audits annuels.

Vous faites le buzz !

LeBuzz DuBizz

Author

LeBuzz DuBizz

Up Next

Related Posts