OpenAI présente son plan de sécurité pour l’IA

224

L’OpenAI, soutenue par Microsoft, a introduit un cadre complet visant à répondre aux préoccupations en matière de sécurité liées à ses modèles d’IA les plus avancés.

Ce cadre comprend plusieurs mesures telles que la possibilité pour le Conseil d’administration d’examiner et éventuellement d’annuler les décisions prises par l’entreprise en matière de sécurité.

OpenAI affirme qu’elle ne déploiera sa dernière technologie que si elle est jugée sûre dans des domaines spécifiques tels que la cybersécurité et les menaces nucléaires.

 

L’entreprise crée également un groupe consultatif chargé d’examiner les rapports de sécurité et de les transmettre aux dirigeants et au Conseil d’administration de l’entreprise. Les dirigeants prendront les décisions, mais le Conseil d’administration pourra les annuler.

Il s’agit d’une étape importante pour garantir le développement sûr et responsable de la technologie de l’IA, qui a le potentiel de transformer de nombreux aspects de notre vie.

Depuis le lancement de ChatGPT il y a un an, les dangers potentiels de l’IA sont au cœur des préoccupations des chercheurs en IA et du grand public.

La technologie de l’IA générative a ébloui les utilisateurs par sa capacité à écrire des poèmes et des essais, mais elle a également suscité des inquiétudes quant à sa capacité à diffuser de la désinformation et à manipuler les êtres humains.

En avril, un groupe de leaders et d’experts de l’industrie de l’IA a signé une lettre ouverte appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 de l’OpenAI, en invoquant les risques potentiels pour la société.

Comments are closed.