Les législateurs californiens poussent un projet de loi controversé sur la sécurisation de l’IA

Le texte demande à l'intelligence artificielle de montrer patte blanche

L’assemblée de l’Etat de Californie a adopté mercredi 28 août un projet de loi contesté sur la sécursation des intelligences artificielles appelé SB 1047.

Le projet de loi est rédigé par le sénateur Scott Wiener, un démocrate progressiste de San Francisco. Il obligerait les entreprises d’IA à prendre diverses mesures de sécurité pour protéger le public des cyber attaques contre les infrastructures critiques, empêcher l’utilisation de l’IA pour développer des armes chimiques, nucléaires ou biologiques, ou permettre la criminalité automatisée.


Le gouverneur de Californie peut opposer son véto au texte

Ce texte aura besoin d’un autre vote avant que son sort ne soit entre les mains de Gavin Newsom, gouverneur de Californie, qui aura jusqu’au 30 septembre pour décider s’il le promulgue ou s’il oppose son veto. Le projet de loi retourne maintenant au Sénat de l’État avant d’aller sur le bureau du gouverneur. Il doit être adopté par le Sénat de l’État d’ici le 31 août pour atteindre le bureau du gouverneur.

Des entreprises qui développent des IA génératives considèrent cette législation comme un frein à l’innovation et affirment qu’elle pourrait chasser les entreprises d’IA de Californie. Certains démocrates au Congrès, dont Nancy Pelosi, s’y sont opposés. Parmi les partisans figure Elon Musk, patron de Tesla qui dirige également une société d’IA appelée xAI et qui a déclaré qu’il soutenait le projet de loi.

Des méthodes pour désactiver les modèles d’IA

Le texte impose des tests de sécurité pour un grand nombre des modèles d’IA les plus avancés dont le développement a coûté plus de 100 millions de dollars ou ceux qui nécessitent une quantité définie de puissance de calcul. Les développeurs de logiciels d’IA opérant dans l’État doivent définir des méthodes pour désactiver les modèles d’IA s’ils tournent mal.

Le projet de loi donne également au procureur général de l’État le pouvoir d’intenter des poursuites si les développeurs ne sont pas conformes à la loi, en particulier en cas de menace permanente, telle qu’une IA qui prend en charge des systèmes gouvernementaux tels que le réseau électrique.

Protéger les lanceurs d’alerte

De plus, le projet de loi exige que les développeurs embauchent des vérificateurs tiers pour évaluer leurs pratiques de sécurité et les « lanceurs d’alerte » qui dénoncent les abus de l’IA doivent disposer de protections supplémentaires.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *