Thèmes

soi sur place google monde article texte sur

Rubriques

>> Toutes les rubriques <<
· CULTURE (67)
· L'ACTUALITE (65)
· JARDIN (80)
· LA LECTURE (114)
· HUMEUR,HUMOUR ! (47)
· LES SCIENCES (85)
· RELIGION (65)
· HISTOIRE DE LA FAMILLE (47)
· PRIER (70)
· POESIE (62)

Rechercher
Derniers commentaires Articles les plus lus

· MILLARDAIRES
· SAINT JOSEPH ,PERE.PAR LE PAPE.
· lES EMIRATS ARABE UNIS
· FORUM DE DAVOS
· LA VAGUE VERTE

· LA TURQUIE
· ALLOCATIONS FAMILIALES
· ELECTIONS AMERICAINES
· ELECTIONS
· AVEC MACRON ?
· LES PARASITES
· MARITAIN
· 1200MILLARDS DE DOLLAR SUR LES INFRASTRUCTURES
· LAFILIERE
· LE CORAIL

Voir plus 

Abonnement au blog
Recevez les actualités de mon blog gratuitement :

Je comprends qu’en m’abonnant, je choisis explicitement de recevoir la newsletter du blog "papilacabane" et que je peux facilement et à tout moment me désinscrire.


Statistiques

Date de création : 30.11.2013
Dernière mise à jour : 30.09.2025
11946 articles


LINTELLIGENCEARTIFICIELLEET LA SILLICOVALLEY

Publié le 30/09/2025 à 11:29 par papilacabane Tags : sur place google monde article texte

IA : la Californie va encadrer les entreprises de la Silicon Valley en leur imposant des obligations de transparence L’Etat américain, où sont basés les entreprises comme Google, Meta, OpenAI et Anthropic, a mis en place, une législation majeure de régulation, au moment où des dizaines de milliards de dollars d’investissement affluent dans la Silicon Valley.

La Silicon Valley est désormais soumise à une loi californienne contre les dangers de l’intelligence artificielle (IA). Le Golden State, où sont basés les géants américains des technologies, tels que Google, Meta, OpenAI (ChatGPT) et Anthropic, a mis en place, lundi 29 septembre, une législation majeure de régulation de l’IA, un an après le rejet d’un autre texte qui avait été jugé trop défavorable à l’innovation.

Le gouverneur démocrate, Gavin Newsom, a annoncé avoir promulgué la loi SB 53, arguant avoir trouvé un équilibre « qui aide l’Etat de Californie à encourager l’innovation tout en protégeant la sécurité publique ».

Le texte est publié au moment où des dizaines de milliards de dollars d’investissement dans l’IA affluent dans la Silicon Valley, mais où croissent aussi les inquiétudes sur les dérives possibles des modèles les plus avancés.

La loi promulguée lundi impose des obligations de transparence quasi inédites pour les entreprises développant les modèles d’IA les plus complexes, en les contraignant de rendre public leurs protocoles de sécurité, de signaler les incidents graves en moins de quinze jours et de protéger les lanceurs d’alerte.

Le texte, décrit par ses promoteurs comme inédit à l’échelle mondiale, oblige les entreprises à signaler les comportements trompeurs dangereux de l’IA pendant les tests. Par exemple, si un modèle ment sur l’efficacité des contrôles conçus pour l’empêcher d’aider à fabriquer des armes biologiques ou nucléaires, les développeurs doivent dévoiler l’incident s’il augmente considérablement les risques de dommages.

« Des progrès inquiétants »

« Les propres rapports des entreprises de pointe de l’IA révèlent des progrès inquiétants dans toutes les catégories de menaces », soulignait en juin le groupe de réflexion mis en place par le gouverneur Newsom pour affiner le texte sous l’égide d’experts de renom, dont Fei-Fei Li de l’université Stanford, surnommée la « marraine de l’IA ».

Le sénateur démocrate local à l’origine du texte, Scott Wiener, avait vu son précédent projet rejeté in extremis par un veto du gouverneur en 2024. Son texte initial avait profondément divisé la Silicon Valley, dont certains leaders l’accusaient de risquer de faire fuir les innovateurs dès le début de la « révolution de l’IA ».

La nouvelle loi californienne entre, par ailleurs, en vigueur après l’échec de l’administration Trump de bloquer toute régulation de l’IA par des Etats américains, au motif qu’elle ralentirait le pays dans sa compétition avec la Chine.

Pour le sénateur Wiener, sa loi a aussi le mérite de rendre publics les protocoles de sécurité, là où le texte de référence de l’Union européenne, certes plus contraignant, limite leur transmission aux autorités.

Avant la promulgation du texte, plusieurs géants californiens de l’IA, dont Meta, Google, OpenAI et Anthropic (à l’origine du modèle Claude) avaient pris des engagements volontaires pour mener des tests de sécurité et pour bâtir des protocoles robustes. La nouvelle loi californienne codifie et étend ces engagements.

Le Monde avec AFP