Pirmadienį „Anthropic“ paskelbė oficialų „SB 53“-Kalifornijos įstatymo projekto, iš valstijos senatoriaus Scotto Wienerio, patvirtinimą, kuris įvestų pirmųjų valstybių skaidrumo reikalavimus didžiausiems AI modelio kūrėjams. „Anthropic“ pritarimas žymi retą ir didelę „SB 53“ pergalę tuo metu, kai pagrindinės technologijų grupės, tokios kaip CTA ir „Chamber for Auge“, lobizuoja prieš sąskaitą.
„Nors mes manome, kad„ Frontier AI “sauga yra geriausia spręsti federaliniu lygmeniu, o ne daugybę valstybinių taisyklių, galingos AI pažangos Vašingtone nelauks sutarimo“. sakė antropic tinklaraščio įraše. „Kyla klausimas, ar mums reikia AI valdymo – ar mes jį apgalvotai tobulėsime šiandien, ar reaguojame rytoj.„ SB 53 “siūlo tvirtą kelią link buvusio.“
Jei jis būtų priimtas, „SB 53“ prireiks „Frontier AI“ modelio kūrėjų, tokių kaip „Openai“, „Anthropic“, „Google“ ir „XAI“, kad būtų sukurtos saugos sistemos, taip pat išleistų visuomenės saugumo ir saugumo ataskaitas prieš įdiegdami galingus AI modelius. Įstatymo projektas taip pat nustatytų informatorių apsaugą darbuotojams, kurie pateikia susirūpinimą dėl saugos.
Senatoriaus Wienerio įstatymo projektas ypač daugiausia dėmesio skiria AI modelių ribojimui nuo prisidėjimo prie „katastrofiškos rizikos“, kurią įstatymo projektas apibūdina kaip mažiausiai 50 žmonių ar daugiau nei milijardo dolerių žalą. „SB 53“ daugiausia dėmesio skiria kraštutinei AI rizikos pusei-ribojant AI modelius, kurie bus naudojami teikiant ekspertų lygio pagalbą kuriant biologinius ginklus arba naudojami kibernetiniuose išpuoliuose, o ne artimiausiems klausimams, tokiems kaip AI giliavandeniai ar sikofancija.
Kalifornijos senatas patvirtino ankstesnę „SB 53“ versiją, tačiau vis tiek reikia surengti galutinį balsavimą dėl įstatymo projekto, kad jis galėtų patekti į gubernatoriaus stalą. Gubernatorius Gavinas Newsomas iki šiol tylėjo dėl įstatymo projekto, nors jis vetavo paskutinį senatoriaus Weinerio AI saugos įstatymo projektą, SB 1047.
Sąskaitos, reglamentuojančios „Frontier AI“ modelio kūrėjus, susidūrė su reikšmingu silicio slėnio ir Trumpo administracijos atstumu, kuri abu teigia, kad tokios pastangos gali apriboti Amerikos naujoves lenktynėse prieš Kiniją. Investuotojai, tokie kaip Andreessenas Horowitzas ir Y kombinatorius, paskatino kai kuriuos paspaudimus prieš „SB 1047“, o pastaraisiais mėnesiais D.Trumpo administracija ne kartą grasino užkirsti kelią valstybėms visiškai priimti AI reguliavimą.
Vienas iš labiausiai paplitusių argumentų prieš AI saugos sąskaitas yra tas, kad valstybės turėtų palikti šį klausimą federalinėms vyriausybėms. Andreesseno Horowitzo AI politikos vadovas Mattas Peraultas ir vyriausiasis teisininkas Jai Ramaswamy praėjusią savaitę paskelbė tinklaraščio įrašą, kuriame teigiama, kad daugelis šių dienų valstybinių AI vekselių rizikuoja pažeisti Konstitucijos prekybos sąlygą – tai riboja valstybės vyriausybes nuo priimančių įstatymų, kurie peržengia jų ribas ir pažeidžia tarpusavio komercijos komerciją.
„TechCrunch“ renginys
San Franciskas
|
2025 m. Spalio 27–29 d
Tačiau „Anthropic“ įkūrėjas Jackas Clarkas savo įraše „X“ tvirtina, kad ateinančiais metais technologijų pramonė sukurs galingas AI sistemas ir negali laukti, kol federalinė vyriausybė veiks.
„Mes jau seniai sakėme, kad labiau norėsime federalinio standarto“, – sakė Clarkas. „Tačiau nesant to, tai sukuria tvirtą AI valdymo planą, kurio negalima ignoruoti“.
„Openai“ vyriausiasis pasaulinių reikalų pareigūnas Chrisas Lehane'as rugpjūčio mėn. Išsiuntė „Gubernatoriui Newsomui“ laišką, teigdamas, kad jis neturėtų praeiti jokio AI reglamento, kuris išstumtų startuolius iš Kalifornijos – nors laiške nebuvo paminėtas SB 53 vardu.
Buvęs „Openai“ politikos tyrimų vadovas Milesas Brundage'as pranešime apie X teigė, kad Lehane'o laiškas buvo „užpildytas klaidinančiomis šiukšlėmis apie SB 53 ir AI politiką apskritai“. Pažymėtina, kad „SB 53“ siekia tik sureguliuoti didžiausias pasaulyje AI bendroves – ypač tas, kurios uždirbo didesnes nei 500 mln. USD bendrąsias pajamas.
Nepaisant kritikos, politikos ekspertai sako, kad SB 53 yra kuklesnis požiūris nei ankstesni AI saugos sąskaitos. Dekanas Ballas, Amerikos inovacijų fondo ir buvusio Baltųjų rūmų AI politikos patarėjo fondo vyresnysis bendradarbis, rugpjūčio tinklaraščio įraše teigė, kad, jo manymu, SB 53 dabar turi didelę galimybę tapti įstatymais. Ballas, kuris kritikavo „SB 1047“, teigė, kad „SB 53“ rengėjai „parodė pagarbą techninei tikrovei“, taip pat „įstatymų leidybos suvaržymo matas“.
Senatorius Wieneris anksčiau teigė, kad „SB 53“ didelę įtaką padarė ekspertų politikos komisijos gubernatorius Newsom, sušauktas-kartu vadovauja pagrindinis Stanfordo tyrėjas ir „World Labs“ įkūrėjas Fei-Fei Li-patarti Kalifornijai, kaip sureguliuoti AI.
Daugelis AI laboratorijų jau turi tam tikrą vidaus saugos politikos, kurios reikalauja SB 53, versiją. „Openai“, „Google Deepmind“ ir „Anthropic“ reguliariai skelbia savo modelių saugos ataskaitas. Tačiau šios įmonės nėra saistomos niekuo, tačiau pačios tai daro, ir kartais jos atsilieka nuo savo įsipareigojimų dėl saugumo. SB 53 siekia nustatyti šiuos reikalavimus kaip valstybės įstatymus, turint finansinius padarinius, jei AI laboratorija nesilaiko.
Anksčiau rugsėjo mėn. Kalifornijos įstatymų leidėjai iš dalies pakeitė SB 53, kad pašalintų įstatymo projekto skyrių, kuris būtų reikalaujantis, kad AI modelio kūrėjai būtų tikrinami trečiosios šalys. Technikos kompanijos anksčiau kovojo su tokio tipo trečiųjų šalių auditais kitose AI politikos mūšiuose anksčiau, tvirtindamos, kad jos yra pernelyg sunkios.













