Du buvę OpenAI mokslininkai, kurie šiais metais atsistatydino dėl susirūpinimo dėl saugos, teigia esantys nusivylę, bet nestebinti OpenAI sprendimu nepritarti Kalifornijos įstatymo projektui dėl dirbtinio intelekto nelaimių prevencijos SB 1047. Danielis Kokotajlo ir Williamas Saundersas anksčiau perspėjo, kad OpenAI „neatsargiai“ lenktyniauja. dominavimas.
„Samas Altmanas, buvęs mūsų viršininkas, ne kartą ragino reguliuoti dirbtinį intelektą“, – rašo jie laiške, kuris buvo pasidalintas su „Politico“ ir kuriame raginamas Kalifornijos gubernatorius Gavinas Newsomas pasirašyti įstatymo projektą. „Dabar, kai svarstomas tikrasis reguliavimas, jis tam prieštarauja. Abu priduria: „Tikimės, kad su atitinkamu reguliavimu OpenAI vis tiek gali įvykdyti savo misiją – saugiai kurti AGI“.
Atsakydamas į buvusius darbuotojus, „OpenAI“ atstovas teigė, kad startuolis „griežtai nesutinka su klaidingu mūsų pozicijos apibūdinimu dėl SB 1047“, pranešime „TechCrunch“. Atstovas atkreipė dėmesį į AI įstatymų projektus Kongrese, kuriam OpenAI pritarė, pažymėdamas, kad „pasienio AI saugos taisyklės turėtų būti įgyvendintos federaliniu lygiu, nes jos turi įtakos nacionaliniam saugumui ir konkurencingumui“.
„OpenAI“ konkurentas „Anthropic“ išreiškė paramą įstatymo projektui, pateikdamas konkrečius susirūpinimą keliančius klausimus ir prašydamas pataisų. Nuo to laiko kai kurios buvo įtrauktos, o ketvirtadienį generalinis direktorius Dario Amodei parašė Newsom, sakydamas, kad dabartinio įstatymo projekto „nauda greičiausiai viršys jo išlaidas“, tačiau visiškai nepatvirtino įstatymo projekto.
Leave a Reply