Generálny riaditeľ OpenAI Sam Altman hovorí, že OpenAI spolupracuje s americkým inštitútom AI Safety Institute, federálnym vládnym orgánom, ktorého cieľom je posúdiť a riešiť riziká v platformách AI, na dohode o poskytnutí skorého prístupu k svojmu ďalšiemu hlavnému generatívnemu modelu AI na testovanie bezpečnosti.
The oznámenie, ktorý Altman urobil v príspevku X vo štvrtok neskoro večer, bol ľahký na detaily. Ale to — spolu s a podobná dohoda s bezpečnostným orgánom Spojeného kráľovstva pre AI v júni – zdá sa, že zámerom je potlačiť príbeh, že OpenAI odložila prácu na bezpečnosti AI v snahe o schopnejšie a výkonnejšie technológie AI.
V máji OpenAI účinne rozpustila jednotku pracujúcu na probléme vývoja ovládacích prvkov, aby zabránila „superinteligentným“ systémom AI, aby sa stali nečestnými. nahlasovanie — vrátane nášho — navrhol, aby OpenAI uprednostnila tímový bezpečnostný výskum v prospech uvedenia nových produktov, čo v konečnom dôsledku viedlo k rezignáciu z dvoch spoluvedúcich tímu, Jan Leike (ktorý teraz vedie bezpečnostný výskum v startupe AI Anthropic) a spoluzakladateľ OpenAI Ilya Sutskever (ktorý založil vlastnú spoločnosť zameranú na AI, Spoločnosť Safe Superintelligence Inc.).
V reakcii na rastúci zbor kritikov OpenAI povedal, že ho odstráni obmedzujúce doložky o neznevažovaní ktorá implicitne odrádzala od oznamovania a vytvárala bezpečnostnú komisiu, ako aj venovala 20 % svojich výpočtov na výskum bezpečnosti. (Rozpustenému bezpečnostnému tímu bolo prisľúbených 20 % výpočtov OpenAI za jeho prácu, ale nakoniec to nikdy nedostal.) Altman sa znovu zaviazal k 20 % prísľubu a opätovne potvrdil, že OpenAI zrušilo podmienky neznevažovania pre nových a existujúcich zamestnancov. v Máji.
Tieto kroky však neupokojili niektorých pozorovateľov – najmä po tom, čo bola bezpečnostná komisia zamestnaná OpenAI, budú všetci zasvätení spoločnosti vrátane Altmana a nedávno aj preradený špičkového bezpečnostného manažéra AI do inej organizácie.
Piati senátori vrátane Briana Schatza, demokrata z Havaja, vznesené otázky o zásadách OpenAI v nedávnom liste adresovanom Altmanovi. Hlavný strategický riaditeľ OpenAI Jason Kwon odpovedal do dnešného listu, keď píše OpenAI „(je) venovaný implementácii prísnych bezpečnostných protokolov v každej fáze nášho procesu.“
Načasovanie dohody OpenAI s americkým inštitútom pre bezpečnosť AI sa zdá byť trochu podozrivé vo svetle potvrdenie začiatkom tohto týždňa zákona o budúcnosti inovácií, navrhovaného senátneho zákona, ktorý by splnomocnil Bezpečnostný inštitút ako výkonný orgán, ktorý stanovuje štandardy a usmernenia pre modely AI. Spoločné kroky by mohli byť vnímané ako pokus o regulačné zachytenie – alebo prinajmenšom ako uplatnenie vplyvu OpenAI na tvorbu politiky AI na federálnej úrovni.
Nie nadarmo je Altman členom Rady bezpečnosti a zabezpečenia umelej inteligencie amerického ministerstva vnútornej bezpečnosti, ktorá poskytuje odporúčania pre „bezpečný a bezpečný vývoj a nasadenie AI“ v kritických infraštruktúrach USA. A OpenAI má dramaticky zvýšená svoje výdavky na federálny lobing v tomto roku, pričom za prvých šesť mesiacov roku 2024 vynaložila 800 000 USD oproti 260 000 USD za celý rok 2023.
Americký inštitút pre bezpečnosť AI, ktorý sídli v Národnom inštitúte pre štandardy a technológie ministerstva obchodu, konzultuje s konzorciom spoločností, ktoré zahŕňa Anthropic, ako aj veľké technologické firmy ako Google, Microsoft, Meta, Apple, Amazon a Nvidia. Priemyselná skupina má za úlohu pracovať na činnostiach načrtnutých v prezidentovi Joeovi Bidenovi Októbrový výkonný príkaz AIvrátane vypracovania usmernení pre AI red-teaming, hodnotenia spôsobilostí, riadenie rizík, bezpečnosť a ochranu a syntetický obsah vodoznakov.