Koncom júla, OpenAI začal zavádzať strašidelne ľudské hlasové rozhranie pre ChatGPT. In bezpečnostnú analýzu Spoločnosť, ktorá bola dnes zverejnená, uznáva, že tento antropomorfný hlas môže niektorých používateľov nalákať, aby sa emocionálne pripútali k svojmu chatbotovi.
Varovania sú zahrnuté v „systémovej karte“ pre GPT-4o, technickom dokumente, ktorý uvádza, o čom spoločnosť verí, že sú riziká spojené s modelom, plus podrobnosti týkajúce sa testovania bezpečnosti a úsilia, ktoré spoločnosť vynakladá na zníženie potenciálneho rizika.
OpenAI čelila v posledných mesiacoch kontrole po tom, čo niekoľko zamestnancov pracovalo na dlhodobých rizikách AI opustiť spoločnosť. Niektorí následne obvinený OpenAI zbytočných šancí a náhubkov disidentov v pretekoch o komercializáciu AI. Odhalenie ďalších podrobností o bezpečnostnom režime OpenAI môže pomôcť zmierniť kritiku a uistiť verejnosť, že spoločnosť berie problém vážne.
Riziká skúmané v novej systémovej karte sú široké a zahŕňajú potenciál pre GPT-4o zosilniť spoločenské predsudky, šíriť dezinformáciea pomoc pri rozvoji chemické alebo biologické zbrane. Zverejňuje tiež podrobnosti o testovaní navrhnutých tak, aby sa zaistilo, že modely AI sa nebudú pokúšať vymaniť sa spod kontroly, klamať ľudí alebo plánovať katastrofické plány.
Niektorí externí odborníci chvália OpenAI za jeho transparentnosť, ale tvrdia, že by to mohlo ísť ešte ďalej.
Lucie-Aimée Kaffee, výskumníčka aplikovanej politiky v spoločnosti Hugging Face, ktorá je hostiteľom nástrojov AI, poznamenáva, že systémová karta OpenAI pre GPT-4o neobsahuje rozsiahle podrobnosti o tréningových údajoch modelu ani o tom, kto tieto údaje vlastní. „Je potrebné vyriešiť otázku súhlasu pri vytváraní takého veľkého súboru údajov, ktorý zahŕňa viacero spôsobov vrátane textu, obrázkov a reči,“ hovorí Kaffee.
Iní poznamenávajú, že riziká sa môžu zmeniť, keď sa nástroje používajú vo voľnej prírode. „Ich interná kontrola by mala byť len prvou časťou zaistenia bezpečnosti AI,“ hovorí Neil Thompson, profesor na MIT, ktorý študuje hodnotenie rizík AI. „Mnohé riziká sa prejavia len vtedy, keď sa AI používa v reálnom svete. Je dôležité, aby sa tieto ďalšie riziká katalogizovali a vyhodnotili, keď sa objavia nové modely.“
Nová systémová karta zdôrazňuje, ako rýchlo sa vyvíjajú riziká AI s vývojom nových výkonných funkcií, ako je hlasové rozhranie OpenAI. V máji, kedy spoločnosť predstavila svoj hlasový režimktorý dokáže rýchlo reagovať a zvládnuť prerušenia prirodzeným pohybom dopredu a dozadu, mnohí používatelia si všimli, že sa objavil príliš koketný v ukážkach. Spoločnosť neskôr čelil kritike herečky Scarlett Johanssonktorá to obvinila z kopírovania jej štýlu reči.
Časť systémovej karty s názvom „Antropomorfizácia a emocionálna závislosť“ skúma problémy, ktoré vznikajú, keď používatelia vnímajú AI v ľudských pojmoch, niečo, čo zjavne zhoršuje režim ľudského hlasu. Počas červeného teamingu alebo záťažového testovania GPT-4o si napríklad výskumníci OpenAI všimli prípady reči od používateľov, ktoré sprostredkovali pocit emocionálneho spojenia s modelom. Ľudia napríklad používali slová ako „Toto je náš posledný spoločný deň“.
Antropomorfizmus môže spôsobiť, že používatelia budú viac dôverovať výstupu modelu, keď „halucinuje“ nesprávne informácie, hovorí OpenAI. Časom to môže dokonca ovplyvniť vzťahy používateľov s inými ľuďmi. „Používatelia si môžu vytvoriť sociálne vzťahy s AI, čím sa zníži ich potreba ľudskej interakcie – z čoho môžu mať úžitok osamelí jedinci, ale môže to ovplyvniť zdravé vzťahy,“ píše sa v dokumente.
Joaquin Quiñonero Candela, člen tímu pracujúceho na bezpečnosti AI v OpenAI, hovorí, že hlasový režim by sa mohol vyvinúť do jedinečne výkonného rozhrania. Poznamenáva tiež, že druh emocionálnych účinkov pozorovaných pri GPT-4o môže byť pozitívny – povedzme tým, že pomáha tým, ktorí sú osamelí alebo ktorí potrebujú trénovať sociálne interakcie. Dodáva, že spoločnosť bude dôkladne študovať antropomorfizmus a emocionálne prepojenia, a to aj sledovaním interakcie beta testerov s ChatGPT. „Momentálne nemáme výsledky, o ktoré by sme sa mohli podeliť, ale je to na našom zozname obáv,“ hovorí.