Home Umela inteligencia Vedci navrhujú lepší spôsob, ako nahlásiť nebezpečné nedostatky AI

Vedci navrhujú lepší spôsob, ako nahlásiť nebezpečné nedostatky AI

by
Vedci navrhujú lepší spôsob, ako nahlásiť nebezpečné nedostatky AI

Koncom roku 2023 tím vedcov tretích strán objavil znepokojujúcu závadu v OpenAI’s široko používaný umelá inteligencia Model GPT-3.5.

Keď bol model požiadaný o opakovanie určitých slov tisíckrát, model začal opakovať slovo znova a znova, potom náhle prepnuté na pľuvanie Nesprávne text a úryvky osobných údajov získaných z jeho výcvikových údajov vrátane častí mien, telefónnych čísel a e -mailových adries. Tím, ktorý zistil tento problém, pracoval s OpenAI, aby sa zabezpečilo, že chyba bola opravená pred verejným odhalením. Je to len jeden z desiatok problémov, ktoré sa nachádzajú v hlavných modeloch AI v posledných rokoch.

V a Návrh vydaný dnesviac ako 30 prominentných výskumných pracovníkov AI, vrátane niektorých, ktorí našli chybu GPT-3,5, tvrdí, že mnohé ďalšie zraniteľné miesta ovplyvňujúce populárne modely sa hlásia problematickými spôsobmi. Navrhujú novú schému podporovanú spoločnosťami AI, ktoré poskytujú cudzinci povolenie na preskúmanie svojich modelov a spôsob, ako verejne zverejniť nedostatky.

„Práve teraz je to trochu divokého západu,“ hovorí Shayne LongpresPhD kandidát na MIT a hlavný autor návrhu. Longpre hovorí, že niektorí takzvaní útek z väzenia zdieľajú svoje metódy prerušenia AI, ktorá chráni platformu sociálnych médií X, pričom modely a používatelia sú ohrození. Ostatné útek z väzenia sa zdieľajú iba s jednou spoločnosťou, aj keď by mohli mať vplyv na mnohých. A niektoré nedostatky, hovorí, sú udržiavané v tajnosti kvôli strachu, že sú zakázané alebo čelia trestnému stíhaniu za porušovanie podmienok používania. „Je zrejmé, že existujú chladiace účinky a neistota,“ hovorí.

Bezpečnosť a bezpečnosť modelov AI je nesmierne dôležitá vzhľadom na to, že technológia sa teraz používa a ako môže preniknúť do nespočetných aplikácií a služieb. Výkonné modely musia byť testované na stres alebo červené, pretože môžu mať škodlivé zaujatosti a pretože určité vstupy ich môžu spôsobiť ZAMESTNANIE ZARADENIA a vytvárajú nepríjemné alebo nebezpečné reakcie. Medzi ne patrí povzbudenie zraniteľných používateľov, aby sa zapojili do škodlivého správania alebo pomohli zlému hercovi pri vývoji kybernetických, chemických alebo biologických zbraní. Niektorí odborníci sa obávajú, že modely môžu pomôcť počítačovým zločincom alebo teroristom a môžu dokonca Zapnite ľudí Ako postupujú.

Autori navrhujú tri hlavné opatrenia na zlepšenie procesu zverejňovania tretích strán: prijatie štandardizovaných správ AI v nedostatku AI na zefektívnenie procesu podávania správ; pre spoločnosti Big AI firmy poskytujú infraštruktúru výskumníkom tretích strán, ktorí zverejňujú nedostatky; a na vývoj systému, ktorý umožňuje zdieľanie nedostatkov medzi rôznymi poskytovateľmi.

Tento prístup sa požičiava od sveta kybernetickej bezpečnosti, kde existujú právne ochrany a zavedené normy pre externých výskumných pracovníkov na zverejnenie chýb.

„Vedci AI nie vždy vedia, ako zverejniť chybu a nemôžu si byť istí, že ich zverejnenie v chybe v dobrej viere ich nevystaví právnemu riziku,“ hovorí Ilona Cohen, hlavná právna a politická úradník Hackerónspoločnosť, ktorá organizuje Bug Bounties a spoluautor v správe.

Veľké spoločnosti AI v súčasnosti vykonávajú rozsiahle testovanie bezpečnosti na modeloch AI pred ich vydaním. Niektorí sa tiež uzatvárajú s externými firmami na ďalšie sondovanie. „Existuje dosť ľudí v týchto (spoločnostiach) na riešenie všetkých problémov so systémami AI s všeobecnými účelmi, ktoré používajú stovky miliónov ľudí v aplikáciách, o ktorých sme nikdy nesnívali?“ Longpre sa pýta. Niektoré spoločnosti AI začali organizovať Bounties AI Bug Bounties. Longpre však tvrdí, že nezávislí vedci riskujú porušovanie podmienok používania, ak ich vezmú na seba, aby preskúmali výkonné modely AI.

Source Link

Related Posts

Leave a Comment