Home Umela inteligencia Technické spoločnosti na celom svete sa zaväzujú dodržiavať nový súbor dobrovoľných pravidiel

Technické spoločnosti na celom svete sa zaväzujú dodržiavať nový súbor dobrovoľných pravidiel

by
AI safety

Popredné spoločnosti v oblasti umelej inteligencie sa dohodli na novom súbore dobrovoľných bezpečnostných záväzkov, ktoré oznámili vlády Spojeného kráľovstva a Južnej Kórey pred dvojdňovým summitom o umelej inteligencii v Soule.

Záväzky zahŕňajú 16 technologických spoločností, vrátane AmazonGoogle, Meta, Microsoft, OpenAIxAI a Zhipu AI

Spomedzi záväzkov sa spoločnosti zaviazali „vôbec nevyvíjať ani nenasadzovať model“, ak nie je možné zvládnuť vážne riziká.

Spoločnosti sa tiež dohodli, že zverejnia, ako budú merať a znižovať riziká spojené s modelmi AI.

The nové záväzky po tom, čo významní výskumníci AI, vrátane Yoshuu Bengia, Geoffreyho Hintona, Andrewa Yaa a Yuvala Noaha Harariho, publikovali papier vo vede pomenovaná Riadenie extrémnych rizík AI pri rýchlom pokroku.

Tento dokument obsahoval niekoľko odporúčaní, ktoré pomohli usmerniť nový bezpečnostný rámec:

  • Nadhľad a čestnosť: Vývoj metód na zabezpečenie toho, aby systémy AI boli transparentné a produkovali spoľahlivé výstupy.
  • Robustnosť: Zabezpečenie predvídateľného správania systémov AI v nových situáciách.
  • Vysvetliteľnosť a transparentnosť: Pochopenie rozhodovacích procesov AI.
  • Inkluzívny vývoj AI: Zmierňovanie predsudkov a integrácia rôznych hodnôt.
  • Hodnotenie nebezpečných akcií: Vývoj prísnych metód na hodnotenie schopností AI a predpovedanie rizík pred nasadením.
  • Hodnotenie zarovnania AI: Zabezpečenie súladu systémov AI so zamýšľanými cieľmi a nesledovaním škodlivých cieľov.
  • Hodnotenie rizika: Komplexné hodnotenie spoločenských rizík spojených s nasadením AI.
  • Odolnosť: Vytváranie obrany proti hrozbám s podporou AI, ako sú kybernetické útoky a sociálna manipulácia.

Anna Makanju, viceprezidentka pre globálne záležitosti v OpenAI, uviedol o nových odporúčaniach: „Oblasť bezpečnosti umelej inteligencie sa rýchlo vyvíja a sme obzvlášť radi, že môžeme podporiť dôraz, ktorý sa v záväzkoch kladie na zdokonalenie prístupov popri vede. Naďalej sme odhodlaní spolupracovať s ďalšími výskumnými laboratóriami, spoločnosťami a vládami, aby sme zaistili, že AI je bezpečná a prináša úžitok celému ľudstvu.“

Michael Sellitto, vedúci globálnych záležitostí v Antropický, komentoval podobne: „Bezpečnostné záväzky Frontier AI podčiarkujú dôležitosť bezpečného a zodpovedného vývoja hraničného modelu. Ako organizácia zameraná na bezpečnosť sme si stanovili za prioritu implementovať prísne zásady, viesť rozsiahly červený tím a spolupracovať s externými odborníkmi, aby sme zaistili bezpečnosť našich modelov. Tieto záväzky sú dôležitým krokom vpred pri podpore zodpovedného vývoja a nasadenia AI.“

Ďalší dobrovoľný rámec

To odzrkadľuje „dobrovoľné záväzky“ prijaté na Biely dom v júli minulého roka podľa Amazon, AntropickýGoogle, Inflection AI, Meta, Microsoft a OpenAI podporiť bezpečný, bezpečný a transparentný vývoj technológie AI.

Tieto nové pravidlá stanovujú, že 16 spoločností „poskytne verejnú transparentnosť“ svojich bezpečnostných implementácií, okrem prípadov, keď by to mohlo zvýšiť riziká alebo prezradiť citlivé obchodné informácie neúmerne k spoločenským výhodám.

Britský premiér Rishi Sunak povedal: „Je to svetová premiéra, ktorá má toľko popredných spoločností v oblasti AI z toľkých rôznych častí sveta, ktoré súhlasia s rovnakými záväzkami v oblasti bezpečnosti AI.

Je to svetová novinka, pretože firmy mimo Severnej Ameriky, ako napr Zhipu.ai sa k tomu pridal.

Dobrovoľné záväzky voči AI Safety sú však už nejaký čas v móde. Pre spoločnosti AI existuje len malé riziko, že s nimi budú súhlasiť, pretože neexistujú žiadne prostriedky na ich vynútenie. To tiež naznačuje, akým tupým nástrojom sú, keď zatlačíte.

Dan Hendrycks, bezpečnostný poradca startupu xAI Elona Muska, poznamenal, že dobrovoľné záväzky by pomohli „položiť základy konkrétnej domácej regulácie“.

Spravodlivý komentár, ale podľa vlastného priznania ešte musíme „položiť základy“, keď hrozia extrémne riziká, podľa niektorých popredných výskumníkov.

Nie každý súhlasí aká nebezpečná je AI v skutočnostiide však o to, že sentiment za týmito rámcami ešte nie je v súlade s činmi.

Národy tvoria bezpečnostnú sieť AI

Počas tohto menšieho summitu o bezpečnosti AI v Soule v Južnej Kórei sa desať krajín a Európska únia (EÚ) dohodli na vytvorení medzinárodnej siete verejne podporovaných „inštitútov bezpečnosti AI“.

Soulské vyhlásenie o úmysle smerom k medzinárodnej spolupráci v oblasti vedy o bezpečnosti AI“ dohoda zahŕňa krajiny vrátane Spojeného kráľovstva, Spojených štátov, Austrálie, Kanady, Francúzska, Nemecka, Talianska, Japonska, Južnej Kórey, Singapuru a EÚ.

V dohode chýbala najmä Čína. Čínska vláda sa však zúčastnila a čínska firma Zhipu.ai sa prihlásila do rámca opísaného vyššie.

Čína už predtým vyjadrila ochotu spolupracovať v oblasti bezpečnosti AI a zapojila sa ‚tajné‘ rozhovory s USA.

Toto menší dočasný summit prišiel s menšou fanfárou ako prvý, ktorý sa konal minulý november v britskom Bletchley Parku.

Pridalo sa však niekoľko známych technologických osobností vrátane Elona Muska, bývalého generálneho riaditeľa Google Erica Schmidta a DeepMind zakladateľ Sir Demis Hassabis.

Ďalšie záväzky a diskusie vyjdú na svetlo v najbližších dňoch.

Source Link

Related Posts

Leave a Comment