Niektoré z najvýznamnejších mien v Big Tech sa spojili, aby spolu založili Coalition for Secure AI (CoSAI).
Globálny štandard pre bezpečné postupy vývoja AI zatiaľ neexistuje, pričom súčasné bezpečnostné opatrenia AI sú roztrieštené a často uchovávané interne spoločnosťami, ktoré vytvárajú modely AI.
CoSAI je iniciatíva s otvoreným zdrojovým kódom, ktorú organizuje globálny štandardizačný orgán OASIS a ktorej cieľom je štandardizovať a zdieľať najlepšie postupy súvisiace s bezpečným vývojom a nasadením AI.
Kto je kto z veľkých technologických spoločností, ktoré túto iniciatívu podporujú, zahŕňajú Google, IBM, Intel, Microsoft, NVIDIA a PayPal. Medzi ďalších zakladajúcich sponzorov patria Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI a Wiz.
Chýbajú najmä Apple a Meta.
Cieľom CoSAI je vyvinúť a zdieľať komplexné bezpečnostné opatrenia, ktoré riešia riziká vrátane:
- krádež modelu
- dátová otrava tréningových dát
- zavádzanie škodlivých vstupov prostredníctvom rýchleho vstrekovania
- škálovaná prevencia zneužívania
- útoky na členstvo
- modelovať inverzné útoky alebo gradientné inverzné útoky na odvodenie súkromných informácií
- extrahovanie dôverných informácií z tréningových dát
charta CoSAI hovorí, že „projekt nepredpokladá, že by v rámci projektu boli nasledujúce témy: dezinformácie, halucinácie, nenávistný alebo urážlivý obsah, zaujatosť, generovanie škodlivého softvéru, generovanie phishingového obsahu alebo iné témy v oblasti bezpečnosti obsahu.“
Google už má svoj Google Secure AI Framework (SAIF) a OpenAI ho má sužovaný projekt zosúlaďovania. Až do CoSAI však neexistovalo fórum na kombinovanie osvedčených postupov bezpečnosti AI, ktoré hráči v tomto odvetví vyvinuli nezávisle.
Videli sme malé startupy ako napr Mistral zažili raketový vzostup s modelmi AI, ktoré vyrobili, ale mnohé z týchto menších spoločností nemajú zdroje na financovanie bezpečnostných tímov AI.
CoSAI bude cenným bezplatným zdrojom osvedčených postupov v oblasti bezpečnosti AI pre malých a veľkých hráčov v tomto odvetví.
Heather Adkinsová, viceprezidentka a dôstojníčka pre odolnosť voči kybernetickej bezpečnosti v spoločnosti Google, povedala: „Umelú inteligenciu používame už mnoho rokov a vidíme pretrvávajúci potenciál pre obrancov, ale tiež si uvedomujeme jej príležitosti pre protivníkov.
„CoSAI pomôže organizáciám, veľkým aj malým, bezpečne a zodpovedne integrovať AI – pomôže im využiť jej výhody a zároveň zmierniť riziká.“
Nick Hamilton, vedúci oddelenia pre riadenie, riziká a dodržiavanie predpisov v OpenAI, povedal: „Vývoj a nasadenie technológií AI, ktoré sú bezpečné a dôveryhodné, je ústredným bodom poslania OpenAI.
„Sme presvedčení, že na zaistenie bezpečného a zodpovedného používania umelej inteligencie je nevyhnutné vyvinúť spoľahlivé štandardy a postupy, a preto sme odhodlaní spolupracovať v rámci celého odvetvia.
„Prostredníctvom našej účasti v CoSAI sa snažíme prispieť našimi odbornými znalosťami a zdrojmi k vytvoreniu bezpečného ekosystému AI, ktorý bude prínosom pre každého.“
Dúfajme, že sa ľuďom páči Iľja Sutskever a iní, ktorí odišli OpenAI kvôli obavám o bezpečnosť dobrovoľne svoj príspevok pre CoSAI.