Home Umela inteligencia Veľké mená umelej inteligencie sa pripájajú ku koalícii pre bezpečnú umelú inteligenciu (CoSAI)

Veľké mená umelej inteligencie sa pripájajú ku koalícii pre bezpečnú umelú inteligenciu (CoSAI)

by
Veľké mená umelej inteligencie sa pripájajú ku koalícii pre bezpečnú umelú inteligenciu (CoSAI)

Niektoré z najvýznamnejších mien v Big Tech sa spojili, aby spolu založili Coalition for Secure AI (CoSAI).

Globálny štandard pre bezpečné postupy vývoja AI zatiaľ neexistuje, pričom súčasné bezpečnostné opatrenia AI sú roztrieštené a často uchovávané interne spoločnosťami, ktoré vytvárajú modely AI.

CoSAI je iniciatíva s otvoreným zdrojovým kódom, ktorú organizuje globálny štandardizačný orgán OASIS a ktorej cieľom je štandardizovať a zdieľať najlepšie postupy súvisiace s bezpečným vývojom a nasadením AI.

Kto je kto z veľkých technologických spoločností, ktoré túto iniciatívu podporujú, zahŕňajú Google, IBM, Intel, Microsoft, NVIDIA a PayPal. Medzi ďalších zakladajúcich sponzorov patria Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI a Wiz.

Chýbajú najmä Apple a Meta.

Cieľom CoSAI je vyvinúť a zdieľať komplexné bezpečnostné opatrenia, ktoré riešia riziká vrátane:

  • krádež modelu
  • dátová otrava tréningových dát
  • zavádzanie škodlivých vstupov prostredníctvom rýchleho vstrekovania
  • škálovaná prevencia zneužívania
  • útoky na členstvo
  • modelovať inverzné útoky alebo gradientné inverzné útoky na odvodenie súkromných informácií
  • extrahovanie dôverných informácií z tréningových dát

charta CoSAI hovorí, že „projekt nepredpokladá, že by v rámci projektu boli nasledujúce témy: dezinformácie, halucinácie, nenávistný alebo urážlivý obsah, zaujatosť, generovanie škodlivého softvéru, generovanie phishingového obsahu alebo iné témy v oblasti bezpečnosti obsahu.“

Google už má svoj Google Secure AI Framework (SAIF) a OpenAI ho má sužovaný projekt zosúlaďovania. Až do CoSAI však neexistovalo fórum na kombinovanie osvedčených postupov bezpečnosti AI, ktoré hráči v tomto odvetví vyvinuli nezávisle.

Videli sme malé startupy ako napr Mistral zažili raketový vzostup s modelmi AI, ktoré vyrobili, ale mnohé z týchto menších spoločností nemajú zdroje na financovanie bezpečnostných tímov AI.

CoSAI bude cenným bezplatným zdrojom osvedčených postupov v oblasti bezpečnosti AI pre malých a veľkých hráčov v tomto odvetví.

Heather Adkinsová, viceprezidentka a dôstojníčka pre odolnosť voči kybernetickej bezpečnosti v spoločnosti Google, povedala: „Umelú inteligenciu používame už mnoho rokov a vidíme pretrvávajúci potenciál pre obrancov, ale tiež si uvedomujeme jej príležitosti pre protivníkov.

„CoSAI pomôže organizáciám, veľkým aj malým, bezpečne a zodpovedne integrovať AI – pomôže im využiť jej výhody a zároveň zmierniť riziká.“

Nick Hamilton, vedúci oddelenia pre riadenie, riziká a dodržiavanie predpisov v OpenAI, povedal: „Vývoj a nasadenie technológií AI, ktoré sú bezpečné a dôveryhodné, je ústredným bodom poslania OpenAI.

„Sme presvedčení, že na zaistenie bezpečného a zodpovedného používania umelej inteligencie je nevyhnutné vyvinúť spoľahlivé štandardy a postupy, a preto sme odhodlaní spolupracovať v rámci celého odvetvia.

„Prostredníctvom našej účasti v CoSAI sa snažíme prispieť našimi odbornými znalosťami a zdrojmi k vytvoreniu bezpečného ekosystému AI, ktorý bude prínosom pre každého.“

Dúfajme, že sa ľuďom páči Iľja Sutskever a iní, ktorí odišli OpenAI kvôli obavám o bezpečnosť dobrovoľne svoj príspevok pre CoSAI.

Source Link

Related Posts

Leave a Comment