Home Umela inteligencia Preklenutie medzery v dôvere AI

Preklenutie medzery v dôvere AI

by
mm

Prijatie AI dosahuje kritický inflexný bod. Firmy nadšene prijímajú AI, poháňané jej prísľubom dosiahnuť rádové zlepšenia prevádzkovej efektivity.

Nedávna Prieskum Slack zistili, že prijímanie AI sa naďalej zrýchľuje, pričom používanie AI na pracoviskách zaznamenalo nedávny nárast o 24 % a 96 % opýtaných vedúcich pracovníkov sa domnieva, že „je naliehavé integrovať AI do ich obchodných operácií“.

Existuje však a rozširujúca sa priepasť medzi užitočnosťou AI a rastúcou obavou z jej potenciálnych nepriaznivých vplyvov. len 7%stolových pracovníkov tomu verívýstupy z AI sú dostatočne dôveryhodné na to, aby im pomáhali pri pracovných úlohách.

Táto priepasť je evidentná v ostrom kontraste medzi nadšením vedúcich pracovníkov pre integráciu AI a skepticizmom zamestnancov súvisiacim s faktormi, ako sú:

Úloha legislatívy pri budovaní dôvery

Na riešenie týchto mnohostranných problémov dôvery sa legislatívne opatrenia čoraz viac považujú za nevyhnutný krok. Legislatíva môže zohrávať kľúčovú úlohu pri regulácii vývoja a zavádzania AI, čím sa zvyšuje dôvera. Medzi kľúčové legislatívne prístupy patria:

  • Zákony o ochrane údajov a súkromia: Implementácia prísnych zákonov na ochranu údajov zaisťuje, že systémy AI budú s osobnými údajmi narábať zodpovedne. Nariadenia, ako je všeobecné nariadenie o ochrane údajov (GDPR) v Európskej únii, predstavujú precedens tým, že nariaďujú transparentnosť, minimalizáciu údajov a súhlas používateľa. najmä Článok 22 GDPR chráni dotknuté osoby pred možnými nepriaznivými vplyvmi automatizovaného rozhodovania. Nedávne rozhodnutia Súdneho dvora Európskej únie (SDEU) potvrdzujú práva osoby nebyť predmetom automatizovaného rozhodovania. V prípade Schufa Holding AG,ak bol nemeckému rezidentovi odmietnutý bankový úver na základe automatického systému rozhodovania o úvere, súd rozhodol, že článok 22 vyžaduje, aby organizácie zaviedli opatrenia chrániť práva na súkromie súvisiace s používaním technológií AI .
  • Predpisy AI: Európska únia ratifikovala zákon EÚ o AI (ja robím), ktorej cieľom je regulovať používanie systémov AI na základe úrovne ich rizika. Zákon obsahuje povinné požiadavky na vysokorizikové systémy AI, ktoré zahŕňajú oblasti ako kvalita údajov, dokumentácia, transparentnosť a ľudský dohľad. Jednou z hlavných výhod regulácií AI je podpora transparentnosti a vysvetliteľnosti systémov AI. Okrem toho EÚ AIA stanovuje jasné rámce zodpovednosti, ktoré zaisťujú, že vývojári, prevádzkovatelia a dokonca aj používatelia systémov AI sú zodpovední za svoje kroky a výsledky nasadenia AI. Toto zahŕňa mechanizmov nápravy ak systém AI spôsobí škodu. Keď sú jednotlivci a organizácie brané na zodpovednosť, buduje to istotu, že systémy AI sú riadené zodpovedne.

Štandardné iniciatívy na podporu kultúry dôveryhodnej AI

Spoločnosti nemusia čakať na prijatie nových zákonov, aby zistili, či sú ich procesy v rámci etických a dôveryhodných smerníc. Predpisy AI fungujú v tandeme s novými iniciatívami v oblasti štandardov AI, ktoré organizáciám umožňujú implementovať zodpovedné riadenie AI a osvedčené postupy počas celého životného cyklu systémov AI, vrátane návrhu, implementácie, nasadenia a prípadne vyradenia z prevádzky.

Národný inštitút pre štandardy a technológie (NIST) v Spojených štátoch vyvinul Rámec riadenia rizík AI usmerňovať organizácie pri riadení rizík súvisiacich s AI. Rámec je štruktúrovaný okolo štyroch základných funkcií:

  • Pochopenie systému AI a kontextu, v ktorom funguje. To zahŕňa definovanie účelu, zainteresovaných strán a potenciálnych vplyvov systému AI.
  • Kvantifikácia rizík spojených so systémom AI vrátane technických a netechnických aspektov. To zahŕňa vyhodnotenie výkonu systému, spoľahlivosti a potenciálnych skreslení.
  • Implementácia stratégií na zmiernenie identifikovaných rizík. To zahŕňa vývoj politík, postupov a kontrol, aby sa zabezpečilo, že systém AI bude fungovať v rámci prijateľných úrovní rizika.
  • Vytvorenie riadiacich štruktúr a mechanizmov zodpovednosti na dohľad nad systémom AI a jeho procesmi riadenia rizík. To zahŕňa pravidelné kontroly a aktualizácie stratégie riadenia rizík.

V reakcii na pokrok v generatívnych technológiách AI NIST tiež zverejnil Rámec riadenia rizík umelej inteligencie: Profil generatívnej umelej inteligencie, ktorý poskytuje návod na zmiernenie špecifických rizík spojených s Foundational Models. Takéto opatrenia zahŕňajú ochranu pred nekalým používaním (napr. dezinformácie, ponižujúci obsah, nenávistné prejavy) a etické aplikácie AI, ktoré sa zameriavajú na ľudské hodnoty spravodlivosti, súkromia, informačnej bezpečnosti, duševného vlastníctva a udržateľnosti.

Okrem toho, Medzinárodná organizácia pre normalizáciu (ISO) a Medzinárodná elektrotechnická komisia (IEC) spoločne vyvinuli ISO/IEC 23894,komplexný štandard pre riadenie rizík AI. Táto norma poskytuje systematický prístup k identifikácii a riadeniu rizík počas celého životného cyklu AI vrátane identifikácie rizík, hodnotenia závažnosti rizika, liečby na jeho zmiernenie alebo zamedzenie a neustáleho monitorovania a kontroly.

Budúcnosť AI a dôvera verejnosti

Pri pohľade do budúcnosti bude budúcnosť AI a dôvera verejnosti pravdepodobne závisieť od niekoľkých kľúčových faktorov, ktoré sú nevyhnutné pre všetky organizácie:

  • Vykonanie komplexného hodnotenia rizík s cieľom identifikovať potenciálne problémy s dodržiavaním predpisov. Vyhodnoťte etické dôsledky a potenciálne predsudky vo vašich systémoch AI.
  • Vytvorenie medzifunkčného tímu vrátane odborníkov v oblasti práva, dodržiavania predpisov, IT a vedy o údajoch. Tento tím by mal byť zodpovedný za monitorovanie regulačných zmien a zabezpečenie toho, aby vaše systémy AI dodržiavali nové nariadenia.
  • Implementácia riadiacej štruktúry, ktorá zahŕňa politiky, postupy a úlohy na riadenie iniciatív AI. Zabezpečte transparentnosť operácií a rozhodovacích procesov AI.
  • Vykonávanie pravidelných interných auditov na zabezpečenie súladu s predpismi AI. Pomocou monitorovacích nástrojov sledujte výkon systému AI a dodržiavanie regulačných noriem.
  • Vzdelávanie zamestnancov o etike AI, regulačných požiadavkách a osvedčených postupoch. Poskytnite priebežné školenia, aby ste zamestnancov informovali o zmenách v predpisoch AI a stratégiách dodržiavania predpisov.
  • Udržiavanie podrobných záznamov o procesoch vývoja AI, využívaní údajov a rozhodovacích kritériách. Pripravte sa na generovanie správ, ktoré možno v prípade potreby predložiť regulačným orgánom.
  • Budovanie vzťahov s regulačnými orgánmi a účasť na verejných konzultáciách. Poskytnite spätnú väzbu k navrhovaným predpisom a v prípade potreby požiadajte o vysvetlenia.

Kontextualizujte AI, aby ste dosiahli dôveryhodnú AI

Dôveryhodná AI v konečnom dôsledku závisí od integrity údajov. Závislosť generatívnej AI na veľkých súboroch údajov sa nerovná presnosti a spoľahlivosti výstupov; ak niečo, je to v rozpore s oboma štandardmi. Retrieval Augmented Generation (RAG) je inovatívna technika, ktorá „kombinuje statické LLM s kontextovo špecifickými údajmi. A možno si to predstaviť ako veľmi dobre informovaného pomocníka. Taký, ktorý spája kontext dopytu s konkrétnymi údajmi z komplexnej databázy znalostí.“ RAG umožňuje organizáciám dodávať kontextovo špecifické aplikácie, ktoré dodržiavajú očakávania týkajúce sa súkromia, bezpečnosti, presnosti a spoľahlivosti. RAG zlepšuje presnosť generovaných odpovedí získavaním relevantných informácií z databázy znalostí alebo z úložiska dokumentov. To umožňuje modelu založiť jeho generovanie na presných a aktuálnych informáciách.

RAG umožňuje organizáciám vytvárať účelové aplikácie AI, ktoré sú vysoko presné, kontextové a prispôsobiteľné s cieľom zlepšiť rozhodovanie, zlepšiť skúsenosti zákazníkov, zefektívniť operácie a dosiahnuť významné konkurenčné výhody.

Preklenutie medzery v dôvere AI zahŕňa zabezpečenie transparentnosti, zodpovednosti a etického používania AI. Aj keď neexistuje jediná odpoveď na dodržiavanie týchto štandardov, podniky majú k dispozícii stratégie a nástroje. Implementácia robustných opatrení na ochranu údajov a dodržiavanie regulačných noriem buduje dôveru používateľov. Pravidelný audit systémov AI na zaujatosť a nepresnosti zaisťuje spravodlivosť. Rozšírenie veľkých jazykových modelov (LLM) o účelovú AI poskytuje dôveru tým, že zahŕňa proprietárne znalostné bázy a zdroje údajov. Zapojenie zainteresovaných strán do možností a obmedzení AI tiež podporuje dôveru a prijatie

Dôveryhodnú umelú inteligenciu nie je ľahké dosiahnuť, ale je životne dôležitým záväzkom pre našu budúcnosť.

Source Link

Related Posts

Leave a Comment