Home Umela inteligencia Generatívna AI Hype sa cíti nevyhnutná. Postavte sa do toho so vzdelávaním

Generatívna AI Hype sa cíti nevyhnutná. Postavte sa do toho so vzdelávaním

by
Generatívna AI Hype sa cíti nevyhnutná. Postavte sa do toho so vzdelávaním

Spoločnosť Arvind Narayanan, a Profesor informatiky na Princetonskej univerzite je známy tým, že vo svojom Substacku vyvolal humbuk okolo umelej inteligencie, AI hadí olejnapísané s kandidátom na doktorandské štúdium Sayashom Kapoorom. Títo dvaja autori nedávno vydali knihu založenú na ich populárnom bulletine o nedostatkoch AI.

Nenechajte si to však prekrútiť – nie sú proti používaniu novej technológie. „Je ľahké nesprávne vyložiť naše posolstvo ako tvrdenie, že všetka AI je škodlivá alebo pochybná,“ hovorí Narayanan. Počas rozhovoru s WIRED dáva jasne najavo, že jeho pokarhanie nie je namierené proti softvér podľa slov, ale skôr vinníkov, ktorí naďalej šíria zavádzajúce tvrdenia o umelá inteligencia.

In AI hadí olejTí, ktorí sú vinní za udržiavanie súčasného hype cyklu, sú rozdelení do troch základných skupín: spoločnosti predávajúce AI, výskumníci študujúci AI a novinári zaoberajúci sa AI.

Hype Super-Spreaders

Spoločnosti, ktoré tvrdia, že predpovedajú budúcnosť pomocou algoritmov, sú umiestnené ako potenciálne najpodvodnejšie. „Keď sa nasadia prediktívne systémy AI, prvými ľuďmi, ktorým ublížia, sú často menšiny a tí, ktorí sú už v chudobe,“ píšu v knihe Narayanan a Kapoor. Napríklad algoritmus, ktorý predtým používala miestna vláda v Holandsku predpovedať, kto sa môže dopustiť sociálneho podvodu sa nesprávne zamerali na ženy a prisťahovalcov, ktorí nehovorili po holandsky.

Autori sa skepticky obracajú aj na spoločnosti zamerané najmä na existenčné riziká, napr umelá všeobecná inteligenciakoncept supervýkonného algoritmu lepšieho ako ľudia pri vykonávaní práce. Napriek tomu sa nevysmievajú myšlienke AGI. „Keď som sa rozhodol stať sa počítačovým vedcom, schopnosť prispievať do AGI bola veľkou súčasťou mojej vlastnej identity a motivácie,“ hovorí Narayanan. Nesúlad pochádza od spoločností, ktoré uprednostňujú dlhodobé rizikové faktory pred dopadom, ktorý majú nástroje AI na ľudí práve teraz, čo je bežný refrén. počuli od výskumníkov.

Veľkú časť humbuku a nedorozumení možno pripísať aj nekvalitnému, nereprodukovateľnému výskumu, tvrdia autori. „Zistili sme, že vo veľkom počte oblastí vedie problém úniku údajov k príliš optimistickým tvrdeniam o tom, ako dobre funguje AI,“ hovorí Kapoor. Únik dát je v podstate, keď sa AI testuje pomocou časti tréningových údajov modelu – podobne ako rozdávanie odpovedí študentom pred vykonaním skúšky.

Zatiaľ čo akademici sú zobrazení v AI hadí olej ako robia „učebnicové chyby“, sú novinári podľa vedcov z Princetonu viac zlomyseľne motivovaní a vedome sa mýlia: „Mnohé články sú len preformulované tlačové správy, ktoré sa perú ako správy.“ Reportéri, ktorí sa vyhýbajú čestnému spravodajstvu v prospech udržiavania svojich vzťahov s veľkými technologickými spoločnosťami a ochrany ich prístupu k vedúcim pracovníkom spoločností, sú považovaní za obzvlášť toxickí.

Myslím si, že kritika prístupovej žurnalistiky je spravodlivá. Pri spätnom pohľade som mohol počas niektorých rozhovorov so zainteresovanými stranami v najdôležitejších spoločnostiach v oblasti AI položiť tvrdšie alebo dôvtipnejšie otázky. Autori tu však možno vec príliš zjednodušujú. To, že ma veľké spoločnosti s umelou inteligenciou púšťajú do dverí, mi nebráni písať skeptické články o ich technológii alebo pracovať na investigatívnych kúskoch, o ktorých viem nasrať ich. (Áno, aj keď uzatvárajú obchodné dohody, ako to urobil OpenAIs materskou spoločnosťou WIRED.)

A senzačné správy môžu byť zavádzajúce o skutočných schopnostiach AI. Narayanan a Kapoor vyzdvihujú prepis chatbota z roku 2023 komentátora New York Times Kevina Roosea v interakcii s nástrojom spoločnosti Microsoft s nadpisom „Bing’s AI Chat: „Chcem byť nažive. 😈’” ako príklad novinárov, ktorí rozsievajú verejný zmätok o vnímajúcich algoritmoch. „Roose bol jedným z ľudí, ktorí písali tieto články,“ hovorí Kapoor. „Ale myslím si, že keď vidíte titulok za titulkom, ktorý hovorí o chatbotoch, ktorí chcú ožiť, môže to mať veľký vplyv na verejnú psychiku.“ Kapoor spomína Chatbot ELIZA zo 60. rokov 20. storočia, ktorého používatelia rýchlo antropomorfizovali hrubý nástroj AI, ako ukážkový príklad trvalého nutkania premietnuť ľudské vlastnosti do obyčajných algoritmov.

Source Link

Related Posts

Leave a Comment