Home Umela inteligencia Oznámenia Google a OpenAI búrajú hranice medzi ľuďmi a AI

Oznámenia Google a OpenAI búrajú hranice medzi ľuďmi a AI

by
AI humans

Za závratných 48 hodín Google a OpenAI odhalili množstvo nových schopností, ktoré dramaticky zmenšujú priepasť medzi ľuďmi a AI.

Od AI, ktorá dokáže interpretovať živé video a viesť kontextové konverzácie, až po jazykové modely, ktoré sa smejú, spievajú a ovládajú emócie, čiara oddeľujúca uhlík od kremíka rýchlo mizne.

Medzi nespočetnými oznámeniami spoločnosti Google na svojom I/O vývojárska konferencia bol Projekt Astradigitálny asistent, ktorý môže vidieť, počuť a ​​pamätať si podrobnosti v rámci konverzácií.

OpenAI zameral svoje oznámenie na GPT-4onajnovšia iterácia svojho jazykového modelu GPT-4.

GPT-4o, ktorý je teraz odpojený od textových formátov, ponúka neuveriteľné rozpoznávanie reči takmer v reálnom čase, porozumenie a sprostredkovanie zložitých emócií a dokonca aj chichotanie sa na vtipoch a vrčaní rozprávok pred spaním.

AI sa vo formáte stáva ľudskejším a oslobodzuje sa od chatovacích rozhraní, aby sa zapojila pomocou zraku a zvuku. „Formát“ je tu operatívne slovo, pretože GPT-4o nie je výpočtovo inteligentnejší ako GPT-4 len preto, že môže hovoriť, vidieť a počuť.

To však neznižuje jeho pokrok vo vybavovaní AI viacerými rovinami, na ktorých môže interagovať.

Uprostred toho humbuku pozorovatelia okamžite prirovnali k Samanthe, podmanivej umelej inteligencii z filmu „Ona“, najmä preto, že ženský hlas je koketný – niečo, čo nemôže byť náhodné, pretože to zachytil prakticky každý.

„Her“ vydaná v roku 2013 je sci-fi romantická dráma, ktorá skúma vzťah medzi osamelým mužom menom Theodore (hrá ho Joaquin Phoenix) a inteligentným počítačovým systémom menom Samantha (vyjadrený Scarlett Johansson).

Ako sa Samantha vyvíja a stáva sa viac ľudskou, Theodore sa do nej zamiluje, čím sa stierajú hranice medzi ľudskými a umelými emóciami.

Film vyvoláva čoraz relevantnejšie otázky o povahe vedomia, intimite a o tom, čo znamená byť človekom vo veku pokročilej AI.

Ako mnoho sci-fi príbehov, aj Ona je už sotva vymyslená. Milióny ľudí na celom svete nadväzujú rozhovory s AI spoločnícičasto s intímnymi alebo sexuálnymi úmyslami.

dosť zvláštne, OpenAI CEO Sam Altman diskutoval o filme „Her“ v rozhovoroch a naznačil, že ženský hlas GPT-4o je založený na nej.

Pred živou ukážkou dokonca zverejnil slovo „ona“ na X, o ktorom môžeme len predpokladať, že by bolo písané veľkými písmenami, keby vedel, kde je na jeho klávesnici kláves Shift.

V mnohých prípadoch sú interakcie AI s človekom prospešné, vtipné a benígne. V iných sú katastrofálne.

Napríklad v jednom obzvlášť znepokojujúcom prípade duševne chorý muž z Veľkej Británie, Jaswant Singh Chailpo rozhovore zosnoval sprisahanie s cieľom zavraždiť kráľovnú Alžbetu II jeho priateľka „AI angel“.. Bol zatknutý z dôvodov Hrad Windsor vyzbrojený kušou.

Na svojom súde, psychiater Dr Hafferty povedal sudcovi: „Veril, že mal romantický vzťah so ženou prostredníctvom aplikácie a bola to žena, ktorú mohol vidieť a počuť.“

Je znepokojujúce, že niektoré z týchto realistických platforiem umelej inteligencie sú zámerne navrhnuté tak, aby budovali silné osobné prepojenia, niekedy aj na poskytovanie životných rád, terapie a emocionálnej podpory. Tieto systémy prakticky nerozumejú dôsledkom svojich rozhovorov a dajú sa ľahko viesť.

„Zraniteľné skupiny obyvateľstva potrebujú túto pozornosť. Tam nájdu hodnotu,“ varuje etik AI od Olivie Gambelovej.

Gambelin varuje, že používanie týchto foriem „pseudoantropickej“ AI v citlivých kontextoch, ako je terapia a vzdelávanie, najmä u zraniteľných skupín obyvateľstva, ako sú deti, si vyžaduje extrémnu starostlivosť a ľudský dohľad.

„Je tam niečo nehmotné, čo je také cenné, najmä pre zraniteľné skupiny obyvateľstva, najmä pre deti. A najmä v prípadoch, ako je vzdelávanie a terapia, kde je také dôležité, aby ste sa na to sústredili, na ten ľudský dotykový bod.“

Pseudoantropická AI

Pseudoantropická AI napodobňuje ľudské vlastnosti, čo je pre technologické spoločnosti mimoriadne výhodné.

AI zobrazujúca ľudské vlastnosti znižuje bariéry pre technicky neznalých používateľov, podobne ako napr Alexa, Siria pod., čím sa vytvárajú silnejšie citové väzby medzi ľuďmi a produktmi.

Dokonca aj pred niekoľkými rokmi bolo veľa nástrojov AI navrhnutých na napodobňovanie ľudí dosť neúčinných. Dalo by sa povedať, že niečo nie je v poriadku, aj keď to bolo jemné.

Dnes však až tak nie. Nástroje ako Pracovať pre a Synthesia vytvárať neuveriteľne realistické hovoriace avatary z krátkych videí alebo dokonca fotografií. ElevenLabs vytvára takmer identické hlasové klony, ktoré oklamú ľudí 25 % až 50 % času.

To uvoľňuje potenciál na vytváranie neuveriteľne klamlivých hlbokých falzifikátov. Používanie umelých „afektívnych zručností“ AI – hlasová intonácia, gestá, výrazy tváre – môže podporovať všetky druhy podvodov v oblasti sociálneho inžinierstva, dezinformácií atď.

s GPT-4o a AstraAI dokáže presvedčivo sprostredkovať pocity, ktoré nemá, vyvolať silnejšie reakcie od nevedomých obetí a pripraviť pôdu pre zákerné formy emocionálnej manipulácie.

Nedávna S štúdium tiež ukázal, že AI je už viac ako schopná klamať.

Musíme zvážiť, ako to bude eskalovať, keď sa AI stane schopnejšou napodobňovať ľudí, čím sa skombinujú klamlivé taktiky s realistickým správaním.

Ak si nedáme pozor, „Jej“ by sa ľahko mohlo stať, že ľudia v skutočnom živote zrania.



Source Link

Related Posts

Leave a Comment