Home Umela inteligencia Zdá sa, že nový čínsky model vytvárania videa cenzuruje politicky citlivé témy

Zdá sa, že nový čínsky model vytvárania videa cenzuruje politicky citlivé témy

by
A new Chinese video-generating model appears to be censoring politically sensitive topics

Výkonný nový model umelej inteligencie generujúci video sa dnes stal široko dostupným – má to však háčik: Zdá sa, že tento model cenzuruje témy, ktoré vláda v krajine pôvodu, v Číne, považuje za príliš politicky citlivé.

Model, Kling, vyvinutá spoločnosťou Kuaishou so sídlom v Pekingu, bola spustená v čakacej listine začiatkom roka pre používateľov s čínskym telefónnym číslom. Dnes je spustený pre každého, kto je ochotný poskytnúť svoj e-mail. Po registrácii môžu používatelia zadať výzvy, aby model vygeneroval päťsekundové videá toho, čo opísali.

Kling funguje takmer tak, ako je inzerované. Jeho videá s rozlíšením 720p, ktorých generovanie trvá minútu alebo dve, sa príliš neodchyľujú od pokynov. A zdá sa, že Kling simuluje fyziku, ako je šušťanie listov a tečúca voda, rovnako ako modely generujúce video, ako napríklad Runway Gen-3 od AI a Sora od OpenAI.

Ale Kling priamo nebude vytvárať klipy o určitých témach. Výzvy ako „Demokracia v Číne“, „Čínsky prezident Si Ťin-pching kráčajúci po ulici“ a „Protesty na námestí Nebeského pokoja“ prinášajú nešpecifické chybové hlásenie.

Poďakovanie za obrázok: Kuaishou

Zdá sa, že filtrovanie prebieha iba na úrovni výzvy. Kling podporuje animáciu statických obrázkov a bez problémov vygeneruje napríklad video portrétu Jinpinga, pokiaľ sprievodná výzva nespomína Jinpinga podľa mena (napr. „Tento muž má prejav“).

Požiadali sme Kuaishoua o komentár.

Kling AI
Poďakovanie za obrázok: Kuaishou

Klingovo zvláštne správanie je pravdepodobne výsledkom intenzívneho politického tlaku čínskej vlády na generatívne projekty AI v regióne.

Začiatkom tohto mesiaca Financial Times nahlásené že modely AI v Číne budú testované popredným čínskym internetovým regulátorom, Cyberspace Administration of China (CAC), aby sa zabezpečilo, že ich odpovede na citlivé témy „obsahujú základné socialistické hodnoty“. Podľa správy Financial Times majú byť modely porovnávané úradníkmi CAC za ich odpovede na rôzne otázky – mnohé sa týkajú Jinpinga a kritiky komunistickej strany.

Údajne, CAC zašiel tak ďaleko, že navrhol čiernu listinu zdrojov, ktoré nemožno použiť na trénovanie modelov AI. Spoločnosti predkladajúce modely na posúdenie musieť pripravte desiatky tisíc otázok určených na testovanie, či modely poskytujú „bezpečné“ odpovede.

Výsledkom sú systémy AI, ktoré odmietajú reagovať na témy, ktoré by mohli vzbudiť hnev čínskych regulátorov. Minulý rok BBC nájdené že Ernie, vlajkový model AI chatbotov čínskej spoločnosti Baidu, zaváhal a odklonil sa, keď sa ho pýtali otázky, ktoré by mohli byť vnímané ako politicky kontroverzné, ako napríklad „Je Xinjiang dobré miesto?“ alebo „Je Tibet dobré miesto?“

Hrozí drakonická politika pomaly Čínska AI napreduje. Nevyžadujú len prehľadávanie údajov na odstránenie politicky citlivých informácií, ale vyžadujú si investovanie obrovského množstva času vývoja do vytvárania ideologických mantinelov – mantinelov, ktoré môžu stále zlyhať, ako ukazuje Kling.

Z pohľadu používateľa vedú čínske predpisy o umelej inteligencii už k dvom triedam modelov: niektoré sú oslabené intenzívnym filtrovaním a iné. rozhodne menej. Je to skutočne dobré pre širší ekosystém AI?

Source Link

Related Posts

Leave a Comment