V USA a Spojenom kráľovstve sa šíri nová vlna sledovania vylepšeného umelou inteligenciou, keďže súkromné spoločnosti a vládne agentúry nasadzujú kamery poháňané umelou inteligenciou, aby analyzovali davy ľudí, odhaľovali potenciálne zločiny a dokonca monitorovali emocionálne stavy ľudí vo verejných priestoroch.
V Spojenom kráľovstve orgán železničnej infraštruktúry Network Rail nedávno testoval kamery AI na ôsmich železničných staniciach vrátane veľkých uzlov, ako sú londýnske stanice Waterloo a Euston, ako aj Manchester Piccadilly.
Dokumenty získala skupina pre občianske slobody Veľký brat Sledujte odhaľujú kamery, ktorých cieľom je odhaliť narušenie koľají, preplnenosť nástupíšť, „antisociálne správanie“, ako je skateboarding a fajčenie, a potenciálne krádeže bicyklov.
Najznepokojivejšie je, že systém umelej inteligencie, poháňaný softvérom Amazon Rekognition, sa snažil analyzovať vek, pohlavie a emócie ľudí, ako je šťastie, smútok a hnev, keď prešli cez virtuálne „prekážky“ pri prekážkach.
⚠️Odhalili sme dokumenty, ktoré odhaľujú, že skúšobne prebiehalo osem železničných staníc AmazonAI sledovací softvér s ich CCTV kamerami – niektoré analyzujú vek, pohlavie a emócie cestujúcich
„Zavedenie a normalizácia sledovania AI v týchto verejných priestoroch bez veľkého… pic.twitter.com/dJLS75ZURH
— Big Brother Watch (@BigBrotherWatch) 17. júna 2024
Správa Network Rail, z ktorých niektoré sú redigované, hovorí, že „na každej stanici bola jedna kamera (zvyčajne kamera na bráne), kde bola urobená snímka každú sekundu, keď ľudia prekračovali tripwire, a odoslaná na analýzu do AWS Rekognition.
Potom hovorí: „Metrika zákazníckych emócií by sa mohla použiť na meranie spokojnosti“ a „Tieto údaje by sa dali využiť na maximalizáciu príjmov z reklamy a maloobchodu. Bolo to však ťažké kvantifikovať, pretože spoločnosť NR Properties nebola nikdy úspešne zapojená.“
Amazon Rekogniton, platforma strojového učenia počítačového videnia (CV) od Amazonu, skutočne dokáže odhaliť emócie. Bol to však len pilotný test a jeho účinnosť je nejasná.
V správe sa uvádza, že pri použití kamier na počítanie ľudí prechádzajúcich cez železničné brány „bola presnosť naprieč bránami rovnomerne nízka, s priemernou presnosťou približne 50 % až 60 % v porovnaní s manuálnym počítaním“, ale očakáva sa, že sa to zlepší.
„Zavedenie a normalizácia sledovania AI v týchto verejných priestoroch bez veľkých konzultácií a rozhovorov je dosť znepokojivý krok,“ povedal Jake Hurfurt, vedúci výskumu v Big Brother Watch.
Obavy vyvolalo aj používanie technológie rozpoznávania tváre orgánmi činnými v trestnom konaní. Nie je to tak dávno, londýnska Metropolitná polícia používali živé kamery na rozpoznávanie tváre identifikovať a zatknúť 17 osôb v mestských oblastiach Croydon a Tooting.
Táto technológia porovnáva živé kamery so sledovaným zoznamom osôb s vynikajúcimi zatykačmi v rámci „presnej polície“.
Vo februári Met použil systém na vykonanie 42 zatknutí, hoci nie je jasné, koľko z nich viedlo k formálnym obvineniam.
Vaše emócie v databáze
Kritici vehementne tvrdili, že rozpoznávanie tváre ohrozuje občianske slobody.
Členovia parlamentu v Spojenom kráľovstve vyzval políciu, aby to prehodnotila ako nasadzujú technológiu po návrhoch, že by mohli získať prístup k databáze 45 miliónov pasových fotografií, aby mohli lepšie trénovať tieto modely sledovania.
Odborníci tiež spochybňujú presnosť a právny základ rozpoznávania tváre, pričom údaje Big Brother Watch ukazujú, že 89 % zhôd v rozpoznávaní tváre britskej polície sú nesprávne identifikácie.
Predstavitelia Met Police sa pokúsili rozptýliť obavy o súkromie a uviedli, že nezhodné obrázky sa rýchlo vymažú a že systém rozpoznávania tváre bol nezávisle skontrolovaný.
Hovory však môžu byť lacné v prípadoch použitia špičkových AI, ktoré majú potenciál skutočne ovplyvniť životy ľudí.
Pre jedného, prediktívne policajné programy v USA vo všeobecnosti tiež nedokázali dosiahnuť svoje ciele a zároveň spôsobili vedľajšie škody vo forme policajného obťažovania a nezákonného uväznenia.
Obavy zo zaujatosti a nepresnosti v systémoch rozpoznávania tvárí, najmä v prípade farebných ľudí, boli hlavným bodom sporu.
Štúdie ukázali technológia môže byť výrazne menej presná pre tváre tmavšej pleti, najmä černošky.
Tvorcovia politík sa budú musieť popasovať so zložitými otázkami o transparentnosti, zodpovednosti a regulácii týchto mocných nástrojov.
Rozsiahla verejná diskusia a jasné právne rámce budú rozhodujúce, aby sa zabezpečilo, že výhody AI v oblasti verejnej bezpečnosti a ochrany nebudú prevážené rizikami pre práva jednotlivcov a demokratické hodnoty.
Keďže technológia napreduje, čas na toto zúčtovanie môže byť krátky.