Home Umela inteligencia Červ „syntetická rakovina“ poháňaný AI predstavuje novú hranicu v oblasti kybernetických hrozieb

Červ „syntetická rakovina“ poháňaný AI predstavuje novú hranicu v oblasti kybernetických hrozieb

by
AI cybersecurity

Výskumníci odhalili nový typ počítačového vírusu, ktorý využíva silu veľkých jazykových modelov (LLM) na to, aby sa vyhol detekcii a sám sa šíril.

Táto „syntetická rakovina“, ako ju nazývajú jej tvorcovia, zobrazuje novú éru malvéru.

David Zollikofer z ETH Zurich a Benjamin Zimmerman z Ohio State University vyvinuli tento proof-of-concept malware ako súčasť ich predloženia Švajčiarska cena za bezpečnosť AI.

Ich tvorba, podrobne popísaná v a predtlačový papier s názvom „Syntetická rakovina – rozšírenie červov pomocou LLM“ demonštruje potenciál využitia AI na vytváranie nových, vysoko sofistikovaných kybernetických útokov.

Tu je prehľad toho, ako to funguje:

  1. Inštalácia: Škodlivý softvér je pôvodne doručený prostredníctvom prílohy e-mailu. Po spustení môže stiahnuť ďalšie súbory a potenciálne zašifrovať údaje používateľa.
  2. Replikácia: Zaujímavá fáza využíva GPT-4 alebo podobné LLM. Červ môže interagovať s týmito modelmi AI dvoma spôsobmi: a) Prostredníctvom volaní API do cloudových služieb, ako je GPT-4 OpenAI. Alebo b) Spustením lokálneho LLM (čo by mohlo byť bežné v budúcich zariadeniach).
  3. Použitie GPT-4/LLM: Zollikofer vysvetlil New Scientist“Žiadame ChatGPT, aby prepísal súbor, pričom zachoval sémantickú štruktúru nedotknutú, ale zmenil spôsob pomenovania premenných a trochu zmenil logiku.” LLM potom vygeneruje novú verziu kódu so zmenenými názvami premenných, reštrukturalizovanou logikou a potenciálne aj odlišnými štýlmi kódovania, a to všetko pri zachovaní pôvodnej funkčnosti.
  4. Rozširovanie, šírenie: Červ skenuje e-mailovú históriu Outlooku obete a dodáva tento kontext do AI. LLM potom generuje kontextovo relevantné e-mailové odpovede spolu s taktikami sociálneho inžinierstva navrhnutými tak, aby povzbudili príjemcov, aby otvorili priloženú kópiu červa.

Ako vidíme, vírus používa AI za dva dni: na vytvorenie kódu na samoreplikáciu a na písanie phishingového obsahu, aby sa ďalej šíril.

Schopnosť červa „syntetickej rakoviny“ prepísať svoj vlastný kód predstavuje pre odborníkov na kybernetickú bezpečnosť obzvlášť náročný problém, pretože by mohla spôsobiť zastaranie tradičných antivírusových riešení založených na podpisoch.

„Útočná strana má práve teraz určité výhody, pretože sa o tom viac skúmalo,“ poznamenáva Zollikofer.

Navyše schopnosť červa vytvárať vysoko personalizované a kontextovo relevantné phishingové e-maily zvyšuje pravdepodobnosť budúcich úspešných infekcií.

Stalo sa tak len pár mesiacov po tom, čo bol v marci ohlásený podobný červ poháňaný AI.

Výskumníci pod vedením Bena Nassiho z Cornell Tech vytvoril červa ktoré by mohli napadnúť e-mailových asistentov poháňaných AI, ukradnúť citlivé údaje a rozšíriť ich do iných systémov.

Tím Nassi sa zameral na e-mailových asistentov poháňaných OpenAI GPT-4, Google Gemini Pro a open-source modelom LLaVA.

„Môžu to byť mená, telefónne čísla, čísla kreditných kariet, SSN, čokoľvek, čo sa považuje za dôverné,“ Nassi povedal Wiredpričom sa zdôrazňuje možnosť masívneho narušenia údajov.

Zatiaľ čo sa červ Nassi primárne zameriaval na asistentov AI, tvorba Zollikofera a Zimmermana ide o krok ďalej priamou manipuláciou s kódom malvéru a vytváraním presvedčivých phishingových e-mailov.

Obidve predstavujú potenciálne budúce cesty pre kyberzločincov, ako využiť rozšírené nástroje AI na spustenie útokov.

Obavy z kybernetickej bezpečnosti AI sa rodia

Toto bolo niekoľko búrlivých dní pre kybernetickú bezpečnosť v kontexte AI Disney trpí porušením údajov v rukách hacktivistickej skupiny.

Skupina uviedla, že bojuje proti technologickým spoločnostiam, ktoré zastupujú tvorcov, ktorých dielo chránené autorskými právami bolo ukradnuté alebo inak znížená jeho hodnota.

Nie tak dávno, OpenAI bol vystavený za to, že v roku 2023 utrpeli porušenie, ktoré sa snažili udržať pod pokrievkou. A nie je to tak dávno, OpenAI a Microsoft zverejnil správu priznal, že hackerské skupiny z Ruska, Severnej Kórey a Číny používali svoje nástroje AI na vytváranie stratégií kybernetických útokov.

Autori štúdie Zollikofer a Zimmerman zaviedli niekoľko bezpečnostných opatrení, aby zabránili zneužitiu, vrátane nezdieľania kódu verejne a zámerného ponechania konkrétnych detailov vágnych vo svojom príspevku.

„Sme si plne vedomí toho, že tento dokument predstavuje typ malvéru s veľkým potenciálom zneužitia,“ uvádzajú výskumníci vo svojom zverejnení. „Zverejňujeme to v dobrej viere a v snahe zvýšiť povedomie.“

Medzitým Nassi a jeho kolegovia predpovedali, že červy AI by sa mohli začať šíriť vo voľnej prírode „v najbližších rokoch“ a „vyvolajú významné a nežiaduce výsledky“.

Vzhľadom na rýchly pokrok, ktorého sme boli svedkami len za štyri mesiace, sa táto časová os nezdá byť len vierohodná, ale aj potenciálne konzervatívna.

Source Link

Related Posts

Leave a Comment