Home Umela inteligencia Budúcnosť kybernetickej bezpečnosti: AI, automatizácia a ľudský faktor

Budúcnosť kybernetickej bezpečnosti: AI, automatizácia a ľudský faktor

by
mm

V poslednom desaťročí, spolu s prudkým rastom informačných technológií, temná realita hrozieb kybernetickej bezpečnosti sa tiež dramaticky vyvinul. Kybernetické útoky, ktoré kedysi viedli predovšetkým zlomyseľní hackeri usilujúci sa o známosť alebo finančný zisk, sa stali oveľa sofistikovanejšími a cielenejšími. Motívy počítačovej kriminality sú čoraz zlovestnejšie a nebezpečnejšie, od štátom podporovanej špionáže až po krádeže korporácií a identity. Aj keď peňažný zisk zostáva dôležitým dôvodom pre počítačovú kriminalitu, bol zatienený hanebnejšími cieľmi krádeže dôležitých údajov a aktív. Kyberútočníci vo veľkej miere využívajú špičkové technológie vrátane umelej inteligencie na infiltráciu systémov a vykonávanie škodlivých aktivít. V USA Federálny úrad pre vyšetrovanie (FBI) nahlásené viac ako 800 000 sťažností súvisiacich s počítačovou kriminalitou podaných v roku 2022 s celkovými stratami presahujúcimi 10 miliárd dolárov, čo podľa Centra pre sťažnosti na internetovú kriminalitu v roku 2021 prekonalo celkovú výšku 6,9 miliardy dolárov.

Vzhľadom na to, že prostredie hrozieb sa rýchlo vyvíja, je čas, aby organizácie prijali mnohostranný prístup ku kybernetickej bezpečnosti. Prístup by mal byť zameraný na to, ako útočníci získavajú vstup; zabrániť počiatočnému kompromisu; rýchlo odhaliť vpády; a umožňujú rýchlu reakciu a nápravu. Ochrana digitálnych aktív si vyžaduje využitie sily AI a automatizácie a zároveň zabezpečiť, aby skúsení analytici zostali neoddeliteľnou súčasťou bezpečnostnej pozície.

Ochrana organizácie si vyžaduje viacvrstvovú stratégiu, ktorá zohľadňuje rôzne vstupné body a vektory útokov, ktoré využívajú protivníci. Vo všeobecnosti sú rozdelené do štyroch hlavných kategórií: 1) Webové a sieťové útoky; 2) Správanie používateľov a útoky založené na identite; 3) Útoky na entity zamerané na cloudové a hybridné prostredia; a 4) Malvér vrátane ransomvéru, pokročilých pretrvávajúcich hrozieb a iného škodlivého kódu.

Využitie AI a automatizácie

Nasadenie modelov AI a strojového učenia (ML) prispôsobených každej z týchto tried útokov je rozhodujúce pre proaktívne zisťovanie a prevenciu hrozieb. V prípade webových a sieťových útokov musia modely identifikovať hrozby, ako je phishing, zneužívanie prehliadača a útoky DDoS (Distributed Denial-of-Service) v reálnom čase. Analýzy správania používateľov a entít využívajúce AI dokážu rozpoznať anomálne aktivity naznačujúce ohrozenie účtu alebo zneužitie systémových zdrojov a údajov. Nakoniec, analýza malvéru riadená AI môže rýchlo triediť nové kmene, presne určiť škodlivé správanie a zmierniť dopad hrozieb založených na súboroch. Implementáciou modelov AI a ML naprieč týmto spektrom útočných plôch môžu organizácie výrazne zlepšiť svoju schopnosť autonómne identifikovať útoky v najskorších štádiách predtým, ako prerastú do plnohodnotných incidentov.

Keď modely AI/ML identifikujú potenciálnu aktivitu hrozieb naprieč rôznymi vektormi útokov, organizácie čelia ďalšej kľúčovej výzve – pochopiť časté výstrahy a oddeliť kritické incidenty od hluku. S toľkými vygenerovanými dátovými bodmi a detekciami sa stáva kľúčovým použitie ďalšej vrstvy AI/ML na koreláciu a uprednostňovanie najzávažnejších výstrah, ktoré si vyžadujú ďalšie vyšetrovanie a reakciu. Výstražná únava je čoraz dôležitejším problémom, ktorý je potrebné vyriešiť.

Umelá inteligencia môže zohrávať kľúčovú úlohu v tomto procese triedenia výstrah prijímaním a analýzou veľkého množstva bezpečnostnej telemetrie, spájaním poznatkov z viacerých zdrojov detekcie vrátane spravodajských informácií o hrozbách a zobrazovaním iba najvernejších incidentov na účely odozvy. To znižuje zaťaženie ľudských analytikov, ktorí by inak boli zaplavení rozšírenými falošnými poplachmi a upozorneniami s nízkou presnosťou, ktorým chýba primeraný kontext na určenie závažnosti a ďalších krokov.

Hoci aktéri hrozieb aktívne nasadzujú AI na podporu útokov, ako sú DDoS, cielený phishing a ransomware, defenzíva zaostáva v prijímaní AI. To sa však rýchlo mení, pretože dodávatelia zabezpečenia sa pretekajú vo vývoji pokročilých modelov AI/ML schopných odhaliť a blokovať tieto hrozby poháňané AI.

Budúcnosť defenzívnej AI spočíva v nasadení špecializovaných malých jazykových modelov prispôsobených konkrétnym typom útokov a prípadom použitia, a nie spoliehať sa len na veľké, generatívne modely AI. Veľké jazykové modely sú naopak sľubnejšie pre operácie kybernetickej bezpečnosti, ako je automatizácia funkcií help desk, získavanie štandardných operačných postupov a pomoc ľudským analytikom. Ťažké zdvíhanie presnej detekcie a prevencie hrozieb najlepšie zvládnu vysoko špecializované malé modely AI/ML.

Úloha ľudskej odbornosti

Je veľmi dôležité využívať AI/ML popri automatizácii procesov, aby sa umožnila rýchla náprava a kontrola overených hrozieb. V tejto fáze, vybavenej vysoko spoľahlivými incidentmi, môžu systémy umelej inteligencie spúšťať automatizované reakcie zo zoznamu prispôsobené každému špecifickému typu útoku – blokovanie škodlivých IP adries (internetový protokol), izoláciu napadnutých hostiteľov, presadzovanie adaptívnych politík a ďalšie. Neoddeliteľnou súčasťou však zostáva aj ľudská odbornosť, ktorá overuje výstupy AI, uplatňuje kritické myslenie a dohliada na akcie autonómnej reakcie, aby sa zabezpečila ochrana bez narušenia podnikania.

Odlišné porozumenie je to, čo ľudia prinášajú na stôl. Analýza nových a komplexných malvérových hrozieb si tiež vyžaduje kreativitu a zručnosti pri riešení problémov, ktoré môžu byť mimo dosahu strojov.

Ľudská odbornosť je nevyhnutná v niekoľkých kľúčových oblastiach:

  • Validácia a kontext: Systémy AI môžu napriek svojej sofistikovanosti niekedy generovať falošne pozitívne výsledky alebo nesprávne interpretovať údaje. Ľudskí analytici sú potrební na overenie výstupov AI a poskytnutie potrebného kontextu, ktorý by AI mohla prehliadnuť. To zaisťuje, že reakcie sú primerané a primerané skutočnej hrozbe.
  • Komplexné skúmanie hrozieb: Niektoré hrozby sú príliš zložité na to, aby ich AI zvládla sama. Ľudskí experti sa môžu hlbšie ponoriť do týchto incidentov, pričom využívajú svoje skúsenosti a intuíciu na odhalenie skrytých aspektov hrozby, ktorú by AI mohla minúť. Tento ľudský pohľad je rozhodujúci pre pochopenie celého rozsahu sofistikovaných útokov a navrhnutie účinných protiopatrení.
  • Strategické rozhodovanie: Zatiaľ čo AI dokáže zvládnuť rutinné úlohy a spracovanie údajov, strategické rozhodnutia o celkovej bezpečnostnej pozícii a dlhodobých obranných stratégiách vyžadujú ľudský úsudok. Odborníci môžu interpretovať poznatky generované AI, aby mohli prijímať informované rozhodnutia o prideľovaní zdrojov, zmenách politiky a strategických iniciatívach.
  • Neustále zlepšovanie: Ľudskí analytici prispievajú k neustálemu zlepšovaniu systémov AI poskytovaním spätnej väzby a tréningových údajov. Ich poznatky pomáhajú zlepšovať algoritmy AI, vďaka čomu sú časom presnejšie a efektívnejšie. Tento symbiotický vzťah medzi ľudskými odbornými znalosťami a AI zaisťuje, že sa obe vyvíjajú spoločne, aby mohli riešiť vznikajúce hrozby.

Optimalizované tímové spojenie človek-stroj

Základom tohto prechodu je potreba systémov AI, ktoré sa dokážu učiť z historických údajov (učenie pod dohľadom) a neustále sa prispôsobovať na odhaľovanie nových útokov prostredníctvom vzdelávacích prístupov bez dozoru/posilňovania. Kombinácia týchto metód bude kľúčom k udržaniu náskoku pred vyvíjajúcimi sa schopnosťami AI útočníkov.

Celkovo bude AI pre obrancov rozhodujúca pri škálovaní ich schopností detekcie a reakcie. Ľudská odbornosť musí zostať úzko integrovaná, aby mohla skúmať komplexné hrozby, kontrolovať výstupy systému AI a riadiť strategické obranné stratégie. Optimalizovaný model spolupráce človek-stroj je ideálny pre budúcnosť.

Keďže sa v priebehu času hromadia obrovské objemy bezpečnostných údajov, organizácie môžu na tento poklad telemetrie použiť analytiku AI, aby získali prehľady pre proaktívne vyhľadávanie hrozieb a posilnenie obrany. Neustále učenie sa z predchádzajúcich incidentov umožňuje prediktívne modelovanie nových vzorcov útokov. S rozvojom schopností AI bude rásť aj úloha malých a špecializovaných jazykových modelov prispôsobených konkrétnym prípadom použitia v oblasti bezpečnosti. Tieto modely môžu pomôcť ďalej znižovať „únavu z výstrah“ precíznym triedením najdôležitejších výstrah pre analýzu ľudí. Autonómna odozva poháňaná AI sa tiež môže rozšíriť, aby zvládla viac bezpečnostných úloh úrovne 1.

Ľudský úsudok a kritické myslenie však zostanú nenahraditeľné, najmä v prípade mimoriadne závažných incidentov. Budúcnosť je nepochybne budúcnosťou optimalizovaného teamingu človek-stroj, kde AI zvládne spracovanie objemných dát a rutinné úlohy, čo umožní ľudským expertom zamerať sa na vyšetrovanie komplexných hrozieb a bezpečnostnú stratégiu na vysokej úrovni.

Source Link

Related Posts

Leave a Comment