Home Umela inteligencia AI je teraz váš spolupracovník. Môžete tomu dôverovať?

AI je teraz váš spolupracovník. Môžete tomu dôverovať?

by
 AI je teraz váš spolupracovník.  Môžete tomu dôverovať?

Napriek tomu „nezdá sa veľmi dlho, kým by sa táto technológia mohla použiť na monitorovanie zamestnancov,“ hovorí Elcock.

Autocenzúra

Generatívna AI predstavuje niekoľko potenciálnych rizík, existujú však kroky, ktoré môžu podniky a jednotliví zamestnanci podniknúť na zlepšenie súkromia a bezpečnosti. Po prvé, nevkladajte dôverné informácie do výzvy pre verejne dostupný nástroj, ako je ChatGPT alebo Gemini od Googlu, hovorí Lisa Avvocato, viceprezidentka marketingu a komunity v dátovej firme Sama.

Pri vytváraní výzvy buďte všeobecní, aby ste sa vyhli prílišnému zdieľaniu. „Pýtajte sa: ‚Napíšte šablónu návrhu pre rozpočtové výdavky‘, nie ‚Tu je môj rozpočet, napíšte návrh výdavkov na citlivý projekt‘,“ hovorí. „Použite AI ako svoj prvý návrh a potom navrstvite citlivé informácie, ktoré musíte zahrnúť.“

Ak ho používate na výskum, vyhnite sa problémom, ako sú tie, ktoré sa vyskytujú v prehľadoch AI spoločnosti Google, overením toho, čo poskytuje, hovorí Avvocato. „Požiadajte ho, aby poskytol referencie a odkazy na svoje zdroje. Ak požiadate AI, aby napísala kód, stále ho musíte skontrolovať, a nie predpokladať, že je dobré ísť.“

Sám Microsoft sa vyjadril že Copilot musí byť správne nakonfigurovaný a „najmenšie privilégium“ – mal by sa uplatniť koncept, že používatelia by mali mať prístup len k informáciám, ktoré potrebujú. Toto je „zásadný bod“, hovorí Robinson z Prism Infosec. „Organizácie musia položiť základy pre tieto systémy a nielen dôverovať technológii a predpokladať, že všetko bude v poriadku.“

Za zmienku tiež stojí, že ChatGPT využíva dáta, ktoré zdieľate na trénovanie svojich modelov, pokiaľ to nevypnete v nastaveniach alebo nepoužívate podnikovú verziu.

Zoznam záruk

Spoločnosti integrujúce generatívnu AI do svojich produktov tvrdia, že robia všetko, čo môžu, aby ochránili bezpečnosť a súkromie. Microsoft má záujem obrys ohľady na bezpečnosť a súkromie v produkte Recall a schopnosť ovládať funkciu v Nastavenia > Súkromie a zabezpečenie > Vyvolanie a snímky.

Google hovorí generatívna AI v pracovnom priestore „nemení našu základnú ochranu súkromia, ktorá používateľom dáva možnosť voľby a kontrolu nad ich údajmi“ a stanovuje, že informácie sa nepoužívajú na reklamu.

OpenAI opakuje, ako sa udržiava bezpečnosť a súkromie vo svojich produktoch, zatiaľ čo podnikové verzie sú k dispozícii s dodatočnými ovládacími prvkami. „Chceme, aby sa naše modely AI učili o svete, nie o súkromných osobách – a podnikáme kroky na ochranu osobných údajov a súkromia,“ hovorí hovorca OpenAI pre WIRED.

OpenAI hovorí, že ponúka spôsoby, ako kontrolovať, ako sa údaje používajú, vrátane samoobslužných nástrojov na prístup, exporta vymazať osobné údaje, ako aj možnosť odmietnuť používanie obsahu zlepšiť svoje modely. ChatGPT Team, ChatGPT Enterprise a ich API nie sú vyškolené na dátach alebo konverzáciách a ich modely sa podľa spoločnosti predvolene neučia z používania.

V každom prípade to vyzerá, že váš spolupracovník AI tu zostane. Ako sa tieto systémy stávajú sofistikovanejšími a všadeprítomnými na pracovisku, riziká sa len zintenzívnia, hovorí Woollven. “Už sme svedkami vzniku multimodálnej AI, ako napr GPT-4o ktorý dokáže analyzovať a generovať obrázky, zvuk a video. Takže teraz to nie sú len textové údaje, o ktoré sa spoločnosti musia starať.“

S ohľadom na túto skutočnosť sa ľudia – a firmy – musia zamyslieť nad tým, že budú s AI zaobchádzať ako s akoukoľvek inou službou tretej strany, hovorí Woollven. „Nezdieľajte nič, čo by ste nechceli verejne vysielať.“

Source Link

Related Posts

Leave a Comment