Široko rasprostranjena uporaba generativne umjetne inteligencije u industrijama zahtijeva sigurnost i operativnu svijest o rizicima i mogućnostima ublažavanja. U ovom postu na blogu donosimo 10 najvećih rizika i djelotvorne strategije za zaštitu od njih. Na kraju, nudimo alate koji mogu pomoći.
Pojava generativne umjetne inteligencije
2022. označila je početak novog područja u generativnoj umjetnoj inteligenciji. Ovo je razdoblje svjedočilo brzom napretku LLM-ova (Large Language Models) kao što su GPT-3, GPT-4, BERT, Claude, Gemini, Llama, Mistral i drugi. Ovi LLM-ovi pokazali su izvanredne sposobnosti u obradi prirodnog jezika (NLP), stvaranju slika i stvaranju kreativnog sadržaja. Kao rezultat toga, alati vođeni umjetnom inteligencijom proširili su se u raznim industrijama, povećavajući produktivnost i inovacije u stvaranju sadržaja, korisničkoj službi, razvoju itd. Također imaju potencijal za daljnju revoluciju u sektorima poput zdravstva, financija i zabave.
Transformativni učinak ove moderne tehnologije tek treba u potpunosti razumjeti. Ipak, organizacije koje žele zadržati konkurentsku prednost trebale bi što prije planirati uključiti GenAI u svoje operacije. Istodobno bi se trebali pozabaviti sigurnosnim rizicima GenAI-ja.
Rizici generativne AI
Korištenje Gen AI aplikacija i LLM-ova, bilo javnih ili putem internog razvoja i/ili implementacije, može predstavljati rizik za organizacije. Ovi rizici Gen AI uključuju:
Kategorija #1: Sigurnosni i privatni rizici
1. Zabrinutost zbog privatnosti
Generativna umjetna inteligencija oslanja se na ogromne količine podataka, često prikupljenih iz različitih izvora. Oni mogu sadržavati osobne podatke, uključujući PII. Ako se ti podaci koriste u rezultatima, mogu nenamjerno razotkriti osjetljive pojedinosti o pojedincima, što dovodi do kršenja privatnosti i moguće zlouporabe. Priroda crne kutije mnogih GenAI modela dodatno komplicira transparentnost i odgovornost, što otežava praćenje načina na koji se određene podatkovne točke koriste ili pohranjuju.
2. E-pošta za krađu identiteta i zlonamjerni softver
Generativna umjetna inteligencija omogućuje kibernetičkim kriminalcima izradu vrlo uvjerljivih i sofisticiranih napada. Prije generativne umjetne inteligencije, jedan od znakova phishing e-pošte bila je loša gramatika i fraziranje. Međutim, phishing e-poruke koje generira AI mogu oponašati ton, stil i format legitimne komunikacije. To otežava pojedincima i sigurnosnim sustavima njihovo otkrivanje.
Dodatno, napadači mogu koristiti GenAI za razvoj i uklanjanje pogrešaka zlonamjernog softvera koji može zaobići tradicionalne sigurnosne mjere. Ovaj napadački zlonamjerni softver generiran umjetnom inteligencijom može se prilagoditi i razvijati, čineći zaštitu od njega još težom.
3. Prijetnje iznutra i zlouporaba zaposlenika
Insajderske prijetnje su pojedinci unutar tvrtke koji iskorištavaju njihov pristup osjetljivim informacijama i sustavima. Te prijetnje mogu biti namjerne, poput krađe podataka ili sabotaže, ili nenamjerne, poput slučajnog curenja podataka zbog nemara. Insajderovo poznavanje sigurnosnih mjera organizacije često im omogućuje da lakše zaobiđu obranu nego vanjski napadači.
U kontekstu GenAI-ja, insajderi mogu nenamjerno upisati ili zalijepiti osjetljive podatke u GenAI aplikacije. To može uključivati izvorni kod, osjetljive poslovne podatke, financijske podatke, podatke o kupcima i još mnogo toga.
4. Povećana površina za napad
Generativni AI sustavi mogu povećati površinu napada za kibersigurnosne prijetnje jer se često integriraju s različitim izvorima podataka, API-jima i drugim sustavima. To stvara više ulaznih točaka za potencijalne napade. Složenost ovih integracija može dovesti do ranjivosti koje zlonamjerni akteri mogu iskoristiti, kao što je ubacivanje zlonamjernih podataka za manipuliranje AI izlazima ili pristup osjetljivim informacijama putem slabih veza u sustavu.
Kategorija #2: Rizici kvalitete i pouzdanosti
5. Problemi s kvalitetom izlaza
Problemi s kvalitetom izlaza u generativnim AI sustavima nastaju kada AI generira tekst, slike ili druge izlaze koji su netočni, netočni, obmanjujući, pristrani ili neprikladni. Čimbenici koji pridonose lošoj kvaliteti izlaza uključuju neadekvatne podatke o obuci, nedovoljno ugađanje modela i inherentnu nepredvidivost algoritama umjetne inteligencije.
U kritičnim aplikacijama kao što su zdravstvo, financije i kibernetička sigurnost, netočni rezultati umjetne inteligencije mogu rezultirati ozbiljnim financijskim gubicima, pravnim obvezama, osakaćivanjem poslovanja, pa čak i ugroziti živote. Ali čak i u nekritičnim primjenama, netočni rezultati i širenje netočnih ili pogrešnih informacija mogu imati posljedice na rad i živote ljudi te na poslovanje poduzeća.
6. Izmišljene "Činjenice" i halucinacije
Ekstremni primjer gore spomenutog problema s kvalitetom je stvaranje "izmišljenih činjenica", zvanih "halucinacije". To se događa kada LLM generira informacije koje se čine uvjerljivima, ali su u potpunosti izmišljene. Ove halucinacije nastaju zbog oslanjanja modela na obrasce u podacima o obuci, a ne zbog pravog razumijevanja činjenične točnosti. Kao što je spomenuto, to može dovesti do širenja netočnih ili pogrešnih informacija, što predstavlja ozbiljne rizike – posebno u kontekstima u kojima je točnost kritična, kao što su zdravstveni, pravni ili financijski sektori.
Kategorija #3: Pravni i etički rizici
7. Autorska prava, intelektualno vlasništvo i drugi pravni rizici
Generativni AI sustavi često koriste ogromne količine podataka, uključujući materijale zaštićene autorskim pravima, za treniranje svojih modela. To može dovesti do nenamjerne reprodukcije zaštićenog sadržaja, potencijalno kršeći prava intelektualnog vlasništva. Osim toga, postoji pravno pitanje smije li LLM zakonski biti obučen o podacima o autorskim pravima. Konačno, stvaranje novog sadržaja koji je vrlo sličan postojećim djelima može pokrenuti pravne sporove oko vlasništva i izvornosti.
Ovi izazovi su složeniji dvosmislenošću u trenutnim zakonima o autorskim pravima u vezi sa sadržajem generiranim umjetnom inteligencijom. Trenutno se o tim pitanjima raspravlja na sudovima iu javnosti. Na primjer, The New York Daily News, Chicago Tribune, Denver Post i drugi listovi jesu tuži OpenAI i Microsoft za kršenje autorskih prava.
8. Pristrani izlazi
Pristrani rezultati u sustavima umjetne inteligencije često potječu od iskrivljenih ili nereprezentativnih podataka o obuci koji odražavaju povijesne predrasude i sustavne nejednakosti. Kada AI modeli generiraju pristrane rezultate, to može dovesti do diskriminatornih praksi u područjima kao što su zapošljavanje, posuđivanje, provođenje zakona i zdravstvena skrb, nepravedno utječući na marginalizirane skupine. To predstavlja ozbiljnu prijetnju poštenju i pravičnosti, budući da mogu ovjekovječiti, pa čak i pojačati postojeće društvene predrasude.
9. Usklađenost
Kada sustavi umjetne inteligencije obrađuju osjetljive informacije, postoji mogućnost curenja podataka, neovlaštenog pristupa i zlouporabe povjerljivih podataka. Taj se rizik pogoršava ako pružatelj usluge umjetne inteligencije nema snažne sigurnosne mjere i certifikate o sukladnosti. Stoga dijeljenje podataka s generativnim AI alatima može značajno povećati rizik od kršenja propisa o usklađenosti i zakona o zaštiti podataka, posebno u industrijama sa strogim zahtjevima za zaštitu podataka.
Kategorija #4: Operativni i financijski rizici
10. Trošak vještačenja i izračuna
Prilikom internog razvoja, obuke i implementacije LLM-a, troškovi stručnosti i računalstva mogu biti znatni. Napredni AI sustavi zahtijevaju GPU-ove visokih performansi, specijalizirani hardver i usluge računalstva u oblaku, što može dovesti do velikih troškova. Osim toga, visokokvalificirani profesionalci, kao što su podatkovni znanstvenici, ML inženjeri i stručnjaci za domenu, imaju vrhunske plaće. Globalni nedostatak GPU-a i talenta dodatno povećava ove troškove. To predstavlja značajne prepreke ulasku za mnoge organizacije.
Strategije za ublažavanje generativnih sigurnosnih rizika umjetne inteligencije
Nakon što smo opisali rizike, razgovarajmo o strategijama zaštite od njih.
Strategije sigurnosti i zaštite privatnosti
- Popis – Identificirajte područja poslovanja u kojima se koristi genska umjetna inteligencija. Od zaposlenika koji traže popularne Gen AI aplikacije kao što su ChatGPT, Claude ili Gemini do vaših inženjerskih timova koji razvijaju vaše vlastite LLM-ove do korištenja komercijalnih ili open-source LLM-ova na vašim podacima.
- Procjena rizika – Mapirajte i procijenite potencijalne sigurnosne rizike povezane sa svakom vrstom uporabe. Možete koristiti gornji popis kao pomoć.
- Implementirajte kontrolu pristupa – Upotrijebite mehanizme verifikacije za upravljanje sustavima umjetne inteligencije koje generacije vaši zaposlenici mogu pristupiti i kako. Na primjer, proširenje preglednika poduzeća može spriječiti vaše zaposlenike da instaliraju a zlonamjerno proširenje maskiran kao legitimna ChatGPT ekstenzija.
- Provedba pravila – Provedite pravila o tome kako se GenAI aplikacije mogu koristiti u organizaciji. Na primjer, proširenje preglednika poduzeća može spriječiti vaše zaposlenike da zalijepe osjetljivi kod u gen AI aplikacije.
- Krpanje softvera – Ažurirajte i zakrpite sustave kako biste poboljšali svoje sigurnosno stanje protiv napada (i onih koji nisu vođeni) AI-jem.
- Praćenje – Pratite i otkrijte neuobičajene incidente i sumnjivo ponašanje, od pokušaja neovlaštenog pristupa do abnormalnih obrazaca ponašanja do lijepljenja osjetljivih podataka u gene AI alate.
- Obrazovanje korisnika – Redovito obučavajte zaposlenike o rizicima genetske umjetne inteligencije, kroz razgovore, vježbe i stalnu podršku. Proširenje preglednika poduzeća može podržati online obuku objašnjavajući zaposlenicima zašto su radnje, poput lijepljenja izvornog koda u ChatGPT, blokirane.
Strategije zaštite kvalitete i pouzdanosti
- Osiguranje kvalitete podataka – Koristite skupove podataka koji su raznoliki, uravnoteženi i bez pristranosti ili netočnosti. Implementirajte stroge postupke provjere podataka za podatke, kao što su automatske provjere i ručni pregledi. Kontinuirano ažurirajte i pročišćavajte skupove podataka kako bi odražavali trenutne i točne informacije.
- Mjerila evaluacije – Upotrijebite sveobuhvatne metrike procjene kao što su preciznost, opoziv, rezultat F1 i BLEU kako biste identificirali probleme s preciznošću i performansama modela i njegovih rezultata.
- Uključite sustave Human-in-the-Loop – Uključite ljudske stručnjake u faze obuke, validacije i finog podešavanja razvoja modela. Ljudi mogu pružiti kritične kontekstualne uvide, identificirati suptilne probleme koje automatizirani sustavi mogu propustiti i ponuditi prijedloge koji poboljšavaju odgovore modela.
Pravne i etičke strategije zaštite
- Usklađenost sa zakonskim propisima – Osigurajte usklađenost sa zakonima o zaštiti podataka kao što su GDPR i CCPA. To znači osigurati da se podaci koji se koriste za obuku dobiju i obrađuju zakonito, uz odgovarajući pristanak i anonimizaciju.
- Uspostavite jasne etičke smjernice – Ove bi smjernice trebale obuhvatiti načela kao što su pravednost, transparentnost, odgovornost i izbjegavanje pristranosti. Provedba etičkih okvira umjetne inteligencije može pružiti strukturirani pristup osiguravanju poštovanja etičkih pitanja.
Strategije operativne i financijske zaštite
- Osigurajte skalabilnost, optimizaciju i pouzdanost infrastrukture – Koristite robusne usluge u oblaku, računalne resurse visokih performansi, učinkovita rješenja za pohranu podataka i skalabilne AI cjevovode. Na primjer, usvojite model pay-as-you-go, pregovarajte o količinskim popustima s pružateljima usluga u oblaku i koristite GPU opskrbu.
Rješenje za GenAI DLP
LayerX je proširenje preglednika poduzeća koje štiti od prijetnji koje se prenose webom na mjestu rizika – pregledniku. LayerX pruža a DLP rješenje posebno dizajnirano za Generative AI alate kao što je ChatGPT, s ciljem zaštite osjetljivih podataka bez ometanja korisničkog iskustva.
Ključne mogućnosti:
- Mapiranje i definicija podataka – Identificirajte i definirajte osjetljive podatke kao što su izvorni kod i intelektualno vlasništvo radi zaštite.
- Prilagodljive kontrole podataka – Implementirajte kontrole poput skočnih upozorenja ili radnji blokiranja kada se otkriju osjetljivi podaci.
- Sigurna produktivnost – Omogućite sigurnu upotrebu GenAI alata primjenom mjera sličnih DLP-u za sprječavanje nenamjernog izlaganja podataka.
- Kontrole proširenja preglednika – Upravljajte pristupom i radnjama unutar GenAI-ja kako biste osigurali interakcije podataka.
Detaljno smanjenje rizika – Otkrijte i ublažite visokorizične aktivnosti kao što je lijepljenje osjetljivih podataka, istovremeno održavajući besprijekorno korisničko iskustvo.