Do curenja podataka ChatGPT-a dolazi kada se osjetljive ili povjerljive informacije nenamjerno otkriju putem interakcija s ChatGPT platformom. Ta curenja mogu proizaći iz korisničkih pogrešaka, kršenja pozadinske sigurnosti ili neispravnih dozvola dodataka. Bez odgovarajućih sigurnosnih mjera, ta curenja mogu dovesti do ozbiljnih sigurnosnih rizika za poduzeća i rezultirati kršenjem usklađenosti, gubitkom intelektualnog vlasništva i štetom na ugledu.

Razumijevanje curenja podataka ChatGPT-a

Do curenja podataka ChatGPT-a dolazi kada se osjetljive ili povjerljive informacije nenamjerno otkriju putem AI platforme. To se može dogoditi na tri načina:

  • Curenja na strani korisnikaZaposlenici mogu zalijepiti osjetljive podatke poput izvornog koda, osobnih podataka ili internih dokumenata u ChatGPT ne shvaćajući da ti podaci mogu napustiti zaštićeno okruženje tvrtke. Ovo je najčešća vrsta curenja podataka u ChatGPT-u.
  • Curenja sa strane platformeIako rijetke, ranjivosti u samom ChatGPT-u (poput greške Redisa iz ožujka 2023.) mogu dovesti do nenamjernog otkrivanja podataka drugih korisnika.
  • Rizične interakcije s dodacima: ChatGPT dodaci trećih strana mogu pristupiti korisničkim upitima i prenositi ih, potencijalno izlažući podatke poduzeća neprovjerenim vanjskim sustavima. Budući da djeluju izvan korporativnih sigurnosnih kontrola, ovi dodaci mogu predstavljati ozbiljne rizike za privatnost.

Kako se generativni alati umjetne inteligencije poput ChatGPT-a sve više ugrađuju u poslovne tijekove rada, raste potencijal za izloženost podataka umjetne inteligencije, posebno kada se korištenje ne nadzire ili ne upravlja. Bez odgovarajućih zaštitnih ograda, zaposlenici mogu nesvjesno zaobići interne sigurnosne protokole, što dovodi do rizika za privatnost ChatGPT-a. To naglašava važnost upravljanja, sigurnih politika korištenja umjetne inteligencije i uvida u to kako se podaci obrađuju unutar ovih alata.

Uobičajeni uzroci curenja podataka ChatGPT-a

1. Nenamjerni unos osjetljivih podataka od strane korisnika

Zaposlenici često u ChatGPT unose povjerljive ili osjetljive podatke kako bi ubrzali svoj rad. To može uključivati osobne podatke (PII), interne dokumente, evidenciju klijenata, vlasnički kod ili financijske podatke. U mnogim slučajevima ovo ponašanje nije zlonamjerno, ali proizlazi iz nedostatka svijesti o tome kako generativne AI platforme obrađuju, pohranjuju ili potencijalno ponovno koriste ulazne podatke.

Primjer:
Voditeljica marketinga lijepi plan razvoja proizvoda za sljedeći kvartal u ChatGPT kako bi ga preoblikovala u objavu za kupce. Podaci, sada uneseni u vanjski alat, više nisu zaštićeni korporativnim pravilima i mogu se pohraniti ili obraditi izvan vidljivosti IT odjela.

Rizik poduzeća:
Ovaj unos može se pohraniti, obraditi izvan granica usklađenosti ili čak zabilježiti od strane infrastrukture treće strane. Ove radnje na strani korisnika mogu dovesti do kršenja propisa (npr. GDPR, HIPAA) i curenja IP-a. Većina naslijeđenih DLP sustava ne može otkriti takvu upotrebu, što je čini tihim generativnim rizikom za podatke umjetne inteligencije.

2. Curenje podataka iz ChatGPT sesije

Do curenja ChatGPT sesije dolazi kada programska greška na strani platforme slučajno izloži povijest razgovora ili podatke jednog korisnika drugom korisniku. Ovi incidenti su posebno opasni jer se događaju bez namjere korisnika i često prolaze nezapaženo.

Primjer:

U ožujku 2023., Redisova greška u ChatGPT-u dovela je do toga da su neki korisnici vidjeli naslove tuđih chatova i djelomične razgovore u svojoj povijesti. Ista greška otkrila je podatke o plaćanju, uključujući adrese e-pošte i posljednje četiri znamenke kreditnih kartica.

Rizik poduzeća:

Ako sesija zaposlenika tvrtke otkrije informacije poput evidencije kupaca ili internih dokumenata, to može dovesti do ozbiljnih pravnih posljedica i posljedica povezanih s usklađenošću, čak i ako je izloženost bila kratka i nenamjerna. Takvi incidenti naglašavaju potrebu za kontrolom na razini platforme, posebno kada se koriste dijeljene ili višekorisničke LLM usluge.

3. Riskantni dodatak treće strane

Dodaci proširuju mogućnosti ChatGPT-a omogućujući pristup webu, internim datotekama ili sustavima trećih strana, ali također uvode značajne sigurnosne rizike. Nakon što se omogući, dodatak može čitati sadržaj upita i potencijalno ga slati vanjskim API-jima ili sustavima za pohranu, često bez da korisnik to shvaća.

Primjer:

Financijski analitičar koristi dodatak za analizu prodajne proračunske tablice. Dodatak prenosi datoteku na vlastiti poslužitelj za obradu. Bez znanja analitičara, poslužitelj bilježi datoteku i zadržava je, kršeći pravila o čuvanju podataka i privatnosti.

Rizik poduzeća:

Većinu dodataka kreiraju treće strane i možda ne prolaze istu sigurnosnu provjeru kao interni alati. Neprovjerena upotreba dodataka može rezultirati nekontroliranim curenjem podataka i izložiti regulirane informacije nepoznatim akterima, što predstavlja veliki rizik za generativne podatke umjetne inteligencije za poduzeće.

4. Korištenje umjetne inteligencije u sjeni bez upravljanja

Umjetna inteligencija u sjeni odnosi se na zaposlenike koji koriste alate umjetne inteligencije bez IT odobrenja ili nadzora. Ti alati možda nisu provjereni, nadzirani ili usklađeni s internim politikama usklađenosti, što ih čini slijepom točkom za timove za sigurnost i zaštitu podataka.

Primjer:

Prodajni tim počinje koristiti potrošačku verziju ChatGPT-a za izradu prijedloga za klijente. S vremenom počinju unositi strategije cijena, uvjete ugovora i interne metrike učinka - ništa od toga nije zaštićeno DLP alatima za poduzeća.

Rizik poduzeća:

Umjetna inteligencija u sjeni postaje duboko ugrađena u tijekove rada, stvarajući probleme s vezanošću i usklađenošću. Budući da ne postoji centralizirana kontrola, organizacije gube uvid u to koji se podaci dijele, kamo idu i koriste li se za obuku modela trećih strana.

5. Umjetna inteligencija - phishing 

Napadači sada koriste taktike AI phishinga, poput stvaranja lažnih ChatGPT sučelja ili alata, kako bi prevarili zaposlenike i naveli ih da otkriju osjetljive informacije. Ovi alati često traže od korisnika da "pošalju upite" ili "testiraju sigurnost ChatGPT-a", a zatim prikupljaju unose.

Primjer:

Zaposlenik prima poveznicu na stranicu pod nazivom „ChatGPT Pro sigurnosni pješčanik“Lažno sučelje oponaša OpenAI-jevo korisničko sučelje i potiče korisnike da zalijepe osjetljivi sadržaj kako bi testirali njegovu sigurnost. Napadač sada ima pristup svemu što je uneseno, često povjerljivim dokumentima ili vjerodajnicama.

Rizik poduzeća:

Ova tehnika briše granicu između društvenog inženjeringa i tehničkog iskorištavanja. Iskorištava povjerenje korisnika u alate umjetne inteligencije i koristi poznato ChatGPT sučelje. Ove su prijevare posebno opasne jer se čine legitimnima i zaobilaze tipične filtere e-pošte ili URL-ova.

6. Pogrešno konfigurirane interne integracije umjetne inteligencije

Neke tvrtke implementiraju ChatGPT ili druge LLM-ove putem internih alata ili API-ja. Ako se kontrole pristupa, granice upita ili sanitizacija podataka ne provode pravilno, te integracije mogu postati nepropusne ili previše permisivne.

Primjer:

Interni asistent za znanje izgrađen na ChatGPT-u povezan je s HR sustavom tvrtke. Bez strogih kontrola pristupa, bilo koji korisnik može zatražiti od umjetne inteligencije da vrati podatke o plaćama za drugog zaposlenika, što dovodi do kršenja privatnosti.

Rizik poduzeća:

Pogrešna konfiguracija dovodi do pretjerane izloženosti. U složenim poslovnim okruženjima, gdje su LLM-ovi integrirani u chatbotove, aplikacije ili CRM-ove, lako je izgubiti trag tko što može vidjeti i kada.

Curenje podataka ChatGPT-a i sigurnosni incidenti

Incidenti iz stvarnog svijeta koji uključuju ChatGPT istaknuli su rastuće rizike sigurnosti podataka povezane s generativnim alatima umjetne inteligencije. Jedan od najpoznatijih događaja bio je ožujak 2023. Sigurnosni incident OpenAI-a, gdje je greška u Redis biblioteci koju koristi ChatGPT uzrokovala kršenje podataka. Ovo kršenje podataka ChatGPT-a omogućilo je nekim korisnicima da vide dijelove povijesti chata drugih korisnika i otkrilo osjetljive podatke o naplati, uključujući puna imena, adrese e-pošte i posljednje četiri znamenke kreditnih kartica. Iako je problem brzo zakrpan, otkrio je krhkost izolacije sesije na dijeljenim AI platformama i naglasio potrebu za robusnim sigurnosnim kontrolama za više zakupaca.

Osim osnovnih ranjivosti platforme, AI ranjivosti uvedeni putem dodataka postali su sve veća briga. Mnogi ChatGPT dodaci koje su razvile treće strane mogu pristupiti sadržaju korisničkih upita i prenijeti ga vanjskim uslugama. Ako su nepravilno dizajnirani ili im nedostaje transparentnosti, ovi dodaci mogu nenamjerno procuriti poslovne podatke izvan kontroliranih okruženja, zaobilazeći postojeće DLP i mehanizme usklađenosti.

Rizik dodatno pojačava porast AI sjenaVišestruka istraživanja otkrila su da zaposlenici u različitim industrijama koriste javne generativne alate umjetne inteligencije za rješavanje osjetljivih poslovnih zadataka, poput izrade pravnih dokumenata ili analize podataka o klijentima. Ova nesankcionirana upotreba, često nevidljiva IT odjelu, stvara značajne nedostatke u upravljanju podacima i povećava vjerojatnost izloženosti.

Zajedno, ovi incidenti jasno pokazuju da poduzeća moraju preispitati svoju sigurnosnu poziciju za generativnu umjetnu inteligenciju dajući prioritet vidljivosti, kontrolama korištenja, upravljanju dodacima i alatima za sprječavanje gubitka podataka koji su svjesni umjetne inteligencije.

Poslovni rizici izloženosti ChatGPT podacima

Iako alati poput ChatGPT-a mogu ubrzati produktivnost, neovlaštena ili nesigurna upotreba može rezultirati značajnim i dalekosežnim poslovnim rizicima. U nastavku slijedi pregled ključnih poslovnih rizika i scenarija iz stvarnog svijeta koji ilustriraju kako takva izloženost može oštetiti poduzeća u pravnim, operativnim i reputacijskim dimenzijama.

  1. Kršenja propisa i usklađenosti

Jedna od najkritičnijih posljedica gubitka podataka u ChatGPT-u je mogućnost kršenja propisa. Kada zaposlenici u ChatGPT unesu osobne podatke (PII), zaštićene zdravstvene podatke (PHI), financijske podatke ili evidenciju kupaca, ti podaci mogu napustiti sigurna okruženja i završiti u vanjskim sustavima koji nisu u skladu s propisima poput GDPR-a, HIPAA-e, CCPA-e ili propisa specifičnih za industriju.

Primjer:

Zaposlenik u zdravstvenom domu koristi ChatGPT za sažimanje bilješki o pacijentovim slučajevima. Unos uključuje imena i medicinske povijesti, kršeći HIPAA zahtjeve i pokrećući postupak otkrivanja kršenja.

​​Poslovni utjecaj:

Kazne, revizije i obavijesti o kršenju narušavaju povjerenje i nameću velike administrativne troškove. U visoko reguliranim sektorima, jedan incident može izazvati stalnu kontrolu regulatora i revizora.

  1. Intelektualno vlasništvo i izloženost povjerljivim podacima

ChatGPT se često koristi za pisanje, pregled ili analizu internog sadržaja, od pravnih ugovora i dokumenata o spajanjima i preuzimanjima do vlasničkog koda i istraživanja. Kada se taj sadržaj zalijepi u ChatGPT bez zaštitnih mjera, poduzeće riskira gubitak kontrole nad svojim intelektualnim vlasništvom.

Primjer:

Softverski inženjer koristi ChatGPT za optimizaciju vlasničkog modela strojnog učenja, ali u upitu uključuje cijeli izvorni kod. To bi moglo izložiti vrijednu intelektualnu svojinu budućim rizicima ako je model koristi neprimjereno ili ako se presretne tijekom obrade.

Poslovni utjecaj:

Izloženost intelektualnog vlasništva poduzeća umjetnoj inteligenciji ne samo da narušava konkurentsku prednost, već može rezultirati i gubitkom povjerenja investitora. Može dovesti do razvodnjene tržišne pozicije, gubitka inovacijske prednosti, pa čak i tužbi ako se prekrše ugovorne klauzule o povjerljivosti.

  1. Šteta po ugledu i gubitak povjerenja kupaca

Čak i manje curenje podataka koje uključuje ChatGPT može eskalirati u problem javnog povjerenja, posebno kada uključuje osjetljive podatke o kupcima, zaposlenicima ili partnerima. Prijetnje umjetnoj inteligenciji za ugled pojačane su sve većim javnim nadzorom oko etike, privatnosti i transparentnosti umjetne inteligencije.

Primjer:

Novinski medij otkriva da su zaposlenici banke unosili financijske podatke klijenata u ChatGPT kako bi generirali investicijske sažetke. Iako stvarni gubitak podataka može biti ograničen, javne reakcije dovode do pojačanog nadzora nad načinom na koji se s njihovim podacima postupa.

Poslovni utjecaj:

To može dovesti do gubitka povjerenja kupaca s dugoročnim posljedicama koje daleko nadmašuju izvorni prekršaj. U visoko reguliranim ili industrijama osjetljivim na brend, posljedice za ugled mogu biti razorne i daleko premašiti troškove sprječavanja incidenta.

  1. Operativni i pravni poremećaji

Izloženost podataka putem ChatGPT-a može pokrenuti pravne postupke, revizije i interne istrage, preusmjeravajući resurse i ometajući poslovanje. Pravni timovi mogu biti dužni procijeniti odgovornost, pratiti put podataka i braniti se od kolektivnih tužbi ili kršenja ugovora.

Primjer:

Proizvodna tvrtka otkriva da su osjetljivi uvjeti dobavljača uneseni u ChatGPT i moguće procurili. Timovi za nabavu prisiljeni su ponovno pregovarati o ugovorima, dok pravni odjel upravlja upitima dobavljača i procjenama odgovornosti.

Poslovni utjecaj:

Osim financijskih gubitaka zbog raskida ugovora, organizacija se može suočiti s pravnim zahtjevima, kaznenim klauzulama ili arbitražnim postupcima. Ovi poremećaji također utječu na svakodnevno poslovanje, odgađaju projekte i stvaraju unutarnje trenje između timova koji traže odgovornost i ublažavanje posljedica.

  1. Erozija unutarnje sigurnosne pozicije

Nenadzirana upotreba umjetne inteligencije slabi ukupnu sigurnosnu poziciju poduzeća. Kada zaposlenici koriste javne alate umjetne inteligencije putem neupravljanih preglednika ili osobnih računa, osjetljivi podaci zaobilaze tradicionalne sigurnosne kontrole poput vatrozida, zaštite krajnjih točaka ili DLP-a u oblaku.

Primjer:

Zaposlenici koji koriste ChatGPT na osobnim uređajima dijele podatke o korisnicima koji nikada ne dotiču korporativnu infrastrukturu, što ih čini nevidljivima IT timovima i timovima za usklađenost.

Poslovni utjecaj:

Sigurnosni timovi gube uvid u to kako i gdje se podaci obrađuju. S vremenom to narušava sposobnost organizacije da otkrije povrede, održi spremnost za reviziju i provede sigurnosne politike, ostavljajući poslovanje ranjivim na unutarnje i vanjske prijetnje.

Rizici gubitka ChatGPT podataka nisu ograničeni samo na tehničku izloženost, već se šire kroz svaki sloj poslovanja. Od rizika usklađenosti s ChatGPT-om i krađe intelektualnog vlasništva do prijetnji reputaciji umjetne inteligencije i pravnih posljedica, poduzeća moraju poduzeti proaktivne korake kako bi upravljala načinom korištenja generativnih alata umjetne inteligencije. Tek tada organizacije mogu iskoristiti prednosti umjetne inteligencije, a istovremeno zaštititi poslovanje od njezinih neželjenih posljedica.

Kako LayerX sprječava curenje podataka ChatGPT-a

Kako poduzeća prihvaćaju ChatGPT i druge GenAI alate, izazov zaštite osjetljivih podataka od nenamjernog izlaganja postaje hitan. Tradicionalni sigurnosni alati nisu izgrađeni za dinamičnu prirodu GenAI interakcija temeljenu na pregledniku. Tu nastupa LayerX - pružajući namjenski izgrađene obrane prilagođene pregledniku koje pružaju vidljivost, kontrolu i zaštitu od curenja ChatGPT podataka u stvarnom vremenu bez ugrožavanja produktivnosti.

  • Chat u stvarnom vremenuGPT DLP

U središtu LayerX-ovog rješenja je njegova DLP (Data Loss Prevention - sprječavanje gubitka podataka). Za razliku od naslijeđenih DLP alata koji rade na razini mreže ili krajnjih točaka, LayerX se integrira izravno u preglednik - primarno sučelje za AI alate poput ChatGPT-a. To mu omogućuje pregled i kontrolu korisničkog unosa u stvarnom vremenu, prije nego što podaci uopće napuste perimetar poduzeća. LayerX detektira osjetljive podatke poput PII-a, izvornog koda, financijskih detalja ili povjerljivih dokumenata - kada ih korisnici pokušaju zalijepiti ili upisati u ChatGPT. Zatim provodi radnje temeljene na pravilima, kao što su brisanje, upozorenja ili izravno blokiranje.

IshodOsjetljivi podaci se zaustavljaju na izvoru, sprječavajući slučajno ili neovlašteno izlaganje bez prekidanja korisničkog tijeka rada.

  • Generativno praćenje umjetne inteligencije i vidljivost umjetne inteligencije u sjeni

LayerX kontinuirano prati interakcije umjetne inteligencije u upravljanim i neupravljanim web aplikacijama. Identificira koji se alati umjetne inteligencije koriste, tko ih koristi i s kakvim podacima - bilo da pišu upite, lijepe podatke o korisnicima ili prenose datoteke, pružajući IT i sigurnosnim timovima praktične uvide. Također otkriva korištenje Shadow AI-a, odnosno neovlaštenu upotrebu ChatGPT-a ili drugih LLM alata putem osobnih računa ili neupravljanih uređaja.

IshodOrganizacije ponovno dobivaju uvid u obrasce korištenja umjetne inteligencije, što im omogućuje prepoznavanje visokorizičnog ponašanja i poduzimanje korektivnih mjera prije nego što dođe do incidenta s podacima.

  • Precizna, kontekstualno svjesna provedba pravila

Pomoću LayerX-a, poduzeća mogu definirati kontekstualne politike prilagođene slučajevima korištenja umjetne inteligencije. Politike se mogu provoditi na razini preglednika na temelju korisničke uloge, konteksta aplikacije, vrste podataka i atributa sesije. Na primjer, politike mogu omogućiti marketinškim timovima korištenje ChatGPT-a za generiranje sadržaja, a istovremeno blokirati slanje podataka o korisnicima ili internih dokumenata. Razvojnim programerima može se dopustiti testiranje isječaka koda, ali ne i dijeljenje repozitorija izvornog koda. LayerX provodi radnje temeljene na politikama, kao što su redigiranje, upozorenja kako bi se korisnici obavijestili kada su na rubu kršenja politike ili izravno blokiranje.

IshodOmogućavanje umjetne inteligencije i zaštita poduzeća putem umjetne inteligencije osiguravajući odgovornu upotrebu bez ograničavanja inovacija.

  • Upravljanje dodacima i proširenjima

LayerX također štiti od rizičnih interakcija ChatGPT dodataka, koji mogu tiho prenijeti sadržaj upita na API-je trećih strana. Identificira i kategorizira proširenja preglednika i ChatGPT dodatke prema razini rizika, izvoru i funkcionalnosti. Također prati i upravlja ponašanjem dodataka, dajući administratorima mogućnost odobravanja, blokiranja ili ograničavanja dodataka na temelju njihovih praksi rukovanja podacima. 

IshodPoduzeća smanjuju svoju izloženost ranjivostima temeljenim na dodacima i provode jače upravljanje podacima umjetne inteligencije u cijeloj organizaciji.

Zaključak: Omogućavanje sigurne, skalabilne umjetne inteligencije u cijelom poduzeću uz LayerX

Generativna umjetna inteligencija je tu da ostane i mijenja način na koji se posao obavlja u svakoj organizaciji. Ali bez pravih zaštitnih mjera, alati poput ChatGPT-a mogu se brzo pretvoriti iz pojačivača produktivnosti u rizike od curenja podataka. LayerX omogućuje poduzećima da s pouzdanjem prihvate umjetnu inteligenciju, uz vidljivost, kontrolu i zaštitu potrebnu za sigurnost osjetljivih podataka, usklađenost s propisima i kontrolu rizika.

Bez obzira borite li se protiv umjetne inteligencije u sjeni, provodite li pravila korištenja umjetne inteligencije ili sprječavate curenje podataka u stvarnom vremenu, LayerX pruža sigurnosnu osnovu za sigurno i skalabilno usvajanje umjetne inteligencije. 

Ne dopustite da inovacije umjetne inteligencije nadmaše vašu sigurnosnu strategiju. Usvojite LayerX već danas i pretvorite umjetnu inteligenciju iz rizika u konkurentsku prednost.

Zatražite demo kako biste vidjeli LayerX u akciji.