Ang malawakang paggamit ng generative AI sa mga industriya ay nangangailangan ng seguridad at pagpapatakbo ng kamalayan sa mga panganib at mga opsyon sa pagpapagaan. Sa blog post na ito, dinadala namin ang nangungunang 10 mga panganib at naaaksyunan na mga diskarte upang maprotektahan laban sa mga ito. Sa huli, nagbibigay kami ng mga tool na makakatulong.

Ang Pag-usbong ng Generative AI

Ang 2022 ay minarkahan ang pagsisimula ng isang bagong lugar sa generative AI. Nasaksihan ng panahong ito ang mabilis na pagsulong ng mga LLM (Large Language Models) tulad ng GPT-3, GPT-4, BERT, Claude, Gemini, Llama, Mistral, at iba pa. Ang mga LLM na ito ay nagpakita ng mga kahanga-hangang kakayahan sa natural na pagpoproseso ng wika (NLP), pagbuo ng larawan, at paglikha ng malikhaing nilalaman. Bilang resulta, ang mga tool na hinimok ng AI ay kumalat sa iba't ibang industriya, na nagpapataas ng pagiging produktibo at pagbabago sa paggawa ng nilalaman, serbisyo sa customer, pag-unlad, at higit pa. Mayroon din silang potensyal na higit pang baguhin ang mga sektor tulad ng pangangalaga sa kalusugan, pananalapi, at libangan.

Ang pagbabagong epekto ng makabagong teknolohiyang ito ay hindi pa lubos na nauunawaan. Gayunpaman, ang mga organisasyong naghahanap upang mapanatili ang isang mapagkumpitensyang kalamangan ay dapat magplano na isama ang GenAI sa kanilang mga operasyon nang mas maaga kaysa sa huli. Kasabay nito, dapat nilang tugunan ang mga panganib sa seguridad ng GenAI.

Mga Panganib ng Generative AI

Ang paggamit ng mga Gen AI application at LLM, pampubliko man o sa pamamagitan ng in-house development at/o deployment, ay maaaring magdulot ng mga panganib sa mga organisasyon. Kabilang sa mga panganib ng Gen AI na ito ang:

Kategorya #1: Mga Panganib sa Seguridad at Privacy

1. Mga Alalahanin sa Pagkapribado

Umaasa ang Generative AI sa napakaraming data, kadalasang kinukuha mula sa iba't ibang source. Maaaring naglalaman ang mga ito ng personal na impormasyon, kabilang ang PII. Kung gagamitin ang data na ito sa mga output, maaari itong hindi sinasadyang maglantad ng mga sensitibong detalye tungkol sa mga indibidwal, na humahantong sa mga paglabag sa privacy at potensyal na maling paggamit. Ang katangian ng black-box ng maraming modelo ng GenAI ay higit pang nagpapakumplikado sa transparency at pananagutan, na nagpapahirap sa pagsubaybay kung paano ginagamit o iniimbak ang mga partikular na punto ng data.

2. Mga Email sa Phishing at Malware

Binibigyang-daan ng Generative AI ang mga cybercriminal na gumawa ng lubos na kapani-paniwala at sopistikadong pag-atake. Bago ang generative AI, isa sa mga palatandaan ng isang phishing email ay hindi magandang grammar at parirala. Gayunpaman, ang mga phishing na email na nabuo ng AI ay maaaring gayahin ang tono, istilo, at format ng mga lehitimong komunikasyon. Ginagawa nitong mahirap para sa mga indibidwal at sistema ng seguridad na makita ang mga ito.

Bukod pa rito, maaaring gamitin ng mga umaatake ang GenAI upang bumuo at mag-debug ng malware na maaaring makalampas sa mga tradisyunal na hakbang sa seguridad. Ang AI-generated attack malware na ito ay maaaring umangkop at mag-evolve, kaya mas mahirap itong protektahan laban sa.

3. Mga Pananakot ng Insider at Maling Paggamit ng Empleyado

Ang mga banta sa loob ay mga indibidwal sa loob ng kumpanya na nagsasamantala sa kanilang pag-access sa sensitibong impormasyon at mga system. Ang mga banta na ito ay maaaring sinadya, tulad ng pagnanakaw ng data o pananabotahe, o hindi sinasadya, tulad ng hindi sinasadyang pagtagas ng data dahil sa kapabayaan. Ang pagiging pamilyar ng tagaloob sa mga hakbang sa seguridad ng organisasyon ay kadalasang nagbibigay-daan sa kanila na ma-bypass ang mga depensa nang mas madali kaysa sa mga panlabas na umaatake.

Sa konteksto ng GenAI, maaaring hindi sinasadyang mag-type o mag-paste ng sensitibong data ang mga insider sa mga application ng GenAI. Maaaring kabilang dito ang source code, sensitibong impormasyon ng negosyo, data sa pananalapi, impormasyon ng customer, at higit pa.

4. Tumaas na Attack Surface

Maaaring pataasin ng mga generative AI system ang pag-atake sa ibabaw para sa mga banta sa cybersecurity, dahil madalas silang sumasama sa iba't ibang data source, API, at iba pang system. Lumilikha ito ng maraming entry point para sa mga potensyal na pag-atake. Ang pagiging kumplikado ng mga pagsasamang ito ay maaaring humantong sa mga kahinaan na maaaring pagsamantalahan ng mga malisyosong aktor, tulad ng pag-iniksyon ng nakakahamak na data upang manipulahin ang mga output ng AI o pag-access ng sensitibong impormasyon sa pamamagitan ng mahihinang link sa system. 

Kategorya #2: Mga Panganib sa Kalidad at Pagkakaaasahan

5. Mga Isyu sa Kalidad ng Output

Ang mga isyu sa kalidad ng output sa mga generative AI system ay lumitaw kapag ang AI ay bumubuo ng text, mga larawan, o iba pang mga output na hindi tumpak, hindi tama, nanlilinlang, may kinikilingan, o hindi naaangkop. Ang mga salik na nag-aambag sa mahinang kalidad ng output ay kinabibilangan ng hindi sapat na data ng pagsasanay, hindi sapat na pag-tune ng modelo, at ang likas na hindi mahuhulaan ng mga algorithm ng AI.

Sa mga kritikal na aplikasyon gaya ng pangangalagang pangkalusugan, pananalapi, at cybersecurity, ang hindi tumpak na mga output ng AI ay maaaring magresulta sa matinding pagkalugi sa pananalapi, mga legal na pananagutan, pagkalumpong ng negosyo, at maging mapanganib ang mga buhay. Ngunit kahit na sa mga hindi kritikal na aplikasyon, ang mga maling resulta at ang pagpapakalat ng hindi tama o mapanlinlang na impormasyon ay maaaring magkaroon ng mga kahihinatnan sa trabaho at buhay ng mga tao at pagganap ng mga negosyo.

6. Mga Gawa-gawa na "Katotohanan" at Mga Hallucinasyon

Ang isang matinding halimbawa ng nabanggit na isyu sa kalidad ay ang pagbuo ng "mga gawa-gawang katotohanan", na tinatawag na "mga guni-guni". Nangyayari ito kapag ang LLM ay bumubuo ng impormasyon na mukhang kapani-paniwala ngunit ganap na gawa-gawa. Ang mga guni-guni na ito ay lumitaw dahil sa pag-asa ng modelo sa mga pattern sa data ng pagsasanay sa halip na isang tunay na pag-unawa sa katumpakan ng katotohanan. Gaya ng nabanggit, maaari itong humantong sa pagpapakalat ng hindi tama o mapanlinlang na impormasyon, na nagdudulot ng mga seryosong panganib – lalo na sa mga konteksto kung saan kritikal ang katumpakan, gaya ng mga sektor ng pangangalagang pangkalusugan, legal, o pananalapi.

Kategorya #3: Mga Legal at Etikal na Panganib

7. Copyright, Intellectual Property at Iba Pang Legal na Panganib

Ang mga generative AI system ay kadalasang gumagamit ng napakaraming data, kabilang ang naka-copyright na materyal, upang sanayin ang kanilang mga modelo. Maaari itong humantong sa hindi sinasadyang pagpaparami ng protektadong nilalaman, na posibleng lumalabag sa mga karapatan sa intelektwal na ari-arian. Bilang karagdagan, mayroong legal na tanong kung ang LLM ay legal na pinapayagang sanayin sa data ng copyright. Sa wakas, ang pagbuo ng bagong nilalaman na halos kapareho ng mga kasalukuyang gawa ay maaaring magdulot ng mga legal na hindi pagkakaunawaan sa pagmamay-ari at pagka-orihinal.

Ang mga hamon na ito ay pinagsasama ng kalabuan sa kasalukuyang mga batas sa copyright patungkol sa nilalamang binuo ng AI. Sa kasalukuyan, ang mga isyung ito ay pinagtatalunan sa mga korte at sa mata ng publiko. Halimbawa, ang The New York Daily News, Chicago Tribune, Denver Post, at iba pang mga papel ay pagdemanda sa OpenAI at Microsoft para sa paglabag sa copyright.

8. Mga Kampihang Output

Ang mga bias na output sa mga AI system ay kadalasang nagmumula sa skewed o unrepresentative na data ng pagsasanay na nagpapakita ng mga makasaysayang prejudices at systemic na hindi pagkakapantay-pantay. Kapag ang mga modelo ng AI ay bumubuo ng mga bias na output, maaari itong humantong sa mga kasanayan sa diskriminasyon sa mga lugar tulad ng pag-hire, pagpapahiram, pagpapatupad ng batas, at pangangalagang pangkalusugan, na hindi patas na nakakaapekto sa mga marginalized na grupo. Nagdudulot ito ng seryosong banta sa pagiging patas at katarungan, dahil maaari nilang ipagpatuloy at palakihin pa ang mga umiiral na bias sa lipunan.

9. Pagsunod

Kapag pinoproseso ng mga system ng AI ang sensitibong impormasyon, may potensyal para sa mga pagtagas ng data, hindi awtorisadong pag-access, at maling paggamit ng kumpidensyal na data. Ang panganib na ito ay lumalala kung ang tagapagbigay ng serbisyo ng AI ay walang matatag na mga hakbang sa seguridad at mga sertipikasyon sa pagsunod. Samakatuwid, ang pagbabahagi ng data sa mga generative na tool ng AI ay maaaring makabuluhang tumaas ang panganib ng paglabag sa mga regulasyon sa pagsunod at mga batas sa proteksyon ng data, lalo na sa mga industriya na may mahigpit na mga kinakailangan sa proteksyon ng data.

Kategorya #4: Mga Panganib sa Operasyon at Pinansyal

10. Halaga ng kadalubhasaan at Compute

Kapag bumubuo, nagsasanay at nagde-deploy ng mga LLM sa loob, ang halaga ng kadalubhasaan at pag-compute ay maaaring malaki. Ang mga advanced na AI system ay nangangailangan ng mga high-performance na GPU, espesyal na hardware, at mga serbisyo ng cloud computing, na maaaring magkaroon ng mabigat na gastos. Bilang karagdagan, ang mga may kasanayang propesyonal, tulad ng mga data scientist, ML engineer, at domain expert, ay nag-uutos ng mga premium na suweldo. Ang pandaigdigang kakulangan ng parehong mga GPU at talento ay higit na nagpapataas ng mga gastos na ito. Nagpapakita ito ng mga makabuluhang hadlang sa pagpasok para sa maraming organisasyon. 

Mga Istratehiya sa Pagbabawas ng Mga Panganib sa Seguridad ng AI

Pagkatapos balangkasin ang mga panganib, talakayin natin ang mga estratehiya para sa pagprotekta laban sa mga ito. 

Mga Istratehiya sa Proteksyon ng Seguridad at Pagkapribado

  • imbentaryo – Tukuyin ang mga lugar ng negosyo kung saan ginagamit ang gen AI. Mula sa mga empleyadong nagtatanong ng mga sikat na Gen AI application tulad ng ChatGPT, Claude o Gemini hanggang sa iyong mga engineering team na bumubuo ng sarili mong mga LLM hanggang sa paggamit ng mga komersyal o open-source na LLM sa iyong data.
  • Risk Assessment – Mapa at tasahin ang mga potensyal na panganib sa seguridad na nauugnay sa bawat uri ng paggamit. Maaari mong gamitin ang listahan sa itaas para tumulong.
  • Ipatupad ang Access Control – Gumamit ng mga mekanismo sa pag-verify para pamahalaan kung aling mga gen AI system ang maa-access ng iyong mga empleyado at kung paano. Halimbawa, maaaring pigilan ng extension ng browser ng enterprise ang iyong mga empleyado sa pag-install ng a malisyosong extension nagpapanggap bilang isang lehitimong extension ng ChatGPT.
  • Magpatupad ng Mga Patakaran – Magpatupad ng mga patakaran para sa kung paano magagamit ang mga aplikasyon ng GenAI sa organisasyon. Halimbawa, maaaring pigilan ng extension ng browser ng enterprise ang iyong mga empleyado na mag-paste ng sensitibong code sa mga gen AI na application.
  • Software Patching – I-update at i-patch ang mga system, upang mapahusay ang iyong postura sa seguridad laban sa mga pag-atake na hinimok ng AI (at hindi hinimok ng AI).
  • Pagsubaybay – Subaybayan at tuklasin ang mga hindi pangkaraniwang insidente at kahina-hinalang gawi, mula sa hindi awtorisadong mga pagtatangka sa pag-access hanggang sa mga abnormal na pattern ng pag-uugali hanggang sa pag-paste ng sensitibong data sa mga tool ng gen AI.
  • Edukasyon ng Gumagamit – Regular na sanayin ang mga empleyado tungkol sa mga panganib ng gen AI, sa pamamagitan ng mga pag-uusap, pagsasanay, at patuloy na suporta. Maaaring suportahan ng extension ng browser ng enterprise ang online na pagsasanay sa pamamagitan ng pagpapaliwanag sa mga empleyado kung bakit hinaharangan ang mga pagkilos, tulad ng pag-paste ng source code sa ChatGPT.

Mga Istratehiya sa Proteksyon sa Kalidad at Maaasahan

  • Pagtitiyak ng Kalidad ng Data – Gumamit ng mga dataset na magkakaiba, balanse, at walang mga bias o kamalian. Magpatupad ng mga mahigpit na proseso ng pagpapatunay ng data para sa data, tulad ng mga automated na pagsusuri at mga manu-manong pagsusuri. Patuloy na i-update at pinuhin ang mga dataset upang ipakita ang kasalukuyan at tumpak na impormasyon. 
  • Mga Sukatan ng Pagsusuri – Gumamit ng mga komprehensibong sukatan ng pagsusuri gaya ng katumpakan, recall, F1 na marka, at BLEU upang matukoy ang mga isyu sa katumpakan at pagganap sa modelo at sa mga output nito.
  • Isama ang Human-in-the-Loop System – Isali ang mga dalubhasa ng tao sa pagsasanay, pagpapatunay, at mga yugto ng fine-tuning ng pagbuo ng modelo. Ang mga tao ay maaaring magbigay ng mga kritikal na insight ayon sa konteksto, tukuyin ang mga mahihinang isyu na maaaring makaligtaan ng mga automated system, at mag-alok ng mga mungkahi na nagpapahusay sa mga tugon ng modelo.

Mga Istratehiya sa Legal at Etikal na Proteksyon

  • Pagsunod sa Mga Legal na Regulasyon – Tiyakin ang pagsunod sa mga batas sa proteksyon ng data gaya ng GDPR at CCPA. Nangangahulugan ito ng pagtiyak na ang data na ginamit para sa pagsasanay ay nakuha at naproseso nang legal, na may naaangkop na pahintulot at hindi nagpapakilala.
  • Magtatag ng Malinaw na Mga Alituntuning Etikal – Ang mga alituntuning ito ay dapat sumaklaw sa mga prinsipyo tulad ng pagiging patas, transparency, pananagutan, at pag-iwas sa bias. Ang pagpapatupad ng mga etikal na balangkas ng AI ay maaaring magbigay ng isang nakabalangkas na diskarte sa pagtiyak na ang mga etikal na pagsasaalang-alang ay natugunan.

Mga Istratehiya sa Pagpapatakbo at Pinansyal na Proteksyon

  • Tiyaking Scalability, Optimization, at Reliability ng Infrastructure – Gumamit ng matatag na serbisyo sa cloud, mga mapagkukunan ng computing na may mataas na pagganap, mahusay na mga solusyon sa pag-iimbak ng data, at nasusukat na mga pipeline ng AI. Halimbawa, magpatibay ng modelong pay-as-you-go, makipag-ayos ng mga diskwento sa dami sa mga provider ng cloud, at gumamit ng GPU provisioning.

Ang Solusyon para sa GenAI DLP

Ang LayerX ay isang extension ng browser ng enterprise na nagpoprotekta laban sa mga banta na dala ng web sa punto ng panganib – ang browser. Nagbibigay ang LayerX ng isang DLP solution na partikular na idinisenyo para sa Generative AI mga tool tulad ng ChatGPT, na naglalayong protektahan ang sensitibong data nang hindi humahadlang sa karanasan ng user.

Mga pangunahing kakayahan:

  • Data Mapping at Depinisyon – Tukuyin at tukuyin ang sensitibong data tulad ng source code at intelektwal na ari-arian para sa proteksyon.
  • Nako-customize na Mga Kontrol ng Data – Magpatupad ng mga kontrol tulad ng mga pop-up na babala o mga pagkilos sa pagharang kapag may nakitang sensitibong data.
  • Secure Productivity – Paganahin ang ligtas na paggamit ng mga tool ng GenAI sa pamamagitan ng paglalapat ng mga hakbang na tulad ng DLP upang maiwasan ang hindi sinasadyang pagkakalantad ng data.
  • Mga Kontrol sa Extension ng Browser - Pamahalaan ang pag-access at mga aksyon sa loob ng GenAI upang ma-secure ang mga pakikipag-ugnayan ng data.

Granular Risk Mitigation – I-detect at pagaanin ang mga aktibidad na may mataas na peligro tulad ng pag-paste ng sensitibong data, habang pinapanatili ang tuluy-tuloy na karanasan ng user.