Įsilaužėliams kuriant naujus metodus, kaip įsiskverbti į jūsų įrenginius, generatyvinis dirbtinis intelektas (GenAI) šiais metais tapo pagrindine grėsme, nes kibernetiniai nusikaltėliai savo metodams tobulinti naudoja ChatGPT ir Gemini AI modelius. Didieji kalbos modeliai (angl. Large language models, LLM) yra tik naujo proveržio įsilaužimų pramonėje pradžia.
“Svarbu suprasti, kad tai tik GenAI evoliucijos pradžia, o daugelis demonstracijų, kurias matėme saugumo operacijų ir taikomųjų programų saugumo srityje, teikia realių vilčių”, – sakė “Gartner” vyresnysis tyrimų direktorius Richardas Addiscottas.
GenAI užima nemažai vietos tarp saugumo vadovų, o tai yra dar vienas iššūkis, su kuriuo reikia susidoroti, bet kartu ir galimybė išnaudoti jos galimybes siekiant pagerinti saugumą operatyviniu lygmeniu. Neišvengiamybė, kad trečiosios šalys susidurs su kibernetinio saugumo incidentais, verčia saugumo vadovus daugiau dėmesio skirti į atsparumą orientuotoms investicijoms ir atsisakyti iš anksto atlikto išsamaus patikrinimo.
“Pradėkite nuo nenumatytų atvejų planų stiprinimo trečiųjų šalių veiksmams, kurie kelia didžiausią kibernetinio saugumo riziką”, – sakė Addiscott.
Praėjusį mėnesį paskelbtoje ataskaitoje teigiama, kad daugiau nei kas ketvirta organizacija uždraudė naudoti GenAI dėl privatumo ir duomenų saugumo rizikos.
Remiantis “Cisco” 2024 m. duomenų privatumo lyginamuoju tyrimu, dauguma įmonių riboja generatyvinio dirbtinio intelekto (GenAI) naudojimą dėl duomenų privatumo ir saugumo problemų, o 27 proc. bent laikinai uždraudė jį naudoti.
Pagrindiniai įvardyti nuogąstavimai – grėsmė organizacijos teisinėms ir intelektinės nuosavybės teisėms (69 proc.) ir atskleidimo visuomenei ar konkurentams rizika (68 proc.).