Увод
Генеративна вештачка интелигенција – системи вештачке интелигенције способни да креирају нови садржај или предвиђања – појављује се као трансформативна снага у сајбер безбедности. Алати попут OpenAI-јевог GPT-4 показали су способност анализе сложених података и генерисања текста сличног људском, омогућавајући нове приступе одбрани од сајбер претњи. Стручњаци за сајбер безбедност и доносиоци пословних одлука у различитим индустријама истражују како генеративна вештачка интелигенција може ојачати одбрану од напада који се стално развијају. Од финансија и здравства до малопродаје и владе, организације у сваком сектору суочавају се са софистицираним покушајима фишинга, злонамерним софтвером и другим претњама којима генеративна вештачка интелигенција може помоћи у сузбијању. У овој белој књизи испитујемо како се генеративна вештачка интелигенција може користити у сајбер безбедности , истичући примене у стварном свету, будуће могућности и важна разматрања за усвајање.
Генеративна вештачка интелигенција се разликује од традиционалне аналитичке вештачке интелигенције не само по откривању образаца већ и по креирању садржаја – било да симулира нападе ради тренирања одбране или производи објашњења на природном језику за сложене безбедносне податке. Ова двострука способност чини је мачем са две оштрице: нуди моћне нове одбрамбене алате, али је могу искористити и актери претњи. Следећи одељци истражују широк спектар случајева употребе генеративне вештачке интелигенције у сајбер безбедности, од аутоматизације откривања фишинга до побољшања реаговања на инциденте. Такође разматрамо предности које ове иновације вештачке интелигенције обећавају, заједно са ризицима (као што су „халуцинације“ вештачке интелигенције или злоупотреба са стране) којима организације морају да управљају. На крају, пружамо практичне савете који ће помоћи предузећима да процене и одговорно интегришу генеративну вештачку интелигенцију у своје стратегије сајбер безбедности.
Генеративна вештачка интелигенција у сајбер безбедности: Преглед
Генеративна вештачка интелигенција у сајбер безбедности односи се на моделе вештачке интелигенције – често моделе великих језика или друге неуронске мреже – који могу да генеришу увиде, препоруке, код или чак синтетичке податке како би помогли у безбедносним задацима. За разлику од чисто предиктивних модела, генеративна вештачка интелигенција може да симулира сценарије и да производи људски читљиве излазе (нпр. извештаје, упозорења или чак узорке злонамерног кода) на основу својих података за обуку. Ова способност се користи за предвиђање, откривање и реаговање на претње на динамичније начине него раније ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ). На пример, генеративни модели могу да анализирају огромне логове или спремишта обавештајних података о претњама и да произведу концизан резиме или препоручену акцију, функционишући готово као „помоћник“ вештачке интелигенције тимовима за безбедност.
Ране имплементације генеративне вештачке интелигенције за сајбер одбрану показале су обећање. Године 2023, Мајкрософт је представио Security Copilot , асистента за безбедносне аналитичаре заснованог на GPT-4, како би помогао у идентификацији пропуста и филтрирању 65 трилиона сигнала које Мајкрософт обрађује свакодневно ( Microsoft Security Copilot је нови GPT-4 вештачки асистент за сајбер безбедност | The Verge ). Аналитичари могу да користе овај систем на природном језику (нпр. „Сумирај све безбедносне инциденте у последња 24 сата“ ), а копилот ће произвести користан наративни резиме. Слично томе, Гуглов Threat Intelligence вештачки интелигенција користи генеративни модел под називом Gemini како би омогућио конверзациону претрагу кроз огромну Гуглову базу података о претњама, брзо анализирајући сумњиви код и сумирајући налазе како би помогао ловцима на злонамерни софтвер ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Ови примери илуструју потенцијал: генеративна вештачка интелигенција може да обради сложене, велике податке о сајбер безбедности и представи увиде у приступачном облику, убрзавајући доношење одлука.
Истовремено, генеративна вештачка интелигенција може да креира веома реалистичан лажни садржај, што је благодет за симулацију и обуку (и, нажалост, за нападаче који креирају друштвени инжењеринг). Како прелазимо на конкретне случајеве употребе, видећемо да способност генеративне вештачке интелигенције да синтетише и анализира информације лежи у основи њених многих примена у области сајбер безбедности. У наставку ћемо се позабавити кључним случајевима употребе, који обухватају све, од спречавања фишинга до развоја безбедног софтвера, са примерима како се сваки примењује у различитим индустријама.
Кључне примене генеративне вештачке интелигенције у сајбер безбедности
Слика: Кључни случајеви употребе генеративне вештачке интелигенције у сајбер безбедности укључују копилоте вештачке интелигенције за безбедносне тимове, анализу рањивости кода, адаптивно откривање претњи, симулацију напада нултог дана, побољшану биометријску безбедност и откривање фишинга ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ).
Откривање и спречавање фишинга
Фишинг остаје једна од најраспрострањенијих сајбер претњи, варајући кориснике да кликну на злонамерне линкове или открију акредитиве. Генеративна вештачка интелигенција се примењује како за откривање покушаја фишинга , тако и за јачање обуке корисника како би се спречили успешни напади. Са дефанзивне стране, модели вештачке интелигенције могу анализирати садржај имејлова и понашање пошиљалаца како би уочили суптилне знаке фишинга које филтери засновани на правилима могу пропустити. Учењем из великих скупова података о легитимним и преварним имејловима, генеративни модел може да означи аномалије у тону, формулацијама или контексту које указују на превару – чак и када граматика и правопис више не откривају ту могућност. У ствари, истраживачи Пало Алто Нетворкса примећују да генеративна вештачка интелигенција може да идентификује „суптилне знаке фишинг имејлова који би иначе могли да прођу неоткривени“, помажући организацијама да буду корак испред превараната ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ).
Тимови за безбедност такође користе генеративну вештачку интелигенцију за симулацију фишинг напада ради обуке и анализе. На пример, Ironscales је представио алат за симулацију фишинга заснован на GPT-у који аутоматски генерише лажне фишинг имејлове прилагођене запосленима у организацији ( Како се генеративни вештачки интелигентни ... Ово сугерише да људска интуиција у комбинацији са детекцијом уз помоћ вештачке интелигенције и даље може препознати суптилне недоследности или сигнале метаподатака у преварама написаним од стране вештачке интелигенције.
Генеративна вештачка интелигенција помаже одбрани од фишинга и на друге начине. Модели се могу користити за генерисање аутоматизованих одговора или филтера који тестирају сумњиве имејлове. На пример, систем вештачке интелигенције може да одговори на имејл са одређеним упитима како би проверио легитимност пошиљаоца или да користи LLM за анализу линкова и прилога имејла у „пешчанику“, а затим да сумира сваку злонамерну намеру. NVIDIA-ина безбедносна платформа Morpheus демонстрира моћ вештачке интелигенције у овој области – користи генеративне NLP моделе за брзу анализу и класификацију имејлова, а утврђено је да побољшава откривање фишинг имејлова за 21% у поређењу са традиционалним безбедносним алатима ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Morpheus чак профилише обрасце комуникације корисника како би открио необично понашање (као што је корисник који изненада шаље имејлове на многе спољне адресе), што може указивати на угрожен налог који шаље фишинг имејлове.
У пракси, компаније у различитим индустријама почињу да верују вештачкој интелигенцији да филтрира имејл и веб саобраћај за нападе друштвеним инжењерингом. Финансијске фирме, на пример, користе генеративну вештачку интелигенцију за скенирање комуникација у потрази за покушајима лажног представљања који би могли довести до преваре путем електронских порука, док здравствени радници примењују вештачку интелигенцију како би заштитили податке пацијената од кршења везаних за фишинг. Генерисањем реалистичних сценарија фишинга и идентификовањем обележја злонамерних порука, генеративна вештачка интелигенција додаје моћан слој стратегијама за спречавање фишинга. Закључак: вештачка интелигенција може помоћи у бржем и прецизнијем откривању и разоружавању фишинг напада , чак и када нападачи користе исту технологију да би унапредили своју игру.
Детекција злонамерног софтвера и анализа претњи
Модерни малвер се стално развија – нападачи генеришу нове варијанте или замагљују код како би заобишли антивирусне потписе. Генеративна вештачка интелигенција нуди нове технике за откривање малвера и разумевање његовог понашања. Један приступ је коришћење вештачке интелигенције за генерисање „злих близанаца“ малвера : истраживачи безбедности могу да убаце познати узорак малвера у генеративни модел како би креирали многе мутиране варијанте тог малвера. На тај начин, они ефикасно предвиђају измене које би нападач могао да направи. Ове варијанте генерисане вештачком интелигенцијом затим се могу користити за тренирање антивирусних система и система за откривање упада, тако да се чак и модификоване верзије малвера препознају у природи ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Ова проактивна стратегија помаже у прекиду циклуса у којем хакери мало мењају свој малвер како би избегли откривање, а браниоци морају сваки пут да се боре да напишу нове потписе. Као што је наведено у једном индустријском подкасту, стручњаци за безбедност сада користе генеративну вештачку интелигенцију за „симулацију мрежног саобраћаја и генерисање злонамерних корисних садржаја који имитирају софистициране нападе“, тестирајући своју одбрану на оптерећење од целе породице претњи, а не само од једне инстанце. Ово адаптивно откривање претњи значи да безбедносни алати постају отпорнији на полиморфни малвер који би се иначе провукао.
Поред детекције, генеративна вештачка интелигенција помаже у анализи злонамерног софтвера и реверзном инжењерингу , што су традиционално радно интензивни задаци за аналитичаре претњи. Модели великих језика могу бити задужени за испитивање сумњивог кода или скрипти и објашњавање једноставним језиком шта је код намењен да ради. Пример из стварног света је VirusTotal Code Insight , функција компаније VirusTotal компаније Google која користи генеративни модел вештачке интелигенције (Google-ов Sec-PaLM) за креирање резимеа потенцијално злонамерног кода на природном језику ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). То је у суштини „врста ChatGPT-а посвећеног безбедносном кодирању“, који делује као аналитичар злонамерног софтвера помоћу вештачке интелигенције који ради 24/7 како би помогао људским аналитичарима да разумеју претње ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Уместо да се поуздано бавио непознатим скриптама или бинарним кодом, члан безбедносног тима може добити тренутно објашњење од вештачке интелигенције – на пример, „Ова скрипта покушава да преузме датотеку са XYZ сервера, а затим измени системска подешавања, што указује на понашање злонамерног софтвера.“ Ово драматично убрзава реаговање на инциденте, јер аналитичари могу да тријажирају и разумеју нови злонамерни софтвер брже него икад.
Генеративна вештачка интелигенција се такође користи за откривање злонамерног софтвера у огромним скуповима података . Традиционални антивирусни програми скенирају датотеке у потрази за познатим потписима, али генеративни модел може да процени карактеристике датотеке, па чак и да предвиди да ли је злонамерна на основу научених образаца. Анализирајући атрибуте милијарди датотека (злонамерних и бенигних), вештачка интелигенција може да уочи злонамерну намеру тамо где не постоји експлицитни потпис. На пример, генеративни модел може да означи извршну датотеку као сумњиву јер њен профил понашања „изгледа“ као мала варијација ransomware-а који је видео током обуке, иако је бинарна датотека нова. Ова детекција заснована на понашању помаже у сузбијању новог или zero-day злонамерног софтвера. Гуглов вештачки интелигенција за претње (део Chronicle/Mandiant) наводно користи свој генеративни модел за анализу потенцијално злонамерног кода и „ефикасније и делотворније помагање стручњацима за безбедност у борби против злонамерног софтвера и других врста претњи“. ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ).
С друге стране, морамо признати да нападачи могу користити генеративну вештачку интелигенцију и овде – да аутоматски креирају злонамерни софтвер који се сам прилагођава. Заправо, стручњаци за безбедност упозоравају да генеративна вештачка интелигенција може помоћи сајбер криминалцима да развију злонамерни софтвер који је теже открити ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ). Моделу вештачке интелигенције може се наложити да више пута трансформише део злонамерног софтвера (мењајући његову структуру датотека, методе шифровања итд.) док не избегне све познате антивирусне провере. Ова адверзарна употреба је све већа забринутост (понекад се назива „злонамерни софтвер покретан вештачком интелигенцијом“ или полиморфни злонамерни софтвер као услуга). О таквим ризицима ћемо разговарати касније, али то наглашава да је генеративна вештачка интелигенција алат у овој игри мачке и миша коју користе и браниоци и нападачи.
Генерално, генеративна вештачка интелигенција побољшава одбрану од злонамерног софтвера омогућавајући безбедносним тимовима да размишљају као нападач – генеришући нове претње и решења интерно. Било да се ради о производњи синтетичког злонамерног софтвера ради побољшања стопе откривања или коришћењу вештачке интелигенције за објашњење и обуздавање стварног злонамерног софтвера пронађеног у мрежама, ове технике се примењују у свим индустријама. Банка може користити анализу злонамерног софтвера вођену вештачком интелигенцијом да би брзо анализирала сумњиви макро у табели, док производна фирма може да се ослони на вештачку интелигенцију за откривање злонамерног софтвера који циља индустријске контролне системе. Допуњавањем традиционалне анализе злонамерног софтвера генеративном вештачком интелигенцијом, организације могу брже и проактивније него раније да реагују на кампање злонамерног софтвера.
Обавештајни подаци о претњама и аутоматизација анализе
Организације су свакодневно бомбардоване подацима о претњама – од новооткривених индикатора компромитовања (IOC) до аналитичких извештаја о новим хакерским тактикама. Изазов за безбедносне тимове је просејавање ове бујице информација и извлачење корисних увида. Генеративна вештачка интелигенција се показала непроцењивом у аутоматизацији анализе и коришћења обавештајних података о претњама . Уместо ручног читања десетина извештаја или уноса у базу података, аналитичари могу да користе вештачку интелигенцију да сумирају и контекстуализују информације о претњама брзином машине.
Један конкретан пример је Гуглов за обавештајне податке о претњама , који интегрише генеративну вештачку интелигенцију (модел Gemini) са Гугловим богатством података о претњама од Mandiant-а и VirusTotal-а. Ова вештачка интелигенција пружа „конверзациону претрагу у огромном Гугловом спремишту обавештајних података о претњама“ , омогућавајући корисницима да постављају природна питања о претњама и добијају дестиловане одговоре ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). На пример, аналитичар би могао да пита: „Да ли смо видели неки злонамерни софтвер повезан са групом претњи X који циља нашу индустрију?“ и вештачка интелигенција ће извући релевантне информације, можда напомињући „Да, група претњи X је била повезана са фишинг кампањом прошлог месеца користећи злонамерни софтвер Y“ , заједно са резимеом понашања тог злонамерног софтвера. Ово драматично смањује време потребно за прикупљање увида који би иначе захтевали коришћење више алата или читање дугих извештаја.
Генеративна вештачка интелигенција такође може да корелира и сумира трендове претњи . Може да претражи хиљаде објава на блоговима о безбедности, вести о кршењима безбедности и разговоре на тамном вебу, а затим генерише резиме „највећих сајбер претњи ове недеље“ за брифинг CISO-а. Традиционално, овај ниво анализе и извештавања захтевао је значајан људски напор; сада добро подешен модел може да га напише за неколико секунди, а људи само прерађују резултат. Компаније попут ZeroFox-а развиле су FoxGPT , алат генеративне вештачке интелигенције посебно дизајниран да „убрза анализу и сумирање обавештајних података у великим скуповима података“, укључујући злонамерни садржај и податке о фишингу ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Аутоматизацијом тешког посла читања и укрштања података, вештачка интелигенција омогућава тимовима за обавештајне информације о претњама да се фокусирају на доношење одлука и реаговање.
Још један случај употребе је конверзационо лов на претње . Замислите да безбедносни аналитичар комуницира са асистентом вештачке интелигенције: „Покажите ми знаке крађе података у последњих 48 сати“ или „Које су највеће нове рањивости које нападачи искоришћавају ове недеље?“ Вештачка интелигенција може да интерпретира упит, претражи интерне логове или екстерне обавештајне изворе и одговори јасним одговором или чак листом релевантних инцидената. Ово није немогуће – модерни системи за управљање безбедносним информацијама и догађајима (SIEM) почињу да укључују упите на природном језику. IBM-ов QRadar безбедносни пакет, на пример, додаје генеративне функције вештачке интелигенције 2024. године како би аналитичарима омогућио да „постављају […] конкретна питања о резимираном путу напада“ инцидента и добију детаљне одговоре. Такође може да „интерпретира и сумира високо релевантне обавештајне податке о претњама“ ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). У суштини, генеративна вештачка интелигенција претвара планине техничких података у увиде величине ћаскања на захтев.
У свим индустријама, ово има велике импликације. Здравствени радник може користити вештачку интелигенцију да би био у току са најновијим групама ransomware-а које циљају болнице, без посвећивања аналитичара истраживању са пуним радним временом. SOC малопродајне компаније може брзо да сумира нове тактике злонамерног софтвера на POS терминалима када информише ИТ особље продавнице. А у влади, где се подаци о претњама из различитих агенција морају синтетизовати, вештачка интелигенција може да произведе обједињене извештаје који истичу кључна упозорења. Аутоматизацијом прикупљања и тумачења обавештајних података о претњама , генеративна вештачка интелигенција помаже организацијама да брже реагују на нове претње и смањује ризик од пропуштања критичних упозорења скривених у буци.
Оптимизација безбедносног оперативног центра (SOC)
Центри за безбедносне операције су познати по замору од упозорења и огромној количини података. Типичан аналитичар у центрима за безбедносне операције може свакодневно да се пробије кроз хиљаде упозорења и догађаја, истражујући потенцијалне инциденте. Генеративна вештачка интелигенција делује као мултипликатор силе у центрима за безбедносне операције аутоматизацијом рутинског рада, пружањем интелигентних резимеа, па чак и оркестрирањем неких одговора. Циљ је оптимизација токова рада у центрима за безбедносне операције како би се људски аналитичари могли фокусирати на најкритичнија питања док се копилот вештачке интелигенције бави остатком.
Једна од главних примена је коришћење генеративне вештачке интелигенције као „аналитичаревог копилота“ . Мајкрософтов Безбедносни Копилот, раније поменут, илуструје ово: „дизајниран је да помогне безбедносном аналитичару у раду, а не да га замени“, помажући у истрази и извештавању о инцидентима ( Мајкрософт Безбедносни Копилот је нови ГПТ-4 вештачки асистент за сајбер безбедност | The Verge ). У пракси, то значи да аналитичар може да унесе сирове податке – логове заштитног зида, временску линију догађаја или опис инцидента – и да затражи од вештачке интелигенције да их анализира или сумира. Копилот би могао да изнесе наратив попут: „Изгледа да је у 2:35 ујутру дошло до сумњивог пријављивања са ИП адресе X на серверу Y, након чега су уследили неуобичајени преноси података, што указује на потенцијално кршење тог сервера.“ Ова врста непосредне контекстуализације је непроцењива када је време од суштинског значаја.
АИ копилоти такође помажу у смањењу оптерећења тријаже нивоа 1. Према подацима из индустрије, тим за безбедност може провести 15 сати недељно само сортирајући око 22.000 упозорења и лажно позитивних резултата ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Са генеративном вештачком интелигенцијом, многа од ових упозорења могу се аутоматски тријажирати – вештачка интелигенција може одбацити она која су очигледно бенигна (уз дато образложење) и истакнути она којима је заиста потребна пажња, понекад чак и сугеришући приоритет. У ствари, снага генеративне вештачке интелигенције у разумевању контекста значи да може унакрсно корелирати упозорења која могу изгледати безопасно сама по себи, али заједно указују на напад у више фаза. Ово смањује шансу да се пропусти напад због „замора од упозорења“.
Аналитичари SOC-а такође користе природни језик са вештачком интелигенцијом како би убрзали претрагу и истраге. На пример, Purple AI „постављају сложена питања о претњама на једноставном енглеском језику и добијају брзе и тачне одговоре“ ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Аналитичар би могао да откуца: „Да ли су неке крајње тачке комуницирале са доменом badguy123[.]com у последњих месец дана?“ , а Purple AI ће претраживати логове да би одговорио. Ово штеди аналитичара од писања упита за базу података или скрипти – вештачка интелигенција то ради „испод хаубе“. То такође значи да млађи аналитичари могу да обављају задатке који су раније захтевали искусног инжењера вештог у језицима за упите, ефикасно унапређујући тим кроз помоћ вештачке интелигенције . Заиста, аналитичари извештавају да генеративно вођење вештачке интелигенције „побољшава њихове вештине и стручност“ , јер млађи запослени сада могу добити подршку за кодирање на захтев или савете за анализу од вештачке интелигенције, смањујући ослањање на стално тражење помоћи од старијих чланова тима ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ).
Још једна оптимизација SOC-а је аутоматизовано сумирање и документовање инцидената . Након што се инцидент обради, неко мора да напише извештај – задатак који многи сматрају заморним. Генеративна вештачка интелигенција може да узме форензичке податке (системске логове, анализу злонамерног софтвера, временску линију акција) и генерише први нацрт извештаја о инциденту. IBM уграђује ову могућност у QRadar тако да се „једним кликом“ може произвести резиме инцидента за различите заинтересоване стране (руководиоце, ИТ тимове итд.) ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Ово не само да штеди време већ и осигурава да ништа није превиђено у извештају, јер вештачка интелигенција може доследно да укључи све релевантне детаље. Слично томе, за усклађеност и ревизију, вештачка интелигенција може да попуњава обрасце или табеле са доказима на основу података о инцидентима.
Резултати из стварног света су убедљиви. Рани корисници Свимлејновог SOAR-а (оркестрација, аутоматизација и одговор на безбедност) вођеног вештачком интелигенцијом пријављују огромно повећање продуктивности – на пример, Глобал Дејта Системс је видео да њихов SecOps тим управља много већим бројем случајева; један директор је рекао да би „оно што данас радим са 7 аналитичара вероватно захтевало 20 чланова особља без“ аутоматизације коју покреће вештачка интелигенција ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности ). Другим речима, вештачка интелигенција у SOC-у може умножити капацитет . У различитим индустријама, било да је у питању технолошка компанија која се бави упозорењима о безбедности у облаку или производни погон који прати OT системе, SOC тимови могу постићи брже откривање и одговор, мање пропуштених инцидената и ефикасније операције прихватањем генеративних вештачких асистената. Ради се о паметнијем раду – омогућавању машинама да се носе са понављајућим и подацима тешким задацима како би људи могли да примене своју интуицију и стручност тамо где је то најважније.
Управљање рањивостима и симулација претњи
Идентификовање и управљање рањивостима – слабостима у софтверу или системима које нападачи могу да искористе – је кључна функција сајбер безбедности. Генеративна вештачка интелигенција побољшава управљање рањивостима убрзавањем откривања, помагањем у одређивању приоритета закрпа, па чак и симулацијом напада на те рањивости како би се побољшала припремљеност. У суштини, вештачка интелигенција помаже организацијама да брже пронађу и поправе рупе у свом оклопу и проактивно тестирају одбрану пре него што то ураде прави нападачи.
Једна значајна примена је коришћење генеративне вештачке интелигенције за аутоматизовани преглед кода и откривање рањивости . Велике базе кода (посебно застарели системи) често садрже безбедносне пропусте који остају непримећени. Модели генеративне вештачке интелигенције могу се обучити на безбедним праксама кодирања и уобичајеним обрасцима грешака, а затим применити на изворни код или компајлиране бинарне датотеке како би се пронашле потенцијалне рањивости. На пример, истраживачи компаније NVIDIA развили су генеративни вештачки интелигентни систем који би могао да анализира контејнере застарелих софтвера и идентификује рањивости „са високом тачношћу — до 4 пута брже од људских стручњака.“ ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Вештачка интелигенција је у суштини научила како изгледа небезбедан код и била је у стању да скенира деценијама стар софтвер како би означила ризичне функције и библиотеке, знатно убрзавајући иначе спор процес ручне ревизије кода. Ова врста алата може бити прекретница за индустрије попут финансија или владе које се ослањају на велике, старије базе кода — вештачка интелигенција помаже у модернизацији безбедности откривањем проблема за које би особљу могло бити потребно месецима или годинама да их пронађе (ако икада).
Генеративна вештачка интелигенција такође помаже у токовима рада за управљање рањивостима обрадом резултата скенирања рањивости и њиховим одређивањем приоритета. Алати попут Tenable-овог ExposureAI користе генеративну вештачку интелигенцију како би аналитичарима омогућили да испитају податке о рањивостима једноставним језиком и добију тренутне одговоре ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). ExposureAI може „сумирати комплетан пут напада у наративу“ за дату критичну рањивост, објашњавајући како би нападач могао да је повеже са другим слабостима како би угрозио систем. Чак препоручује акције за санацију и одговара на додатна питања о ризику. То значи да када се објави нова критична CVE (Уобичајене рањивости и изложености), аналитичар може да пита вештачку интелигенцију: „Да ли је неки од наших сервера погођен овом CVE и који је најгори могући сценарио ако не закрпимо?“ и да добије јасну процену из сопствених података скенирања организације. Контекстуализацијом рањивости (нпр. ова је изложена интернету и на серверу високе вредности, тако да је врхунског приоритета), генеративна вештачка интелигенција помаже тимовима да паметно закрпљују са ограниченим ресурсима.
Поред проналажења и управљања познатим рањивостима, генеративна вештачка интелигенција доприноси тестирању продора и симулацији напада – у суштини откривању непознатих рањивости или тестирању безбедносних контрола. Генеративне адверзарне мреже (GAN), врста генеративне вештачке интелигенције, коришћене су за креирање синтетичких података који имитирају стварни мрежни саобраћај или понашање корисника, што може укључивати скривене обрасце напада. Студија из 2023. године предложила је коришћење GAN-ова за генерисање реалистичног саобраћаја напада нултог дана како би се тренирали системи за откривање упада ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Уносећи у систем за откривање упада сценарије напада које је креирала вештачка интелигенција (који не ризикују коришћење стварног злонамерног софтвера на производним мрежама), организације могу да тренирају своју одбрану да препозна нове претње без чекања да буду погођене њима у стварности. Слично томе, вештачка интелигенција може да симулира нападача који испитује систем – на пример, аутоматски испробава различите технике експлоатације у безбедном окружењу да би видео да ли ће нека успети. Америчка агенција за напредне истраживачке пројекте у области одбране (DARPA) овде види обећање: њен AI Cyber Challenge за 2023. годину експлицитно користи генеративну AI (попут великих језичких модела) да би „аутоматски пронашла и поправила рањивости у софтверу отвореног кода“ као део такмичења ( DARPA има за циљ развој AI, апликација за аутономију којима ратници могу веровати > Министарство одбране САД > Вести Министарства одбране ). Ова иницијатива наглашава да AI не само да помаже у крпљењу познатих рупа; она активно открива нове и предлаже решења, задатак који је традиционално ограничен на веште (и скупе) истраживаче безбедности.
Генеративна вештачка интелигенција може чак да креира интелигентне „honeypots“-ове и дигиталне близанце за одбрану. Стартапови развијају системе мамаца вођене вештачком интелигенцијом који убедљиво емулирају стварне сервере или уређаје. Како је један извршни директор објаснио, генеративна вештачка интелигенција може да „клонира дигиталне системе како би имитирала стварне и намамила хакере“ ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Ови „honeypots“-ови генерисани вештачком интелигенцијом понашају се као стварно окружење (рецимо, лажни IoT уређај који шаље нормалну телеметрију), али постоје искључиво да би привукли нападаче. Када нападач циља мамац, вештачка интелигенција га је у суштини преварила да открије своје методе, које браниоци затим могу да проуче и користе за ојачавање стварних система. Овај концепт, заснован на генеративном моделирању, пружа визионарски начин да се окрене ситуација против нападача , користећи обману коју је побољшала вештачка интелигенција.
У свим индустријама, брже и паметније управљање рањивостима значи мање пропуста. На пример, у здравству, вештачка интелигенција може брзо да уочи рањиву застарелу библиотеку у медицинском уређају и да подстакне исправку фирмвера пре него што је нападач искористи. У банкарству, вештачка интелигенција може да симулира инсајдерски напад на нову апликацију како би се осигурало да подаци о клијентима остану безбедни у свим сценаријима. Генеративна вештачка интелигенција стога делује и као микроскоп и као тестер стреса за безбедносно стање организација: она открива скривене недостатке и врши притисак на системе на маштовите начине како би се осигурала отпорност.
Безбедно генерисање кода и развој софтвера
Таленти генеративне вештачке интелигенције нису ограничени само на откривање напада – они се протежу и на креирање безбеднијих система од самог почетка . У развоју софтвера, генератори вештачке интелигенције (као што су GitHub Copilot, OpenAI Codex, итд.) могу помоћи програмерима да брже пишу код тако што предлажу исечке кода или чак целе функције. Сајбер безбедност је управо осигуравање да су ови делови кода које предлаже вештачка интелигенција безбедни и коришћење вештачке интелигенције за побољшање пракси кодирања.
С једне стране, генеративна вештачка интелигенција може деловати као асистент у кодирању који уграђује најбоље безбедносне праксе . Програмери могу да покрену алат вештачке интелигенције, „Генериши функцију ресетовања лозинке у Пајтону“, и идеално би било да добију код који је не само функционалан, већ и прати безбедносне смернице (нпр. правилна валидација уноса, евидентирање, руковање грешкама без цурења информација итд.). Такав асистент, обучен на опсежним примерима безбедног кода, може помоћи у смањењу људских грешака које доводе до рањивости. На пример, ако програмер заборави да „санитира“ кориснички унос (отварајући врата SQL убризгавању или сличним проблемима), вештачка интелигенција би то могла или да укључи подразумевано или да их упозори. Неки алати за кодирање вештачке интелигенције сада се фино подешавају подацима усмереним на безбедност како би служили управо овој сврси – у суштини, вештачка интелигенција упарује програмирање са безбедносном свешћу .
Међутим, постоји и друга страна: генеративна вештачка интелигенција може подједнако лако увести рањивости ако се не управља правилно. Као што је Бен Вершерен, стручњак за безбедност компаније Sophos, приметио, коришћење генеративне вештачке интелигенције за кодирање је „у реду за кратак, проверљив код, али ризично када се непроверени код интегрише“ у производне системе. Ризик је у томе што вештачка интелигенција може произвести логички исправан код који је небезбедан на начине које нестручњак можда не би приметио. Штавише, злонамерни актери би могли намерно утицати на јавне моделе вештачке интелигенције тако што би их засејали рањивим обрасцима кода (облик тровања података) тако да вештачка интелигенција предлаже небезбедан код. Већина програмера нису стручњаци за безбедност , тако да ако вештачка интелигенција предложи погодно решење, могли би га слепо користити, не схватајући да има ману ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Ова забринутост је реална – заправо, сада постоји OWASP листа 10 најбољих за LLM (моделе великих језика) која наводи уобичајене ризике попут овог при коришћењу вештачке интелигенције за кодирање.
Да би се супротставили овим проблемима, стручњаци предлажу „борбу против генеративне вештачке интелигенције генеративном вештачком интелигенцијом“ у области кодирања. У пракси, то значи коришћење вештачке интелигенције за преглед и тестирање кода који је написао други вештачки интелигентни интелект (или људи). Вештачка интелигенција може да скенира нове измене кода много брже од људског прегледача кода и да означи потенцијалне рањивости или логичке проблеме. Већ видимо алате који се појављују и интегришу у животни циклус развоја софтвера: код се пише (можда уз помоћ вештачке интелигенције), затим га генеративни модел обучен на принципима безбедног кода прегледа и генерише извештај о свим проблемима (рецимо, коришћење застарелих функција, недостајуће провере аутентификације итд.). Истраживање компаније NVIDIA, поменуто раније, које је постигло 4 пута брже откривање рањивости у коду, је пример коришћења вештачке интелигенције за безбедну анализу кода ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ).
Штавише, генеративна вештачка интелигенција може помоћи у креирању безбедних конфигурација и скрипти . На пример, ако компанија треба да имплементира безбедну cloud инфраструктуру, инжењер би могао да замоли вештачку интелигенцију да генерише конфигурационе скрипте (инфраструктура као код) са уграђеним безбедносним контролама (као што су правилна сегментација мреже, IAM улоге са најмањим привилегијама). вештачка интелигенција, након што је обучена на хиљадама таквих конфигурација, може да произведе основну линију коју инжењер затим фино подешава. Ово убрзава безбедно подешавање система и смањује грешке у погрешној конфигурацији – чест извор инцидената у cloud безбедности.
Неке организације такође користе генеративну вештачку интелигенцију како би одржавале базу знања о безбедним обрасцима кодирања. Ако програмер није сигуран како да безбедно имплементира одређену функцију, може да упита интерну вештачку интелигенцију која је учила из прошлих пројеката компаније и безбедносних смерница. Вештачка интелигенција може да врати препоручени приступ или чак исечак кода који је у складу са функционалним захтевима и безбедносним стандардима компаније. Овај приступ су користили алати попут Secureframe-ове аутоматизације упитника , која извлачи одговоре из политика компаније и прошлих решења како би се осигурали доследни и тачни одговори (у суштини генерисање безбедне документације) ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Концепт се преводи као кодирање: вештачка интелигенција која „памти“ како сте нешто безбедно имплементирали раније и води вас да то поново урадите на тај начин.
Укратко, генеративна вештачка интелигенција утиче на развој софтвера тако што чини помоћ у безбедном кодирању приступачнијом . Индустрије које развијају много прилагођеног софтвера – технологија, финансије, одбрана итд. – имају користи од вештачке интелигенције као копилота који не само да убрзавају кодирање, већ делују и као стално будни рецензенти безбедности. Када се правилно управљају, ови алати вештачке интелигенције могу смањити увођење нових рањивости и помоћи развојним тимовима да се придржавају најбољих пракси, чак и ако тим нема стручњака за безбедност укљученог у сваки корак. Резултат је софтвер који је отпорнији на нападе од првог дана.
Подршка за реаговање на инциденте
Када се догоди инцидент у вези са сајбер безбедношћу – било да је у питању избијање злонамерног софтвера, кршење безбедности података или прекид система услед напада – време је кључно. Генеративна вештачка интелигенција се све више користи за подршку тимовима за реаговање на инциденте (IR) у бржем сузбијању и отклањању инцидената и са више информација при руци. Идеја је да вештачка интелигенција може да преузме део истражног и документационог терета током инцидента, па чак и да предложи или аутоматизује неке акције реаговања.
Једна од кључних улога вештачке интелигенције у односима са јавношћу је анализа и сумирање инцидената у реалном времену . Усред инцидента, реаговаоцима могу бити потребни одговори на питања попут „Како је нападач ушао?“ , „Који системи су погођени?“ и „Који подаци могу бити угрожени?“ . Генеративна вештачка интелигенција може анализирати логове, упозорења и форензичке податке из погођених система и брзо пружити увиде. На пример, Microsoft Security Copilot омогућава реаговаоцу на инциденте да унесе различите доказе (датотеке, URL-ове, логове догађаја) и затражи временску линију или резиме ( Microsoft Security Copilot је нови GPT-4 вештачки асистент за сајбер безбедност | The Verge ). Вештачка интелигенција може одговорити са: „Провал је вероватно почео фишинг имејлом кориснику JohnDoe у 10:53 GMT који је садржао злонамерни софтвер X. Једном покренут, злонамерни софтвер је креирао задња врата која су два дана касније коришћена да се премести латерално на финансијски сервер, где је прикупљао податке.“ Имање ове кохерентне слике за неколико минута уместо сати омогућава тиму да много брже доноси информисане одлуке (као што је које системе изоловати).
Генеративна вештачка интелигенција такође може да предложи мере за обуздавање и санацију . На пример, ако је крајња тачка заражена ransomware-ом, алат вештачке интелигенције може да генерише скрипту или скуп инструкција за изолацију те машине, онемогућавање одређених налога и блокирање познатих злонамерних IP адреса на заштитном зиду – у суштини извршење сценарија. Пало Алто Нетворкс напомиње да је генеративна вештачка интелигенција способна да „генерише одговарајуће акције или скрипте на основу природе инцидента“ , аутоматизујући почетне кораке реаговања ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ). У сценарију где је безбедносни тим преоптерећен (рецимо, широко распрострањен напад на стотинама уређаја), вештачка интелигенција би чак могла директно да изврши неке од ових акција под унапред одобреним условима, делујући као млађи реаговајући агент који неуморно ради. На пример, агент вештачке интелигенције би могао аутоматски да ресетује акредитиве за које сматра да су угрожени или да стави у карантин хостове који показују злонамерну активност која одговара профилу инцидента.
Током реаговања на инцидент, комуникација је од виталног значаја – како унутар тима, тако и са заинтересованим странама. Генеративна вештачка интелигенција може помоћи тако што ће у ходу писати извештаје или брифинге о ажурирању инцидента . Уместо да инжењер прекине решавање проблема да би написао ажурирање путем е-поште, могао би да замоли вештачку интелигенцију: „Укратко објасните шта се до сада догодило у овом инциденту како бисте обавестили руководиоце.“ Вештачка интелигенција, након што је примила податке о инциденту, може да направи сажет резиме: „Од 15 часова, нападачи су приступили 2 корисничка налога и 5 сервера. Погођени подаци укључују записе клијената у бази података X. Мере заштите: VPN приступ за угрожене налоге је опозван, а сервери изоловани. Следећи кораци: скенирање механизама за постојаност.“ Одговорник затим може брзо да провери или измени ово и пошаље, осигуравајући да су заинтересоване стране у току са тачним, ажурираним информацијама.
Након што се прашина слегне, обично се припрема детаљан извештај о инциденту и састављају научене лекције. Ово је још једна област где подршка вештачке интелигенције блиста. Може да прегледа све податке о инциденту и генерише извештај након инцидента који обухвата узрок, хронологију, утицај и препоруке. IBM, на пример, интегрише генеративну вештачку интелигенцију како би креирао „једноставне резимее безбедносних случајева и инцидената који се могу делити са заинтересованим странама“ једним притиском на дугме ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Поједностављивањем извештавања након акције, организације могу брже да имплементирају побољшања и да имају бољу документацију за потребе усклађености.
Једна иновативна употреба усмерена ка будућности су симулације инцидената вођене вештачком интелигенцијом . Слично начину на који се може извести вежба за случај пожара, неке компаније користе генеративну вештачку интелигенцију за пролазак кроз сценарије инцидената „шта ако“. Вештачка интелигенција може симулирати како би се ransomware могао проширити с обзиром на распоред мреже или како би инсајдер могао да изкраде податке, а затим оцени ефикасност тренутних планова реаговања. Ово помаже тимовима да припреме и усаврше планове пре него што дође до стварног инцидента. То је као да имате стално побољшаног саветника за реаговање на инциденте који стално тестира вашу спремност.
У индустријама са високим улозима попут финансија или здравства, где су застоји или губитак података услед инцидената посебно скупи, ове могућности интелигенције вођене вештачком интелигенцијом су веома атрактивне. Болница која доживљава сајбер инцидент не може себи да приушти дуготрајне прекиде система – вештачка интелигенција која брзо помаже у обуздавању може буквално да спасе живот. Слично томе, финансијска институција може да користи вештачку интелигенцију за обраду почетне тријаже сумњивог упада преваре у 3 ујутру, тако да до тренутка када дежурни људи буду онлајн, велики део припремног посла (одјављивање са погођених налога, блокирање трансакција итд.) већ буде обављен. Појачавањем тимова за реаговање на инциденте генеративном вештачком интелигенцијом , организације могу значајно смањити време одзива и побољшати темељност свог поступања, што на крају ублажава штету од сајбер инцидената.
Бихејвиорална аналитика и откривање аномалија
Многи сајбер напади могу се открити примећивањем када нешто одступа од „нормалног“ понашања – било да је у питању кориснички налог који преузима неуобичајену количину података или мрежни уређај који изненада комуницира са непознатим хостом. Генеративна вештачка интелигенција нуди напредне технике за анализу понашања и откривање аномалија , учећи нормалне обрасце корисника и система, а затим означавајући када нешто изгледа чудно.
Традиционално откривање аномалија често користи статистичке прагове или једноставно машинско учење на одређеним метрикама (скокови коришћења процесора, пријављивање у неуобичајено време итд.). Генеративна вештачка интелигенција може ово да оде даље креирањем нијансиранијих профила понашања. На пример, модел вештачке интелигенције може да унесе податке за пријаву, обрасце приступа датотекама и навике слања е-поште запосленог током времена и да формира вишедимензионално разумевање „нормалног“ понашања тог корисника. Ако тај налог касније уради нешто драстично ван своје норме (као што је пријављивање из нове земље и приступање мноштву ХР датотека у поноћ), вештачка интелигенција би открила одступање не само на једној метрици већ као цео образац понашања који не одговара профилу корисника. У техничком смислу, генеративни модели (као што су аутоенкодери или секвенцијални модели) могу да моделирају како „нормално“ изгледа, а затим генеришу очекивани распон понашања. Када стварност падне ван тог распона, то се означава као аномалија ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ).
Једна практична примена је у праћењу мрежног саобраћаја . Према истраживању из 2024. године, 54% америчких организација навело је праћење мрежног саобраћаја као главни случај употребе вештачке интелигенције у сајбер безбедности ( Северна Америка: најбољи случајеви употребе вештачке интелигенције у сајбер безбедности широм света 2024 ). Генеративна вештачка интелигенција може да научи нормалне обрасце комуникације у мрежи предузећа – који сервери обично комуницирају једни са другима, које количине података се крећу током радног времена у односу на ноћ, итд. Ако нападач почне да извлачи податке са сервера, чак и споро да би избегао откривање, систем заснован на вештачкој интелигенцији може приметити да „Сервер А никада не шаље 500 МБ података у 2 ујутру на спољну ИП адресу“ и подићи упозорење. Пошто вештачка интелигенција не користи само статичка правила већ еволуирајући модел понашања мреже, може да ухвати суптилне аномалије које статичка правила (као што је „упозорење ако су подаци > X МБ“) могу пропустити или погрешно означити. Ова адаптивна природа је оно што чини откривање аномалија вођено вештачком интелигенцијом моћним у окружењима као што су мреже банкарских трансакција, облачна инфраструктура или флоте IoT уређаја, где је дефинисање фиксних правила за нормално у односу на абнормално изузетно сложено.
Генеративна вештачка интелигенција такође помаже у аналитици понашања корисника (UBA) , што је кључно за откривање инсајдерских претњи или угрожених налога. Генерисањем основне линије сваког корисника или ентитета, вештачка интелигенција може да открије ствари попут злоупотребе акредитива. На пример, ако Боб из рачуноводства изненада почне да претражује базу података купаца (нешто што никада раније није радио), модел вештачке интелигенције за Бобово понашање ће ово означити као необично. Можда није у питању злонамерни софтвер – могао би бити случај да је нападач украо и користио Бобове акредитиве или да Боб истражује где не би требало. У сваком случају, тим за безбедност добија упозорење да истражи. Такви UBA системи вођени вештачком интелигенцијом постоје у разним безбедносним производима, а технике генеративног моделирања повећавају њихову тачност и смањују лажне аларме узимајући у обзир контекст (можда је Боб на посебном пројекту итд., што вештачка интелигенција понекад може да закључи из других података).
У области управљања идентитетом и приступом, откривање дубоких фалсификата је све већа потреба – генеративна вештачка интелигенција може да креира синтетичке гласове и видео записе који заваравају биометријску безбедност. Занимљиво је да генеративна вештачка интелигенција такође може помоћи у откривању ових дубоких фалсификата анализирањем суптилних артефаката у звуку или видеу које је људима тешко приметити. Видели смо пример са компанијом Accenture, која је користила генеративну вештачку интелигенцију за симулацију безбројних израза лица и услова како би тренирала своје биометријске системе да разликују стварне кориснике од дубоких фалсификата генерисаних вештачком интелигенцијом. Током пет година, овај приступ је помогао компанији Accenture да елиминише лозинке за 90% својих система (прелазећи на биометрију и друге факторе) и смањи нападе за 60% ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). У суштини, користили су генеративну вештачку интелигенцију за јачање биометријске аутентификације, чинећи је отпорном на генеративне нападе (одлична илустрација борбе вештачке интелигенције против вештачке интелигенције). Ова врста моделирања понашања – у овом случају препознавање разлике између живог људског лица и лица синтетизованог вештачком интелигенцијом – је кључна јер се више ослањамо на вештачку интелигенцију у аутентификацији.
Детекција аномалија коју покреће генеративна вештачка интелигенција применљива је у свим индустријама: у здравству, праћење понашања медицинских уређаја у потрази за знацима хаковања; у финансијама, праћење система трговања у потрази за неправилним обрасцима који би могли указивати на превару или алгоритамску манипулацију; у енергетици/комуналним услугама, праћење сигнала система контроле у потрази за знацима упада. Комбинација ширине (посматрање свих аспеката понашања) и дубине (разумевање сложених образаца) коју генеративна вештачка интелигенција пружа чини је моћним алатом за уочавање индикатора сајбер инцидента типа „игла у пласту сена“. Како претње постају све прикривеније, скривајући се међу нормалним операцијама, ова способност прецизног окарактерисања „нормалног“ и упозоравања када нешто одступа постаје витална. Генеративна вештачка интелигенција стога служи као неуморни стражар, који увек учи и ажурира своју дефиницију нормалности како би пратио промене у окружењу и упозоравао безбедносне тимове на аномалије које заслужују пажљивији преглед.
Могућности и предности генеративне вештачке интелигенције у сајбер безбедности
Примена генеративне вештачке интелигенције у сајбер безбедности доноси мноштво могућности и користи за организације које су спремне да прихвате ове алате. У наставку сумирамо кључне предности које генеративну вештачку интелигенцију чине убедљивим додатком програмима сајбер безбедности:
-
Брже откривање и реаговање на претње: Генеративни системи вештачке интелигенције могу анализирати огромне количине података у реалном времену и препознати претње много брже од ручне људске анализе. Ова предност у брзини значи раније откривање напада и брже сузбијање инцидената. У пракси, праћење безбедности вођено вештачком интелигенцијом може открити претње за које би људима требало много дуже да их повежу. Брзим реаговањем на инциденте (или чак аутономним извршавањем почетних одговора), организације могу драматично смањити време задржавања нападача у својим мрежама, минимизирајући штету.
-
Побољшана тачност и покривеност претњи: Пошто континуирано уче из нових података, генеративни модели се могу прилагодити еволуирајућим претњама и ухватити суптилније знаке злонамерне активности. То доводи до побољшане тачности детекције (мање лажно негативних и лажно позитивних резултата) у поређењу са статичким правилима. На пример, вештачка интелигенција која је научила обележја фишинг е-поште или понашања злонамерног софтвера може идентификовати варијанте које никада раније нису виђене. Резултат је шира покривеност типова претњи – укључујући нове нападе – јачајући укупну безбедносну позицију. Безбедносни тимови такође добијају детаљне увиде из анализе вештачке интелигенције (нпр. објашњења понашања злонамерног софтвера), омогућавајући прецизнију и циљану одбрану ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ).
-
Аутоматизација понављајућих задатака: Генеративна вештачка интелигенција се истиче у аутоматизацији рутинских, радно интензивних безбедносних задатака – од прегледања логова и састављања извештаја до писања скрипти за реаговање на инциденте. Ова аутоматизација смањује оптерећење људских аналитичара , ослобађајући их да се фокусирају на стратегију високог нивоа и сложено доношење одлука ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ). Једноставне, али важне послове попут скенирања рањивости, ревизије конфигурације, анализе активности корисника и извештавања о усклађености може да обави (или барем да их прво нацрта) вештачка интелигенција. Обављањем ових задатака брзином машине, вештачка интелигенција не само да побољшава ефикасност већ и смањује људске грешке (значајан фактор у кршењима безбедности).
-
Проактивна одбрана и симулација: Генеративна вештачка интелигенција омогућава организацијама да пређу са реактивне на проактивну безбедност. Кроз технике попут симулације напада, генерисања синтетичких података и обуке засноване на сценаријима, браниоци могу да предвиде и припреме се за претње пре него што се материјализују у стварном свету. Безбедносни тимови могу да симулирају сајбер нападе (фишинг кампање, епидемије злонамерног софтвера, DDoS, итд.) у безбедним окружењима како би тестирали своје одговоре и учврстили све слабости. Ова континуирана обука, коју је често немогуће темељно обавити само људским напорима, одржава одбрану оштром и ажурном. Слично је сајбер „вежби за гашење пожара“ – вештачка интелигенција може да баци многе хипотетичке претње на вашу одбрану како бисте могли да вежбате и усавршавате се.
-
Повећање људске стручности (вештачка интелигенција као мултипликатор силе): Генеративна вештачка интелигенција делује као неуморни млађи аналитичар, саветник и асистент у једном. Може пружити мање искусним члановима тима смернице и препоруке које се обично очекују од искусних стручњака, ефикасно демократизујући стручност у тиму ( 6 случајева употребе генеративне вештачке интелигенције у сајбер безбедности [+ примери] ). Ово је посебно вредно с обзиром на недостатак талената у сајбер безбедности – вештачка интелигенција помаже мањим тимовима да ураде више са мање. Искусни аналитичари, с друге стране, имају користи од вештачке интелигенције која се бави тешким послом и открива неочигледне увиде, које затим могу да потврде и на основу њих делују. Укупан резултат је безбедносни тим који је далеко продуктивнији и способнији, при чему вештачка интелигенција појачава утицај сваког људског члана ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности ).
-
Побољшана подршка у одлучивању и извештавању: Превођењем техничких података у увиде природног језика, генеративна вештачка интелигенција побољшава комуникацију и доношење одлука. Лидери безбедности добијају јаснији увид у проблеме путем резимеа које генерише вештачка интелигенција и могу доносити информисане стратешке одлуке без потребе за анализом сирових података. Слично томе, међуфункционална комуникација (са руководиоцима, службеницима за усклађеност итд.) се побољшава када вештачка интелигенција припрема лако разумљиве извештаје о стању безбедности и инцидентима ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Ово не само да гради поверење и усклађеност по питањима безбедности на нивоу руководства, већ и помаже у оправдавању инвестиција и промена јасним артикулисањем ризика и празнина које је вештачка интелигенција открила.
У комбинацији, ове предности значе да организације које користе генеративну вештачку интелигенцију у сајбер безбедности могу постићи јачи безбедносни положај са потенцијално нижим оперативним трошковима. Могу да одговоре на претње које су раније биле огромне, да покрију празнине које нису биле надгледане и да се континуирано побољшавају кроз повратне спреге вођене вештачком интелигенцијом. На крају крајева, генеративна вештачка интелигенција нуди шансу да се претекне противник тако што ће брзину , обим и софистицираност модерних напада ускладити са подједнако софистицираном одбраном. Како је једно истраживање показало, преко половине пословних и сајбер лидера очекује брже откривање претњи и повећану тачност употребом генеративне вештачке интелигенције ( [PDF] Глобални изгледи за сајбер безбедност 2025 | Светски економски форум ) ( Генеративна вештачка интелигенција у сајбер безбедности: Свеобухватни преглед мастер студија права ... ) – што је доказ оптимизма у вези са предностима ових технологија.
Ризици и изазови коришћења генеративне вештачке интелигенције у сајбер безбедности
Иако су могућности значајне, кључно је приступити генеративној вештачкој интелигенцији у сајбер безбедности отворених очију за ризике и изазове . Слепо поверење у вештачку интелигенцију или њена злоупотреба може довести до нових рањивости. У наставку наводимо главне проблеме и замке, заједно са контекстом за сваку од њих:
-
Супарничка употреба од стране сајбер криминалаца: Исте генеративне могућности које помажу браниоцима могу оснажити нападаче. Актери претњи већ користе генеративну вештачку интелигенцију за креирање убедљивијих фишинг имејлова, креирање лажних персона и дипфејк видео снимака за друштвени инжењеринг, развој полиморфног малвера који се стално мења како би избегао откривање, па чак и аутоматизацију аспеката хаковања ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ). Скоро половина (46%) лидера у сајбер безбедности је забринута да ће генеративна вештачка интелигенција довести до напреднијих супарничких напада ( Генеративна вештачка интелигенција безбедност: Трендови, претње и стратегије ублажавања ). Ова „трка у наоружању вештачком интелигенцијом“ значи да како браниоци усвајају вештачку интелигенцију, нападачи неће много заостајати (у ствари, могу бити испред у неким областима, користећи нерегулисане алате вештачке интелигенције). Организације морају бити спремне за претње побољшане вештачком интелигенцијом које су чешће, софистицираније и теже их је пратити.
-
Халуцинације и нетачност вештачке интелигенције: Генеративни модели вештачке интелигенције могу произвести излазе који су веродостојни, али нетачни или обмањујући – феномен познат као халуцинација. У безбедносном контексту, вештачка интелигенција може анализирати инцидент и погрешно закључити да је одређена рањивост узрок, или може генерисати погрешан скрипт за санацију који не успева да обузда напад. Ове грешке могу бити опасне ако се схвате дословно. Као што NTT Data упозорава, „генеративна вештачка интелигенција може веродостојно да прикаже неистинит садржај, а овај феномен се назива халуцинације... тренутно их је тешко потпуно елиминисати“ ( Безбедносни ризици генеративне вештачке интелигенције и контрамера и њен утицај на сајбер безбедност | NTT DATA Group ). Прекомерно ослањање на вештачку интелигенцију без верификације може довести до погрешно усмерених напора или лажног осећаја сигурности. На пример, вештачка интелигенција може лажно означити критични систем као безбедан када није, или обрнуто, изазвати панику „откривањем“ кршења које се никада није догодило. Ригорозна валидација излаза вештачке интелигенције и укључивање људи у процес доношења критичних одлука је неопходно за ублажавање овог ризика.
-
Лажно позитивни и негативни резултати: У вези са халуцинацијама, ако је модел вештачке интелигенције лоше обучен или конфигурисан, може превише пријавити бенигну активност као злонамерну (лажно позитивни резултати) или, још горе, пропустити стварне претње (лажно негативни резултати) ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности ). Прекомерна лажна упозорења могу преоптеретити безбедносне тимове и довести до замора од упозорења (поништавајући управо добитке у ефикасности које је вештачка интелигенција обећала), док пропуштена откривања остављају организацију изложеном. Подешавање генеративних модела за праву равнотежу је изазовно. Свако окружење је јединствено и вештачка интелигенција можда неће одмах оптимално функционисати одмах по покретању. Континуирано учење је такође мач са две оштрице – ако вештачка интелигенција учи из повратних информација које су искривљене или из окружења које се мења, њена тачност може да варира. Безбедносни тимови морају да прате перформансе вештачке интелигенције и да прилагођавају прагове или дају корективне повратне информације моделима. У контекстима са високим улогом (као што је откривање упада у критичну инфраструктуру), може бити разумно да се предлози вештачке интелигенције покрећу паралелно са постојећим системима током одређеног периода, како би се осигурало да се они усклађују и допуњују, а не да се сукобљавају.
-
Приватност и цурење података: Генеративни системи вештачке интелигенције често захтевају велике количине података за обуку и рад. Ако су ови модели засновани на облаку или нису правилно изоловани, постоји ризик да осетљиве информације процуре. Корисници могу ненамерно унети власничке податке или личне податке у услугу вештачке интелигенције (замислите да замолите ChatGPT да сумира поверљиви извештај о инциденту), а ти подаци би могли постати део знања модела. Заиста, недавно истраживање је открило да 55% уноса у алате генеративне вештачке интелигенције садржи осетљиве или личне податке , што изазива озбиљну забринутост због цурења података ( Безбедност генеративне вештачке интелигенције: Трендови, претње и стратегије ублажавања ). Поред тога, ако је вештачка интелигенција обучена за интерне податке и упитана је на одређене начине, могла би да пошаље делове тих осетљивих података неком другом. Организације морају да примене строге политике руковања подацима (нпр. коришћење локалних или приватних инстанци вештачке интелигенције за осетљив материјал) и да едукују запослене о томе да не лепе тајне информације у јавне алате вештачке интелигенције. Прописи о приватности (GDPR, итд.) такође долазе у обзир – коришћење личних података за обуку вештачке интелигенције без одговарајуће сагласности или заштите могло би бити у супротности са законима.
-
Безбедност и манипулација модела: Модели генеративне вештачке интелигенције сами по себи могу постати мете. Противници могу покушати тровање модела , уносећи злонамерне или обмањујуће податке током фазе обуке или преобуке како би вештачка интелигенција научила погрешне обрасце ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности ). На пример, нападач може суптилно отровати обавештајне податке о претњама тако да вештачка интелигенција не препознаје нападачев сопствени злонамерни софтвер као злонамеран. Друга тактика је брзо убризгавање или манипулација излазом , где нападач проналази начин да изда улазе вештачкој интелигенцији који узрокују да се она понаша на нежељене начине – можда да игнорише своје заштитне ограде или да открије информације које не би требало (као што су интерни упити или подаци). Поред тога, постоји ризик од избегавања модела : нападачи креирају улаз посебно дизајниран да преваре вештачку интелигенцију. То видимо у примерима супарништва – благо поремећени подаци које човек види као нормалне, али их вештачка интелигенција погрешно класификује. Обезбеђивање безбедности ланца снабдевања вештачком интелигенцијом (интегритет података, контрола приступа моделу, тестирање робусности противничких система) је нови, али неопходан део сајбер безбедности приликом примене ових алата ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ).
-
Прекомерно ослањање и ерозија вештина: Постоји мањи ризик да организације постану превише зависне од вештачке интелигенције и дозволе да људске вештине атрофирају. Ако млађи аналитичари почну слепо да верују резултатима вештачке интелигенције, можда неће развити критичко размишљање и интуицију потребне за случајеве када вештачка интелигенција није доступна или је погрешна. Сценарио који треба избегавати је тим за безбедност који има одличне алате, али нема појма како да ради ако ти алати откажу (слично пилотима који се превише ослањају на аутопилот). Редовне вежбе обуке без помоћи вештачке интелигенције и неговање начина размишљања да је вештачка интелигенција асистент, а не непогрешиви пророк, важни су за одржавање оштроумности људских аналитичара. Људи морају остати крајњи доносиоци одлука, посебно за одлуке са великим утицајем.
-
Етички и изазови усклађености: Употреба вештачке интелигенције у сајбер безбедности покреће етичка питања и могла би да покрене проблеме усклађености са прописима. На пример, ако систем вештачке интелигенције погрешно имплицира запосленог као злонамерног инсајдера због аномалије, то би могло неправедно да оштети репутацију или каријеру те особе. Одлуке које доноси вештачка интелигенција могу бити непрозирне (проблем „црне кутије“), што отежава објашњење ревизорима или регулаторима зашто су предузете одређене радње. Како садржај генерисан вештачком интелигенцијом постаје све распрострањенији, обезбеђивање транспарентности и одржавање одговорности је кључно. Регулатори почињу да пажљиво испитују вештачку интелигенцију – Закон ЕУ о вештачкој интелигенцији, на пример, намеће захтеве за „високоризичне“ системе вештачке интелигенције, а вештачка интелигенција у сајбер безбедности могла би да спада у ту категорију. Компаније ће морати да се снађу у овим прописима и евентуално да се придржавају стандарда попут NIST оквира за управљање ризицима вештачке интелигенције како би одговорно користиле генеративну вештачку интелигенцију ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Усклађеност се протеже и на лиценцирање: коришћење модела отвореног кода или модела трећих страна може имати услове који ограничавају одређене употребе или захтевају побољшања дељења.
Укратко, генеративна вештачка интелигенција није чаробни метак – ако се не имплементира пажљиво, може увести нове слабости чак и док решава друге. Студија Светског економског форума из 2024. године истакла је да ~47% организација наводи напредак у генеративној вештачкој интелигенцији од стране нападача као примарну бригу, што је чини „најзабрињавајућим утицајем генеративне вештачке интелигенције“ на сајбер безбедност ( [PDF] Глобални изгледи за сајбер безбедност 2025 | Светски економски форум ) ( Генеративна вештачка интелигенција у сајбер безбедности: Свеобухватни преглед мастер студија права ... ). Организације стога морају да усвоје уравнотежен приступ: да искористе предности вештачке интелигенције, док истовремено ригорозно управљају овим ризицима кроз управљање, тестирање и људски надзор. Затим ћемо разговарати о томе како практично постићи ту равнотежу.
Будући изгледи: Еволуирајућа улога генеративне вештачке интелигенције у сајбер безбедности
Гледајући у будућност, генеративна вештачка интелигенција је спремна да постане саставни део стратегије сајбер безбедности – а такође и алат који ће сајбер противници наставити да користе. Динамика игре мачке и миша ће се убрзати, са вештачком интелигенцијом са обе стране ограде. Ево неких увида у то како би генеративна вештачка интелигенција могла да обликује сајбер безбедност у наредним годинама:
-
Сајбер одбрана проширена вештачком интелигенцијом постаје стандард: До 2025. године и надаље, можемо очекивати да ће већина средњих и великих организација у своје безбедносне операције укључити алате засноване на вештачкој интелигенцији. Баш као што су антивирус и заштитни зидови данас стандард, вештачка интелигенција, копилоти и системи за откривање аномалија могу постати основне компоненте безбедносних архитектура. Ови алати ће вероватно постати специјализованији – на пример, различити модели вештачке интелигенције фино подешени за безбедност у облаку, за праћење IoT уређаја, за безбедност апликацијског кода и тако даље, а сви ће радити усклађено. Као што једно предвиђање наводи, „2025. године, генеративна вештачка интелигенција ће бити саставни део сајбер безбедности, омогућавајући организацијама да се проактивно бране од софистицираних и еволуирајућих претњи“ ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности ). Вештачка интелигенција ће побољшати откривање претњи у реалном времену, аутоматизовати многе акције реаговања и помоћи безбедносним тимовима да управљају знатно већим количинама података него што би то могли ручно.
-
Континуирано учење и адаптација: Будући генеративни системи вештачке интелигенције у сајбер простору ће се побољшати у учењу у ходу из нових инцидената и обавештајних података о претњама, ажурирајући своју базу знања готово у реалном времену. Ово би могло довести до истински адаптивне одбране – замислите вештачку интелигенцију која ујутру сазнаје о новој фишинг кампањи која погађа другу компанију, а до поподнева је већ прилагодила филтере е-поште ваше компаније као одговор. Безбедносне услуге вештачке интелигенције засноване на облаку могле би олакшати ову врсту колективног учења, где анонимни увиди из једне организације користе свим претплатницима (слично дељењу информација о претњама, али аутоматизовано). Међутим, ово ће захтевати пажљиво руковање како би се избегло дељење осетљивих информација и спречило нападаче да уносе лоше податке у дељене моделе.
-
Конвергенција талената за вештачку интелигенцију и сајбер безбедност: Скуп вештина стручњака за сајбер безбедност ће се развијати и обухватити стручност у вештачкој интелигенцији и науци о подацима. Баш као што данашњи аналитичари уче језике за упите и скриптовање, сутрашњи аналитичари би могли редовно да фино подешавају моделе вештачке интелигенције или да пишу „приручнике“ које вештачка интелигенција извршава. Можда ћемо видети нове улоге попут „Тренера за безбедност вештачке интелигенције“ или „Инжењера вештачке интелигенције за сајбер безбедност“ – људи који су специјализовани за прилагођавање алата вештачке интелигенције потребама организације, валидацију њихових перформанси и осигуравање да безбедно раде. Са друге стране, разматрања сајбер безбедности ће све више утицати на развој вештачке интелигенције. Системи вештачке интелигенције биће изграђени са безбедносним карактеристикама од темеља (безбедна архитектура, детекција неовлашћених измена, евиденција ревизије за одлуке вештачке интелигенције итд.), а оквири за поуздану вештачку интелигенцију (фер, објашњив, робустан и безбедан) ће водити њихово распоређивање у безбедносно критичним контекстима.
-
Софистициранији напади покретани вештачком интелигенцијом: Нажалост, пејзаж претњи ће се такође развијати заједно са вештачком интелигенцијом. Очекујемо чешћу употребу вештачке интелигенције за откривање рањивости „нултог дана“, за креирање високо циљаног „спеар фишинга“ (нпр. вештачка интелигенција претражује друштвене мреже ради креирања савршено прилагођеног мамца) и за генерисање убедљивих дубоко лажних гласова или видео записа како би се заобишла биометријска аутентификација или извршила превара. Могу се појавити аутоматизовани агенти за хаковање који могу самостално да изводе вишестепене нападе (извиђање, експлоатација, бочно кретање итд.) уз минималан људски надзор. Ово ће присилити браниоце да се такође ослањају на вештачку интелигенцију – у суштини аутоматизација наспрам аутоматизације . Неки напади се могу догодити брзином машине, попут вештачке интелигенције која покушава хиљаду пермутација фишинг имејлова да би видела која пролази филтере. Сајбер одбрана ће морати да ради сличном брзином и флексибилношћу да би пратила корак ( Шта је генеративна вештачка интелигенција у сајбер безбедности? - Пало Алто Нетворкс ).
-
Регулација и етичка вештачка интелигенција у безбедности: Како се вештачка интелигенција буде дубоко уграђивала у функције сајбер безбедности, доћи ће до веће контроле и могуће регулације како би се осигурало да се ови системи вештачке интелигенције користе одговорно. Можемо очекивати оквире и стандарде специфичне за вештачку интелигенцију у безбедности. Владе би могле да поставе смернице за транспарентност – нпр. захтевајући да значајне безбедносне одлуке (као што је прекид приступа запосленог због сумње на злонамерну активност) не може доносити само вештачка интелигенција без људске провере. Такође могу постојати сертификати за безбедносне производе вештачке интелигенције, како би се купцима уверили да је вештачка интелигенција оцењена у погледу пристрасности, робусности и безбедности. Штавише, међународна сарадња би се могла проширити око сајбер претњи повезаних са вештачком интелигенцијом; на пример, споразуми о поступању са дезинформацијама које је створила вештачка интелигенција или норме против одређеног сајбер оружја покретаног вештачком интелигенцијом.
-
Интеграција са ширим вештачком интелигенцијом и ИТ екосистемима: Генеративна вештачка интелигенција у сајбер безбедности ће се вероватно интегрисати са другим вештачким интелигенцијом (ВИ) и алатима за управљање ИТ-ом. На пример, ВИ која управља оптимизацијом мреже могла би да сарађује са ВИ за безбедност како би се осигурало да промене не отварају рупе у закону. Пословна аналитика вођена ВИ могла би да дели податке са ВИ за безбедност како би се повезале аномалије (као што је нагли пад продаје са могућим проблемом са веб-сајтом услед напада). У суштини, ВИ неће живети у силосу – биће део већег интелигентног ткива пословања организације. Ово отвара могућности за холистичко управљање ризицима где би оперативни подаци, подаци о претњама, па чак и подаци о физичкој безбедности могли бити комбиновани од стране ВИ како би се добио 360-степени поглед на стање безбедности организације.
Дугорочно гледано, нада је да ће генеративна вештачка интелигенција помоћи да се равнотежа преокрене у корист бранилаца. Рукујући обимом и сложеношћу модерних ИТ окружења, вештачка интелигенција може учинити сајбер простор одбрањивијим. Међутим, то је путовање и биће проблема док усавршавамо ове технологије и учимо да им верујемо на одговарајући начин. Организације које остају информисане и улажу у одговорно усвајање вештачке интелигенције ради безбедности вероватно ће бити оне које су најбоље позициониране да се носе са претњама будућности.
Као што је наведено у недавном извештају Гартнера о трендовима у сајбер безбедности, „појава генеративних случајева употребе (и ризика) вештачке интелигенције ствара притисак на трансформацију“ ( Трендови у сајбер безбедности: Отпорност кроз трансформацију - Гартнер ). Они који се прилагоде искористиће вештачку интелигенцију као моћног савезника; они који заостају могу се наћи у ситуацији да их надмаше противници оснажени вештачком интелигенцијом. Наредних неколико година биће кључно време у дефинисању начина на који вештачка интелигенција мења сајбер бојиште.
Практични закључци за усвајање генеративне вештачке интелигенције у сајбер безбедности
За предузећа која процењују како да искористе генеративну вештачку интелигенцију у својој стратегији сајбер безбедности, ево неколико практичних закључака и препорука које ће водити одговорно и ефикасно усвајање:
-
Почните са образовањем и обуком: Осигурајте да ваш тим за безбедност (и шире ИТ особље) разуме шта генеративна вештачка интелигенција може, а шта не може да уради. Обезбедите обуку о основама безбедносних алата заснованих на вештачкој интелигенцији и ажурирајте своје програме подизања безбедносне свести за све запослене како би обухватили претње које омогућава вештачка интелигенција. На пример, научите особље како вештачка интелигенција може да генерише веома убедљиве фишинг преваре и дипфејк позиве. Истовремено, обучите запослене о безбедној и одобреној употреби алата вештачке интелигенције у њиховом раду. Добро информисани корисници имају мању вероватноћу да погрешно рукују вештачком интелигенцијом или постану жртве напада побољшаних вештачком интелигенцијом ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ).
-
Дефинишите јасне политике коришћења вештачке интелигенције: Третирајте генеративну вештачку интелигенцију као било коју моћну технологију – уз управљање. Развијте политике које одређују ко може да користи алате вештачке интелигенције, који алати су одобрени и у које сврхе. Укључите смернице о руковању осетљивим подацима (нпр. без уношења поверљивих података у екстерне сервисе вештачке интелигенције) како бисте спречили цурење. На пример, можете дозволити само члановима безбедносног тима да користе интерног асистента вештачке интелигенције за реаговање на инциденте, а маркетинг може да користи проверену вештачку интелигенцију за садржај – сви остали су ограничени. Многе организације сада експлицитно обраћају пажњу на генеративну вештачку интелигенцију у својим ИТ политикама, а водећа тела за стандардизацију подстичу политике безбедне употребе, а не потпуне забране ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Обавезно саопштите ова правила и образложење које стоји иза њих свим запосленима.
-
Ублажите „сенковиту вештачку интелигенцију“ и пратите употребу: Слично као код сенки у ИТ сектору, „сенковита вештачка интелигенција“ настаје када запослени почну да користе алате или услуге вештачке интелигенције без знања ИТ одељења (нпр. програмер користи неовлашћеног асистента за писање кода помоћу вештачке интелигенције). Ово може увести невидљиве ризике. Имплементирајте мере за откривање и контролу несанкционисане употребе вештачке интелигенције . Праћење мреже може означити везе са популарним АПИ-јима вештачке интелигенције, а анкете или ревизије алата могу открити шта запослени користе. Понудите одобрене алтернативе како запослени са добрим намерама не би били у искушењу да се понашају неовлашћено (на пример, обезбедите званични ChatGPT Enterprise налог ако људи сматрају да је користан). Изношењем употребе вештачке интелигенције на видело, безбедносни тимови могу да процене и управљају ризиком. Праћење је такође кључно – евидентирајте активности и излазе алата вештачке интелигенције колико год је то могуће, како би постојао ревизорски траг за одлуке на које је вештачка интелигенција утицала ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ).
-
Искористите вештачку интелигенцију у одбрани – не заостајте: Схватите да ће нападачи користити вештачку интелигенцију, па би то требало да уради и ваша одбрана. Идентификујте неколико области са великим утицајем где генеративна вештачка интелигенција може одмах да помогне вашим безбедносним операцијама (можда тријажа упозорења или аутоматизована анализа логова) и покрените пилот пројекте. Појачајте своју одбрану брзином и обимом вештачке интелигенције како бисте се супротставили брзим претњама („ Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света“ ). Чак и једноставне интеграције, попут коришћења вештачке интелигенције за сумирање извештаја о злонамерном софтверу или генерисање упита за лов на претње, могу уштедети аналитичарима сате. Почните са малим, процените резултате и поновите. Успеси ће изградити аргументе за шире усвајање вештачке интелигенције. Циљ је користити вештачку интелигенцију као мултипликатор силе – на пример, ако фишинг напади преплављују вашу службу за помоћ, примените класификатор имејлова заснован на вештачкој интелигенцији како бисте проактивно смањили тај обим.
-
Инвестирајте у безбедне и етичке праксе вештачке интелигенције: Приликом имплементације генеративне вештачке интелигенције, пратите праксе безбедног развоја и имплементације. Користите приватне или самостално хостоване моделе за осетљиве задатке како бисте задржали контролу над подацима. Ако користите услуге вештачке интелигенције трећих страна, прегледајте њихове мере безбедности и приватности (шифровање, политике задржавања података итд.). Укључите оквире за управљање ризицима вештачке интелигенције (као што је NIST-ов оквир за управљање ризицима вештачке интелигенције или ISO/IEC смернице) како бисте систематски решили ствари попут пристрасности, објашњивости и робусности у вашим алатима вештачке интелигенције ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности? 10 примера из стварног света ). Такође планирајте ажурирања/закрпе модела као део одржавања – модели вештачке интелигенције такође могу имати „рањивости“ (нпр. можда ће им бити потребна поновна обука ако почну да се разликују или ако се открије нова врста противниковог напада на модел). Укључивањем безбедности и етике у употребу вештачке интелигенције, градите поверење у резултате и осигуравате усклађеност са новим прописима.
-
Држите људе у току: Користите вештачку интелигенцију да помогнете, а не да у потпуности замените, људско расуђивање у сајбер безбедности. Одредите тачке доношења одлука где је потребна људска валидација (на пример, вештачка интелигенција може да састави извештај о инциденту, али га аналитичар прегледа пре дистрибуције; или вештачка интелигенција може да предложи блокирање корисничког налога, али човек одобрава ту акцију). Ово не само да спречава да грешке вештачке интелигенције остану непроверене, већ и помаже вашем тиму да учи од вештачке интелигенције и обрнуто. Подстичите колаборативни ток рада: аналитичари би требало да се осећају пријатно преиспитујући резултате вештачке интелигенције и вршећи провере исправности. Временом, овај дијалог може побољшати и вештачку интелигенцију (кроз повратне информације) и вештине аналитичара. У суштини, дизајнирајте своје процесе тако да се снаге вештачке интелигенције и људских ресурса допуњују – вештачка интелигенција обрађује количину и брзину, људи обрађују двосмислености и коначне одлуке.
-
Мерење, праћење и прилагођавање: Коначно, третирајте своје генеративне алате вештачке интелигенције као живе компоненте вашег безбедносног екосистема. Континуирано мерите њихове перформансе – да ли смањују време реаговања на инциденте? Да ли раније откривају претње? Како се креће стопа лажно позитивних резултата? Тражите повратне информације од тима: да ли су препоруке вештачке интелигенције корисне или стварају буку? Користите ове метрике за усавршавање модела, ажурирање података о обуци или прилагођавање начина на који је вештачка интелигенција интегрисана. Сајбер претње и пословне потребе се развијају, а ваше моделе вештачке интелигенције треба периодично ажурирати или поново обучавати како би остали ефикасни. Имајте план за управљање моделом, укључујући ко је одговоран за његово одржавање и колико често се преиспитује. Активним управљањем животним циклусом вештачке интелигенције, осигуравате да она остане предност, а не обавеза.
Закључно, генеративна вештачка интелигенција може значајно побољшати могућности сајбер безбедности, али успешно усвајање захтева пажљиво планирање и континуирани надзор. Предузећа која едукују своје људе, постављају јасне смернице и интегришу вештачку интелигенцију на уравнотежен и безбедан начин убраће плодове бржег и паметнијег управљања претњама. Ове закључке пружају мапу пута: комбинујте људску стручност са аутоматизацијом вештачке интелигенције, покријте основе управљања и одржавајте агилност како се и технологија вештачке интелигенције и пејзаж претњи неизбежно развијају.
Предузимањем ових практичних корака, организације могу са сигурношћу одговорити на питање „Како се генеративна вештачка интелигенција може користити у сајбер безбедности?“ – не само у теорији, већ и у свакодневној пракси – и тиме ојачати своју одбрану у нашем све дигиталнијем свету који је све више вођен вештачком интелигенцијом. ( Како се генеративна вештачка интелигенција може користити у сајбер безбедности )
Беле књиге које бисте можда желели да прочитате након ове:
🔗 Послови које вештачка интелигенција не може да замени и које послове ће вештачка интелигенција заменити?
Истражите глобални поглед на то које су улоге безбедне од аутоматизације, а које нису.
🔗 Може ли вештачка интелигенција предвидети берзу?
Детаљнији поглед на ограничења, открића и митове о способности вештачке интелигенције да предвиди кретања на тржишту.
🔗 На шта се генеративна вештачка интелигенција може ослонити без људске интервенције?
Разумети где вештачка интелигенција може да функционише самостално, а где је људски надзор и даље неопходан.