How Can Generative AI Be Used in Cybersecurity?

Jak można zastosować generatywne sztuczne inteligencje w cyberbezpieczeństwie ?

Wstęp

Generative AI – systemy sztucznej inteligencji zdolne do tworzenia nowych treści lub przewidywań – wyłaniają się jako siła transformacyjna w cyberbezpieczeństwie. Narzędzia takie jak GPT-4 firmy OpenAI wykazały zdolność do analizowania złożonych danych i generowania tekstu przypominającego tekst ludzki, umożliwiając nowe podejścia do obrony przed cyberzagrożeniami. Specjaliści ds. cyberbezpieczeństwa i decydenci biznesowi z różnych branż badają, w jaki sposób generative AI może wzmocnić obronę przed ewoluującymi atakami. Od finansów i opieki zdrowotnej po handel detaliczny i administrację rządową, organizacje w każdym sektorze stają w obliczu wyrafinowanych prób phishingu, złośliwego oprogramowania i innych zagrożeń, którym generative AI może pomóc przeciwdziałać. W tym dokumencie badamy jak sztuczna inteligencja generatywna może być wykorzystywana w cyberbezpieczeństwie, podkreślając rzeczywiste zastosowania, przyszłe możliwości i ważne kwestie dotyczące wdrożenia.

Sztuczna inteligencja generatywna różni się od tradycyjnej sztucznej inteligencji analitycznej nie tylko tym, że wykrywa wzorce, ale także tworzenie treści – czy to symulowanie ataków w celu trenowania obrony, czy tworzenie wyjaśnień w języku naturalnym dla złożonych danych bezpieczeństwa. Ta podwójna zdolność sprawia, że ​​jest to miecz obosieczny: oferuje potężne nowe narzędzia obronne, ale aktorzy zagrożeń również mogą go wykorzystać. W poniższych sekcjach omówiono szeroki zakres przypadków użycia generatywnej AI w cyberbezpieczeństwie, od automatyzacji wykrywania phishingu po poprawę reagowania na incydenty. Omawiamy również korzyści, jakie obiecują te innowacje AI, a także ryzyka (takie jak „halucynacje” AI lub niewłaściwe użycie), którymi organizacje muszą zarządzać. Na koniec przedstawiamy praktyczne wnioski, które pomogą firmom ocenić i odpowiedzialnie zintegrować generatywną AI ze swoimi strategiami cyberbezpieczeństwa.

Generatywna sztuczna inteligencja w cyberbezpieczeństwie: przegląd

Generatywna sztuczna inteligencja w cyberbezpieczeństwie odnosi się do modeli sztucznej inteligencji – często dużych modeli językowych lub innych sieci neuronowych – które mogą generować spostrzeżenia, zalecenia, kod, a nawet syntetyczne dane, aby pomóc w zadaniach związanych z bezpieczeństwem. W przeciwieństwie do modeli czysto predykcyjnych, generatywna sztuczna inteligencja może symulować scenariusze i generować czytelne dla człowieka wyniki (np. raporty, alerty, a nawet złośliwe próbki kodu) na podstawie danych treningowych. Ta zdolność jest wykorzystywana do przewidywać, wykrywać i reagować na zagrożenia w bardziej dynamiczny sposób niż dotychczas (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks). Na przykład modele generatywne mogą analizować ogromne logi lub repozytoria informacji o zagrożeniach i tworzyć zwięzłe podsumowanie lub zalecane działania, działając niemal jak „asystent” AI dla zespołów ds. bezpieczeństwa.

Wczesne implementacje generatywnej AI do cyberobrony okazały się obiecujące. W 2023 r. Microsoft wprowadził Drugi pilot ds. bezpieczeństwa, asystenta dla analityków ds. bezpieczeństwa opartego na GPT-4, który pomaga identyfikować naruszenia i przeszukiwać 65 bilionów sygnałów przetwarzanych codziennie przez firmę Microsoft (Microsoft Security Copilot to nowy asystent GPT-4 AI do cyberbezpieczeństwa | The VergeAnalitycy mogą podpowiadać temu systemowi w języku naturalnym (np. „Podsumuj wszystkie incydenty bezpieczeństwa w ciągu ostatnich 24 godzin”), a drugi pilot przygotuje użyteczne podsumowanie narracyjne. Podobnie Google Sztuczna inteligencja w zakresie zagrożeń wykorzystuje model generatywny zwany Bliźnięta aby umożliwić konwersacyjne wyszukiwanie w ogromnej bazie danych zagrożeń Google, szybko analizując podejrzany kod i podsumowując ustalenia, co pomoże łowcom złośliwego oprogramowania (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Poniższe przykłady ilustrują potencjał sztucznej inteligencji: generatywna sztuczna inteligencja może przetwarzać złożone, rozległe dane dotyczące cyberbezpieczeństwa i przedstawiać wnioski w przystępnej formie, przyspieszając podejmowanie decyzji.

Jednocześnie generatywna sztuczna inteligencja może tworzyć niezwykle realistyczne fałszywe treści, co jest niezwykle przydatne w symulacjach i szkoleniach (a także, niestety, dla atakujących stosujących inżynierię społeczną).Przechodząc do konkretnych przypadków użycia, zobaczymy, że zdolność generatywnej sztucznej inteligencji do syntetyzować I analizować informacje stanowią podstawę wielu aplikacji cyberbezpieczeństwa. Poniżej zagłębiamy się w kluczowe przypadki użycia, obejmujące wszystko, od zapobiegania phishingowi po bezpieczny rozwój oprogramowania, z przykładami, jak każdy z nich jest stosowany w różnych branżach.

Kluczowe zastosowania generatywnej sztucznej inteligencji w cyberbezpieczeństwie

Rysunek: Kluczowe przypadki użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie obejmują drugich pilotów sztucznej inteligencji dla zespołów ds. bezpieczeństwa, analizę luk w zabezpieczeniach kodu, adaptacyjne wykrywanie zagrożeń, symulację ataków typu zero-day, ulepszone zabezpieczenia biometryczne i wykrywanie phishingu (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ).

Wykrywanie i zapobieganie phishingowi

Phishing pozostaje jednym z najbardziej rozpowszechnionych cyberzagrożeń, nakłaniając użytkowników do klikania złośliwych linków lub ujawniania danych uwierzytelniających. Generatywna sztuczna inteligencja jest wdrażana zarówno wykrywaj próby phishingu i wzmocnić szkolenie użytkowników, aby zapobiec udanym atakom. Po stronie obronnej modele AI mogą analizować zawartość wiadomości e-mail i zachowania nadawców, aby wykryć subtelne oznaki phishingu, których filtry oparte na regułach mogą nie zauważyć. Ucząc się z dużych zestawów danych dotyczących legalnych i oszukańczych wiadomości e-mail, model generatywny może sygnalizować anomalie w tonie, sformułowaniu lub kontekście, które wskazują na oszustwo – nawet jeśli gramatyka i pisownia już tego nie zdradzają. W rzeczywistości badacze z Palo Alto Networks zauważają, że generatywna AI może identyfikować „subtelne oznaki wiadomości e-mail typu phishing, które w innym przypadku mogłyby pozostać niezauważone” pomagamy organizacjom wyprzedzać oszustów o krok (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks).

Zespoły ds. bezpieczeństwa wykorzystują również sztuczną inteligencję generatywną, aby symulować ataki phishingowe do celów szkoleniowych i analitycznych. Na przykład Ironscales wprowadziło narzędzie do symulacji phishingu oparte na GPT, które automatycznie generuje fałszywe wiadomości e-mail phishingowe dostosowane do pracowników organizacji (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Te tworzone przez AI wiadomości e-mail odzwierciedlają najnowsze taktyki atakujących, dając personelowi realistyczną praktykę w wykrywaniu treści phishingowych. Takie spersonalizowane szkolenie jest kluczowe, ponieważ atakujący sami przyjmują AI, aby tworzyć bardziej przekonujące przynęty. Co ciekawe, podczas gdy generatywna AI może tworzyć bardzo dopracowane wiadomości phishingowe (minęły czasy łatwo zauważalnego łamanego angielskiego), obrońcy odkryli, że AI nie jest niepokonana. W 2024 r. badacze IBM Security przeprowadzili eksperyment porównujący wiadomości phishingowe pisane przez ludzi z wiadomościami generowanymi przez AI, a „ku zaskoczeniu, e-maile generowane przez sztuczną inteligencję były nadal łatwe do wykrycia, pomimo że ich gramatyka była poprawna” (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Sugeruje to, że ludzka intuicja połączona z wykrywaniem wspomaganym przez sztuczną inteligencję nadal może rozpoznawać subtelne nieścisłości lub sygnały metadanych w oszustwach pisanych przez sztuczną inteligencję.

Generative AI wspomaga obronę przed phishingiem również na inne sposoby. Modele mogą być używane do generowania automatyczne odpowiedzi lub filtry które testują podejrzane wiadomości e-mail. Na przykład system AI mógłby odpowiedzieć na wiadomość e-mail za pomocą pewnych zapytań, aby zweryfikować wiarygodność nadawcy lub użyć LLM do analizy linków i załączników wiadomości e-mail w piaskownicy, a następnie podsumować wszelkie złośliwe intencje. Platforma bezpieczeństwa NVIDIA Morfeusz demonstruje moc sztucznej inteligencji w tej dziedzinie – wykorzystuje generatywne modele przetwarzania języka naturalnego do szybkiej analizy i klasyfikacji wiadomości e-mail, a także, jak wykazano, poprawia wykrywanie wiadomości e-mail typu spear-phishing 21% w porównaniu do tradycyjnych narzędzi bezpieczeństwa (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Morpheus profiluje nawet wzorce komunikacji użytkownika, aby wykryć nietypowe zachowania (np. użytkownik nagle wysyłający e-maile na wiele zewnętrznych adresów), co może wskazywać na przejęte konto wysyłające e-maile phishingowe.

W praktyce firmy z różnych branż zaczynają ufać AI w zakresie filtrowania poczty e-mail i ruchu internetowego pod kątem ataków socjotechnicznych. Na przykład firmy finansowe używają generatywnej AI do skanowania komunikacji pod kątem prób podszywania się, które mogą prowadzić do oszustw telekomunikacyjnych, podczas gdy dostawcy usług opieki zdrowotnej wdrażają AI w celu ochrony danych pacjentów przed naruszeniami związanymi z phishingiem. Generując realistyczne scenariusze phishingu i identyfikując cechy charakterystyczne złośliwych wiadomości, generatywna AI dodaje potężną warstwę do strategii zapobiegania phishingowi. Wnioski: Sztuczna inteligencja może pomóc w wykrywaniu i rozbrajaniu ataków phishingowych szybciej i dokładniej, nawet jeśli atakujący wykorzystują tę samą technologię, aby udoskonalić swoją grę.

Wykrywanie złośliwego oprogramowania i analiza zagrożeń

Nowoczesne złośliwe oprogramowanie nieustannie ewoluuje – atakujący generują nowe warianty lub zaciemniają kod, aby ominąć sygnatury antywirusowe. Generatywna sztuczna inteligencja oferuje nowe techniki wykrywania złośliwego oprogramowania i zrozumienia jego zachowania. Jednym z podejść jest wykorzystanie sztucznej inteligencji do generować „złe bliźniaki” złośliwego oprogramowania: badacze bezpieczeństwa mogą wprowadzić znaną próbkę złośliwego oprogramowania do modelu generatywnego, aby utworzyć wiele zmutowanych wariantów tego złośliwego oprogramowania. Dzięki temu skutecznie przewidują zmiany, jakie może wprowadzić atakujący. Te warianty wygenerowane przez sztuczną inteligencję mogą być następnie wykorzystane do trenowania systemów antywirusowych i wykrywania włamań, tak aby nawet zmodyfikowane wersje złośliwego oprogramowania były rozpoznawane w środowisku naturalnym (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Ta proaktywna strategia pomaga przerwać cykl, w którym hakerzy nieznacznie zmieniają swoje złośliwe oprogramowanie, aby uniknąć wykrycia, a obrońcy muszą za każdym razem tworzyć nowe podpisy. Jak zauważono w jednym z branżowych podcastów, eksperci ds. bezpieczeństwa wykorzystują obecnie generatywną sztuczną inteligencję, aby „symulować ruch sieciowy i generować złośliwe ładunki, które imitują wyrafinowane ataki” testując ich obronę przed całą rodziną zagrożeń, a nie pojedynczym przypadkiem. To adaptacyjne wykrywanie zagrożeń oznacza, że ​​narzędzia zabezpieczające stają się bardziej odporne na złośliwe oprogramowanie polimorficzne, które w przeciwnym razie mogłoby się przedostać.

Oprócz wykrywania, sztuczna inteligencja generatywna pomaga w analiza złośliwego oprogramowania i inżynieria wsteczna, które tradycyjnie są pracochłonnymi zadaniami dla analityków zagrożeń. Duże modele językowe mogą zostać obciążone zadaniem zbadania podejrzanego kodu lub skryptów i wyjaśnienia prostym językiem, co kod ma robić. Przykładem z prawdziwego świata jest Wgląd w kod VirusTotal, funkcja opracowana przez VirusTotal firmy Google, która wykorzystuje generatywny model sztucznej inteligencji (Sec-PaLM firmy Google) w celu tworzenia podsumowań w języku naturalnym potencjalnie złośliwego kodu (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata) To jest zasadniczo „typ ChatGPT przeznaczony do kodowania bezpieczeństwa” działając jako analityk złośliwego oprogramowania AI, który pracuje 24 godziny na dobę, 7 dni w tygodniu, aby pomóc analitykom ludzkim zrozumieć zagrożenia (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Zamiast wgłębiać się w nieznany skrypt lub kod binarny, członek zespołu ds. bezpieczeństwa może uzyskać natychmiastowe wyjaśnienie od AI – na przykład, „Ten skrypt próbuje pobrać plik z serwera XYZ, a następnie zmodyfikować ustawienia systemowe, co wskazuje na działanie złośliwego oprogramowania”. Znacznie przyspiesza to reakcję na incydenty, ponieważ analitycy mogą szybciej niż kiedykolwiek wcześniej selekcjonować i analizować nowe złośliwe oprogramowanie.

Sztuczna inteligencja generatywna jest również wykorzystywana do zlokalizować złośliwe oprogramowanie w ogromnych zestawach danychTradycyjne silniki antywirusowe skanują pliki pod kątem znanych sygnatur, ale model generatywny może oceniać cechy pliku, a nawet przewidywać, czy jest złośliwy, na podstawie wyuczonych wzorców. Analizując atrybuty miliardów plików (złośliwych i łagodnych), sztuczna inteligencja może wychwycić złośliwe zamiary tam, gdzie nie ma wyraźnego podpisu.Na przykład model generatywny może oznaczyć plik wykonywalny jako podejrzany ze względu na jego profil zachowania „wygląda” jak niewielka odmiana ransomware, którą zobaczył podczas szkolenia, mimo że plik binarny jest nowy. To wykrywanie oparte na zachowaniu pomaga zwalczać nowe lub zero-day malware. Według doniesień, sztuczna inteligencja Threat Intelligence firmy Google (część Chronicle/Mandiant) wykorzystuje swój model generatywny do analizy potencjalnie złośliwego kodu i „bardziej efektywnie i skutecznie pomagać specjalistom ds. bezpieczeństwa w walce ze złośliwym oprogramowaniem i innymi rodzajami zagrożeń”. (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata).

Z drugiej strony musimy przyznać, że atakujący mogą używać tutaj również generatywnej AI – aby automatycznie tworzyć złośliwe oprogramowanie, które dostosowuje się samo. W rzeczywistości eksperci ds. bezpieczeństwa ostrzegają, że generatywna sztuczna inteligencja może pomóc cyberprzestępcom w tworzeniu złośliwego oprogramowania który jest trudniejszy do wykrycia (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks). Model AI może zostać poinstruowany, aby wielokrotnie przekształcał fragment złośliwego oprogramowania (zmieniając jego strukturę plików, metody szyfrowania itp.), aż ominie wszystkie znane kontrole antywirusowe. To antagonistyczne wykorzystanie budzi coraz większe obawy (czasami określane jako „złośliwe oprogramowanie oparte na sztucznej inteligencji” lub polimorficzne złośliwe oprogramowanie jako usługa). Omówimy takie zagrożenia później, ale podkreśla to, że generatywna sztuczna inteligencja jest narzędziem w tej grze w kotka i myszkę, z której korzystają zarówno obrońcy, jak i atakujący.

Ogólnie rzecz biorąc, sztuczna inteligencja generatywna zwiększa ochronę przed złośliwym oprogramowaniem, umożliwiając zespołom ds. bezpieczeństwa myśleć jak napastnik – generowanie nowych zagrożeń i rozwiązań wewnętrznie. Niezależnie od tego, czy chodzi o produkcję syntetycznego złośliwego oprogramowania w celu zwiększenia wskaźników wykrywania, czy o wykorzystanie sztucznej inteligencji do wyjaśnienia i powstrzymania prawdziwego złośliwego oprogramowania znalezionego w sieciach, techniki te mają zastosowanie w różnych branżach. Bank może wykorzystać analizę złośliwego oprogramowania opartą na sztucznej inteligencji do szybkiej analizy podejrzanego makro w arkuszu kalkulacyjnym, podczas gdy firma produkcyjna może polegać na sztucznej inteligencji w celu wykrywania złośliwego oprogramowania ukierunkowanego na systemy sterowania przemysłowego. Dzięki rozszerzeniu tradycyjnej analizy złośliwego oprogramowania o generatywną sztuczną inteligencję organizacje mogą reagować na kampanie złośliwego oprogramowania szybciej i bardziej proaktywnie niż wcześniej.

Wywiad dotyczący zagrożeń i automatyzacja analizy

Każdego dnia organizacje są bombardowane danymi wywiadowczymi dotyczącymi zagrożeń – od kanałów nowo odkrytych wskaźników zagrożenia (IOC) po raporty analityków dotyczące pojawiających się taktyk hakerskich. Wyzwaniem dla zespołów ds. bezpieczeństwa jest przeszukiwanie tego powodzi informacji i wyciąganie z nich praktycznych wniosków. Generatywna sztuczna inteligencja okazuje się nieoceniona w automatyzacja analizy i wykorzystania informacji o zagrożeniachZamiast ręcznie czytać dziesiątki raportów lub wpisów w bazie danych, analitycy mogą wykorzystać sztuczną inteligencję do podsumowania i kontekstualizacji informacji o zagrożeniach z szybkością maszyny.

Konkretnym przykładem jest Google Wywiad dotyczący zagrożeń pakiet, który integruje generatywną sztuczną inteligencję (model Gemini) z danymi o zagrożeniach Google z Mandiant i VirusTotal. Ta sztuczna inteligencja zapewnia „konwersacyjne przeszukiwanie rozległego repozytorium informacji o zagrożeniach Google”, umożliwiając użytkownikom zadawanie naturalnych pytań o zagrożenia i otrzymywanie skondensowanych odpowiedzi (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Na przykład analityk mógłby zapytać, „Czy widzieliśmy jakieś złośliwe oprogramowanie powiązane z Threat Group X atakujące naszą branżę?” a sztuczna inteligencja będzie zbierać istotne informacje, być może je notować „Tak, Grupa Zagrożeń X była powiązana z kampanią phishingową z zeszłego miesiąca, wykorzystującą złośliwe oprogramowanie Y”, wraz z podsumowaniem zachowania tego złośliwego oprogramowania. To drastycznie skraca czas zbierania spostrzeżeń, które w przeciwnym razie wymagałyby przeszukiwania wielu narzędzi lub czytania długich raportów.

Sztuczna inteligencja generatywna może również korelować i Podsumuj trendy zagrożeń.Może przeszukiwać tysiące wpisów na blogach o bezpieczeństwie, wiadomości o naruszeniach i pogawędki w darknecie, a następnie generować streszczenie „najważniejszych cyberzagrożeń w tym tygodniu” na potrzeby briefingu CISO. Tradycyjnie ten poziom analizy i raportowania wymagał znacznego wysiłku ludzkiego; teraz dobrze dostrojony model może go opracować w ciągu kilku sekund, a ludzie jedynie udoskonalają wynik. Firmy takie jak ZeroFox opracowały lisGPT, narzędzie generatywnej sztucznej inteligencji zaprojektowane specjalnie do „przyspieszyć analizę i podsumowanie informacji wywiadowczych w dużych zbiorach danych” w tym złośliwa zawartość i dane phishingowe (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Automatyzując ciężkie podnoszenie odczytu i odsyłania danych, AI umożliwia zespołom ds. wywiadu zagrożeń skupienie się na podejmowaniu decyzji i reagowaniu.

Innym przypadkiem użycia jest konwersacyjne polowanie na zagrożeniaWyobraź sobie analityka ds. bezpieczeństwa wchodzącego w interakcję z asystentem AI: „Pokaż mi jakiekolwiek oznaki wycieku danych w ciągu ostatnich 48 godzin” Lub „Jakie nowe luki w zabezpieczeniach są najczęściej wykorzystywane przez atakujących w tym tygodniu?” Sztuczna inteligencja może interpretować zapytanie, przeszukiwać wewnętrzne logi lub zewnętrzne źródła informacji i odpowiadać jasną odpowiedzią lub nawet listą istotnych incydentów. Nie jest to nieprawdopodobne – nowoczesne systemy zarządzania informacjami i zdarzeniami bezpieczeństwa (SIEM) zaczynają uwzględniać zapytania w języku naturalnym. Na przykład pakiet zabezpieczeń QRadar firmy IBM w 2024 r. dodaje funkcje generatywnej sztucznej inteligencji, aby umożliwić analitykom „zadaj […] konkretne pytania dotyczące podsumowanej ścieżki ataku” incydentu i uzyskać szczegółowe odpowiedzi. Może również „interpretować i podsumowywać niezwykle istotne informacje o zagrożeniach” automatycznie (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Zasadniczo generatywna sztuczna inteligencja zamienia góry danych technicznych w spostrzeżenia wielkości czatu na żądanie.

W różnych branżach ma to duże implikacje. Dostawca usług opieki zdrowotnej może używać AI, aby być na bieżąco z najnowszymi grupami ransomware atakującymi szpitale, bez konieczności angażowania analityka do pełnoetatowych badań. SOC firmy detalicznej może szybko podsumować nowe taktyki złośliwego oprogramowania POS podczas informowania personelu IT sklepu. A w rządzie, gdzie dane o zagrożeniach z różnych agencji muszą zostać zsyntetyzowane, AI może generować ujednolicone raporty, w których wyróżnione są najważniejsze ostrzeżenia. Dzięki automatyzacja gromadzenia i interpretacji informacji o zagrożeniachgeneratywna sztuczna inteligencja pomaga organizacjom szybciej reagować na pojawiające się zagrożenia i zmniejsza ryzyko przeoczenia kluczowych ostrzeżeń ukrytych w szumie informacyjnym.

Optymalizacja Centrum Operacji Bezpieczeństwa (SOC)

Centra operacji bezpieczeństwa są znane ze zmęczenia alertami i miażdżącej ilości danych. Typowy analityk SOC może przedzierać się przez tysiące alertów i zdarzeń każdego dnia, badając potencjalne incydenty. Generatywna sztuczna inteligencja działa jako mnożnik siły w SOC, automatyzując rutynową pracę, dostarczając inteligentne podsumowania, a nawet organizując niektóre odpowiedzi. Celem jest optymalizacja przepływów pracy SOC, aby analitycy mogli skupić się na najbardziej krytycznych problemach, podczas gdy drugi pilot AI zajmie się resztą.

Jednym z głównych zastosowań jest wykorzystanie sztucznej inteligencji generatywnej jako „Drugi pilot analityka”Przykładem tego jest wspomniany wcześniej Security Copilot firmy Microsoft: „ma na celu wspomaganie pracy analityka ds. bezpieczeństwa, a nie jej zastępowanie” pomoc w dochodzeniach i raportowaniu incydentów (Microsoft Security Copilot to nowy asystent GPT-4 AI do cyberbezpieczeństwa | The Verge). W praktyce oznacza to, że analityk może wprowadzić surowe dane – logi zapory sieciowej, oś czasu zdarzenia lub opis incydentu – i poprosić sztuczną inteligencję o ich analizę lub podsumowanie.Drugi pilot może wygłosić następującą opowieść: „Wygląda na to, że o 2:35 w nocy na serwerze Y udało się wykonać podejrzane logowanie z adresu IP X, po którym nastąpiły nietypowe transfery danych, co wskazuje na potencjalne naruszenie bezpieczeństwa tego serwera”. Ten rodzaj natychmiastowej kontekstualizacji jest nieoceniony, gdy czas gra kluczową rolę.

Współpiloci AI pomagają również zmniejszyć obciążenie triage poziomu 1. Według danych branżowych zespół ds. bezpieczeństwa może wydać 15 godzin tygodniowo po prostu przeszukując około 22 000 alertów i fałszywych alarmów (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Dzięki generatywnej sztucznej inteligencji wiele z tych alertów może być automatycznie sortowanych – sztuczna inteligencja może odrzucić te, które są wyraźnie niegroźne (z podanym uzasadnieniem) i wyróżnić te, które naprawdę wymagają uwagi, czasami nawet sugerując priorytet. W rzeczywistości siła generatywnej sztucznej inteligencji w rozumieniu kontekstu oznacza, że ​​może ona krzyżowo korelować alerty, które mogą wydawać się nieszkodliwe w izolacji, ale razem wskazują na atak wieloetapowy. Zmniejsza to szansę przegapienia ataku z powodu „zmęczenia alertami”.

Analitycy SOC wykorzystują również język naturalny z AI, aby przyspieszyć polowanie i śledztwa. SentinelOne Fioletowa AI Platforma łączy na przykład interfejs oparty na LLM z danymi o bezpieczeństwie w czasie rzeczywistym, co pozwala analitykom „zadawaj złożone pytania dotyczące wykrywania zagrożeń prostym językiem i otrzymuj szybkie, dokładne odpowiedzi” (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Analityk mógłby wpisać, „Czy w ciągu ostatniego miesiąca jakiekolwiek punkty końcowe komunikowały się z domeną badguy123[.]com?”, a Purple AI przeszuka logi, aby odpowiedzieć. Dzięki temu analityk nie musi pisać zapytań do bazy danych ani skryptów – robi to AI w tle. Oznacza to również, że młodsi analitycy mogą wykonywać zadania, które wcześniej wymagały doświadczonego inżyniera znającego się na językach zapytań, skutecznie podnoszenie kwalifikacji zespołu poprzez pomoc sztucznej inteligencjiAnalitycy rzeczywiście informują, że generatywne wskazówki AI „zwiększa ich umiejętności i biegłość”ponieważ młodsi pracownicy mogą teraz uzyskać od sztucznej inteligencji wsparcie w zakresie kodowania na żądanie lub wskazówki dotyczące analizy, zmniejszając konieczność ciągłego proszenia starszych członków zespołu o pomoc (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ).

Inną optymalizacją SOC jest automatyczne podsumowanie i dokumentowanie incydentów. Po obsłużeniu incydentu ktoś musi napisać raport – zadanie, które wielu uważa za żmudne. Generatywna sztuczna inteligencja może wziąć dane kryminalistyczne (logi systemowe, analizę złośliwego oprogramowania, oś czasu działań) i wygenerować pierwszy szkic raportu incydentu. IBM wbudowuje tę możliwość w QRadar, aby dzięki „jednym kliknięciem” Podsumowanie incydentu można przygotować dla różnych interesariuszy (kadry kierowniczej, zespołów IT itp.) (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). To nie tylko oszczędza czas, ale także zapewnia, że ​​nic nie zostanie pominięte w raporcie, ponieważ AI może spójnie uwzględnić wszystkie istotne szczegóły. Podobnie, w celu zapewnienia zgodności i audytu, AI może wypełniać formularze lub tabele dowodowe na podstawie danych o incydencie.

Wyniki w świecie rzeczywistym są przekonujące. Wcześni użytkownicy opartego na sztucznej inteligencji rozwiązania SOAR (koordynacja bezpieczeństwa, automatyzacja i reakcja) Swimlane zgłaszają ogromne wzrosty produktywności – na przykład Global Data Systems zauważyło, że ich zespół SecOps zarządzał znacznie większym obciążeniem pracą; jeden z dyrektorów powiedział „to, co robię dzisiaj z 7 analitykami, prawdopodobnie wymagałoby 20 pracowników bez” automatyzacja oparta na sztucznej inteligencji (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie) Innymi słowy, Sztuczna inteligencja w SOC może zwiększyć wydajność.W różnych branżach, niezależnie od tego, czy jest to firma technologiczna zajmująca się alertami bezpieczeństwa w chmurze, czy zakład produkcyjny monitorujący systemy OT, zespoły SOC mogą uzyskać szybsze wykrywanie i reagowanie, mniej pominiętych incydentów i bardziej wydajne operacje dzięki przyjęciu generatywnych asystentów AI. Chodzi o inteligentniejszą pracę – umożliwienie maszynom obsługi powtarzalnych i wymagających dużych ilości danych zadań, aby ludzie mogli stosować swoją intuicję i wiedzę specjalistyczną tam, gdzie jest to najbardziej potrzebne.

Zarządzanie podatnością i symulacja zagrożeń

Identyfikowanie i zarządzanie lukami – słabościami w oprogramowaniu lub systemach, które atakujący mogliby wykorzystać – jest podstawową funkcją cyberbezpieczeństwa. Generative AI usprawnia zarządzanie lukami poprzez przyspieszenie wykrywania, pomoc w ustalaniu priorytetów poprawek, a nawet symulowanie ataków na te luki w celu poprawy gotowości. W istocie AI pomaga organizacjom szybciej znajdować i naprawiać luki w ich pancerzu, a proaktywnie testowanie obrony zanim zrobią to prawdziwi napastnicy.

Jednym ze znaczących zastosowań jest wykorzystanie sztucznej inteligencji generatywnej do zautomatyzowany przegląd kodu i wykrywanie luk w zabezpieczeniach. Duże bazy kodu (zwłaszcza starsze systemy) często zawierają luki w zabezpieczeniach, które pozostają niezauważone. Modele generatywnej sztucznej inteligencji można trenować na bezpiecznych praktykach kodowania i typowych wzorcach błędów, a następnie wypuszczać na kod źródłowy lub skompilowane pliki binarne, aby znaleźć potencjalne luki. Na przykład badacze NVIDIA opracowali generatywny potok sztucznej inteligencji, który może analizować starsze kontenery oprogramowania i identyfikować luki „z dużą dokładnością — nawet 4 razy szybciej niż robią to eksperci”. (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Sztuczna inteligencja zasadniczo nauczyła się, jak wygląda niebezpieczny kod i była w stanie przeskanować oprogramowanie sprzed dziesięcioleci, aby oznaczyć ryzykowne funkcje i biblioteki, znacznie przyspieszając zwykle powolny proces ręcznego audytu kodu. Tego rodzaju narzędzie może być przełomem dla branż takich jak finanse czy administracja publiczna, które opierają się na dużych, starszych bazach kodu – sztuczna inteligencja pomaga modernizować bezpieczeństwo, odkopując problemy, których znalezienie przez personel może zająć miesiące lub lata (jeśli w ogóle).

Generatywna sztuczna inteligencja pomaga również w przepływy pracy zarządzania lukami w zabezpieczeniach poprzez przetwarzanie wyników skanowania luk i nadawanie im priorytetów. Narzędzia takie jak Tenable EkspozycjaAI użyj generatywnej sztucznej inteligencji, aby umożliwić analitykom wyszukiwanie danych o lukach w zabezpieczeniach w prostym języku i otrzymywanie natychmiastowych odpowiedzi (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). ExposureAI może „podsumuj całą ścieżkę ataku w narracji” dla danej krytycznej podatności, wyjaśniając, w jaki sposób atakujący mógłby połączyć ją z innymi słabościami, aby naruszyć system. Zaleca nawet działania naprawcze i odpowiada na pytania dotyczące ryzyka. Oznacza to, że gdy zostanie ogłoszony nowy krytyczny CVE (Common Vulnerabilities and Exposures), analityk mógłby zapytać AI, „Czy któryś z naszych serwerów jest dotknięty tym CVE i jaki jest najgorszy scenariusz, jeśli nie zastosujemy poprawki?” i otrzymaj jasną ocenę opartą na danych skanowania organizacji. Kontekstualizując luki (np. ta jest narażona na działanie Internetu i na serwerze o wysokiej wartości, więc ma najwyższy priorytet), generatywna sztuczna inteligencja pomaga zespołom inteligentnie łatać przy ograniczonych zasobach.

Oprócz znajdowania i zarządzania znanymi lukami w zabezpieczeniach, sztuczna inteligencja generatywna przyczynia się do: testy penetracyjne i symulacja ataków – w zasadzie odkrywanie nieznany luk lub testowania kontroli bezpieczeństwa. Sieci generatywne przeciwstawne (GAN), rodzaj generatywnej sztucznej inteligencji, zostały użyte do tworzenia syntetycznych danych, które imitują rzeczywisty ruch sieciowy lub zachowanie użytkownika, co może obejmować ukryte wzorce ataków.Badanie z 2023 r. zasugerowało wykorzystanie sieci GAN do generowania realistycznego ruchu związanego z atakami typu zero-day w celu szkolenia systemów wykrywania włamań (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Dostarczając IDS scenariuszy ataków stworzonych przez AI (które nie ryzykują użycia rzeczywistego złośliwego oprogramowania w sieciach produkcyjnych), organizacje mogą szkolić swoje mechanizmy obronne, aby rozpoznawały nowe zagrożenia, nie czekając, aż zostaną nimi zaatakowane w rzeczywistości. Podobnie AI może symulować atakującego badającego system – na przykład automatycznie wypróbowując różne techniki eksploatacji w bezpiecznym środowisku, aby sprawdzić, czy któraś z nich się powiedzie. Agencja Zaawansowanych Projektów Badawczych w Obronie USA (DARPA) widzi tu obietnicę: jej 2023 AI Cyber ​​Challenge wyraźnie wykorzystuje generatywną AI (np. duże modele językowe), aby „automatycznie znajduj i naprawiaj luki w zabezpieczeniach oprogramowania typu open source” w ramach konkursu ( DARPA ma na celu opracowanie aplikacji AI i autonomii, którym żołnierze mogą zaufać > Departament Obrony USA > Wiadomości Departamentu Obrony ). Ta inicjatywa podkreśla, że ​​sztuczna inteligencja nie tylko pomaga łatać znane luki; aktywnie odkrywa nowe i proponuje rozwiązania, co tradycyjnie jest zadaniem zarezerwowanym dla wykwalifikowanych (i drogich) badaczy bezpieczeństwa.

Sztuczna inteligencja generatywna może nawet tworzyć inteligentne honeypoty i cyfrowe bliźniaki do obrony. Startupy opracowują systemy wabików oparte na sztucznej inteligencji, które przekonująco emulują prawdziwe serwery lub urządzenia. Jak wyjaśnił jeden z dyrektorów generalnych, generatywna sztuczna inteligencja może „klonować systemy cyfrowe, aby naśladować prawdziwe i zwabić hakerów” (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Te generowane przez AI honeypoty zachowują się jak prawdziwe środowisko (np. fałszywe urządzenie IoT wysyłające normalną telemetrię), ale istnieją wyłącznie po to, aby przyciągnąć atakujących. Kiedy atakujący bierze na celownik przynętę, AI zasadniczo oszukuje go, aby ujawnił swoje metody, które obrońcy mogą następnie zbadać i wykorzystać do wzmocnienia prawdziwych systemów. Ta koncepcja, oparta na modelowaniu generatywnym, zapewnia przyszłościowy sposób na odwrócić sytuację na niekorzyść atakujących, wykorzystując oszustwo wspomagane przez sztuczną inteligencję.

W różnych branżach szybsze i inteligentniejsze zarządzanie lukami oznacza mniej naruszeń. Na przykład w IT w służbie zdrowia AI może szybko wykryć podatną na ataki przestarzałą bibliotekę w urządzeniu medycznym i nakazać naprawę oprogramowania układowego, zanim atakujący ją wykorzysta. W bankowości AI może symulować atak wewnętrzny na nową aplikację, aby zapewnić bezpieczeństwo danych klientów we wszystkich scenariuszach. Generatywna AI działa zatem zarówno jako mikroskop, jak i tester warunków skrajnych dla postawy bezpieczeństwa organizacji: oświetla ukryte wady i wywiera presję na systemy w pomysłowy sposób, aby zapewnić odporność.

Bezpieczne generowanie kodu i rozwój oprogramowania

Talenty sztucznej inteligencji generatywnej nie ograniczają się do wykrywania ataków – obejmują również tworzenie bezpieczniejszych systemów od samego początku. W rozwoju oprogramowania generatory kodu AI (takie jak GitHub Copilot, OpenAI Codex itp.) mogą pomóc programistom pisać kod szybciej, sugerując fragmenty kodu lub nawet całe funkcje. Kąt cyberbezpieczeństwa polega na zapewnieniu, że te sugerowane przez AI fragmenty kodu są bezpieczne i wykorzystują AI do ulepszania praktyk kodowania.

Z jednej strony sztuczna inteligencja generatywna może działać jako asystent kodowania, który wdraża najlepsze praktyki bezpieczeństwa. Programiści mogą polecić narzędzie AI, „Generowanie funkcji resetowania hasła w Pythonie” i w idealnym przypadku uzyskać kod, który jest nie tylko funkcjonalny, ale również spełnia bezpieczne wytyczne (np. prawidłowa walidacja danych wejściowych, rejestrowanie, obsługa błędów bez wycieku informacji itp.). Taki asystent, przeszkolony na rozległych przykładach bezpiecznego kodu, może pomóc w zmniejszeniu błędów ludzkich, które prowadzą do luk w zabezpieczeniach. Na przykład, jeśli programista zapomni oczyścić dane wejściowe użytkownika (otwierając drzwi przed atakami SQL injection lub podobnymi problemami), sztuczna inteligencja mogłaby to uwzględnić domyślnie lub ostrzec go.Niektóre narzędzia do kodowania sztucznej inteligencji są obecnie udoskonalane przy użyciu danych skoncentrowanych na bezpieczeństwie, aby służyć właśnie temu celowi – zasadniczo Programowanie par AI z dbałością o bezpieczeństwo.

Istnieje jednak druga strona medalu: generatywna sztuczna inteligencja może równie łatwo wprowadzać luki, jeśli nie jest odpowiednio kontrolowana. Jak zauważył ekspert ds. bezpieczeństwa Sophos, Ben Verschaeren, używanie generatywnej sztucznej inteligencji do kodowania jest „dobrze, jeśli chodzi o krótki, weryfikowalny kod, ale ryzykowne, gdy integrowany jest niesprawdzany kod” do systemów produkcyjnych. Istnieje ryzyko, że AI może wytworzyć logicznie poprawny kod, który jest niebezpieczny w sposób, którego osoba niebędąca ekspertem może nie zauważyć. Ponadto złośliwi aktorzy mogą celowo wpływać na publiczne modele AI, zaszczepiając je podatnymi wzorcami kodu (forma zatruwania danych), aby AI sugerowała niebezpieczny kod. Większość programistów nie jest ekspertami od bezpieczeństwa, więc jeśli sztuczna inteligencja zasugeruje wygodne rozwiązanie, mogą z niego skorzystać w ciemno, nie zdając sobie sprawy, że ma ono wadę (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Obawy te są prawdziwe – w rzeczywistości istnieje lista OWASP Top 10 dla LLM (modeli dużych języków), która przedstawia typowe ryzyka, takie jak to, związane z używaniem AI do kodowania.

Aby przeciwdziałać tym problemom, eksperci sugerują „walka ze sztuczną inteligencją generatywną za pomocą sztucznej inteligencji generatywnej” w dziedzinie kodowania. W praktyce oznacza to używanie AI do przejrzyj i przetestuj kod że inna sztuczna inteligencja (lub ludzie) napisała. Sztuczna inteligencja może przeszukiwać nowe zatwierdzenia kodu znacznie szybciej niż ludzki recenzent kodu i sygnalizować potencjalne luki lub problemy logiczne. Widzimy już, że pojawiają się narzędzia, które integrują się z cyklem życia rozwoju oprogramowania: kod jest pisany (być może z pomocą sztucznej inteligencji), a następnie generatywny model wyszkolony na zasadach bezpiecznego kodu przegląda go i generuje raport dotyczący wszelkich problemów (np. użycie przestarzałych funkcji, brakujące kontrole uwierzytelniania itp.). Badania firmy NVIDIA, o których wspomniano wcześniej, które osiągnęły 4-krotnie szybsze wykrywanie luk w kodzie, są przykładem wykorzystania sztucznej inteligencji do bezpiecznej analizy kodu (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ).

Ponadto sztuczna inteligencja generatywna może pomóc w tworzenie bezpiecznych konfiguracji i skryptówNa przykład, jeśli firma musi wdrożyć bezpieczną infrastrukturę w chmurze, inżynier może poprosić sztuczną inteligencję o wygenerowanie skryptów konfiguracji (infrastruktura jako kod) z wbudowanymi kontrolami bezpieczeństwa (takimi jak prawidłowa segmentacja sieci, role IAM o najmniejszych uprawnieniach). Sztuczna inteligencja, przeszkolona w tysiącach takich konfiguracji, może wygenerować linię bazową, którą inżynier następnie dostraja. Przyspiesza to bezpieczną konfigurację systemów i zmniejsza błędy błędnej konfiguracji – częste źródło incydentów bezpieczeństwa w chmurze.

Niektóre organizacje wykorzystują również generatywną sztuczną inteligencję do utrzymywania bazy wiedzy bezpiecznych wzorców kodowania. Jeśli programista nie jest pewien, jak bezpiecznie wdrożyć daną funkcję, może zapytać wewnętrzną sztuczną inteligencję, która uczyła się z poprzednich projektów firmy i wytycznych dotyczących bezpieczeństwa. Sztuczna inteligencja może zwrócić zalecane podejście lub nawet fragment kodu, który jest zgodny zarówno z wymaganiami funkcjonalnymi, jak i standardami bezpieczeństwa firmy. Podejście to zostało wykorzystane przez narzędzia takie jak Automatyzacja kwestionariuszy Secureframe, który wyciąga odpowiedzi z polityki firmy i poprzednich rozwiązań, aby zapewnić spójne i dokładne odpowiedzi (w zasadzie generując bezpieczną dokumentację) (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Koncept ten można przetłumaczyć na kodowanie: sztuczna inteligencja, która „pamięta”, jak bezpiecznie zaimplementowałeś coś wcześniej i prowadzi cię, abyś zrobił to w ten sposób ponownie.

Podsumowując, sztuczna inteligencja generatywna wpływa na rozwój oprogramowania poprzez: uczynienie bezpiecznej pomocy w kodowaniu bardziej dostępnąBranże, które opracowują wiele niestandardowego oprogramowania – technologia, finanse, obrona itp.– skorzystają na posiadaniu pilotów AI, którzy nie tylko przyspieszają kodowanie, ale także działają jako zawsze czujni recenzenci bezpieczeństwa. Gdy są odpowiednio zarządzane, te narzędzia AI mogą ograniczyć wprowadzanie nowych luk w zabezpieczeniach i pomóc zespołom programistycznym przestrzegać najlepszych praktyk, nawet jeśli zespół nie ma eksperta ds. bezpieczeństwa zaangażowanego na każdym etapie. Rezultatem jest oprogramowanie, które jest bardziej odporne na ataki od pierwszego dnia.

Wsparcie reagowania na incydenty

Gdy dochodzi do incydentu cyberbezpieczeństwa – czy to wybuchu złośliwego oprogramowania, naruszenia danych czy awarii systemu spowodowanej atakiem – czas ma kluczowe znaczenie. Coraz częściej wykorzystuje się sztuczną inteligencję generatywną, aby wsparcie zespołów reagowania na incydenty (IR) w szybszym ograniczaniu i naprawianiu incydentów oraz z większą ilością dostępnych informacji. Pomysł polega na tym, że AI może wziąć na siebie część ciężaru dochodzenia i dokumentacji podczas incydentu, a nawet zasugerować lub zautomatyzować niektóre działania reagowania.

Jedną z kluczowych ról sztucznej inteligencji w IR jest analiza i podsumowanie incydentów w czasie rzeczywistymW trakcie incydentu ratownicy mogą potrzebować odpowiedzi na pytania takie jak: „Jak napastnik dostał się do środka?”, „Które systemy są zagrożone?”, I „Jakie dane mogą zostać naruszone?”. Generative AI może analizować dzienniki, alerty i dane kryminalistyczne z dotkniętych systemów i szybko dostarczać spostrzeżeń. Na przykład Microsoft Security Copilot pozwala osobie reagującej na incydenty wprowadzać różne dowody (pliki, adresy URL, dzienniki zdarzeń) i prosić o oś czasu lub podsumowanie (Microsoft Security Copilot to nowy asystent GPT-4 AI do cyberbezpieczeństwa | The Verge). AI może odpowiedzieć: „Naruszenie prawdopodobnie rozpoczęło się od wiadomości phishingowej wysłanej do użytkownika JohnDoe o godzinie 10:53 GMT zawierającej złośliwe oprogramowanie X. Po uruchomieniu złośliwe oprogramowanie utworzyło tylne wejście, które zostało użyte dwa dni później do przeniesienia się na serwer finansowy, gdzie zbierało dane”. Posiadanie spójnego obrazu w ciągu kilku minut, a nie godzin, pozwala zespołowi podejmować świadome decyzje (na przykład, które systemy odizolować) znacznie szybciej.

Sztuczna inteligencja generatywna może również zasugerować działania powstrzymujące i naprawcze. Na przykład, jeśli punkt końcowy zostanie zainfekowany ransomware, narzędzie AI może wygenerować skrypt lub zestaw instrukcji, aby odizolować tę maszynę, wyłączyć określone konta i zablokować znane złośliwe adresy IP na zaporze – w zasadzie wykonanie playbooka. Palo Alto Networks zauważa, że ​​generatywna AI jest w stanie „generowanie odpowiednich działań lub skryptów w oparciu o charakter incydentu”, automatyzując początkowe kroki reakcji (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks). W scenariuszu, w którym zespół ds. bezpieczeństwa jest przeciążony (np. szeroko zakrojony atak na setki urządzeń), sztuczna inteligencja może nawet bezpośrednio wykonać niektóre z tych działań w ramach wcześniej zatwierdzonych warunków, działając jak młodszy ratownik, który pracuje niestrudzenie. Na przykład agent sztucznej inteligencji mógłby automatycznie resetować poświadczenia, które uważa za naruszone, lub poddawać kwarantannie hosty wykazujące złośliwą aktywność pasującą do profilu incydentu.

Podczas reagowania na incydenty komunikacja jest kluczowa – zarówno w zespole, jak i z interesariuszami. Generatywna sztuczna inteligencja może pomóc poprzez sporządzanie raportów lub notatek o aktualnościach dotyczących incydentów w locieZamiast przerywać rozwiązywanie problemów, aby napisać aktualizację e-mailem, inżynier mógłby zapytać sztuczną inteligencję, „Podsumuj, co do tej pory wydarzyło się w związku z tym incydentem, aby poinformować kadrę kierowniczą”. Po wczytaniu danych o incydencie sztuczna inteligencja może wygenerować zwięzłe podsumowanie: „Do godziny 15:00 atakujący uzyskali dostęp do 2 kont użytkowników i 5 serwerów. Dane, których dotyczył atak, obejmują rekordy klientów w bazie danych X. Środki zapobiegawcze: dostęp VPN dla naruszonych kont został cofnięty, a serwery odizolowane. Następne kroki: skanowanie w poszukiwaniu mechanizmów trwałości.” Osoba odpowiadająca może następnie szybko zweryfikować lub zmodyfikować informacje i wysłać je, zapewniając, że interesariusze są na bieżąco informowani o dokładnych i aktualnych informacjach.

Po opadnięciu kurzu zazwyczaj trzeba przygotować szczegółowy raport o incydencie i zebrać wnioski. To kolejny obszar, w którym wsparcie AI się sprawdza. Może przejrzeć wszystkie dane o incydencie i generowanie raportu poincydentalnego obejmujące przyczynę źródłową, chronologię, wpływ i zalecenia. IBM na przykład integruje generatywną sztuczną inteligencję, aby tworzyć „proste podsumowania przypadków i incydentów związanych z bezpieczeństwem, którymi można się dzielić z interesariuszami” za naciśnięciem przycisku (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Dzięki usprawnieniu raportowania po podjęciu działań organizacje mogą szybciej wdrażać usprawnienia, a także mieć lepszą dokumentację dla celów zgodności.

Jednym z innowacyjnych, przyszłościowych zastosowań jest Symulacje incydentów oparte na sztucznej inteligencji. Podobnie jak można przeprowadzić ćwiczenia przeciwpożarowe, niektóre firmy wykorzystują generatywną sztuczną inteligencję do przechodzenia przez scenariusze incydentów „co by było, gdyby”. Sztuczna inteligencja może symulować, w jaki sposób ransomware może się rozprzestrzeniać, biorąc pod uwagę układ sieci, lub w jaki sposób osoba z wewnątrz mogłaby wykraść dane, a następnie oceniać skuteczność bieżących planów reagowania. Pomaga to zespołom przygotowywać i udoskonalać podręczniki przed wystąpieniem prawdziwego incydentu. To tak, jakby mieć stale udoskonalającego się doradcę ds. reagowania na incydenty, który stale testuje Twoją gotowość.

W branżach o wysokiej stawce, takich jak finanse czy opieka zdrowotna, gdzie przestoje lub utrata danych w wyniku incydentów są szczególnie kosztowne, te możliwości IR oparte na sztucznej inteligencji są bardzo atrakcyjne. Szpital doświadczający incydentu cybernetycznego nie może sobie pozwolić na przedłużające się przerwy w działaniu systemu – sztuczna inteligencja, która szybko pomaga w powstrzymaniu, może dosłownie uratować życie. Podobnie instytucja finansowa może użyć sztucznej inteligencji do obsługi wstępnej selekcji podejrzenia oszustwa o 3 nad ranem, tak aby w momencie, gdy dyżurni ludzie będą online, wiele prac przygotowawczych (wylogowanie dotkniętych kont, blokowanie transakcji itp.) zostało już wykonanych. rozszerzanie zespołów reagowania na incydenty o generatywną sztuczną inteligencjęDzięki temu organizacje mogą znacznie skrócić czas reakcji i poprawić dokładność obsługi, co ostatecznie pozwoli na ograniczenie szkód spowodowanych cyberincydentami.

Analityka behawioralna i wykrywanie anomalii

Wiele cyberataków można wykryć, zauważając, gdy coś odbiega od „normalnego” zachowania – czy to konto użytkownika pobierające nietypową ilość danych, czy urządzenie sieciowe nagle komunikujące się z nieznanym hostem. Generative AI oferuje zaawansowane techniki analiza behawioralna i wykrywanie anomalii, ucząc się normalnych wzorców zachowań użytkowników i systemów, a następnie sygnalizując, gdy coś wygląda nie tak.

Tradycyjne wykrywanie anomalii często wykorzystuje progi statystyczne lub proste uczenie maszynowe na podstawie określonych metryk (skoki wykorzystania procesora, logowanie o nietypowych godzinach itp.). Generatywna sztuczna inteligencja może rozwinąć to dalej, tworząc bardziej zniuansowane profile zachowań. Na przykład model sztucznej inteligencji może pobierać loginy, wzorce dostępu do plików i nawyki e-mailowe pracownika w czasie i tworzyć wielowymiarowe zrozumienie „normy” tego użytkownika. Jeśli to konto później zrobi coś drastycznie wykraczającego poza swoją normę (np. zaloguje się z nowego kraju i uzyska dostęp do zbioru plików HR o północy), sztuczna inteligencja wykryje odchylenie nie tylko w jednej metryce, ale jako cały wzorzec zachowania, który nie pasuje do profilu użytkownika. W terminologii technicznej modele generatywne (takie jak autoenkodery lub modele sekwencji) mogą modelować, jak wygląda „normalność”, a następnie generować oczekiwany zakres zachowań. Kiedy rzeczywistość wykracza poza ten zakres, jest oznaczana jako anomalia (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks).

Jednym z praktycznych rozwiązań jest monitorowanie ruchu sieciowegoWedług badania z 2024 r. 54% Amerykanóworganizacje wskazały monitorowanie ruchu sieciowego jako główny przypadek użycia sztucznej inteligencji w cyberbezpieczeństwie (Ameryka Północna: najważniejsze przypadki użycia AI w cyberbezpieczeństwie na świecie w 2024 r.). Generatywna sztuczna inteligencja może nauczyć się normalnych wzorców komunikacji w sieci przedsiębiorstwa – które serwery zazwyczaj się ze sobą komunikują, jakie ilości danych są przesyłane w godzinach pracy, a jakie w nocy itd. Jeśli atakujący zacznie eksfiltrować dane z serwera, nawet powoli, aby uniknąć wykrycia, system oparty na sztucznej inteligencji może to zauważyć „Serwer A nigdy nie wysyła 500 MB danych o 2 w nocy na zewnętrzny adres IP” i podnieś alert. Ponieważ AI nie używa tylko statycznych reguł, ale rozwijającego się modelu zachowania sieci, może wychwytywać subtelne anomalie, które statyczne reguły (takie jak „alert if data > X MB”) mogą przegapić lub błędnie oznaczyć. Ta adaptacyjna natura sprawia, że ​​wykrywanie anomalii oparte na AI jest skuteczne w środowiskach takich jak sieci transakcji bankowych, infrastruktura chmury lub floty urządzeń IoT, w których definiowanie stałych reguł dla normalności i anomalii jest niezwykle złożone.

Generatywna sztuczna inteligencja pomaga również w analiza zachowań użytkowników (UBA), co jest kluczowe w wykrywaniu zagrożeń wewnętrznych lub naruszonych kont. Generując linię bazową każdego użytkownika lub podmiotu, AI może wykrywać takie rzeczy, jak niewłaściwe użycie poświadczeń. Na przykład, jeśli Bob z księgowości nagle zacznie przeszukiwać bazę danych klientów (czego nigdy wcześniej nie robił), model AI dla zachowania Boba oznaczy to jako nietypowe. Może to nie być złośliwe oprogramowanie — może to być przypadek kradzieży poświadczeń Boba i wykorzystania ich przez atakującego lub Boba sondującego tam, gdzie nie powinien. Tak czy inaczej, zespół ds. bezpieczeństwa otrzymuje ostrzeżenie, aby zbadać sprawę. Takie systemy UBA oparte na AI istnieją w różnych produktach zabezpieczających, a techniki modelowania generatywnego zwiększają ich dokładność i zmniejszają liczbę fałszywych alarmów, biorąc pod uwagę kontekst (może Bob pracuje nad specjalnym projektem itp., co AI czasami może wywnioskować z innych danych).

W obszarze zarządzania tożsamością i dostępem wykrywanie deepfake to rosnąca potrzeba – generatywna sztuczna inteligencja może tworzyć syntetyczne głosy i filmy, które oszukują zabezpieczenia biometryczne. Co ciekawe, generatywna sztuczna inteligencja może również pomóc wykryć te deepfake’i, analizując subtelne artefakty w dźwięku lub wideo, które są trudne do zauważenia przez ludzi. Widzieliśmy przykład z Accenture, która użyła generatywnej sztucznej inteligencji do symulacji niezliczonych wyrazów twarzy i stanów, aby pociąg ich systemy biometryczne, aby odróżnić prawdziwych użytkowników od deepfake'ów generowanych przez AI. W ciągu pięciu lat podejście to pomogło Accenture wyeliminować hasła dla 90% swoich systemów (przechodząc na biometrię i inne czynniki) i zmniejszyć liczbę ataków o 60% (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Zasadniczo użyli generatywnej AI do wzmocnienia uwierzytelniania biometrycznego, czyniąc je odpornym na ataki generatywne (świetna ilustracja walki AI z AI). Ten rodzaj modelowania behawioralnego – w tym przypadku rozpoznanie różnicy między żywą twarzą człowieka a twarzą zsyntetyzowaną przez AI – jest kluczowy, ponieważ coraz bardziej polegamy na AI w uwierzytelnianiu.

Wykrywanie anomalii wspomagane przez generatywną sztuczną inteligencję ma zastosowanie w różnych branżach: w opiece zdrowotnej, monitorując zachowanie urządzeń medycznych pod kątem oznak włamania; w finansach, obserwując systemy handlowe pod kątem nieregularnych wzorców, które mogą wskazywać na oszustwo lub manipulację algorytmiczną; w energetyce/usługach komunalnych, obserwując sygnały systemów sterowania pod kątem oznak włamań. Połączenie szerokość (biorąc pod uwagę wszystkie aspekty zachowania) I głębokość (rozumienie złożonych wzorców) że generatywna sztuczna inteligencja zapewnia potężne narzędzie do wykrywania wskaźników cyberincydentu przypominających igłę w stogu siana. W miarę jak zagrożenia stają się bardziej ukryte, kryjąc się wśród normalnych operacji, ta zdolność do precyzyjnego charakteryzowania „normalności” i krzyczenia, gdy coś odbiega od normy, staje się kluczowa.Generatywna sztuczna inteligencja pełni zatem funkcję niestrudzonego strażnika, nieustannie się ucząc i aktualizując swoją definicję normalności, aby nadążać za zmianami w otoczeniu, a także ostrzegając zespoły ds. bezpieczeństwa o anomaliach, które wymagają dokładniejszej analizy.

Możliwości i korzyści generatywnej sztucznej inteligencji w cyberbezpieczeństwie

Zastosowanie generatywnej sztucznej inteligencji w cyberbezpieczeństwie niesie ze sobą wiele korzyści możliwości i korzyści dla organizacji chętnych do przyjęcia tych narzędzi. Poniżej podsumowujemy kluczowe zalety, które sprawiają, że generatywna sztuczna inteligencja jest atrakcyjnym dodatkiem do programów cyberbezpieczeństwa:

  • Szybsze wykrywanie zagrożeń i reagowanie na nie: Systemy generatywnej sztucznej inteligencji mogą analizować ogromne ilości danych w czasie rzeczywistym i rozpoznawać zagrożenia znacznie szybciej niż ręczna analiza wykonywana przez człowieka. Ta przewaga szybkości oznacza wcześniejsze wykrywanie ataków i szybsze powstrzymywanie incydentów. W praktyce monitorowanie bezpieczeństwa oparte na sztucznej inteligencji może wychwytywać zagrożenia, których skorelowanie zajęłoby ludziom znacznie więcej czasu. Dzięki szybkiemu reagowaniu na incydenty (lub nawet autonomicznemu wykonywaniu początkowych odpowiedzi) organizacje mogą radykalnie skrócić czas przebywania atakujących w swoich sieciach, minimalizując szkody.

  • Poprawiona dokładność i ochrona przed zagrożeniami: Ponieważ nieustannie uczą się z nowych danych, modele generatywne mogą dostosowywać się do ewoluujących zagrożeń i wychwytywać subtelniejsze oznaki złośliwej aktywności. Prowadzi to do zwiększonej dokładności wykrywania (mniej fałszywych wyników negatywnych i fałszywych wyników pozytywnych) w porównaniu ze statycznymi regułami. Na przykład sztuczna inteligencja, która nauczyła się cech charakterystycznych wiadomości e-mail phishingowych lub zachowań złośliwego oprogramowania, może identyfikować warianty, których nigdy wcześniej nie widziano. Rezultatem jest szerszy zasięg typów zagrożeń – w tym nowych ataków – wzmacniający ogólną postawę bezpieczeństwa. Zespoły ds. bezpieczeństwa uzyskują również szczegółowe informacje z analizy sztucznej inteligencji (np. wyjaśnienia zachowań złośliwego oprogramowania), umożliwiając bardziej precyzyjne i ukierunkowane obrony (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks).

  • Automatyzacja zadań powtarzalnych: Generative AI doskonale radzi sobie z automatyzacją rutynowych, pracochłonnych zadań związanych z bezpieczeństwem – od przeszukiwania dzienników i kompilowania raportów po pisanie skryptów reagowania na incydenty. Ta automatyzacja zmniejsza obciążenie analityków, dając im swobodę skupienia się na strategii wysokiego szczebla i podejmowaniu złożonych decyzji (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks). Przyziemne, ale ważne zadania, takie jak skanowanie luk w zabezpieczeniach, audyt konfiguracji, analiza aktywności użytkowników i raportowanie zgodności, mogą być obsługiwane (lub przynajmniej wstępnie opracowane) przez AI. Wykonując te zadania z prędkością maszyny, AI nie tylko zwiększa wydajność, ale także zmniejsza liczbę błędów ludzkich (istotny czynnik naruszeń).

  • Obrona proaktywna i symulacja: Generative AI pozwala organizacjom przejść od reaktywnego do proaktywnego bezpieczeństwa. Dzięki technikom takim jak symulacja ataków, generowanie syntetycznych danych i szkolenia oparte na scenariuszach, obrońcy mogą przewidywać zagrożenia i przygotowywać się na nie zanim materializują się w świecie rzeczywistym. Zespoły ds. bezpieczeństwa mogą symulować cyberataki (kampanie phishingowe, epidemie złośliwego oprogramowania, DDoS itp.) w bezpiecznych środowiskach, aby przetestować swoje odpowiedzi i wzmocnić wszelkie słabości. To ciągłe szkolenie, często niemożliwe do przeprowadzenia w pełni przy użyciu wyłącznie ludzkiego wysiłku, sprawia, że ​​obrona jest ostra i aktualna. Jest to podobne do cybernetycznego „ćwiczebnego pożaru” – sztuczna inteligencja może rzucić wiele hipotetycznych zagrożeń na twoją obronę, abyś mógł ćwiczyć i doskonalić się.

  • Zwiększanie kompetencji człowieka (sztuczna inteligencja jako mnożnik siły): Generative AI łączy w sobie cechy niestrudzonego analityka, doradcy i asystenta.Może zapewnić mniej doświadczonym członkom zespołu wskazówki i zalecenia, których zazwyczaj oczekuje się od doświadczonych ekspertów, co jest skuteczne demokratyzowanie wiedzy specjalistycznej w całym zespole (6 przypadków użycia generatywnej sztucznej inteligencji w cyberbezpieczeństwie [+ przykłady] ). Jest to szczególnie cenne, biorąc pod uwagę niedobór talentów w cyberbezpieczeństwie – AI pomaga mniejszym zespołom robić więcej mniejszym kosztem. Doświadczeni analitycy z kolei korzystają z AI wykonującej ciężką pracę i ujawniającej nieoczywiste spostrzeżenia, które następnie mogą zweryfikować i podjąć działania. Ogólnym rezultatem jest zespół ds. bezpieczeństwa, który jest znacznie bardziej produktywny i kompetentny, a AI wzmacnia wpływ każdego ludzkiego członka (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie).

  • Ulepszone wsparcie decyzyjne i raportowanie: Dzięki tłumaczeniu danych technicznych na spostrzeżenia w języku naturalnym generatywna sztuczna inteligencja usprawnia komunikację i podejmowanie decyzji. Liderzy ds. bezpieczeństwa uzyskują jaśniejszy wgląd w problemy dzięki podsumowaniom generowanym przez sztuczną inteligencję i mogą podejmować świadome decyzje strategiczne bez konieczności analizowania surowych danych. Podobnie komunikacja międzyfunkcyjna (z dyrektorami, inspektorami ds. zgodności itp.) jest usprawniona, gdy sztuczna inteligencja przygotowuje łatwe do zrozumienia raporty dotyczące postawy bezpieczeństwa i incydentów (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). To nie tylko buduje zaufanie i zgodność w kwestiach bezpieczeństwa na poziomie kierownictwa, ale także pomaga uzasadnić inwestycje i zmiany poprzez jasne artykułowanie ryzyka i luk odkrytych przez AI.

Łącznie te korzyści oznaczają, że organizacje wykorzystujące generatywną sztuczną inteligencję w cyberbezpieczeństwie mogą osiągnąć silniejszą postawę bezpieczeństwa przy potencjalnie niższych kosztach operacyjnych. Mogą reagować na zagrożenia, które wcześniej były przytłaczające, pokrywać luki, które nie były monitorowane, i stale się doskonalić dzięki pętlom sprzężenia zwrotnego napędzanym przez sztuczną inteligencję. Ostatecznie generatywna sztuczna inteligencja oferuje szansę wyprzedzenia przeciwników poprzez dopasowanie prędkość, skala i wyrafinowanie nowoczesnych ataków z równie wyrafinowanymi metodami obrony. Jak wykazało jedno badanie, ponad połowa liderów biznesu i cyberbezpieczeństwa przewiduje szybsze wykrywanie zagrożeń i większą dokładność dzięki wykorzystaniu generatywnej sztucznej inteligencji ([PDF] Globalne perspektywy cyberbezpieczeństwa 2025 | Światowe Forum Ekonomiczne) (Sztuczna inteligencja generatywna w cyberbezpieczeństwie: kompleksowy przegląd LLM ...) – dowód optymizmu związanego z korzyściami płynącymi ze stosowania tych technologii.

Ryzyka i wyzwania związane z wykorzystaniem generatywnej sztucznej inteligencji w cyberbezpieczeństwie

Choć możliwości są znaczące, niezwykle ważne jest, aby podchodzić do sztucznej inteligencji generatywnej w cyberbezpieczeństwie z otwartymi oczami ryzyka i wyzwania zaangażowany. Bezmyślne zaufanie AI lub niewłaściwe jej używanie może wprowadzić nowe luki. Poniżej przedstawiamy główne obawy i pułapki wraz z kontekstem dla każdego z nich:

  • Wykorzystanie w celach antagonistycznych przez cyberprzestępców: Te same generatywne możliwości, które pomagają obrońcom, mogą wzmocnić atakujących. Aktorzy zagrożeń już używają generatywnej sztucznej inteligencji do tworzenia bardziej przekonujących wiadomości e-mail phishingowych, tworzenia fałszywych person i deepfake'ów do inżynierii społecznej, opracowywania polimorficznego złośliwego oprogramowania, które stale się zmienia, aby uniknąć wykrycia, a nawet automatyzowania aspektów hakowania (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks). Prawie połowa (46%) liderów cyberbezpieczeństwa obawia się, że generatywna sztuczna inteligencja doprowadzi do bardziej zaawansowanych ataków przeciwnika (Bezpieczeństwo Generative AI: Trendy, Zagrożenia i Strategie Łagodzenia). Ten „wyścig zbrojeń AI” oznacza, że ​​gdy obrońcy przyjmują AI, atakujący nie będą daleko w tyle (w rzeczywistości mogą być przed nimi w niektórych obszarach, korzystając z nieuregulowanych narzędzi AI). Organizacje muszą być przygotowane na zagrożenia wzmocnione przez AI, które są częstsze, bardziej wyrafinowane i trudniejsze do wyśledzenia.

  • Halucynacje i niedokładność sztucznej inteligencji: Modele sztucznej inteligencji generatywnej mogą generować wyniki, które są prawdopodobne, ale nieprawidłowe lub wprowadzające w błąd – zjawisko znane jako halucynacja. W kontekście bezpieczeństwa sztuczna inteligencja może analizować incydent i błędnie wnioskować, że przyczyną była pewna podatność lub może generować wadliwy skrypt naprawczy, który nie powstrzymuje ataku. Te błędy mogą być niebezpieczne, jeśli traktuje się je jak coś oczywistego. Jak ostrzega NTT Data, „generatywna sztuczna inteligencja może prawdopodobnie generować nieprawdziwe treści, a zjawisko to nazywa się halucynacjami… obecnie trudno jest je całkowicie wyeliminować” (Zagrożenia bezpieczeństwa generatywnej sztucznej inteligencji i przeciwdziałania im oraz ich wpływ na cyberbezpieczeństwo | NTT DATA Group). Nadmierne poleganie na sztucznej inteligencji bez weryfikacji może prowadzić do błędnych działań lub fałszywego poczucia bezpieczeństwa. Na przykład sztuczna inteligencja może błędnie oznaczyć krytyczny system jako bezpieczny, gdy tak nie jest, lub odwrotnie, wywołać panikę, „wykrywając” naruszenie, które nigdy nie miało miejsca. Rygorystyczna walidacja wyników sztucznej inteligencji i zaangażowanie ludzi w podejmowanie krytycznych decyzji jest niezbędne do złagodzenia tego ryzyka.

  • Wyniki fałszywie pozytywne i fałszywie negatywne: W odniesieniu do halucynacji, jeśli model sztucznej inteligencji jest słabo wyszkolony lub skonfigurowany, może nadmiernie zgłaszać łagodną aktywność jako złośliwą (fałszywie pozytywne wyniki) lub co gorsza, przegapić prawdziwe zagrożenia (fałszywe negatywy) (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie). Nadmierna liczba fałszywych alertów może przytłoczyć zespoły ds. bezpieczeństwa i doprowadzić do zmęczenia alertami (niszcząc same korzyści w zakresie wydajności obiecane przez AI), podczas gdy pominięte wykrycia narażają organizację na niebezpieczeństwo. Dostrajanie modeli generatywnych w celu uzyskania właściwej równowagi jest trudne. Każde środowisko jest wyjątkowe, a AI może nie działać optymalnie od razu po wyjęciu z pudełka. Ciągłe uczenie się jest również mieczem obosiecznym – jeśli AI uczy się z przekrzywionych informacji zwrotnych lub ze zmieniającego się środowiska, jej dokładność może się wahać. Zespoły ds. bezpieczeństwa muszą monitorować wydajność AI i dostosowywać progi lub dostarczać korygujące informacje zwrotne do modeli. W kontekstach o wysokiej stawce (takich jak wykrywanie włamań do infrastruktury krytycznej) rozsądne może być uruchamianie sugestii AI równolegle z istniejącymi systemami przez pewien czas, aby upewnić się, że są one zgodne i uzupełniają się, a nie są sprzeczne.

  • Prywatność i wyciek danych: Systemy generatywnej AI często wymagają dużych ilości danych do szkolenia i obsługi. Jeśli te modele są oparte na chmurze lub nie są odpowiednio odizolowane, istnieje ryzyko wycieku poufnych informacji. Użytkownicy mogą nieświadomie wprowadzać zastrzeżone dane lub dane osobowe do usługi AI (pomyśl o poproszeniu ChatGPT o podsumowanie poufnego raportu o incydencie), a te dane mogą stać się częścią wiedzy modelu. Rzeczywiście, niedawne badanie wykazało 55% danych wejściowych do narzędzi generatywnej sztucznej inteligencji zawierało poufne lub umożliwiające identyfikację osoby informacje, co budzi poważne obawy dotyczące wycieku danych (Bezpieczeństwo Generative AI: Trendy, Zagrożenia i Strategie Łagodzenia). Ponadto, jeśli sztuczna inteligencja została wyszkolona na danych wewnętrznych i jest przeszukiwana w określony sposób, może wyjście części tych wrażliwych danych komuś innemu. Organizacje muszą wdrożyć surowe zasady obsługi danych (np. korzystanie z lokalnych lub prywatnych instancji AI w przypadku wrażliwych materiałów) i edukować pracowników, aby nie wklejali tajnych informacji do publicznych narzędzi AI. Przepisy dotyczące prywatności (RODO itp.) również wchodzą w grę – korzystanie z danych osobowych do szkolenia AI bez odpowiedniej zgody lub ochrony może naruszać prawo.

  • Bezpieczeństwo modelu i manipulacja: Modele sztucznej inteligencji generatywnej same w sobie mogą stać się celem ataków.Przeciwnicy mogą próbować zatrucie modelu, podając złośliwe lub wprowadzające w błąd dane podczas fazy szkolenia lub ponownego szkolenia, tak aby sztuczna inteligencja nauczyła się nieprawidłowych wzorców (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie). Na przykład atakujący może subtelnie zatruć dane wywiadowcze dotyczące zagrożeń, aby AI nie rozpoznała złośliwego oprogramowania atakującego jako złośliwego. Inną taktyką jest natychmiastowa manipulacja wtryskiem lub wyjściem, gdzie atakujący znajduje sposób na wydawanie poleceń do AI, które powodują, że zachowuje się ona w niezamierzony sposób – być może ignorując swoje zabezpieczenia lub ujawniając informacje, których nie powinna (takie jak wewnętrzne monity lub dane). Ponadto istnieje ryzyko model unikania: atakujący tworzą dane wejściowe specjalnie zaprojektowane, aby oszukać AI. Widzimy to w przykładach antagonistycznych – lekko zaburzone dane, które człowiek postrzega jako normalne, ale AI błędnie klasyfikuje. Zapewnienie bezpieczeństwa łańcucha dostaw AI (integralność danych, kontrola dostępu do modelu, testowanie odporności na ataki) jest nową, ale konieczną częścią cyberbezpieczeństwa podczas wdrażania tych narzędzi (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks).

  • Nadmierne poleganie i erozja umiejętności: Istnieje mniejsze ryzyko, że organizacje mogą stać się nadmiernie zależne od AI i pozwolić, aby ludzkie umiejętności zanikły. Jeśli młodsi analitycy zaczną ślepo ufać wynikom AI, mogą nie rozwinąć krytycznego myślenia i intuicji potrzebnych, gdy AI jest niedostępna lub niepoprawna. Scenariusz, którego należy unikać, to zespół ds. bezpieczeństwa, który ma świetne narzędzia, ale nie ma pojęcia, jak działać, gdy te narzędzia przestaną działać (podobnie jak piloci nadmiernie polegający na autopilocie). Regularne ćwiczenia szkoleniowe bez pomocy AI i pielęgnowanie nastawienia, że ​​AI jest asystentem, a nie nieomylną wyrocznią, są ważne, aby analitycy byli czujni. Ludzie muszą pozostać ostatecznymi decydentami, zwłaszcza w przypadku osądów o dużym wpływie.

  • Wyzwania etyczne i zgodności: Wykorzystanie AI w cyberbezpieczeństwie rodzi pytania etyczne i może wywołać problemy ze zgodnością z przepisami. Na przykład, jeśli system AI błędnie oskarży pracownika o bycie złośliwym insiderem z powodu anomalii, może to niesłusznie zaszkodzić reputacji lub karierze tej osoby. Decyzje podejmowane przez AI mogą być nieprzejrzyste (problem „czarnej skrzynki”), co utrudnia wyjaśnienie audytorom lub regulatorom, dlaczego podjęto określone działania. Ponieważ treści generowane przez AI stają się coraz bardziej powszechne, zapewnienie przejrzystości i utrzymanie odpowiedzialności ma kluczowe znaczenie. Organy regulacyjne zaczynają badać AI – na przykład ustawa UE o AI nałoży wymagania na systemy AI „wysokiego ryzyka”, a AI w cyberbezpieczeństwie może należeć do tej kategorii. Firmy będą musiały poruszać się po tych przepisach i ewentualnie przestrzegać standardów, takich jak NIST AI Risk Management Framework, aby odpowiedzialnie korzystać z generatywnej AI (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Zgodność dotyczy również licencjonowania: korzystanie z modeli open source lub stron trzecich może mieć warunki, które ograniczają pewne zastosowania lub wymagają udostępniania ulepszeń.

Podsumowując, generatywna sztuczna inteligencja nie jest panaceum – jeśli nie zostanie wdrożone ostrożnie, może wprowadzić nowe słabości, nawet rozwiązując inne. Badanie Światowego Forum Ekonomicznego z 2024 r. wykazało, że ~47% organizacji wskazuje postępy w dziedzinie generatywnej AI dokonywane przez atakujących jako główny problem, co sprawia, że „najbardziej niepokojący wpływ generatywnej sztucznej inteligencji” w cyberbezpieczeństwie ([PDF] Globalne perspektywy cyberbezpieczeństwa 2025 | Światowe Forum Ekonomiczne) (Sztuczna inteligencja generatywna w cyberbezpieczeństwie: kompleksowy przegląd LLM ...). Organizacje muszą zatem przyjąć zrównoważone podejście: wykorzystać zalety AI, jednocześnie rygorystycznie zarządzając tymi ryzykami poprzez zarządzanie, testowanie i nadzór ludzki. Następnie omówimy, jak w praktyce osiągnąć tę równowagę.

Perspektywy na przyszłość: ewoluująca rola sztucznej inteligencji generatywnej w cyberbezpieczeństwie

Patrząc w przyszłość, generatywna sztuczna inteligencja jest gotowa stać się integralną częścią strategii cyberbezpieczeństwa – a także narzędziem, które cyberprzeciwnicy będą nadal wykorzystywać. dynamika kotka i myszy przyspieszy, z AI po obu stronach barykady. Oto kilka przyszłościowych spostrzeżeń na temat tego, jak generatywna AI może kształtować cyberbezpieczeństwo w nadchodzących latach:

  • Cyberobrona wspomagana sztuczną inteligencją staje się standardem: Do 2025 r. i później możemy się spodziewać, że większość średnich i dużych organizacji włączy narzędzia oparte na sztucznej inteligencji do swoich operacji bezpieczeństwa. Tak jak obecnie standardem są programy antywirusowe i zapory sieciowe, tak współpiloci AI i systemy wykrywania anomalii mogą stać się podstawowymi komponentami architektur bezpieczeństwa. Te narzędzia prawdopodobnie staną się bardziej wyspecjalizowane – na przykład odrębne modele AI dostrojone do bezpieczeństwa w chmurze, do monitorowania urządzeń IoT, do bezpieczeństwa kodu aplikacji itd., wszystkie działające w koncercie. Jak zauważa jedna z prognoz, „w 2025 r. generatywna sztuczna inteligencja stanie się integralną częścią cyberbezpieczeństwa, umożliwiając organizacjom proaktywną obronę przed zaawansowanymi i rozwijającymi się zagrożeniami” (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie). AI usprawni wykrywanie zagrożeń w czasie rzeczywistym, zautomatyzuje wiele działań reagowania i pomoże zespołom ds. bezpieczeństwa zarządzać znacznie większymi wolumenami danych, niż mogłyby to robić ręcznie.

  • Ciągła nauka i adaptacja: Przyszłe generatywne systemy sztucznej inteligencji w cyberprzestrzeni staną się lepsze nauka w locie z nowych incydentów i informacji o zagrożeniach, aktualizując swoją bazę wiedzy w czasie niemal rzeczywistym. Może to prowadzić do prawdziwie adaptacyjnych obron – wyobraź sobie sztuczną inteligencję, która dowiaduje się o nowej kampanii phishingowej atakującej inną firmę rano, a po południu już dostosowuje filtry poczty e-mail w Twojej firmie w odpowiedzi. Usługi bezpieczeństwa sztucznej inteligencji oparte na chmurze mogą ułatwiać tego rodzaju zbiorowe uczenie się, w którym zanonimizowane spostrzeżenia z jednej organizacji przynoszą korzyści wszystkim subskrybentom (podobnie jak udostępnianie informacji o zagrożeniach, ale zautomatyzowane). Będzie to jednak wymagało ostrożnego postępowania, aby uniknąć udostępniania poufnych informacji i uniemożliwić atakującym wprowadzanie złych danych do współdzielonych modeli.

  • Konwergencja talentów w dziedzinie sztucznej inteligencji i cyberbezpieczeństwa: Zestaw umiejętności specjalistów od cyberbezpieczeństwa będzie ewoluował, obejmując biegłość w zakresie sztucznej inteligencji i nauki o danych. Tak jak dzisiejsi analitycy uczą się języków zapytań i pisania skryptów, tak jutrzejsi analitycy mogą regularnie dostrajać modele sztucznej inteligencji lub pisać „podręczniki” do wykonywania przez sztuczną inteligencję. Możemy zobaczyć nowe role, takie jak „Trener bezpieczeństwa AI” Lub „Inżynier AI ds. cyberbezpieczeństwa” – osoby specjalizujące się w dostosowywaniu narzędzi AI do potrzeb organizacji, sprawdzaniu ich wydajności i zapewnianiu ich bezpiecznego działania. Z drugiej strony kwestie cyberbezpieczeństwa będą coraz bardziej wpływać na rozwój AI. Systemy AI będą budowane od podstaw z funkcjami bezpieczeństwa (bezpieczna architektura, wykrywanie manipulacji, dzienniki audytu dla decyzji AI itp.) oraz ramami dla godna zaufania sztuczna inteligencja (sprawiedliwe, zrozumiałe, solidne i bezpieczne) będą stanowić wytyczne dla ich wdrażania w kontekstach o znaczeniu krytycznym dla bezpieczeństwa.

  • Bardziej zaawansowane ataki oparte na sztucznej inteligencji: Niestety, krajobraz zagrożeń będzie ewoluował wraz ze sztuczną inteligencją. Przewidujemy częstsze wykorzystywanie sztucznej inteligencji do odkrywania luk typu zero-day, tworzenia wysoce ukierunkowanego spear phishingu (np. AI scraping mediów społecznościowych w celu stworzenia idealnie dopasowanej przynęty) oraz generowania przekonujących deepfake'owych głosów lub filmów w celu ominięcia uwierzytelniania biometrycznego lub popełnienia oszustwa. Mogą pojawić się zautomatyzowani agenci hakerscy, którzy będą mogli niezależnie przeprowadzać ataki wieloetapowe (rozpoznanie, eksploatacja, ruch boczny itp.) przy minimalnym nadzorze człowieka.To wywrze presję na obrońców, aby również polegali na sztucznej inteligencji – zasadniczo automatyzacja kontra automatyzacja. Niektóre ataki mogą odbywać się z prędkością maszyny, np. boty AI próbują tysiąca permutacji wiadomości phishingowych, aby sprawdzić, która z nich przejdzie przez filtry. Cyberobrona będzie musiała działać z podobną prędkością i elastycznością, aby nadążyć (Czym jest generatywna sztuczna inteligencja w cyberbezpieczeństwie? - Palo Alto Networks).

  • Regulacja i etyka sztucznej inteligencji w obszarze bezpieczeństwa: W miarę jak AI staje się coraz bardziej osadzona w funkcjach cyberbezpieczeństwa, będzie większa kontrola i prawdopodobnie regulacje, aby zapewnić odpowiedzialne korzystanie z tych systemów AI. Możemy oczekiwać ram i standardów specyficznych dla AI w zakresie bezpieczeństwa. Rządy mogą ustalać wytyczne dotyczące przejrzystości – np. wymagając, aby istotne decyzje dotyczące bezpieczeństwa (takie jak zakończenie dostępu pracownika z powodu podejrzenia złośliwej aktywności) nie mogły być podejmowane przez AI samodzielnie bez przeglądu przez człowieka. Mogą również istnieć certyfikaty dla produktów bezpieczeństwa AI, aby zapewnić kupującym, że AI została oceniona pod kątem stronniczości, solidności i bezpieczeństwa. Ponadto może rozwinąć się międzynarodowa współpraca wokół cyberzagrożeń związanych z AI; na przykład porozumienia dotyczące postępowania z dezinformacją stworzoną przez AI lub normy przeciwko pewnym cyberbroniom napędzanym przez AI.

  • Integracja z szerszymi ekosystemami AI i IT: Generatywna sztuczna inteligencja w cyberbezpieczeństwie prawdopodobnie zintegruje się z innymi systemami sztucznej inteligencji i narzędziami do zarządzania IT. Na przykład sztuczna inteligencja, która zarządza optymalizacją sieci, mogłaby współpracować z sztuczną inteligencją bezpieczeństwa, aby zapewnić, że zmiany nie otworzą luk. Analityka biznesowa oparta na sztucznej inteligencji może udostępniać dane sztuczkom bezpieczeństwa AI w celu korelowania anomalii (takich jak nagły spadek sprzedaży z możliwym problemem ze stroną internetową z powodu ataku). Zasadniczo sztuczna inteligencja nie będzie żyć w silosie – będzie częścią większej inteligentnej struktury operacji organizacji. Otwiera to możliwości holistycznego zarządzania ryzykiem, w którym dane operacyjne, dane dotyczące zagrożeń, a nawet dane dotyczące bezpieczeństwa fizycznego mogłyby być łączone przez sztuczną inteligencję, aby uzyskać 360-stopniowy obraz postawy bezpieczeństwa organizacji.

W dłuższej perspektywie mamy nadzieję, że generatywna sztuczna inteligencja pomoże przechylić szalę na korzyść obrońców. Poprzez radzenie sobie ze skalą i złożonością nowoczesnych środowisk informatycznych, sztuczna inteligencja może uczynić cyberprzestrzeń bardziej obronną. Jest to jednak podróż i pojawią się trudności związane z udoskonalaniem tych technologii i nauką odpowiedniego zaufania do nich. Organizacje, które pozostają poinformowane i inwestują w odpowiedzialne wdrażanie sztucznej inteligencji ponieważ to właśnie kwestie bezpieczeństwa będą prawdopodobnie najlepiej przygotowane do stawiania czoła zagrożeniom przyszłości.

Jak zauważono w najnowszym raporcie Gartnera dotyczącym trendów w cyberbezpieczeństwie, „pojawienie się przypadków użycia generatywnej sztucznej inteligencji (i związanych z nimi zagrożeń) wywiera presję na transformację” (Trendy w cyberbezpieczeństwie: odporność dzięki transformacji - Gartner). Ci, którzy się dostosują, wykorzystają AI jako potężnego sojusznika; ci, którzy pozostają w tyle, mogą zostać wyprzedzeni przez przeciwników wspieranych przez AI. Następne kilka lat będzie kluczowym momentem w definiowaniu sposobu, w jaki AI przekształca cybernetyczne pole bitwy.

Praktyczne wskazówki dotyczące wdrażania generatywnej sztucznej inteligencji w cyberbezpieczeństwie

Dla firm rozważających wykorzystanie sztucznej inteligencji generatywnej w swojej strategii cyberbezpieczeństwa przygotowaliśmy kilka wskazówek praktyczne wnioski i zalecenia aby pokierować odpowiedzialną i skuteczną adopcją:

  1. Zacznij od edukacji i szkoleń: Upewnij się, że Twój zespół ds. bezpieczeństwa (i szerszy personel IT) rozumie, co generatywna sztuczna inteligencja może i czego nie może zrobić. Zapewnij szkolenie na temat podstaw narzędzi bezpieczeństwa opartych na sztucznej inteligencji i zaktualizuj swoje programy zwiększające świadomość bezpieczeństwa dla wszystkich pracowników, aby chronić się przed zagrożeniami związanymi z AI. Na przykład, naucz personel, jak AI może generować bardzo przekonujące oszustwa phishingowe i połączenia deepfake. Jednocześnie, przeszkol pracowników w zakresie bezpiecznego i zatwierdzonego korzystania z narzędzi AI w ich pracy.Dobrze poinformowani użytkownicy rzadziej źle obchodzą się ze sztuczną inteligencją lub padają ofiarą ataków wspomaganych przez sztuczną inteligencję (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata).

  2. Zdefiniuj jasne zasady korzystania ze sztucznej inteligencji: Traktuj generatywną sztuczną inteligencję jak każdą potężną technologię – z zarządzaniem. Opracuj zasady określające, kto może korzystać z narzędzi sztucznej inteligencji, które narzędzia są sankcjonowane i w jakich celach. Dołącz wytyczne dotyczące przetwarzania wrażliwych danych (np. brak podawania poufnych danych do zewnętrznych usług AI), aby zapobiec wyciekom. Na przykład możesz zezwolić tylko członkom zespołu ds. bezpieczeństwa na korzystanie z wewnętrznego asystenta AI do reagowania na incydenty, a marketing może korzystać ze sprawdzonej AI do treści – wszyscy inni są ograniczeni. Wiele organizacji obecnie wyraźnie zajmuje się generatywną AI w swoich politykach IT, a wiodące organy normalizacyjne zachęcają do bezpiecznych zasad użytkowania, zamiast całkowitych zakazów (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Upewnij się, że przekażesz te zasady i uzasadnienie dla nich wszystkim pracownikom.

  3. Ogranicz „Shadow AI” i monitoruj wykorzystanie: Podobnie jak w przypadku cienia IT, „cień AI” powstaje, gdy pracownicy zaczynają używać narzędzi lub usług AI bez wiedzy IT (np. programista używający nieautoryzowanego asystenta kodu AI). Może to powodować niewidoczne ryzyko. Wdrażaj środki, aby wykrywać i kontrolować nieautoryzowane użycie sztucznej inteligencji. Monitorowanie sieci może oznaczać połączenia z popularnymi interfejsami API AI, a ankiety lub audyty narzędzi mogą ujawnić, z czego korzysta personel. Oferuj zatwierdzone alternatywy, aby dobrze nastawieni pracownicy nie byli kuszeni, aby działać nieuczciwie (na przykład udostępnij oficjalne konto ChatGPT Enterprise, jeśli ludzie uznają je za przydatne). Ujawniając wykorzystanie AI, zespoły ds. bezpieczeństwa mogą oceniać i zarządzać ryzykiem. Monitorowanie jest również kluczowe — rejestruj działania i wyniki narzędzi AI tak często, jak to możliwe, aby istniał ślad audytu decyzji, na które wpłynęła AI. (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata).

  4. Wykorzystaj sztuczną inteligencję w obronie – nie zostawaj w tyle: Zdaj sobie sprawę, że atakujący będą używać AI, więc Twoja obrona również powinna. Zidentyfikuj kilka obszarów o dużym wpływie, w których generatywna AI mogłaby natychmiast pomóc Twoim operacjom bezpieczeństwa (może to być triage alertów lub automatyczna analiza dzienników) i przeprowadź projekty pilotażowe. Wzmocnij swoją obronę dzięki szybkości i skali sztucznej inteligencji aby przeciwdziałać szybko zmieniającym się zagrożeniom (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Nawet proste integracje, takie jak wykorzystanie sztucznej inteligencji do podsumowania raportów o złośliwym oprogramowaniu lub generowania zapytań dotyczących polowania na zagrożenia, mogą zaoszczędzić analitykom wiele godzin. Zacznij od małych rzeczy, oceń wyniki i powtarzaj. Sukcesy będą budować argumenty za szerszą adopcją sztucznej inteligencji. Celem jest wykorzystanie sztucznej inteligencji jako mnożnika siły – na przykład, jeśli ataki phishingowe przytłaczają Twój helpdesk, wdróż klasyfikator wiadomości e-mail oparty na sztucznej inteligencji, aby proaktywnie zmniejszyć ich liczbę.

  5. Inwestuj w bezpieczne i etyczne praktyki AI: Podczas wdrażania generatywnej AI należy stosować bezpieczne praktyki rozwoju i wdrażania. Użyj modele prywatne lub hostowane samodzielnie do zadań wrażliwych, aby zachować kontrolę nad danymi. Jeśli korzystasz z usług AI stron trzecich, sprawdź ich środki bezpieczeństwa i prywatności (szyfrowanie, zasady przechowywania danych itp.). Włącz ramy zarządzania ryzykiem AI (takie jak AI Risk Management Framework NIST lub wytyczne ISO/IEC), aby systematycznie zajmować się takimi kwestiami, jak stronniczość, wyjaśnialność i solidność w swoich narzędziach AI (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie? 10 przykładów z prawdziwego świata). Zaplanuj również aktualizacje/łatki modelu jako część konserwacji – modele AI mogą mieć również „luki” (np. mogą wymagać ponownego przeszkolenia, jeśli zaczną dryfować lub jeśli zostanie odkryty nowy typ ataku przeciwnika na model).Integrując bezpieczeństwo i etykę z korzystaniem ze sztucznej inteligencji, budujesz zaufanie do wyników i zapewniasz zgodność z nowymi przepisami.

  6. Informuj ludzi na bieżąco: Użyj AI, aby wspomóc, a nie całkowicie zastąpić, ludzki osąd w cyberbezpieczeństwie. Określ punkty decyzyjne, w których wymagana jest ludzka walidacja (na przykład AI może opracować raport o incydencie, ale analityk przegląda go przed dystrybucją; lub AI może zasugerować zablokowanie konta użytkownika, ale człowiek zatwierdza to działanie). To nie tylko zapobiega błędom AI, które pozostają niesprawdzone, ale także pomaga Twojemu zespołowi uczyć się od AI i odwrotnie. Zachęcaj do współpracy w przepływie pracy: analitycy powinni czuć się komfortowo, kwestionując wyniki AI i wykonując kontrole poprawności. Z czasem ten dialog może poprawić zarówno AI (poprzez informacje zwrotne), jak i umiejętności analityków. Zasadniczo zaprojektuj swoje procesy tak, aby mocne strony AI i człowieka wzajemnie się uzupełniały – AI obsługuje wolumen i prędkość, ludzie obsługują niejednoznaczność i ostateczne decyzje.

  7. Mierz, monitoruj i dostosowuj: Na koniec traktuj swoje generatywne narzędzia AI jako żywe komponenty swojego ekosystemu bezpieczeństwa. Ciągle zmierzyć ich wydajność – czy skracają czas reakcji na incydenty? Wykrywają zagrożenia wcześniej? Jak zmienia się wskaźnik fałszywych wyników pozytywnych? Poproś zespół o opinię: czy zalecenia AI są przydatne, czy też generują szum? Użyj tych metryk, aby udoskonalić modele, zaktualizować dane szkoleniowe lub dostosować sposób integracji AI. Cyberzagrożenia i potrzeby biznesowe ewoluują, a Twoje modele AI powinny być okresowo aktualizowane lub ponownie szkolone, aby zachować skuteczność. Miej plan zarządzania modelem, w tym to, kto odpowiada za jego utrzymanie i jak często jest on przeglądany. Aktywnie zarządzając cyklem życia AI, zapewniasz, że pozostanie on atutem, a nie obciążeniem.

Podsumowując, generatywna sztuczna inteligencja może znacznie zwiększyć możliwości cyberbezpieczeństwa, ale udana adopcja wymaga przemyślanego planowania i stałego nadzoru. Firmy, które edukują swoich pracowników, ustalają jasne wytyczne i integrują sztuczną inteligencję w zrównoważony, bezpieczny sposób, będą zbierać owoce szybszego, inteligentniejszego zarządzania zagrożeniami. Te wnioski stanowią plan działania: łącz ludzkie doświadczenie z automatyzacją sztucznej inteligencji, obejmij podstawy zarządzania i zachowaj zwinność, ponieważ zarówno technologia sztucznej inteligencji, jak i krajobraz zagrożeń nieuchronnie ewoluują.

Podejmując te praktyczne kroki, organizacje mogą pewnie odpowiedzieć na pytanie „W jaki sposób sztuczna inteligencja generatywna może być wykorzystywana w cyberbezpieczeństwie?” – nie tylko w teorii, ale także w codziennej praktyce – i tym samym wzmocnić ich obronę w naszym coraz bardziej cyfrowym i napędzanym sztuczną inteligencją świecie. (Jak można wykorzystać sztuczną inteligencję generatywną w cyberbezpieczeństwie)

Powrót do bloga