Sztuczna inteligencja to wciąż temat, który budzi skrajne emocje. Można ją uwielbiać lub nienawidzić. Narzędzia napędzane AI niewątpliwie skracają czas wykonywania niektórych zadań, jednak wielu obawia się, że sztuczna inteligencja doprowadzi do zaniku niektórych miejsc pracy. Są też tacy, którzy podpowiadają, aby nauczyć się czerpać z potencjału sztucznej inteligencji, co może doprowadzić do powstania całkiem nowych zawodów. Jest też kilka obszarów, w których AI już dostarcza nowych profesjonalnych i zaskakujących możliwości. Niewątpliwie należy do nich cyberbezpieczeństwo.
Czym jest sztuczna inteligencja? Parę podstawowych pojęć
Zanim szerzej przeanalizujemy wpływ sztucznej inteligencji na cyberbezpieczeństwo, przypomnimy sobie kilka kluczowych pojęć związanych z AI:
- Uczenie maszynowe (Machine Learning): dziedzina sztucznej inteligencji, która skupia się na rozwoju algorytmów. Pozwalają one komputerom uczyć się z doświadczenia. ML wykorzystuje zestawy danych do „treningu” algorytmów, aby mogły one dokonywać prognoz lub podejmować decyzje bez konieczności zaprogramowania ich do wykonywania konkretnych zadań;
- Uczenie głębokie (Deep Learning): poddziedzina uczenia maszynowego skupiona wokół algorytmów nazwanych sieciami neuronowymi inspirowanych strukturą i funkcją mózgu. Uczenie głębokie jest stosowane do uczenia maszynowego dużymi ilościami danych. Dzięki niemu można automatycznie odkrywać cechy i zachowania z danych, które są używane do klasyfikacji, detekcji i innych zadań;
- Przetwarzanie języka naturalnego (NLP): dziedzina sztucznej inteligencji, która skupia się na interakcji między komputerami a ludzkim językiem. NLP pozwala maszynom na czytanie, rozumienie i generowanie języka ludzkiego w sposób zrozumiały i wartościowy. Używane jest w takich aplikacjach jak tłumaczenie maszynowe, analiza sentymentów i asystenci głosowi.
W skrócie, sztuczna inteligencja (AI) wykorzystuje matematykę oraz logikę do symulowania rozumowania, którego ludzie używają do uczenia się na podstawie nowych informacji i podejmowania decyzji. Co więcej, AI prognozuje lub podejmuje decyzje w oparciu o wzorce, a następnie sama się doskonali, aby zwiększyć swoją wydajność i dokładność.
Definicja i rola sztucznej inteligencji w cyberbezpieczeństwie
Raport ENISA „Artificial Intelligence Cybersecurity Challenges. Threat landscape for Artificial Intellignece” określa relację między AI a cyberbezpieczeństwem na kilku płaszczyznach:
- Cyberbezpieczeństwo sztucznej inteligencji (ang. cybersecurity for AI);
- Sztuczna inteligencja w służbie cyberbezpieczeństwa (ang. AI to suport cybersecurity)
- Szkodliwe wykorzystanie sztucznej inteligencji (ang. malicious use of AI)
W cyberbezpieczeństwie AI pełni ważną rolę w analizie danych, wykrywaniu zagrożeń i automatyzacji procesów obronnych. Dzięki niej jest możliwe przetwarzanie dużych ilości informacji w krótkim czasie. Analiza behawioralna użytkowników oparta na AI wspomaga identyfikację podejrzanych aktywności i reakcję na nie w czasie rzeczywistym. Ponadto, sieci neuronowe stosowane w cyberbezpieczeństwie pozwalają na szybkie rozpoznawanie wzorców zachowań typowych dla ataków.
Przykładem powiązania AI i cyberbezpieczeństwa są antywirusy nowej generacji (NGAV – Next Generation AntiVirus). Wykorzystują technologie uczenia maszynowego oraz sztucznej inteligencji. Dzięki nim NGAV może wykrywać zagrożenia, które nie znajdują się w aktualnych sygnaturach bezpieczeństwa. Nie musi bazować na podobieństwach do znanych typów wirusów oraz nie wymaga ciągłego zasilania danymi. NGAV stale dostosowuje się do nowych zagrożeń i uczy się na nich.
Narzędzia oparte o AI celem przestępców
Cyberprzestępcy niestety też są na bieżąco i szukają sposobów, aby wykorzystać sztuczną inteligencję w ulepszaniu ataków. Celem stają się, np. duże modele językowe (ang. LLM, Large Language Models). Prawdopodobnie nie ma osoby, która by o nich nie słyszała. Przykładem jest chociażby ChatGPT, który skraca czas potrzebny na research, pomaga stworzyć pierwszy szkic dowolnego tekstu w kilku językach, wytworzyć grafikę lub przeprowadzić przekonywującą rozmowę. Na pierwszy rzut oka widać same korzyści, jednak, czy w takich narzędziach mogą na nas czekać jakieś niebezpieczeństwa? WatchGuard przestrzega, że jednym z zagrożeń 2024 będzie prompt hacking.
Czym jest prompt hacking i jak się przed nim bronić?
Wyobraźmy sobie, że dane przedsiębiorstwo ma zintegrowany wewnętrzny system z dużym modelem językowym, który wykorzystuje w procesach decyzyjnych. Jeśli LLM zostanie zhakowany, nieupoważniona osoba może poprosić takie narzędzie jak ChatGPT o poufne dane tego przedsiębiorstwa. W takim przypadku mamy do czynienia z techniką prompt leakingu, czyli wykorzystywaniem LLMs do wykradania zastrzeżonych danych.
Jedna z metod to identyfikowanie i blokowanie złośliwych słów kluczowych lub fraz. Może to obejmować takie słowa, jak „udawaj”, „hipotetycznie”, „wyobraź sobie” lub frazy „ignoruj poprzednie żądania”, które mogą sygnalizować próbę ominięcia zabezpieczeń.
Trudności i próby zrozumienia oraz zapanowania nad AI
Jednak, powiązanie sztucznej inteligencji (AI) i cyberbezpieczeństwa wykracza daleko poza kwestie technologiczne. To obszar wielowymiarowy, który wymaga uwzględnienia takich aspektów jak:
- Technologia;
- Etyka;
- Regulacje prawne.
Pod względem etyki, pojawia się niepokój, że systemy AI mogą gromadzić i analizować ogromne ilości danych osobowych, co może budzić obawy o prywatność. Co więcej, działanie systemów AI może być trudne do zrozumienia. Sami twórcy twierdzą, że mają ogólne pojęcie o tym, jak funkcjonuje sztuczna inteligencja. Brak dokładnej wiedzy oraz zrozumienia może prowadzić do braku przejrzystości i odpowiedzialności. Co za tym idzie, systemy AI trudno objąć sztywnymi regulacjami prawnymi.
Obecnie podejmuje się wiele prób prawnego uregulowania sztucznej inteligencji. Przykładem jest akt ws. sztucznej inteligencji przedstawiony przez Parlament Europejski (AI Act), który ma na celu dopilnowanie, aby systemy sztucznej inteligencji stosowane w UE były bezpieczne, przejrzyste, indentyfikowalne, niedyskryminujące i przyjazne dla środowiska.
Przyszłość AI w cyberbezpieczeństwie
Autorzy raportu IDC FutureScape: Worldwide IT Industry 2024 Predictions przewidują, że wprowadzenie sztucznej inteligencji do branży ICT będzie przełomowym punktem zwrotnym. Do 2025 r. grupa największych na świecie spółek giełdowych G2000 wyda ponad 40% podstawowych budżetów IT na działania związane ze sztuczną inteligencją (AI). Doprowadzi to do dwucyfrowego wzrostu tempa innowacji produktów i procesów.
Jak wyglądają przewidywania dla wykorzystania sztucznej inteligencji (AI) w cyberbezpieczeństwie?
Według raportu opracowanego przez Splunk Security Predictions 2024 AI będzie miało wpływ na ten rynek pracy – 86% procent ankietowanych pracowników Cisco uważa, że generatywna sztuczna inteligencja złagodzi luki w umiejętnościach i niedobory talentów. Zaobserwowali, że nie ma wystarczającej liczby wykwalifikowanych specjalistów ds. cyberbezpieczeństwa, aby sprostać rosnącym wymaganiom. Analitycy bezpieczeństwa są też przeciążeni rutynowymi i żmudnymi zadaniami często kosztem tych, które rzeczywiście mogłyby podnieść poziom bezpieczeństwa cybernetycznego organizacji. W tym obszarze sztuczna inteligencja może okazać się dużym wsparciem. Zamiast zastępować nią pracowników, może funkcjonować jako asystent, który pomaga z powtarzalnymi, przyziemnymi i rutynowymi zadaniami.
Autorzy raportu Security Predictions 2024 przewidują także, że rok 2024 przyniesie nowe rodzaje ataków w tym komercyjne oraz ekonomiczne kampanie dezinformacyjne, które będą bardziej ukierunkowane na reputację firm. Nowymi narzędziami napędzanymi sztuczną inteligencją nie interesują się już tylko script kiddies lub hakerzy z piwnic, ale niewykluczone, że oni też będą odnosić korzyści. W świetle nadchodzących wyborów i trwających globalnych konfliktów coraz więcej państw będzie wykorzystywać sztuczną inteligencję, aby odpierać ataki umotywowane politycznie, haktywizm i sabotaż.
Redaktorka Net Complex Blog