AI jako „mnożnik siły”
Sprawozdanie Pełnomocnika Rządu ds. Cyberbezpieczeństwa za 2025 r. określa sztuczną inteligencję jako kluczowy wektor zagrożeń, nazywając ją „mnożnikiem siły” adwersarzy. Pojęcie to oznacza, że AI nie wprowadza nowych klas ataków, lecz drastycznie zwiększa skuteczność, skalę i personalizację ataków istniejących. Ocena ryzyka: wpływ 4, prawdopodobieństwo 3, wynik 12 pkt — poziom wysoki.
Rok 2025 przyniósł masową adopcję generatywnej AI przez grupy cyberofensywne. Modele językowe (LLM) oraz modele generatywne audio/wideo stały się rutynowym elementem łańcucha ataków: od rekonesansu, przez tworzenie wiadomości phishingowych, po omijanie reguł detekcji. Sprawozdanie wskazuje cztery główne obszary wykorzystania AI:
- Masowy spersonalizowany phishing — LLM generują bezbłędne językowo wiadomości dostosowane do kontekstu odbiorcy (rola, branża, ostatnie wydarzenia firmowe z OSINT); dotychczasowe heurystyki wykrywania phishingu po błędach językowych są bezużyteczne.
- Deepfake audio i wideo — syntetyczne nagrania urzędników, członków zarządu, polityków wykorzystywane w atakach socjotechnicznych i dezinformacji.
- Automatyzacja rekonesansu — AI mapuje infrastrukturę celu, identyfikuje podatności, koreluje dane z wielu źródeł OSINT w ułamku czasu potrzebnego analitykowi.
- Omijanie reguł detekcji — modele generują warianty szkodliwych skryptów omijające sygnatury antywirusowe i reguły SIEM; AI wspomaga pisanie exploit-ów adaptacyjnych.
Deepfake i CEO fraud
Deepfake to technologia syntetycznego generowania nagrań audio i wideo osoby, której głos i wygląd są podrabiane na podstawie materiałów dostępnych publicznie (wywiady, wystąpienia, zdjęcia z social media). W atakach CEO fraud 2025 deepfake jest wykorzystywany do podszywania się pod członków zarządu przy wydawaniu poleceń przelewowych, zmianie rachunków dostawców lub uzyskiwaniu dostępu do wrażliwych informacji.
| Wariant ataku | Scenariusz | Obrona |
|---|---|---|
| Deepfake audio (vishing) | Telefon „od prezesa” z pilnym poleceniem przelewu | Procedura dwóch par oczu, weryfikacja kanałem out-of-band, hasło kontrolne |
| Deepfake wideo (Zoom/Teams) | Wideokonferencja z „członkiem zarządu” polecającym natychmiastowe działanie | Kod weryfikacyjny znany tylko prawdziwemu CEO; weryfikacja przez osobę trzecią |
| Klon głosu w IVR | Atakujący dzwoni do banku/urzędu podszywając się pod ofiarę | MFA nieoparta na głosie, pytania kontrolne znane tylko ofierze |
| Deepfake w rekrutacji | Fałszywy kandydat na rozmowie online (insider threat) | Weryfikacja tożsamości przy fizycznym odbiorze sprzętu, okres próbny |
Według Sprawozdania technologia deepfake była w 2025 r. aktywnie wykorzystywana do podszywania się pod urzędników i osoby publiczne w kampaniach manipulacyjnych — co ma szczególne znaczenie dla podmiotów administracji publicznej i samorządów, gdzie socjotechnika „od wyższego szczebla” jest skuteczna wobec kultur organizacyjnych opartych na hierarchii.
Ataki na systemy AI
Sprawozdanie wskazuje osobną klasę zagrożeń: ataki na same systemy AI wykorzystywane przez podmioty KSC. W miarę jak administracja, szpitale, operatorzy energii i sektor finansowy wdrażają modele AI do automatyzacji procesów — same modele stają się celem ataku.
- Prompt injection — wstrzykiwanie instrukcji w dane wejściowe powodujące ominięcie zabezpieczeń modelu (np. wyciek instrukcji systemowej, ujawnienie danych treningowych, wykonanie nieprzewidzianych akcji w integrowanych systemach).
- Data poisoning — zatruwanie zbiorów treningowych w fazie uczenia lub fine-tuningu w celu wymuszenia błędnych decyzji (np. klasyfikator zagrożeń zignoruje określony wzorzec ataku).
- Model extraction — odtworzenie modelu na podstawie zapytań API (zagrożenie dla modeli komercyjnych i zawierających chronione dane).
- Adversarial examples — wejścia zmodyfikowane tak, by spowodować błędną klasyfikację (np. malware zaklasyfikowane jako benigne, obraz medyczny błędnie zinterpretowany).
- Jailbreak i model manipulation — techniki wyłączania wbudowanych zabezpieczeń LLM, umożliwiające generowanie treści szkodliwych, phishingu, kodu exploit.
AI w obronie — SOC i threat intelligence
Równocześnie AI jest jedyną realną odpowiedzią na skalę atakowania 2025 r. — przy 272 941 incydentach rocznie i średnio 714 incydentach dziennie w samym CSIRT NASK, analitycy nie są w stanie obsłużyć wolumenu ręcznie. Sprawozdanie wskazuje automatyzację SOC oraz platformy klasy Threat Intelligence jako kluczowe środki zaradcze.
- SIEM z modułem ML/AI do detekcji anomalii — korelacja zdarzeń w skali, której nie obsłuży reguły deterministyczne; redukcja false positives.
- SOAR — automatyzacja odpowiedzi na incydenty (playbooks), przyspieszenie reakcji z godzin do minut.
- Threat Intelligence napędzane AI — agregacja i korelacja danych o zagrożeniach z tysięcy źródeł; predykcja kampanii.
- EDR/XDR z ML — detekcja anomalii zachowania na stacjach (behavioral analysis) zamiast sygnatur.
- Email security z AI — wykrywanie phishingu spersonalizowanego przez analizę kontekstu wiadomości, nie tylko linków/załączników.
- Weryfikacja tożsamości — rozwiązania anti-deepfake (liveness detection, challenge-response), krypto-podpis komunikacji zarządu.
Wnioski dla SZBI w podmiotach KSC
Podmiot KSC wdrażający SZBI (art. 8 UKSC) musi uwzględnić zagrożenia AI w analizie ryzyka oraz w politykach bezpieczeństwa. Konkretne obszary do aktualizacji:
- Polityka phishing awareness — zaktualizowana o deepfake audio/wideo i spersonalizowany phishing AI; szkolenia z praktycznymi przykładami 2025.
- Procedury autoryzacji transakcji — obowiązkowa weryfikacja poleceń zarządu kanałem alternatywnym (out-of-band), kod kontrolny znany tylko autoryzowanym osobom.
- MFA na wszystkich dostępach krytycznych — w tym biometria oparta na behavioralu (nie tylko głos/twarz, podatne na deepfake).
- Governance AI w organizacji — polityka wykorzystania generatywnej AI przez pracowników (co wolno, czego nie wolno wklejać do publicznych LLM-ów); wybór modeli on-premise dla danych wrażliwych.
- Ochrona modeli wewnętrznych — jeśli podmiot używa własnego modelu AI: zabezpieczenie API (rate limiting, autoryzacja), monitoring zapytań, ochrona zbioru treningowego.
- Aktualizacja planu reagowania — scenariusz „deepfake CEO” w playbookach SOC, procedura weryfikacji i komunikacja kryzysowa.
- Kryptografia postkwantowa — długoterminowo: migracja kluczowych systemów zgodnie z planem PIONIER-Q / EuroQCI (Sprawozdanie zapowiada Plan migracji).