AI Act oraz Dyrektywa NIS2: Wzrost regulacji dotyczących sztucznej inteligencji i cyberbezpieczeństwa
Sztuczna inteligencja (AI) staje się coraz bardziej integralną częścią naszego życia, wpływając na gospodarkę, społeczeństwo i sposób, w jaki funkcjonujemy na co dzień. W odpowiedzi na rosnące znaczenie AI oraz związane z nią wyzwania, Unia Europejska przyjęła AI Act – pierwsze na świecie kompleksowe rozporządzenie regulujące rozwój i wykorzystanie sztucznej inteligencji. Z kolei, Dyrektywa NIS2, która dotyczy bezpieczeństwa sieci i systemów informatycznych, również wprowadza istotne regulacje w kontekście zabezpieczeń cyfrowych, mając wpływ na firmy i instytucje w Unii Europejskiej.
Wspólne wyzwania obu regulacji to zapewnienie bezpieczeństwa oraz transparentności działań w świecie zdominowanym przez technologie. Choć AI Act dotyczy głównie sztucznej inteligencji, a NIS2 – cyberbezpieczeństwa, obie regulacje muszą współistnieć, aby zapewnić odpowiednią ochronę i stabilność w cyfrowym ekosystemie.
Czym jest AI Act?
AI Act to rozporządzenie mające na celu ustanowienie jednolitych zasad dotyczących rozwoju, wdrażania i użytkowania systemów AI w Europie. Opiera się na podejściu opartym na ryzyku, co oznacza, że różne systemy AI są klasyfikowane według stopnia potencjalnego zagrożenia dla użytkowników i społeczeństwa. Wyróżniono cztery kategorie ryzyka:
- Niedopuszczalne ryzyko – obejmuje systemy AI uznane za zagrożenie dla podstawowych praw człowieka, np. techniki manipulacyjne czy scoring społeczny. Takie systemy będą zakazane.
- Wysokie ryzyko – AI stosowana np. w systemach rekrutacyjnych, medycynie, wymiarze sprawiedliwości czy infrastrukturze krytycznej. Wymaga ścisłej kontroli, certyfikacji i przejrzystości działania.
- Ograniczone ryzyko – obejmuje systemy AI, które wymagają jedynie podstawowej przejrzystości, np. chatboty muszą informować użytkowników, że komunikują się z AI.
- Minimalne ryzyko – obejmuje AI stosowaną np. w grach komputerowych czy filtrach antyspamowych, gdzie regulacje są najmniej restrykcyjne.
Jakie zmiany wprowadza AI Act?
Regulacja wprowadza szereg nowych obowiązków dla dostawców i użytkowników AI, w tym:
- Wymóg przejrzystości i dokumentacji dla systemów wysokiego ryzyka.
- Obowiązek przeprowadzania audytów i oceny zgodności AI.
- Sankcje finansowe za naruszenia (nawet do 6% rocznego obrotu firmy).
- Wymóg informowania użytkowników o wykorzystaniu AI w pewnych kontekstach.
AI Act i zagrożenia związane z technologią deepfake
Deepfake’i stały się szczególnie groźne w świecie biznesu i finansów, gdzie wiarygodność i autorytet liderów odgrywają kluczową rolę. Oszustwa polegające na wykorzystaniu fałszywych nagrań wideo i dźwięku stały się nowym narzędziem wyłudzania pieniędzy. AI Act, w ramach klasyfikacji systemów AI, może pomóc w ograniczeniu stosowania takich technologii w obszarach, które stanowią niedopuszczalne ryzyko. Przykłady realnych ataków deepfake’owych w biznesie i finansach to m.in.:
- Oszustwa CEO fraud: W 2019 roku oszuści wykorzystali deepfake’owy głos prezesa niemieckiej firmy energetycznej, aby przekonać dyrektora oddziału do przelania 220 000 euro na zagraniczne konto.
- Fałszywe reklamy inwestycyjne: UK Advertising Standards Authority ostrzega, że deepfake’i są coraz częściej wykorzystywane do oszustw finansowych, w których celebryci „promują” nieistniejące produkty i inwestycje.
- Manipulacja rynkami finansowymi: Deepfake’y mogą być wykorzystywane do wpływania na kursy akcji i decyzje inwestorów, wywołując panikę lub wzbudzając fałszywe zaufanie.
Wprowadzenie do NIS2
Dyrektywa NIS2 obejmuje szeroki zakres podmiotów prywatnych i instytucji publicznych, które muszą spełniać określone wymogi w zakresie cyberbezpieczeństwa. Podmioty objęte regulacją zostały podzielone na dwie kategorie:
- Podmioty kluczowe: Firmy zatrudniające powyżej 250 pracowników lub osiągające roczny obrót powyżej 50 mln EUR.
- Podmioty ważne: Firmy zatrudniające powyżej 50 pracowników lub osiągające roczny obrót powyżej 10 mln EUR.
Obowiązki firm objętych NIS2
Firmy objęte NIS2 mają obowiązek wdrożenia szeregu środków związanych z zarządzaniem ryzykiem cyberbezpieczeństwa. Należy do nich:
- Wdrożenie systemu zarządzania ryzykiem.
- Przeprowadzanie audytów i oceny ryzyka.
- Zgłaszanie incydentów cyberbezpieczeństwa.
- Stosowanie polityki analizy ryzyka, procedury stosowania kryptografii, uwierzytelniania wieloskładnikowego i zabezpieczonych połączeń głosowych.
AI w systemach zabezpieczeń i zakresie cyberbezpieczeństwa
W kontekście NIS2, istotnym elementem jest integracja sztucznej inteligencji w systemach zabezpieczeń. AI znajduje coraz szersze zastosowanie w monitorowaniu zagrożeń w czasie rzeczywistym, analizie behawioralnej oraz w metodach uwierzytelniania. Dzięki AI można:
- Identyfikować zagrożenia: AI analizuje ogromne ilości danych w czasie rzeczywistym, wykrywając anomalie i potencjalne cyberzagrożenia.
- Monitorować i analizować zachowania: Algorytmy AI analizują wzorce aktywności użytkowników i urządzeń, co pozwala na wykrywanie potencjalnych zagrożeń.
- Wspierać uwierzytelnianie: AI wspiera implementację nowoczesnych metod weryfikacji, takich jak analiza kontekstowa i biometryczna.
Jak się chronić? Stosowanie uwierzytelniania wieloskładnikowego
Wszyscy klienci C&C Partners mają dostęp do platformy szkoleniowej, a uczestnictwo w regularnych szkoleniach potwierdzamy odpowiednim certyfikatem. Szkolenia te są kluczowe dla firm, które chcą być przygotowane na nowe regulacje, takie jak AI Act i NIS2, oraz dla tych, które planują wdrożenie silnych procesów uwierzytelniania i monitorowania incydentów bezpieczeństwa.
Kary za nieprzestrzeganie NIS2
Firmy, które nie będą przestrzegać obowiązków wynikających z Dyrektywy NIS2, będą narażone na sankcje finansowe, które mogą wynosić od 2% do 4% rocznego obrotu. Sankcje te mają na celu zmotywowanie firm do przestrzegania nowych regulacji i wdrożenia odpowiednich środków ochrony przed cyberzagrożeniami.
Wpływ na biznes i innowacje: bezpieczeństwo łańcucha dostaw
AI Act to zarówno wyzwanie, jak i szansa dla firm technologicznych. Z jednej strony wymaga dostosowania się do nowych regulacji, z drugiej – zapewnia jednolite standardy w całej UE, co może ułatwić ekspansję na rynku europejskim. Firmy, które wdrożą transparentne i etyczne systemy AI, zyskają przewagę konkurencyjną i większe zaufanie klientów.
Co dalej? W kierunku wysokiego wspólnego poziomu cyberbezpieczeństwa
AI Act wchodzi w życie etapami, a pełne wdrożenie planowane jest na najbliższe lata. W międzyczasie firmy powinny już teraz analizować swoje systemy AI i przygotowywać się na nadchodzące wymagania. Należy zacząć dostosowywać swoje procedury, oceniać ryzyko i wprowadzać odpowiednie zmiany, aby sprostać wymaganiom regulacji.