Wraz z dynamicznym rozwojem sztucznej inteligencji pojawiają się nie tylko nowe możliwości, ale i poważne zagrożenia. Technologia deepfake, narzędzia do klonowania głosu czy generatywne modele AI są już wykorzystywane przez sprawców przestępstw, często z dużą skutecznością. W obliczu tego pytanie o adekwatność polskich regulacji prawnych staje się coraz bardziej palące.
Deepfake i klonowanie głosu – jak działają i do czego są wykorzystywane w przestępstwach?
Deepfake to technologia oparta na sztucznej inteligencji, umożliwiająca realistyczne generowanie lub modyfikowanie obrazu i dźwięku w sposób, który może wprowadzać w błąd odbiorców. Używana może być zarówno w celach rozrywkowych, jak i przestępczych, np. do manipulowania wypowiedziami osób publicznych, tworzenia fałszywych materiałów kompromitujących lub oszukańczych reklam.
Klonowanie głosu (voice cloning) polega natomiast na odtworzeniu głosu danej osoby na podstawie próbki audio. Technologia ta może być używana np. do tworzenia fałszywych rozmów telefonicznych, w których sprawca podszywa się pod bliską osobę ofiary lub jej przełożonego, wyłudzając w ten sposób informacje lub środki finansowe.
Wykorzystanie AI w działalności przestępczej – przykłady z praktyki
Z doniesień medialnych oraz raportów instytucji zajmujących się cyberbezpieczeństwem wynika, że przestępcy już dziś z powodzeniem stosują narzędzia oparte na AI. Przykładowo:
- w 2023 r. doszło do kilku udokumentowanych przypadków wyłudzeń środków finansowych przy użyciu klonowanego głosu menedżerów lub członków rodziny ofiary.
- w Internecie pojawiają się fałszywe reklamy z wykorzystaniem deepfake’ów przedstawiających znanych przedsiębiorców lub polityków promujących nieistniejące produkty finansowe;
- wykryto przypadki wykorzystania generatywnego AI do tworzenia materiałów służących do szantażu lub manipulacji opinią publiczną.
Polskie prawo karne wobec Deepfake i AI
W polskim porządku prawnym nie funkcjonują obecnie przepisy szczegółowo regulujące wykorzystanie sztucznej inteligencji w kontekście czynów przestępczych. Niemniej jednak pewne normy mogą mieć zastosowanie w zależności od okoliczności konkretnej sprawy:
1. Kodeks karny
- Art. 286 §1 k.k. (oszustwo): może mieć zastosowanie przy wykorzystaniu deepfake lub klonowania głosu do wyłudzenia środków finansowych.
- Art. 190a §2 k.k. (podszywanie się): odnosi się do sytuacji, w których sprawca „podszywa się pod inną osobę”, co może obejmować użycie wygenerowanego wizerunku lub głosu.
- Art. 212–216 k.k. (zniesławienie, znieważenie): przy użyciu fałszywych materiałów szkalujących.
2. Kodeks cywilny
- Ochrona dóbr osobistych (art. 23–24 k.c.): deepfake może naruszać prawo do wizerunku, prywatności lub czci.
- W takich przypadkach możliwe jest żądanie zaniechania naruszeń, usunięcia skutków lub wypłaty zadośćuczynienia.
3. RODO
- Wizerunek i głos osoby fizycznej to dane osobowe. Wykorzystanie ich bez podstawy prawnej (np. zgody) może naruszać przepisy ogólnego rozporządzenia o ochronie danych (RODO).
Perspektywa europejska: AI Act i Digital Services Act
Choć w Polsce nie przyjęto jeszcze szczególnej ustawy dotyczącej sztucznej inteligencji, na poziomie Unii Europejskiej trwają zaawansowane prace nad wprowadzeniem nowych regulacji.
- AI Act, uchwalony przez Parlament Europejski w 2024 r., wprowadza obowiązek oznaczania treści wygenerowanych przez sztuczną inteligencję (w tym deepfake), klasyfikując niektóre zastosowania AI jako wysokiego ryzyka.
- Digital Services Act (DSA) oraz Digital Markets Act (DMA) nakładają na platformy internetowe nowe obowiązki związane z moderacją treści, przejrzystością algorytmów oraz szybką reakcją na zgłoszenia użytkowników.
Czy prawo nadąża?
Obecny stan prawny w Polsce pozwala reagować na niektóre przejawy nadużyć związanych z technologią AI. Jednak działania te mają charakter reaktywny i nie uwzględniają specyfiki oraz tempa rozwoju nowych technologii. W praktyce brakuje:
- jasnych definicji legalnych dotyczących np. deepfake, klonowania głosu czy modeli generatywnych,
- szybkiej ścieżki dochodzenia roszczeń w przypadku naruszeń z użyciem AI,
- precyzyjnych przepisów określających odpowiedzialność twórców i użytkowników takich technologii.
Technologia wyprzedza prawo – to stwierdzenie szczególnie trafnie oddaje sytuację związaną z rozwojem AI. Chociaż polski system prawny dysponuje instrumentami umożliwiającymi przeciwdziałanie nadużyciom, konieczna jest jego aktualizacja i doprecyzowanie.
W najbliższych latach kluczowe będzie nie tylko wdrożenie regulacji unijnych, ale również rozwój orzecznictwa oraz zwiększenie świadomości prawnej wśród obywateli, przedsiębiorców i prawników. AI nie zniknie, warto więc zadbać, by jej wykorzystywanie odbywało się w granicach prawa i z poszanowaniem praw człowieka.
Adwokat od prawa karnego pomoże Ci zrozumieć, jakie działania prawne można podjąć w przypadku naruszenia dóbr osobistych przez deepfake lub nieautoryzowane klonowanie głosu.