Rząd nakłada cugle na AI. Czy Nawrocki to też zawetuje?
Rada Ministrów przyjmuje projekt ustawy o AI. Czy nowe prawo powstrzyma patologie cyfrowe i deepfake, czy padnie ofiarą kolejnego weta prezydenta Nawrockiego?
Ochrona wizerunku priorytetem UE: Zakaz deepfake pornografii
W obliczu narastających patologii cyfrowych, priorytetem nowych regulacji staje się walka o godność obywatela. Unia Europejska wprowadziła bezwzględny zakaz stosowania sztucznej inteligencji do tworzenia treści o charakterze seksualnym i intymnym bez zgody osób na nich widniejących. Zgodnie z polskim projektem ustawy, innowacja nie będzie mogła odbywać się kosztem praw podstawowych, a przepisy zadziałają jako skuteczny „bezpiecznik”, gwarantujący, że technologia będzie służyć człowiekowi, a nie mu zagrażać. Jeszcze w tym roku wejdzie również obowiązek oznaczania materiałów wygenerowanych przez algorytmy, by każdy mógł łatwo odróżnić prawdę od manipulacji.
Jednak aby nie blokować rozwoju technologii i zachować konkurencyjność europejskich firm, Unia Europejska uzgodniła pakiet zmian upraszczających otoczenie regulacyjne. Najważniejsze obowiązki dla systemów AI wysokiego ryzyka zostały przesunięte z sierpnia 2026 r. na grudzień 2027 r., co ma zapobiec nakładaniu się przepisów i biurokracji. Wiceminister Dariusz Standerski podkreśla, że celem jest „spójne i przyjazne prawo unijne”, które oferuje innowatorom nie tylko krajowe, ale i europejskie piaskownice regulacyjne do bezpiecznego testowania systemów.
Elon Musk ignoruje paryską prokuraturę. Francuskie służby prześwietlają system Grok i platformę X
Fabryka cyfrowych przestępstw: Grok i pornografia AI pod lupą prokuratorów
Problem nie jest wyssany z palca – generowanie pornografii z wizerunkiem realnych osób przy użyciu systemu Grok to główny dowód na to, że zagrożenia AI stały się faktem. Francuska prokuratura prowadzi właśnie śledztwo karne przeciwko platformie X oraz osobiście przeciwko Elonowi Muskowi i Lindzie Yaccarino. Postępowanie dotyczy współudziału w rozpowszechnianiu treści o charakterze pedofilskim, tworzeniu seksualnych deepfake’ów oraz braku reakcji na materiały negujące zbrodnie przeciwko ludzkości.
Paryscy śledczy dysponują konkretnymi materiałami, które potwierdzają, że sztuczna inteligencja na platformie X służy do masowej produkcji nielegalnych treści. To już nie jest teoretyczna dyskusja o technologii, ale twarde dochodzenie w sprawie cyfrowych przestępstw. Służby uderzają bezpośrednio w mechanizmy platformy, która pozwala na tworzenie pornograficznych deepfake’ów uderzających w prywatność i godność konkretnych ludzi. Zabezpieczone w paryskim biurze X dokumenty i logi systemowe czarno na białym obnażają luki techniczne, które użytkownicy wykorzystują do omijania zabezpieczeń.
Elon Musk, ignorując wezwanie na przesłuchanie z 20 kwietnia 2026 roku, stawia się ponad prawem, ale francuskie służby kontynuują czynności procesowe bez jego udziału. Procesy tworzenia fałszywych treści na platformie X stały się przedmiotem procedur karnych, co kończy erę bezkarności w obszarze AI. Służby analizują teraz, czy administracja serwisu celowo dopuściła do takich nadużyć, aby sztucznie zwiększać zasięgi i zyski z reklam.
31 marca 2026 roku Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji.
„przepisy ustawy o systemach sztucznej inteligencji wzmacniają bezpieczeństwo obywateli i ustanawiają skuteczny nadzór nad AI, a dla przedsiębiorców tworzą stabilne i sprzyjające warunki do rozwoju innowacji”.
Dokument ten zapewnia pełne stosowanie w polskim porządku prawnym przepisów unijnego rozporządzenia AI Act.
Wicepremier i minister cyfryzacji Krzysztof Gawkowski podkreśla wagę tych zmian dla każdego obywatela:
„Przepisy ustawy o systemach sztucznej inteligencji wprowadzają procedury chroniące użytkowników, a równocześnie zapewniają bezpieczne warunki do rozwoju nowych technologii. Nowe prawo przyczyni się także do większego zrozumienia sztucznej inteligencji – po to, aby przestała być postrzegana jako zbiór niezrozumiałych algorytmów”.
Harmonogram prac: Kiedy przepisy wejdą w życie?
Ustawa o systemach sztucznej inteligencji obecnie znajduje się na etapie prac parlamentarnych. Po pierwszym czytaniu, które odbyło się w Sejmie pod koniec kwietnia, projekt trafił do komisji merytorycznych. Rządowy harmonogram zakłada, że proces legislacyjny – obejmujący głosowania w Sejmie, poprawki Senatu oraz ostateczny podpis prezydenta Karola Nawrockiego – zakończy się w połowie roku.
Kluczową datą dla obywateli i firm ma być 2 sierpnia 2026 roku. To właśnie wtedy większość przepisów polskiej ustawy powinna wejść w życie, uruchamiając m.in. procedury skargowe i powołując Komisję KRiBSI. Warto jednak pamiętać o niedawnej decyzji Rady UE, która wychodząc naprzeciw trudnościom technicznym przemysłu, przesunęła ostateczny termin wdrożenia najbardziej skomplikowanych wymogów dla systemów wysokiego ryzyka na grudzień 2027 roku. Polska administracja deklaruje jednak, że infrastruktura ochronna (w tym nadzór nad deepfake’ami) powstanie bez zbędnej zwłoki, niezależnie od unijnych przesunięć terminów dla biznesu.
Deepfake i pornografia: Dlaczego potrzebujemy ochrony?
Jednym z najgroźniejszych zjawisk, na które odpowiada nowa ustawa, jest wykorzystywanie sztucznej inteligencji do niszczenia reputacji, np. poprzez tworzenie treści pornograficznych z cudzym wizerunkiem. Rząd chce temu zapobiec, wprowadzając mechanizmy stanowiące cywilny „bezpiecznik”.
Zgodnie z nowymi przepisami, „innowacja nie będzie mogła odbywać się kosztem ludzkiego zdrowia, życia czy praw podstawowych”. Państwo bierze na siebie rolę gwaranta bezpieczeństwa w sytuacjach, gdy technologia wymyka się spod kontroli. Nowe prawo ma służyć temu, „aby technologia służyła człowiekowi, a nie zagrażała”.
KRiBSI: Cyfrowy strażnik i akcelerator innowacji
Kluczowym elementem reformy jest powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Instytucja ta nie ma być jedynie kolejnym urzędem statystycznym, lecz organem, który ma zapewnić „obywatelom i państwu skuteczne narzędzia wpływu na rozwój i wykorzystanie AI”. W praktyce Komisja łączy w sobie dwie, uzupełniające się role: surowego kontrolera oraz merytorycznego partnera dla biznesu.
Rola kontrolna i egzekucyjna
Jako organ nadzorczy, KRiBSI zyskuje realne „zęby” do walki z nadużyciami. Kompetencje Komisji obejmują:
- Prowadzenie postępowań administracyjnych: KRiBSI będzie mogła z własnej inicjatywy lub na wniosek obywatela badać, czy dany algorytm nie łamie prawa.
- Wydawanie wiążących decyzji: Komisja zyska prawo do nakazania modyfikacji systemu AI, a w skrajnych przypadkach – jego natychmiastowego wycofania z rynku.
- Nakładanie dotkliwych sankcji: Za naruszenie przepisów AI Act oraz krajowej ustawy, KRiBSI będzie nakładać kary finansowe, które mają skutecznie zniechęcać firmy do eksperymentowania kosztem bezpieczeństwa użytkowników.
Wsparcie dla konkurencyjności i biznesu
Z drugiej strony, ustawa kładzie ogromny nacisk na to, by nadzór nie dławił polskiej myśli technicznej. Komisja ma aktywnie wspierać konkurencyjność gospodarki oraz rozwój badań naukowych. Dla twórców technologii otwiera to zupełnie nowe możliwości:
- Piaskownice regulacyjne: To kluczowy projekt wspierający innowatorów. „Podmioty tworzące AI będą mogły korzystać z piaskownic regulacyjnych tworzonych przez KRiBSI”, co pozwoli testować najbardziej śmiałe rozwiązania w bezpiecznym, kontrolowanym środowisku pod okiem ekspertów, zanim trafią one do powszechnego użytku.
- Opinie indywidualne: Przedsiębiorcy nie będą musieli działać po omacku. Komisja będzie wydawać opinie indywidualne w konkretnych sprawach. Dzięki temu podmioty zyskają „pewność co do legalności planowanych lub realizowanych działań”, co zminimalizuje ryzyko prawne i ułatwi pozyskiwanie inwestorów na rozwój bezpiecznej, polskiej sztucznej inteligencji.
W ten sposób KRiBSI staje się centralnym punktem ekosystemu, który z jednej strony chroni wizerunek i prawa Polaków, a z drugiej buduje stabilny fundament dla uczciwego biznesu technologicznego.
Realne korzyści dla każdego z nas
Najważniejszą zmianą dla przeciętnego Polaka jest możliwość skarg i kontroli. Rządowy projekt przewiduje, że obywatel będzie mógł złożyć skargę do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, gdy uzna, że AI zadziałała nieprawidłowo.
Przykład:
System AI banku odrzuca Twój wniosek, a Ty masz przekonanie, że decyzja była niesprawiedliwa lub dyskryminująca. Teraz możesz wysłać zgłoszenie do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Zespół pracowników merytorycznych zajrzy „pod maskę” systemu i sprawdzi, czy wszystko odbyło się zgodnie z prawem.
- Ochrona praw obywatela: państwo będzie mogło zagwarantować obywatelowi bezpieczeństwo w sytuacji, gdy technologia wymknie się spod kontroli. Zgodnie z nowymi przepisami innowacja nie będzie mogła odbywać się kosztem ludzkiego zdrowia, życia czy praw podstawowych. Przepisy ustawy zapewniają mechanizmy stanowiące „bezpiecznik”, aby technologia służyła człowiekowi, a nie zagrażała.
Przykład:
Na rynek trafia nowa aplikacja oparta na AI, która obiecuje rewolucję w diagnostyce zdrowia. Okazuje się jednak, że jej błędy mogą realnie komuś zaszkodzić. Komisja nie czeka latami na wyrok sądu. Jeśli ryzyko jest bezpośrednie, może wydać w trybie przyspieszonym, z rygorem natychmiastowej wykonalności, nakaz wycofania systemu z użytku.
- Jawność i dobre praktyki: obywatel będzie mógł dowiedzieć się, w jaki sposób dana organizacja postępuje z AI. Każdy będzie miał bowiem możliwość zapoznania się z treścią decyzji Komisji, wydanych na podstawie przepisów.
Dostępny będzie także wykaz systemów sztucznej inteligencji, co do których wydano decyzję w sprawie nałożenia kary za naruszenie przepisów.
Do 31 marca każdego roku Komisja będzie publikowała informację zawierającą przykłady dobrych praktyk w zakresie wdrażania i stosowania systemów sztucznej inteligencji przez przedsiębiorców.
Tusk grilluje Nawrockiego kryptowalutami. Państwo odzyska kontrolę nad rynkiem – projekt ustawy wraca trzeci raz
Widmo weta: Czy Karol Nawrocki zatrzyma zmiany?
Niestety nie można z góry zakładać, ze Nawrocki podpiszę ustawę o cuglach dla AI . Wiceminister Dariusz Standerski zapewnia jednak, że:
Ustawa o AI to przyspieszenie rozwoju sztucznej inteligencji godnej zaufania. Tworzymy piaskownice regulacyjne, w których przedsiębiorcy będą mogli testować swoje rozwiązania w przyjaznym środowisku i przy wsparciu ekspertów. Wprowadzamy elastyczne, nowoczesne przepisy – bez zbędnych formalności, za to z pełnym poszanowaniem bezpieczeństwa oraz praw użytkowników
Mimo to, przykład blokowania przepisów o kryptowalutach w przeszłości pokazał, że głowa państwa może z rezerwą podchodzić do tworzenia nowych organów kontrolnych o szerokich uprawnieniach. Jeśli prezydent Nawrocki uzna, że ustawa daje rządowi zbyt dużą władzę nad sektorem technologicznym lub ogranicza wolność gospodarczą, może zablokować wejście w życie przepisów. Dla ofiar deepfake’ów to nie byłaby dobra wiadomość.
Źródło: MC
Czytaj więcej



