PRAWO W KULTURZE
/ Prawo w praktyce
AI Act w praktyce – co się zmieni dla użytkowników sztucznej inteligencji?
21.04.26
Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji i skierowała go do dalszych prac sejmowych. To ważny moment dla każdej osoby i firmy stosującej na co dzień rozwiązania oparte o AI.
Przypomnijmy, że projekt ustawy ma za zadanie implementację unijnych przepisów zawartych w tzw. AI Act - czyli kompleksowym akcie prawnym, bardzo szeroko regulującym zagadnienia związane ze stosowaniem i tworzeniem m.in. modeli i systemów sztucznej inteligencji. AI Act wprowadza pewne procedury korzystania i rozwoju AI, a jednocześnie kładzie nacisk na ochronę obywateli państw członkowskich.
Nowe obowiązki dla osób i organizacji stosujących AI
AI Act został uchwalony już w 2024 r., a jego regulacje mają wchodzić w życie etapami, co oznacza, że część przepisów już nas obowiązuje - pomimo braku ustawy implementacyjnej. Osoby prowadzące działalność gospodarczą oraz organizacje stosujące AI (np. firmy czy instytucje kultury), powinny przede wszystkim określić swoją rolę w ramach AI Act - od tej roli zależy zakres obowiązków, do których powinny się stosować.
Katalog ról jest zamknięty: podmioty stosujące, dostawcy, importerzy, dystrybutorzy lub producenci produktów z elementami AI. Można założyć, że największą grupę będą stanowiły “podmioty stosujące” - reszta z wymienionych bierze aktywny udział albo w tworzeniu systemów/modeli AI lub jest zaangażowana w ich dostarczanie na rynek. Podmioty stosujące są to zatem osoby (fizyczne lub prawne), organy publiczne, agencje lub inne podmioty, które wykorzystują system AI, nad którym sprawują kontrolę, z wyjątkiem sytuacji, gdy system AI jest wykorzystywany w ramach osobistej działalności pozazawodowej. Sprawa wydaje się tutaj jasna - jeśli stosujesz AI, wpisujesz się w pojęcie podmiotu stosującego.
Ma to o tyle duże znaczenie, że już od 2 lutego 2025 r. zaczęły obowiązywać przepisy dotyczące tzw. zakazanych praktyk i dotyczą właśnie, przede wszystkim firm i instytucji stosujących w swojej codziennej pracy rozwiązania AI. Na tym etapie organizacje muszą się upewnić, że nie używają systemów AI stosujących praktyki objęte bezwzględnym zakazem, tj.:
- techniki wpływające na zachowanie - techniki podprogowe, manipulacyjne czy celowo wprowadzające w błąd.
- techniki wykorzystujące słabości - AI Act zabrania stosowania systemów, który wykorzystuje słabości osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną/ekonomiczną - zwłaszcza gdy celem jest dokonanie znaczącej zmiany zachowania danej osoby;
- odczytywanie emocji personelu - gdy ma to na celu wyciąganie wniosków na temat emocji zatrudnionej osoby w miejscu pracy. Kilka lat temu pojawiły się mediach doniesienia, że jeden z banków wprowadził system monitorujący, czy pracownicy pracujący w obsłudze klienta, odpowiednio często się uśmiechają - na szczęście na podstawie omawianych regulacji, takie praktyki są już zakazane;
- scoring społeczny - ocena i klasyfikacja osób fizycznych lub grup osób prowadzonych przez określony czas na podstawie ich zachowania społecznego, jeśli prowadzi to do niekorzystnego traktowania niektórych osób/grup. Takie systemy są bardzo popularne w Chinach, gdzie za “odpowiednie” zachowanie społeczne, obywatele mogą zyskiwać punkty wykorzystywane np. przy próbie wzięcia kredytu na mieszkanie;
- rozpoznawanie twarzy;
- kategoryzacja biometryczna - indywidualna kategoryzacja osób w oparciu o ich dane biometryczne – wówczas, gdy prowadzi to do wnioskowania informacji nt. rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych lub orientacji seksualnej.
Do aktualnych obowiązków firm/organizacji stosujących rozwiązania oparte na AI należy już również zapewnienie odpowiedniego poziomu kompetencji wśród personelu i innych osób zajmujących się działaniem AI w imieniu danej firmy/organizacji. Na ten moment nie istnieją żadne konkretne wytyczne, takie jak np. obowiązek posiadania odpowiednich certyfikatów. Firma/organizacja musi jednak zapewnić, aby personel używający AI miał odpowiednią wiedzę techniczną, doświadczenie oraz przeszkolenie z pracy z takimi systemami. Personel powinien zatem umieć pracować z AI zgodnie z jej przeznaczeniem, potrafić wykrywać potencjalne nieprawidłowości oraz posiadać wiedzę, jak oraz gdzie takie nieprawidłowości zgłaszać - będzie to miało wpływ na zmniejszenie potencjalnej kary finansowej za złamanie nowych przepisów np. za stosowanie powyższych zakazanych praktyk. A kary przewidziane za naruszenie przepisów o AI są naprawdę astronomiczne - np. do 35 mln euro właśnie za nieprzestrzeganie zakazu stosowania zakazanych praktyk. Przedsiębiorcy/pracodawcy powinni zatem jak najszybciej opracować profesjonalne procedury korzystania z AI w swoich firmach/organizacjach, zawierające m.in. stosowne zabezpieczenia czy sposoby szybkiego reagowania na incydenty związane z AI.
Jak ustawa o systemach sztucznej inteligencji pomoże w realizacji obowiązków?
Ustawa, nad którą będzie obecnie pracował parlament powinna w praktyce pomóc w realizacji opisanych wyżej obowiązków. Przede wszystkim poprzez ustanowienie organu odpowiedzialnego za nadzór nad stosowaniem przepisów dotyczących AI. Zgodnie z deklaracjami rządu, Komisja zapewni obywatelom i państwu skuteczne narzędzia wpływu na rozwój i wykorzystanie AI. W zakresie nadzoru nad stosowaniem przepisów KRiBSI będzie m.in.:
- prowadzić postępowania administracyjne;
- wydawać decyzje;
- nakładać sankcje administracyjne za naruszenie przepisów - tak, te do 35 milionów euro;
- koordynować nadzór nad systemami sztucznej inteligencji w Polsce.
Komisja ma być również organem, do którego należy zgłaszać zauważone nieprawidłowości. Jest to o tyle istotne, że zgłaszając np. stosowanie zakazanej praktyki w używanym przez naszą firmę modelu, odsuwamy od siebie odpowiedzialność za jej stosowanie - oczywiście jeśli nieprawidłowość zostanie zgłoszona natychmiastowo.
Kolejnym obszarem działań Komisji będzie wspieranie konkurencyjności gospodarki oraz rozwój badań naukowych i zastosowań systemów sztucznej inteligencji. Istotnym elementem działalności Komisji ma być również udział w kształtowaniu polityk publicznych w obszarze sztucznej inteligencji. KRiBSI będzie opiniować projekty aktów prawnych oraz dokumentów rządowych, a także wydawać opinie indywidualne w zakresie stosowania przepisów rozporządzenia AI Act.
Jakie jednak korzyści będą płynęły z tej ustawy dla zwykłych użytkowników AI? Strona rządowa podaje następujące przykłady:
Możliwość skarg i kontroli: obywatel ma zyskać wpływ na działanie systemów AI. Ustawa ma umożliwić składania skarg - bezpośrednio do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, gdy uzna, że AI działa nieprawidłowo.
Przykład:
System AI banku odrzuca Twój wniosek, a Ty masz przekonanie, że decyzja była niesprawiedliwa lub dyskryminująca. Teraz możesz wysłać zgłoszenie do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Zespół pracowników merytorycznych zajrzy „pod maskę” systemu i sprawdzi, czy wszystko odbyło się zgodnie z prawem.
Ochrona praw obywatela: państwo będzie mogło zagwarantować obywatelowi bezpieczeństwo w sytuacji, gdy technologia wymknie się spod kontroli. Zgodnie z nowymi przepisami innowacja nie będzie mogła odbywać się kosztem ludzkiego zdrowia, życia czy praw podstawowych. Przepisy ustawy zapewniają mechanizmy stanowiące „bezpiecznik”, aby technologia służyła człowiekowi, a nie zagrażała.
Przykład:
Na rynek trafia nowa aplikacja oparta na AI, która obiecuje rewolucję w diagnostyce zdrowia. Okazuje się jednak, że jej błędy mogą realnie komuś zaszkodzić. Komisja nie czeka latami na wyrok sądu. Jeśli ryzyko jest bezpośrednie, może wydać w trybie przyspieszonym, z rygorem natychmiastowej wykonalności, nakaz wycofania systemu z użytku.
Jawność i dobre praktyki: obywatel będzie mógł dowiedzieć się, w jaki sposób dana organizacja postępuje z AI. Każdy będzie miał bowiem możliwość zapoznania się z treścią decyzji Komisji, wydanych na podstawie przepisów.
Dostępny będzie także wykaz systemów sztucznej inteligencji, co do których wydano decyzję w sprawie nałożenia kary za naruszenie przepisów.
“Przepisy ustawy o systemach sztucznej inteligencji wprowadzają procedury chroniące użytkowników, a równocześnie zapewniają bezpieczne warunki do rozwoju nowych technologii. Nowe prawo przyczyni się także do większego zrozumienia sztucznej inteligencji – po to, aby przestała być postrzegana jako zbiór niezrozumiałych algorytmów” – mówi odpowiedzialny za projekt, minister cyfryzacji Krzysztof Gawkowski.
Podsumowując - wchodzące w życie przepisy unijne nakładają na użytkowników AI (w celach zawodowych) szereg obowiązków - związanych przede wszystkim z zakazem stosowania określonych praktyk oraz wyszkolenia swoich pracowników w zakresie stosowania systemów i reagowania na nieprawidłowości. Polska ustawa ma za zadanie ułatwienie stosowania tych przepisów – m.in. poprzez ustanowienie KRiBSI - organu, który będzie sprawował kompleksowy nadzór nad stosowanie rozwiązań opartych na AI.
Autor: Paweł Kowalewicz, prawnik
Grafiki: Legalna Kultura
Publikacja powstała w ramach
Społecznej kampanii edukacyjnej Legalna Kultura

- Prawo w kulturze
- Piractwo
- Podróbki
- Przewodnik po prawie autorskim
- > Prawo w praktyce
- Prawnik odpowiada / zapytaj prawnika
- Audycje o prawie autorskim
- Akty prawne
- Organizacje zbiorowego zarządzania
- Prawo Własności Intelektualnej w Działalności Dziennikarskiej
Prawo w praktyce – na skróty
Archiwum





