AI Act w praktyce – co się zmieni dla użytkowników sztucznej inteligencji?

PRAWO W KULTURZE

/ Prawo w praktyce

AI Act w praktyce – co się zmieni dla użytkowników sztucznej inteligencji?

AI Act w praktyce – co się zmieni dla użytkowników sztucznej inteligencji?

21.04.26

Rada Ministrów przyjęła projekt ustawy o systemach sztucznej inteligencji i skierowała go do dalszych prac sejmowych. To ważny moment dla każdej osoby i firmy stosującej na co dzień rozwiązania oparte o AI.

Przypomnijmy, że projekt ustawy ma za zadanie implementację unijnych przepisów zawartych w tzw. AI Act - czyli kompleksowym akcie prawnym, bardzo szeroko regulującym zagadnienia związane ze stosowaniem i tworzeniem m.in. modeli i systemów sztucznej inteligencji. AI Act wprowadza pewne procedury korzystania i rozwoju AI, a jednocześnie kładzie nacisk na ochronę obywateli państw członkowskich. 

 

Nowe obowiązki dla osób i organizacji stosujących AI

 

AI Act został uchwalony już w 2024 r., a jego regulacje mają wchodzić w życie etapami, co oznacza, że część przepisów już nas obowiązuje - pomimo braku ustawy implementacyjnej. Osoby prowadzące działalność gospodarczą oraz organizacje stosujące AI (np. firmy czy instytucje kultury), powinny przede wszystkim określić swoją rolę w ramach AI Act - od tej roli zależy zakres obowiązków, do których powinny się stosować.

Katalog ról jest zamknięty: podmioty stosujące, dostawcy, importerzy, dystrybutorzy lub producenci produktów z elementami AI. Można założyć, że największą grupę będą stanowiły “podmioty stosujące” - reszta z wymienionych bierze aktywny udział albo w tworzeniu systemów/modeli AI lub jest zaangażowana w ich dostarczanie na rynek. Podmioty stosujące są to zatem osoby (fizyczne lub prawne), organy publiczne, agencje lub inne podmioty, które wykorzystują system AI, nad którym sprawują kontrolę, z wyjątkiem sytuacji, gdy system AI jest wykorzystywany w ramach osobistej działalności pozazawodowej. Sprawa wydaje się tutaj jasna - jeśli stosujesz AI, wpisujesz się w pojęcie podmiotu stosującego. 

 

Ma to o tyle duże znaczenie, że już od 2 lutego 2025 r. zaczęły obowiązywać przepisy dotyczące tzw. zakazanych praktyk i dotyczą właśnie, przede wszystkim firm i instytucji stosujących w swojej codziennej pracy rozwiązania AI. Na tym etapie organizacje muszą się upewnić, że nie używają systemów AI stosujących praktyki objęte bezwzględnym zakazem, tj.:

  • techniki wpływające na zachowanie - techniki podprogowe, manipulacyjne czy celowo wprowadzające w błąd.
  • techniki wykorzystujące słabości - AI Act zabrania stosowania systemów, który wykorzystuje słabości osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną/ekonomiczną - zwłaszcza gdy celem jest dokonanie znaczącej zmiany zachowania danej osoby;
  • odczytywanie emocji personelu - gdy ma to na celu wyciąganie wniosków na temat emocji zatrudnionej osoby w miejscu pracy. Kilka lat temu pojawiły się mediach doniesienia, że jeden z banków wprowadził system monitorujący, czy pracownicy pracujący w obsłudze klienta, odpowiednio często się uśmiechają - na szczęście na podstawie omawianych regulacji, takie praktyki są już zakazane; 
  • scoring społeczny - ocena i klasyfikacja osób fizycznych lub grup osób prowadzonych przez określony czas na podstawie ich zachowania społecznego, jeśli prowadzi to do niekorzystnego traktowania niektórych osób/grup. Takie systemy są bardzo popularne w Chinach, gdzie za “odpowiednie” zachowanie społeczne, obywatele mogą zyskiwać punkty wykorzystywane np. przy próbie wzięcia kredytu na mieszkanie;
  • rozpoznawanie twarzy;
  • kategoryzacja biometryczna - indywidualna kategoryzacja osób w oparciu o ich dane biometryczne – wówczas, gdy prowadzi to do wnioskowania informacji nt. rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych lub orientacji seksualnej. 

 

Do aktualnych obowiązków firm/organizacji stosujących rozwiązania oparte na AI należy już również zapewnienie odpowiedniego poziomu kompetencji wśród personelu i innych osób zajmujących się działaniem AI w imieniu danej firmy/organizacji. Na ten moment nie istnieją żadne konkretne wytyczne, takie jak np. obowiązek posiadania odpowiednich certyfikatów. Firma/organizacja musi jednak zapewnić, aby personel używający AI miał odpowiednią wiedzę techniczną, doświadczenie oraz przeszkolenie z pracy z takimi systemami. Personel powinien zatem umieć pracować z AI zgodnie z jej przeznaczeniem, potrafić wykrywać potencjalne nieprawidłowości oraz posiadać wiedzę, jak oraz gdzie takie nieprawidłowości zgłaszać - będzie to miało wpływ na zmniejszenie potencjalnej kary finansowej za złamanie nowych przepisów np. za stosowanie powyższych zakazanych praktyk. A kary przewidziane za naruszenie przepisów o AI są naprawdę astronomiczne - np. do 35 mln euro właśnie za nieprzestrzeganie zakazu stosowania zakazanych praktyk. Przedsiębiorcy/pracodawcy powinni zatem jak najszybciej opracować profesjonalne procedury korzystania z AI w swoich firmach/organizacjach, zawierające m.in. stosowne zabezpieczenia czy sposoby szybkiego reagowania na incydenty związane z AI. 

 

Jak ustawa o systemach sztucznej inteligencji pomoże w realizacji obowiązków?

 

Ustawa, nad którą będzie obecnie pracował parlament powinna w praktyce pomóc w realizacji opisanych wyżej obowiązków. Przede wszystkim poprzez ustanowienie organu odpowiedzialnego za nadzór nad stosowaniem przepisów dotyczących AI. Zgodnie z deklaracjami rządu, Komisja zapewni obywatelom i państwu skuteczne narzędzia wpływu na rozwój i wykorzystanie AI. W zakresie nadzoru nad stosowaniem przepisów KRiBSI będzie m.in.:

  • prowadzić postępowania administracyjne;
  • wydawać decyzje;
  • nakładać sankcje administracyjne za naruszenie przepisów - tak, te do 35 milionów euro; 
  • koordynować nadzór nad systemami sztucznej inteligencji w Polsce.

Komisja ma być również organem, do którego należy zgłaszać zauważone nieprawidłowości. Jest to o tyle istotne, że zgłaszając np. stosowanie zakazanej praktyki w używanym przez naszą firmę modelu, odsuwamy od siebie odpowiedzialność za jej stosowanie - oczywiście jeśli nieprawidłowość zostanie zgłoszona natychmiastowo.

Kolejnym obszarem działań Komisji będzie wspieranie konkurencyjności gospodarki oraz rozwój badań naukowych i zastosowań systemów sztucznej inteligencji
. Istotnym elementem działalności Komisji ma być również udział w kształtowaniu polityk publicznych w obszarze sztucznej inteligencji. KRiBSI będzie opiniować projekty aktów prawnych oraz dokumentów rządowych, a także wydawać opinie indywidualne w zakresie stosowania przepisów rozporządzenia AI Act.


Jakie jednak korzyści będą płynęły z tej ustawy dla zwykłych użytkowników AI? Strona rządowa podaje następujące przykłady:
 


Możliwość skarg i kontroli:
obywatel ma zyskać wpływ na działanie systemów AI. Ustawa ma umożliwić składania skarg - bezpośrednio do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, gdy uzna, że AI działa nieprawidłowo.


Przykład:


System AI banku odrzuca Twój wniosek, a Ty masz przekonanie, że decyzja była niesprawiedliwa lub dyskryminująca. Teraz możesz wysłać zgłoszenie do Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Zespół pracowników merytorycznych zajrzy „pod maskę” systemu i sprawdzi, czy wszystko odbyło się zgodnie z prawem.


Ochrona praw obywatela:
państwo będzie mogło zagwarantować obywatelowi bezpieczeństwo w sytuacji, gdy technologia wymknie się spod kontroli. Zgodnie z nowymi przepisami innowacja nie będzie mogła odbywać się kosztem ludzkiego zdrowia, życia czy praw podstawowych. Przepisy ustawy zapewniają mechanizmy stanowiące „bezpiecznik”, aby technologia służyła człowiekowi, a nie zagrażała.


Przykład:

Na rynek trafia nowa aplikacja oparta na AI, która obiecuje rewolucję w diagnostyce zdrowia. Okazuje się jednak, że jej błędy mogą realnie komuś zaszkodzić. Komisja nie czeka latami na wyrok sądu. Jeśli ryzyko jest bezpośrednie, może wydać w trybie przyspieszonym, z rygorem natychmiastowej wykonalności, nakaz wycofania systemu z użytku.


Jawność i dobre praktyki:
obywatel będzie mógł dowiedzieć się, w jaki sposób dana organizacja postępuje z AI. Każdy będzie miał bowiem możliwość zapoznania się z treścią decyzji Komisji, wydanych na podstawie przepisów.


Dostępny będzie także wykaz systemów sztucznej inteligencji, co do których wydano decyzję w sprawie nałożenia kary za naruszenie przepisów.


“Przepisy ustawy o systemach sztucznej inteligencji wprowadzają procedury chroniące użytkowników, a równocześnie zapewniają bezpieczne warunki do rozwoju nowych technologii. Nowe prawo przyczyni się także do większego zrozumienia sztucznej inteligencji – po to, aby przestała być postrzegana jako zbiór niezrozumiałych algorytmów”
mówi odpowiedzialny za projekt, minister cyfryzacji Krzysztof Gawkowski. 


Podsumowując - wchodzące w życie przepisy unijne nakładają na użytkowników AI (w celach zawodowych) szereg obowiązków - związanych przede wszystkim z zakazem stosowania określonych praktyk oraz wyszkolenia swoich pracowników w zakresie stosowania systemów i reagowania na nieprawidłowości. Polska ustawa ma za zadanie ułatwienie stosowania tych przepisów – m.in. poprzez ustanowienie KRiBSI - organu, który będzie sprawował kompleksowy nadzór nad stosowanie rozwiązań opartych na AI.

Autor: Paweł Kowalewicz, prawnik





Grafiki: Legalna Kultura




Publikacja powstała w ramach
Społecznej kampanii edukacyjnej Legalna Kultura




Spodobał Ci się nasz artykuł? Podziel się nim ze znajomymi 👍


Do góry!