Aktualności prawne

Zakazane systemy sztucznej inteligencji – nowe przepisy od lutego 2025 r.

Facebook
Twitter
LinkedIn

Już od 2 lutego 2025 roku w Polsce zaczną obowiązywać nowe przepisy, które wprowadzają zakaz stosowania określonych systemów sztucznej inteligencji (dalej AI).

 

Nowe przepisy dotyczące stosowania AI są częścią implementacji Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (dalej jako AI Act). Proces implementacji rozpoczął się w dniu 1 sierpnia 2024 roku.  


Unijny AI Act jest pierwszym na świecie kompleksowym zbiorem przepisów dotyczących sztucznej inteligencji, a jego celem jest zapewnienie bezpiecznego i godnego zaufania rozwoju sztucznej inteligencji, ochrona praw człowieka, zapewnienie bezpieczeństwa użytkowników oraz przeciwdziałanie wykorzystywaniu technologii AI w sposób nieetyczny.  

AI Act nakłada obowiązki nie tylko na osoby prawne, ale także na osoby fizyczne, dlatego przepisów tych będą musieli przestrzegać nie tylko przedsiębiorcy, ale również każdy z nas. 
Oczywistym bowiem jest, że oprócz wielu korzystnych zastosowań AI może ona być również wykorzystywana niewłaściwie i może dostarczać nowych i potężnych narzędzi do praktyk manipulacji, wyzyskiwania i kontroli społecznej. Takie praktyki są szczególnie szkodliwe i stanowią nadużycie i powinny być zakazane, ponieważ są sprzeczne z unijnymi wartościami dotyczącymi poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi 

Przyjrzyjmy się zatem zakazanym praktykom uregulowanym przez AI Act oraz ewentualnym konsekwencjom niezastosowania się do przestrzegania zakazu nałożonego wprost przez Rozporządzenie.  

Zakazane systemy AI -  wykaz 

AI Act w art. 5  definiuje kategorie zakazanych praktyk w zakresie AI, których stosowanie jest uznawane za niedopuszczalne z uwagi na niedopuszczalne ryzyko naruszenia praw podstawowych.  Obejmują one: 
  1. Stosowanie technik podprogowych, manipulacyjnych lub wprowadzających w błąd , skutkujących zniekształceniem podejmowanych przez daną osobę decyzji w sposób powodujący u niej lub innych osób istotne szkody (art. 5 ust 1 lit. a) 
    Zakaz ten dotyczy wprowadzania do obrotu, oddawania do użytku i wykorzystywania systemów sztucznej inteligencji, których celem jest manipulacja zachowaniem osoby lub grupy osób, skutkująca lub mogąca skutkować wyrządzeniem poważnej szkody. Jednak aby uznać, że wykorzystanie takich systemów jest niedopuszczalne, muszą zostać spełnione łącznie określone warunki: 
    a. zastosowanie przez system AI technik podprogowych, manipulacyjnych lub wprowadzających w błąd oraz 
    b. skutek lub cel w postaci zmiany zachowania, w ramach której dochodzi do:  
    • znaczącego ograniczenia zdolności do podejmowania świadomych decyzji u osoby lub grupy osób,  
    • podjęcia przez osobę lub grupę osób decyzji, której inaczej by nie podjęły,  
    • podjęcia decyzji w sposób, który wyrządza lub może wyrządzić u danej osoby, innej osoby lub grupy osób poważną szkodę. 
  2.  Wykorzystywanie słabości osoby fizycznej lub grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, skutkujących zniekształceniem podejmowanych przez daną osobę decyzji, w sposób powodujący u niej lub innych osób istotne szkody. (art. 5 ust 1 lit. b) 
    Zakazuje się stosowania systemów AI, które wykorzystywałyby wyżej wskazane słabości, czego celem lub skutkiem byłoby dokonanie znaczącej zmiany zachowania w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić poważną szkodę. System AI może zostać uznany za zakazany jako wykorzystujący słabości szczególnie wrażliwych osób lub grup, jeśli łącznie wystąpią następujące okoliczności:  
    a. wykorzystanie przez system AI słabości osoby lub grupy osób ze względu na wiek, niepełnosprawność lub szczególną sytuację społeczną czy ekonomiczną,  
    b. skutek lub cel w postaci dokonania znaczącej zmiany zachowania w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej lub u innej osoby poważną szkodę.   
  3. Scoring społeczny (z ang. social scoring): tj. klasyfikacja osób fizycznych na podstawie ich zachowań społecznych lub cech osobistych, jeśli prowadzi do krzywdzącego lub niekorzystnego traktowania (art. 5 ust 1 lit. c) 
    Hasło to obejmuje zakaz wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób, prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub osobowości, która to klasyfikacja prowadzi do określonych skutków, który mi są:  
    a. krzywdzące lub niekorzystne traktowanie, które nie jest związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane,  
    b. krzywdzące lub niekorzystne traktowanie niektórych osób fizycznych lub ich grup, nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi.   
  4. Przeprowadzanie ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez osobę fizyczną, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych (art. 5 ust 1 lit. d) 
    Zgodnie z domniemaniem niewinności osoby fizyczne w Unii powinny być zawsze oceniane na podstawie ich faktycznego zachowania. Osoby fizyczne nigdy nie powinny być oceniane na podstawie zachowań prognozowanych przez AI wyłącznie na podstawie poddania ich profilowaniu, na podstawie ich cech osobowości lub cech charakterystycznych, takich jak przykładowo narodowość, miejsce urodzenia, miejsce zamieszkania, liczba dzieci, poziom zadłużenia lub rodzaj samochodu, bez uzasadnionego podejrzenia, że osoba ta uczestniczy w działalności przestępczej w oparciu o obiektywne możliwe do zweryfikowania fakty i bez ich oceny przez człowieka.   
  5. Systemy identyfikacji biometrycznej w miejscach publicznych w czasie rzeczywistym: Identyfikacja biometryczna, np. rozpoznawanie twarzy, stosowana w przestrzeni publicznej w czasie rzeczywistym, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej. (art. 5 ust 1 lit. g) 
    Praktyka ta  stwarza poważne zagrożenie dla prywatności i może być wykorzystywana do masowej inwigilacji obywateli W rozporządzeniu wskazano, że pojęcie „kategoryzacji biometrycznej” to przypisywanie osób fizycznych do określonych kategorii na podstawie danych biometrycznych (AI Act definiuje dane biometryczne w ten sam sposób, jak RODO – czyli oznacza to dane osobowe będące wynikiem specjalnego przetwarzania technicznego, które dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej, takich jak wizerunek twarzy lub dane daktyloskopijne). 
    Warto tutaj zaznaczyć, że wyjątkiem od zakazu stosowania systemów ww. kategoryzacji biometrycznej są dwa przypadki:  
    a. etykietowanie lub filtrowanie pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy, w oparciu o dane biometryczne,  
    b.  kategoryzacja danych biometrycznych przy ściganiu przestępstw.   
  6. Scraping – zakazaną praktyką jest wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy właśnie poprzez  scraping. (art. 5 ust 1 lit. e) 
    Praktyka ta zwiększa poczucie masowego nadzoru i może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności.   
  7. Rozpoznawanie emocji – zakazane jest wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa. (art. 5 ust 1 lit. f) 
    Wśród głównych wad systemów AI mających na celu rozpoznawanie emocji lub wyciąganie wniosków na temat emocji  znajdują się ograniczona wiarygodność, nieprecyzyjność i ograniczona możliwość uogólnienia. W związku z tym systemy AI rozpoznające emocje lub zamiary osób fizycznych lub wyciągające wnioski na temat emocji lub zamiarów na podstawie danych biometrycznych tych osób mogą prowadzić do dyskryminacyjnych wyników i mogą naruszać prawa i wolności zainteresowanych osób.  
    Biorąc pod uwagę brak równowagi sił w kontekście pracy lub edukacji, w połączeniu z inwazyjnym charakterem tych systemów, systemy takie mogą prowadzić do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup.    
  8. Zdalna identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw – wykorzystanie tych systemów w celu ścigania przestępstw powinno zatem być zabronione, z wyjątkiem wyczerpującej listy wąsko zdefiniowanych sytuacji takich jak m.in. poszukiwanie określonych ofiar przestępstw, w tym osób zaginionych; zapobieganie niektórym zagrożeniom życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu. 
    Wykorzystanie systemów AI do zdalnej identyfikacji biometrycznej osób fizycznych w czasie rzeczywistym w przestrzeni publicznej w celu ścigania przestępstw szczególnie ingeruje w prawa i wolności zainteresowanych osób, do tego stopnia, że może ono wpływać na życie prywatne dużej części społeczeństwa, wywoływać poczucie stałego nadzoru i pośrednio zniechęcać do korzystania z wolności zgromadzeń i innych praw podstawowych. 
     Techniczne niedokładności systemów AI przeznaczonych do zdalnej identyfikacji biometrycznej osób fizycznych mogą prowadzić zatem  do nieobiektywnych wyników i wywoływać skutki w postaci dyskryminacji w szczególności w odniesieniu do wieku, pochodzenia etnicznego, rasy lub płci.   

Jakie są zatem sankcje za naruszenie zakazu stosowania systemów AI? 

Przepisy przewidują surowe sankcje dla podmiotów za używanie lub dystrybuowanie niektórych rodzajów programów i aplikacji wykorzystujących algorytmy sztucznej inteligencji – kary te mają charakter skuteczny, proporcjonalny i odstraszający. 
Nieprzestrzeganie zatem zakazu praktyk w zakresie AI, o których mowa w art. 5 AI ACt, podlega administracyjnej karze pieniężnej w wysokości do 35 milionów euro lub  – jeżeli sprawcą naruszenia jest przedsiębiorstwo – 7% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa. 

Przy podejmowaniu decyzji o nałożeniu administracyjnej kary pieniężnej oraz przy ustalaniu jej wysokości w każdej indywidualnej sprawie, uwzględnia się wszystkie istotne okoliczności danej sytuacji w każdym indywidualnym przypadku i zwraca się w stosownych przypadkach uwagę na takie okoliczności, jak m.in: 
a) charakter, wagę i czas trwania naruszenia oraz jego konsekwencji, przy uwzględnieniu przeznaczenia systemu AI; 
b) to, czy inne organy nadzoru danego rynku nałożyły już na tego samego operatora administracyjne kary pieniężne za to samo naruszenie; 
d) wielkość operatora dopuszczającego się naruszenia, jego roczny obrót i udział w rynku; 
e) wszelkie inne obciążające lub łagodzące czynniki mające zastosowanie do okoliczności sprawy;
f) stopień współpracy z właściwymi organami krajowymi w celu usunięcia naruszenia oraz złagodzenia jego ewentualnych niepożądanych skutków; 
h) sposób, w jaki właściwe organy krajowe dowiedziały się o naruszeniu, w szczególności, czy i w jakim zakresie operator zgłosił naruszenie; 
i) umyślny lub wynikający z zaniedbania charakter naruszenia; 
j) wszelkie działania podjęte przez operatora w celu złagodzenia szkody poniesionej przez poszkodowane osoby. 

Podsumowanie 

Przepisy wchodzące w życie 2 lutego 2025 roku stanowią niewątpliwie ważny krok w kierunku zapewnienia bezpieczeństwa i ochrony praw podstawowych w kontekście stosowania sztucznej inteligencji. Zakaz stosowania systemów AI uznanych za niedopuszczalne wymaga od wszystkich podmiotów objętych Rozporządzeniem   dostosowania swoich działań do nowych regulacji, a przewidziane sankcje finansowe i odpowiedzialność prawna zdecydowanie podkreślają powagę tych wymagań.  

Anna Sznycer-Klein 
Senior Associate

Przepisy AI zakazane systemy MGS-LAW (1)
Newsletter

Newsletter prawny MGS LAW kwiecień 2025 r.

Serdecznie zapraszamy do lektury naszego newslettera, zawierającego informacje prawne z kwietnia 2025 r. :   Zmiana taryf na energię elektryczną Rozporządzenie o aukcji dogrywkowej rynku mocy (na 2029 rok) EU ETS1 Elektrownie wiatrowe Wykonawcy z państw trzecich Certyfikacja wykonawców zamówień publicznych Elektroniczny dostęp do KRS dla podmiotów publicznych Planowanie i zagospodarowanie przestrzenne   Zapraszamy

Czytaj więcej »
Energetyka

Kongres Energetyki Przyszłości 2025 r.

IV Kongres Energetyki Przyszłości odbył się w Toruniu w dniach 6-7 maja 2025 r. pod hasłem „Synergia Innowacji”. Eksperci, przedstawiciele biznesu i liderzy innowacji zgromadzili się w jednym miejscu, by omówić kluczowe kwestie dotyczące całego sektora. W debacie inicjującej Kongres – “Geopolityka i bezpieczeństwo energetyczne w UE” wziął udział mec. Michał Sznycer, Partner

Czytaj więcej »
Newsletter

Newsletter prawny MGS LAW marzec 2025 r.

Serdecznie zapraszamy do lektury naszego newslettera, zawierającego informacje prawne z marca 2025 r. :   Energetyka Nowelizacja prawa energetycznego (projekt UC84)  Lądowe elektrownie wiatrowe            Nowelizacja dla morskich farm wiatrowych  Pomoc publiczna na magazyny            CSIRE   Rynek mocy     Biokomponenty i biopaliwa    Planowanie i zagospodarowanie przestrzenne         Pozostałe Nowelizacja KSH           Deregulacja Kodeksów             Dni wolne od pracy    

Czytaj więcej »