Nasz strona wykorzystuje pliki cookies w celu personalizacji oferty wysyłanej do klientów oraz analizy zachowania użytkowników, tak aby dostarczać usługi na najwyższym poziomie. Korzystając ze strony wyrażają Państwo zgodę na przetwarzanie danych. Dalsze informacje można znaleźć w polityce prywatności.



Czym jest AI Act? Co zmieni i kiedy wchodzi w życie?

PrintMailRate-it

​​​​​​​​​​Karolina Sieraczek

8 lipca 2024



SPIS TREŚCI



Czym jest AI Act?


AI Act, czyli Artificial Intelligence Act (Akt o sztucznej inteligencji), to pierwsze na świecie rozporządzenie regulujące działanie sztucznej intel​igencji, przygotowywane przez organy Unii Europejskiej.

Celem rozporządzenia jest zapewnienie zgodności systemów AI z prawami i wartościami UE, a co za tym idzie – zagwarantowanie bezpieczeństwa przy wykorzystywaniu A​I​.


czym jest ai act


Dlaczego regulacja zasad wykorzystywania sztucznej inteligencji jest potrzebna?


AI Act jest odpowiedzią na istniejące potrzeby w zakresie uregulowania stosowania sztucznej inteligencji. Na konieczność wprowadzenia spójnych przepisów regulujących wykorzystywanie AI wskazywali nie tylko politycy, ale także osoby zarządzające największymi firmami technologicznymi, m.in. Sam Altman – prezes OpenAI (odpowiedzialnego za ChatGPT).

Regulacje w tym zakresie są bardzo istotne dla europejskiej gospodarki. Rozporządzenie musi uniemożliwić, a przynajmniej utrudnić wykorzystywanie AI do naruszania bezpieczeństwa poprzez na przykład dezinformację i inwigilację. Jednocześnie nie może hamować rozwoju AI w Europie, ponieważ wpłynie to negatywnie na konkurencyjność europejskich podmiotów na rynku technologicznym na świecie.

Kogo dotyczą zapisy AI Act?


Przepisy AI Act dotyczą:

  1. dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę w Unii czy w państwie trzecim;
  2. użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii;
  3. dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w Unii.

Dostawca systemu AI to podmiot, który opracowuje ten system (lub zleca jego opracowanie), tak aby, odpłatnie lub nieodpłatnie, wprowadzić go do obrotu lub oddać go do użytku pod własną nazwą handlową albo własnym znakiem towarowym.

Pod pojęciem użytkownika rozumiemy natomiast podmioty, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą.

Główne postanowienia AI Act


AI Act wyodrębnia cztery kategorie ryzyka systemów AI:

  • systemy minimalnego ryzyka,
  • systemy ograniczonego ryzyka,
  • systemy wysokiego ryzyka,
  • systemy niedopuszczalnego ryzyka.


systemy ryzyka ai


Systemy AI zakwalifikowane jako niedopuszczalne nie będą mogły być wykorzystywane w UE z uwagi na naruszanie podstawowych wartości, a rozwiązania zaliczone do pozostałych kategorii będą musiały spełnić określone wymagania prawne i techniczne.

Systemy wysokiego ryzyka w AI Act


Do kategorii wysokiego ryzyka AI Act zalicza technologie, które negatywnie wpływają na podstawowe prawa użytkownika, czyli systemy AI:

  • stosowane w celu zdalnej identyfikacji biometrycznej osób fizycznych,
  • stosowane w rekrutacji do instytucji edukacyjnych i instytucji szkolenia zawodowego,
  • stosowane jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi ruchu drogowego oraz zaopatrzenia w wodę, gaz, ciepło i energię elektryczną,
  • wykorzystywane do rekrutacji pracowników, w szczególności do informowania o wakatach, selekcji podań o pracę, oceny kandydatów w trakcie rozmów kwalifikacyjnych lub testów,
  • wykorzystywane do kwalifikowania osób do świadczeń i usług publicznych, w tym w celu przyznawania, ograniczania, unieważniania lub żądania zwrotu takich świadczeń i usług,
  • wykorzystywane w dokonywaniu indywidualnych ocen ryzyka, aby ocenić niebezpieczeństwo popełnienia lub ponownego popełnienia przestępstwa, lub zagrożenia, na jakie narażone są potencjalne ofiary przestępstw,
  • wykorzystywane do wykrywania stanu emocjonalnego osoby,
  • pomagające w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa do konkretnego stanu faktycznego.

AI Act przewiduje także utworzenie unijnej bazy danych, która będzie zawierała informacje na temat używanych systemów wysokiego ryzyka. 

Zakazane technologie AI


AI Act wyróżnia ponadto rozwiązania zakazane, czyli takie, które są najbardziej niebezpieczne dla bezpieczeństwa użytkowników, m.in.:

  • stosowanie technik podprogowych będących poza świadomością danej osoby w celu istotnego zniekształcenia zachowania tej osoby,
  • rozwiązania wykorzystujące słabości osób ze względu na ich wiek, niepełnosprawność lub zaburzenia psychiczne,
  • social scoring,
  • identyfikację biometryczną wykorzystywaną w przestrzeni publicznej przez organy ścigania w celu egzekwowania prawa.

Kiedy AI Act może zacząć działać w Polsce?


Po raz pierwszy AI Act został przedstawiony przez Komisję Europejską w kwietniu 2021 roku. W grudniu 2023 roku Rada UE, PE i KE osiągnęły porozumienie dotyczące brzmienia rozporządzenia. 21 maja 2024 r. AI Act został przyjęty przez Radę Unii Europejskiej i zostanie opublikowany w Dzienniku Urzędowym UE. W życie wejdzie dwadzieścia dni po publikacji. 

AI Act będzie obowiązywać 24 miesiące po ogłoszeniu go w Dzienniku Legislacyjnym UE. Pewne postanowienia będą obowiązywały już po odpowiednio 3 (przepisy odnośnie do ustanowienia organów notyfikujących oraz jednostek notyfikowanych, a także przepisy dotyczące ustanowienia Europejskiej Rady ds. Sztucznej Inteligencji) lub 12 miesiącach (kary). 

Podsumowanie

Prawidłowe stosowanie AI Act wymaga przede wszystkim właściwej kwalifikacji systemu sztucznej inteligencji celem identyfikacji ciążących na dostawcach obowiązków, w tym ewentualnego uzyskiwania pozwoleń lub rejestracji w bazach danych. Dopóki nie zostanie wypracowana odpowiednia praktyka może okazać się to dość trudne zadanie. Ważne jest też dokonanie samej oceny ryzyka. 

AI Act ma status rozporządzenia, co oznacza, że są to przepisy które należy stosować w krajach UE bez konieczności ich implementacji. Administracyjne kary pieniężne za nieprzestrzeganie przepisów AI Act mają sięgać aż do 30 milionów euro lub 6% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa.

Jako pierwsza tego typu regulacja z pewnością stanowi dobry początek do wprowadzania kontroli nad używaną w UE technologią AI. Potrzeba dalszych regulacji lub dokonania zmian wyniknie po rozpoczęciu stosowania przepisów.


Jeżeli masz pytania dotyczące sztucznej inteligencji i AI Act – skontaktuj się z nami. W Rödl and Partner proponujemy kompleksowe doradztwo w zakresie wykorzystania AI w biznesie​ – zarówno doradztwo prawne, jak i techniczne.

Kontakt

Contact Person Picture

Karolina Sieraczek

radca prawny

Associate Partner

Wyślij zapytanie

Profil



Deutschland Weltweit Search Menu