RÓŻNOŚCI

Przełomowe przepisy. Parlament Europejski ws. sztucznej inteligencji. Wdrożenie AI Act w Polsce

AI w obliczu prawa

Zabezpieczenia dotyczące sztucznej inteligencji ogólnego przeznaczenia.

  • Ograniczenia w korzystaniu z systemów identyfikacji biometrycznej dla organów ścigania,
  • Zakaz klasyfikacji punktowej obywateli i stosowania SI do manipulowania użytkownikami i wykorzystywania ich słabości,
  • Prawo konsumentów do składania skarg i otrzymywania merytorycznych wyjaśnień.

W środę Parlament zatwierdził akt w sprawie sztucznej inteligencji, który zapewnia bezpieczeństwo i przestrzeganie praw podstawowych, a jednocześnie wspiera innowacje.

W grudniu 2023 roku, po negocjacjach z państwami członkowskimi, Parlament przyjął rozporządzenie w sprawie SI. 523 posłów głosowało za, 46 przeciw, a 49 posłów wstrzymało się od głosu.

Ma ono chronić prawa podstawowe, demokrację, praworządność i środowisko przed systemem sztucznej inteligencji wysokiego ryzyka. Jednocześnie ma wspierać innowacje i sprawić, że Europa będzie liderem w dziedzinie AI. Rozporządzenie określa obowiązki w stosunku do sztucznej inteligencji w oparciu o potencjalne ryzyko z nią związane i jej potencjalne skutki.

Zakaz pewnych zastosowań

Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy. Zakazane będą też rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.

Wyjątki dla organów ścigania

Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej. Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Organy te mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Na przykład mogą je stosować w określonym czasie i w określonym położeniu geograficznym. Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne. Mogą je wykorzystywać, by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu. Istnieją też tzw. systemy zdalnej identyfikacji biometrycznej post factum. Ich stosowanie wiąże się z wysokim ryzykiem i wymaga zezwolenia sądowego, ponieważ systemy takie wykorzystuje się do wyszukiwania w związku z przestępstwem.

Obowiązki dotyczące systemów wysokiego ryzyka

Szczególne obowiązki określono również dla innych systemów sztucznej inteligencji wysokiego ryzyka. A to dlatego, że stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Obszary, w których wykorzystuje się takie systemy, to na przykład infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych (np. by wpływać na wybory). Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka. Dzięki rozporządzeniu obywatele będą mieć prawo składać skargi dotyczące systemów SI. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.

Wymogi przejrzystości

Systemy sztucznej inteligencji ogólnego przeznaczenia i modele sztucznej inteligencji ogólnego przeznaczenia, na których oparte są takie systemy, muszą spełniać określone wymogi przejrzystości i być zgodne z unijnym prawem autorskim oraz publikować dokładne zestawienia materiałów użytych podczas trenowania swoich modeli. Najbardziej zaawansowane modele sztucznej inteligencji ogólnego przeznaczenia, które mogą stwarzać ryzyko systemowe, będą musiały spełniać dodatkowe wymagania. Operatorzy SI będą musieli między innymi przeprowadzać oceny modeli, oceniać i ograniczać ryzyko systemowe i zgłaszać incydenty.

Ponadto należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo, tzw. deepfakes.

Działania wspierające innowacje i MŚP

Należy ustanowić na szczeblu krajowym piaskownice regulacyjne, czyli środowisko ułatwiające opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji przed wprowadzeniem do obrotu, oraz testowanie w warunkach rzeczywistych. Należy też zapewnić MŚP i przedsiębiorstwom typu start-up łatwy dostęp do nich. Dzięki temu będzie można opracowywać i trenować innowacyjne systemy SI przed wprowadzeniem na rynek.

Kolejne kroki

Rozporządzenie muszą jeszcze ostatecznie zweryfikować prawnicy lingwiści. Ma ono zostać przyjęte przed końcem kadencji (tzw. procedura sprostowania). Rozporządzenie musi też formalnie przyjąć Rada.

Rozporządzenie wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie 24 miesiące po jego wejściu w życie. Wyjątki to: zakazy niedozwolonych praktyk (będą obowiązywać sześć miesięcy po wejściu rozporządzenia w życie), kodeksy postępowania (dziewięć miesięcy po wejściu w życie), przepisy o sztucznej inteligencji ogólnego przeznaczenia, w tym dotyczące zarządzania (12 miesięcy po wejściu w życie) oraz obowiązki dotyczące systemów wysokiego ryzyka (36 miesięcy po wejściu w życie).

Kontekst

Akt o sztucznej inteligencji stanowi bezpośrednią odpowiedź na propozycje obywateli z Konferencji w sprawie przyszłości Europy (COFE), w szczególności na propozycję 12(10) w sprawie zwiększenia konkurencyjności UE w sektorach strategicznych, propozycję 33(5) w sprawie bezpiecznego i godnego zaufania społeczeństwa, w tym przeciwdziałania dezinformacji i zapewnienia ostatecznej kontroli nad ludźmi, wniosku nr 35 w sprawie promowania innowacji cyfrowych (3) przy jednoczesnym zapewnieniu nadzoru ze strony człowieka oraz (8) godnego zaufania i odpowiedzialnego korzystania ze sztucznej inteligencji, ustanawiania zabezpieczeń i zapewniania przejrzystości, a także wniosku nr 37 (3) w sprawie wykorzystywania sztucznej inteligencji i narzędzi cyfrowych w celu poprawy dostępu obywateli do informacji, w tym osób niepełnosprawnych.

Przełomowe przepisy dotyczące sztucznej inteligencji – Parlament Europejski przyjął rozporządzenie

Rozporządzenie w sprawie AI (Artificial Intelligence Act) zostało przyjęte 13 marca br. Nowe regulacje pozwalają na zbudowanie środowiska prawnego, które z jednej strony zapewnią możliwość rozwoju sztucznej inteligencji, a z drugiej gwarantują poszanowanie praw człowieka i minimalizują zjawisko dyskryminacji.

– To krok milowy, jeśli chodzi o AI. Stawka była wysoka – nikomu wcześniej nie udało się wypracować tak kompleksowego prawa w obszarze sztucznej inteligencji. Dziś to się udało i mamy przed sobą nową rzeczywistość prawną, którą musimy wspólnie zagospodarować – podkreśla wiceminister cyfryzacji Dariusz Standerski.

AI w obliczu prawa

Nowe przepisy przewidują wprowadzenie kategorii zakazanych praktyk w zakresie sztucznej inteligencji. Do tych zaliczono m.in. stosowanie rozwiązań opartych na technikach podprogowych czy takich, które dyskryminują określone grupy osób. Niedozwolone będzie także stosowanie systemów AI do tzw. oceny osób obywatelskich (social scoring). To znaczy, że nie będzie można wykorzystywać jej do śledzenia stylu życia obywateli.

– Polska, negocjując przepisy, podkreślała, że każdy system AI w jej cyklu życia powinien spełniać trzy warunki: być zgodny z prawem, uwzględniać zasady i reguły etyki dla godnej zaufania sztucznej inteligencji oraz być bezpieczny i odporny technicznie – wyjaśnia wiceminister.

Wdrożenie AI Act w Polsce

Nowe rozporządzenie zakłada wyznaczenie Europejskiej Rady ds. Sztucznej Inteligencji oraz wyłonienie organów krajowych w poszczególnych państwach członkowskich. Ich zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym.

Kluczowe będzie to, jak przepisy zadziałają w praktyce. Tu dużą rolę ma zarówno Komisja Europejska, jak i państwa członkowskie.

– Traktujemy to wyzwanie bardzo poważnie. Wspólnie z ekspertami i ekspertkami chcemy wypracować mądry, przyjazny i bezpieczny ekosystem sztucznej inteligencji. To jeden z obszarów, na którym skoncentrujemy się w trakcie przyszłorocznej Prezydencji w Radzie Unii Europejskiej – dodaje dr Standerski.

Wdrożenie Artificial Intelligence Act wymaga powołania lub wybrania spośród istniejących już instytucji tych, które będą nadzorować i regulować rynek AI. Wiceminister Dariusz Standerski zaznacza, że na poziomie krajowym konieczne będzie wprowadzenie także przepisów dotyczących tzw. piaskownic regulacyjnych w zakresie systemów sztucznej inteligencji tak, aby ułatwić rozwijanie i testowanie innowacji, zanim zostaną one wprowadzone do obrotu lub oddane do użytku.

Wiceminister zwraca również uwagę na ogromną rolę edukacji w tym zakresie. – Będziemy przygotowywać i promować inicjatywy, które pomogą obywatelom zrozumieć i dostosować się do przepisów, które wejdą w życie – deklaruje Dariusz Standerski.

Pokaż więcej

redakcja

Kronika24.pl - TYLKO najważniejsze informacje z Polski i ze świata!

Powiązane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Back to top button