1 sierpnia wchodzi w życie europejski akt w sprawie sztucznej inteligencji (akt w sprawie sztucznej inteligencji), który jest pierwszym na świecie kompleksowym rozporządzeniem w sprawie sztucznej inteligencji. Akt w sprawie sztucznej inteligencji ma na celu zapewnienie, aby sztuczna inteligencja opracowywana i wykorzystywana w UE była wiarygodna, z zabezpieczeniami chroniącymi prawa podstawowe obywateli. Rozporządzenie ma na celu ustanowienie zharmonizowanego rynku wewnętrznego sztucznej inteligencji w UE, zachęcanie do korzystania z tej technologii i stworzenie środowiska sprzyjającego innowacjom i inwestycjom.
Akt w sprawie sztucznej inteligencji wprowadza przyszłościową definicję sztucznej inteligencji opartą na bezpieczeństwie produktów i podejściu opartym na analizie ryzyka w UE:
- Minimalne ryzyko: Większość systemów sztucznej inteligencji, takich jak systemy rekomendacji oparte na sztucznej inteligencji i filtry spamu, należy do tej kategorii. Systemy te nie podlegają obowiązkom wynikającym z aktu w sprawie sztucznej inteligencji ze względu na ich minimalne ryzyko dla praw i bezpieczeństwa obywateli. Przedsiębiorstwa mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
- Szczególne ryzyko związane z przejrzystością: Systemy sztucznej inteligencji, takie jak chatboty, muszą wyraźnie ujawniać użytkownikom, że wchodzą w interakcję z maszyną. Niektóre treści generowane przez sztuczną inteligencję, w tym deepfake, muszą być oznakowane jako takie, a użytkownicy muszą być informowani o stosowaniu systemów kategoryzacji biometrycznej lub rozpoznawania emocji. Ponadto dostawcy AI będą musieli opracowywać systemy, w ramach których sztucznie wygenerowane treści – audio, wideo, tekst i obrazy – będą oznaczone w formacie nadającym się do odczytu maszynowego i możliwe do zidentyfikowania jako sztucznie generowane lub przetwarzane.
- Wysokie ryzyko: Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka będą musiały spełniać rygorystyczne wymogi, w tym systemy ograniczania ryzyka, wysoką jakość zbiorów danych, rejestrowanie działalności, szczegółową dokumentację, jasne informacje dla użytkowników, nadzór ze strony człowieka oraz wysoki poziom solidności, dokładności i cyberbezpieczeństwa. Piaskownice regulacyjne ułatwią odpowiedzialne innowacje i rozwój systemów AI zgodnych z wymogami. Takie systemy sztucznej inteligencji wysokiego ryzyka obejmują na przykład systemy sztucznej inteligencji wykorzystywane do rekrutacji lub oceny, czy ktoś jest uprawniony do uzyskania pożyczki lub do prowadzenia autonomicznych robotów.
- Niedopuszczalne ryzyko: Systemy sztucznej inteligencji uznane za wyraźne zagrożenie dla praw podstawowych ludzi zostaną zakazane. Obejmuje to systemy lub aplikacje sztucznej inteligencji, które manipulują ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników, takie jak zabawki wykorzystujące pomoc głosową zachęcającą małoletnich do niebezpiecznych zachowań, systemy umożliwiające „scoring społeczny” przez rządy lub przedsiębiorstwa oraz niektóre zastosowania prognozowania działań policyjnych. Co więcej, zabronione będą niektóre zastosowania systemów biometrycznych, np. wykorzystywanie systemów rozpoznawania emocji w miejscach pracy, oraz niektóre systemy klasyfikacji ludności lub zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa (z wąskimi wyjątkami).
Aby uzupełnić ten system, akt w sprawie sztucznej inteligencji wprowadza również przepisy dotyczące tzw. modeli sztucznej inteligencji ogólnego zastosowania, które są wysoce sprawnymi modelami sztucznej inteligencji zaprojektowanymi do wykonywania szerokiego zakresu zadań, takich jak generowanie tekstu podobnego do człowieka. Modele sztucznej inteligencji ogólnego zastosowania są coraz częściej wykorzystywane jako elementy zastosowań sztucznej inteligencji. Akt w sprawie sztucznej inteligencji zapewni przejrzystość w całym łańcuchu wartości i zaradzi ewentualne ryzyko systemowe najbardziej zdolnych modeli.
Stosowanie i egzekwowanie przepisów dotyczących sztucznej inteligencji
Państwa członkowskie mają czas do dnia 2 sierpnia 2025 r. na wyznaczenie właściwych organów krajowych, które będą nadzorować stosowanie przepisów dotyczących systemów sztucznej inteligencji i prowadzić działania w zakresie nadzoru rynku. Biuro Komisji ds.Sztucznej Inteligencji będzie kluczowym organem wdrażającym akt w sprawie sztucznej inteligencji na szczeblu UE, a także organem odpowiedzialnym za egzekwowanie przepisów dotyczących modeli sztucznej inteligencji ogólnego zastosowania.
Trzy organy doradcze będą wspierać wdrażanie przepisów. Europejska Rada ds. Sztucznej Inteligencji zapewni jednolite stosowanie aktu w sprawie sztucznej inteligencji we wszystkich państwach członkowskich UE i będzie pełnić rolę głównego organu współpracy między Komisją a państwami członkowskimi. Panel naukowy złożony z niezależnych ekspertów zapewni doradztwo techniczne i wkład w egzekwowanie przepisów. Panel ten może w szczególności powiadamiać Urząd ds. Sztucznej Inteligencji o zagrożeniach związanych z modelami sztucznej inteligencji ogólnego zastosowania. Urząd ds. Sztucznej Inteligencji może również otrzymać wytyczne od forum doradczego złożonego z różnych zainteresowanych stron.
Na przedsiębiorstwa, które nie przestrzegają przepisów, będą nakładane grzywny. Grzywny mogą wynieść do 7 % światowego rocznego obrotu za naruszenia zakazanych zastosowań sztucznej inteligencji, do 3 % za naruszenia innych obowiązków i do 1,5 % za dostarczanie nieprawidłowych informacji.
Kolejne kroki
Większość przepisów aktu w sprawie sztucznej inteligencji zacznie obowiązywać 2 sierpnia 2026 r. Zakazy dotyczące systemów sztucznej inteligencji uznanych za stwarzające niedopuszczalne ryzyko będą jednak obowiązywać już po sześciu miesiącach, natomiast przepisy dotyczące tzw. modeli sztucznej inteligencji ogólnego przeznaczenia będą miały zastosowanie po 12 miesiącach.
Aby uzupełnić okres przejściowy przed pełnym wdrożeniem, Komisja uruchomiła pakt na rzecz sztucznej inteligencji. W ramach tej inicjatywy zachęca się twórców sztucznej inteligencji do dobrowolnego przyjęcia kluczowych obowiązków wynikających z aktu w sprawie sztucznej inteligencji przed upływem przewidzianych prawem terminów.
Komisja opracowuje również wytyczne w celu określenia i uszczegółowienia sposobu wdrożenia aktu w sprawie sztucznej inteligencji oraz ułatwienia stosowania instrumentów współregulacyjnych, takich jak normy i kodeksy postępowania. Komisja ogłosiła zaproszenie do wyrażenia zainteresowania udziałem w opracowaniu pierwszego ogólnego kodeksu praktyk w zakresie sztucznej inteligencji, a także w konsultacjach z udziałem wielu zainteresowanych stron, umożliwiając wszystkim zainteresowanym stronom wypowiedzenie się na temat pierwszego kodeksu postępowania w ramach aktu w sprawie sztucznej inteligencji.
Kontekst ogólny
9 grudnia 2023 r. Komisja z zadowoleniem przyjęła porozumienie polityczne w sprawie aktu w sprawie sztucznej inteligencji. 24 stycznia 2024 r. Komisja uruchomiła pakiet środków mających na celu wsparcie europejskich przedsiębiorstw typu start-up i MŚP w rozwoju godnej zaufania sztucznej inteligencji. 29 maja 2024 r. Komisja ujawniła Biuro ds. Sztucznej Inteligencji. 9 lipca 2024 r. weszło w życie zmienione rozporządzenie w sprawie Wspólnego Przedsięwzięcia EuroHPC, co umożliwiło utworzenie fabryk sztucznej inteligencji. Umożliwia to wykorzystanie specjalnych superkomputerów sztucznej inteligencji do trenowania modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI).
Dalsze niezależne, oparte na dowodach badania prowadzone przez Wspólne Centrum Badawcze (JRC) miały zasadnicze znaczenie dla kształtowania polityki UE w zakresie sztucznej inteligencji i zapewnienia jej skutecznego wdrażania.
Więcej Informacji
Europejski akt w sprawie sztucznej inteligencji
Nowe przepisy dotyczące sztucznej inteligencji – pytania i odpowiedzi
Europejskie Biuro ds. Sztucznej Inteligencji | Kształtowanie cyfrowej przyszłości Europy
https://ec.europa.eu/commission/presscorner/detail/pl/ip_24_4123
źródło: Przedstawicielstwo Komisji Europejskiej w Polsce.