2023-12-13
wydarzenia
Komisja z zadowoleniem przyjmuje porozumienie polityczne dotyczące aktu w sprawie sztucznej inteligencji
Komisja z zadowoleniem przyjmuje porozumienie polityczne osiągnięte między Parlamentem Europejskim a Radą dotyczące aktu w sprawie sztucznej inteligencji („akt w sprawie AI”), przedstawionego przez Komisję w kwietniu 2021 r.
Przewodnicząca Komisji Ursula von der Leyen oświadczyła: Sztuczna inteligencja już teraz wpływa na nasze codzienne życie. A to dopiero początek: Stosowana mądrze i powszechnie AI może zapewnić ogromne korzyści dla naszej gospodarki i naszego społeczeństwa. W związku z tym z dużym zadowoleniem przyjmuję dzisiejsze porozumienie polityczne między Parlamentem Europejskim i Radą dotyczące aktu w sprawie sztucznej inteligencji. Unijny akt w sprawie sztucznej inteligencji sta nowi pierwsze w historii kompleksowe ramy prawne dotyczące AI na całym świecie. To historyczna chwila. Akt w sprawie AI transponuje europejskie wartości do nowej epoki. Dzisiejsze porozumienie przyczyni się do odpowiedzialnej innowacyjności w Europie, ponieważ skoncentruje ustawodawstwo na możliwych do określenia zagrożeniach. Gwarantując bezpieczeństwo i poszanowanie praw podstawowych obywateli i przedsiębiorstw, porozumienie wesprze rozwój, wdrażanie i wykorzystanie godnej zaufania sztucznej inteligencji w UE. Nasz akt w sprawie AI wniesie istotny wkład w rozwój światowych przepisów i zasad dotyczących ukierunkowanej na człowieka sztucznej inteligencji.
Europejskie podejście do godnej zaufania sztucznej inteligencji
Nowe przepisy będą stosowane bezpośrednio w ten sam sposób we wszystkich państwach członkowskich w oparciu o dostosowaną do przyszłych wyzwań definicję sztucznej inteligencji. Przepisy bazują na podejściu opartym na analizie ryzyka:
Minimalne ryzyko: Do kategorii minimalnego ryzyka należy zdecydowana większość systemów sztucznej inteligencji. Aplikacje o minimalnym ryzyku, takie jak oparte na AI systemy rekomendacji lub filtry antyspamowe, będą zwolnione z wymagań i zobowiązań prawnych, ponieważ nie wiąże się z nimi zagrożenie dla praw lub bezpieczeństwa obywateli, lub zagrożenie to jest minimalne. Przedsiębiorstwa mogą jednak dobrowolnie zobowiązać się do przestrzegania dodatkowych kodeksów postępowania dotyczących tych systemów AI.
Wysokie ryzyko: Systemy sztucznej inteligencji, dla których poziom ryzyka określono jako wysoki, będą musiały spełniać rygorystyczne wymogi, w tym w zakresie systemów ograniczania ryzyka, zbiorów danych wysokiej jakości, ewidencjonowania działania, szczegółowej dokumentacji, jasnych informacji dla użytkowników, sprawowania nadzoru przez człowieka oraz wysokiego poziomu solidności, dokładności i cyberbezpieczeństwa. Piaskownice regulacyjne ułatwią odpowiedzialne innowacje i rozwój systemów AI zgodnych z wymogami.
Przykładami takich systemów sztucznej inteligencji wysokiego ryzyka są: niektóre infrastruktury krytyczne, w tym w obszarach wody, gazu i energii elektrycznej; wyroby medyczne; systemy przeznaczone do celów podejmowania decyzji rekrutacyjnych lub o dostępie do instytucji edukacyjnych; lub niektóre systemy stosowane w dziedzinach egzekwowania prawa, kontroli granicznej, sprawowania wymiaru sprawiedliwości i w procesach demokratycznych. Ponadto systemy identyfikacji biometrycznej, kategoryzacji i rozpoznawania emocji również uznaje się za systemy wysokiego ryzyka.
Niedopuszczalne ryzyko: systemy sztucznej inteligencji, które uznaje się za fundamentalne zagrożenie dla praw obywateli, będą zakazane. Są to np. systemy lub aplikacje wykorzystujące sztuczną inteligencję do manipulowania zachowaniem ludzi w celu obejścia wolnej woli użytkowników, np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań, lub systemy „klasyfikacji punktowej osób” przez rządy lub przedsiębiorstwa, a także niektóre aplikacje w zakresie prognozowania przestępczości. Co więcej, zabronione będą niektóre zastosowania systemów biometrycznych, np. wykorzystywanie systemów rozpoznawania emocji w miejscach pracy, oraz niektóre systemy klasyfikacji ludności lub zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa (z wąskimi wyjątkami).
Szczególne ryzyko w zakresie przejrzystości: Podczas korzystania z systemów sztucznej inteligencji, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną. Deep fake'i inne treści generowane przez sztuczną inteligencję będą musiały być oznakowane, a użytkownicy informowani o stosowaniu systemów kategoryzacji biometrycznej lub rozpoznawania emocji. Ponadto dostawcy AI będą musieli opracowywać systemy, w ramach których sztucznie wygenerowane treści – audio, wideo, tekst i obrazy – będą oznaczone w formacie nadającym się do odczytu maszynowego i możliwe do zidentyfikowania jako sztucznie generowane lub przetwarzane.
Grzywny
Na przedsiębiorstwa, które nie przestrzegają przepisów, będą nakładane grzywny. Grzywny te wynosiłyby 35 mln euro lub 7 proc. światowego rocznego obrotu przedsiębiorstwa (w zależności od tego, która wartość jest wyższa) za naruszenia stosowania zakazanych systemów AI, 15 mln euro lub 3 proc. za naruszenia innych obowiązków oraz 7,5 mln euro lub 1,5 proc. za dostarczanie nieprawidłowych informacji. W akcie w sprawie AI przewidziano bardziej proporcjonalne grzywny administracyjne za naruszenia aktu w sprawie sztucznej inteligencji przez MŚP i przedsiębiorstwa typu start-up.
Sztuczna inteligencja ogólnego zastosowania
Akt w sprawie AI zapewnia specjalne przepisy dotyczące modeli sztucznej inteligencji ogólnego zastosowania, które gwarantują przejrzystość w całym łańcuchu wartości. Bardzo potężne modele, mogące stwarzać ryzyko systemowe, będą podlegały dodatkowym wiążącym zobowiązaniom w zakresie zarządzania ryzykiem i monitorowania poważnych incydentów, oceny modelu i testowania kontradyktoryjnego. Te nowe zobowiązania zostaną zrealizowane za pomocą kodeksów praktyk opracowanych wspólnie z Komisją przez przedstawicieli przemysłu, środowisk naukowych, społeczeństwa obywatelskiego i innych zainteresowanych stron.
Jeżeli chodzi o zarządzanie, właściwe krajowe organy nadzoru rynku będą sprawowały nadzór nad wdrażaniem nowych przepisów na szczeblu krajowym, natomiast utworzenie nowego Europejskiego Urzędu ds. Sztucznej Inteligencji w ramach Komisji Europejskiej zapewni koordynację na szczeblu europejskim. Nowy Urząd ds. Sztucznej Inteligencji będzie również nadzorował wdrażanie i egzekwowanie nowych przepisów dotyczących modeli AI ogólnego przeznaczenia. Urząd ds. Sztucznej Inteligencji, wraz z krajowymi organami nadzoru rynku, będzie pierwszym na świecie organem egzekwującym wiążące przepisy dotyczące AI, w związku z czym oczekuje się, że stanie się on wzorem na międzynarodową skalę. W obszarze modeli ogólnego zastosowania centralną rolę odegra panel naukowy złożony z niezależnych ekspertów, który będzie wydawał ostrzeżenia dotyczące ryzyka systemowego i który przyczyni się do klasyfikacji i testowania takich modeli.
Dalsze działania
Porozumienie polityczne musi jeszcze zostać formalnie zatwierdzone przez Parlament Europejski i Radę i wejdzie w życie 20 dni po opublikowaniu w Dzienniku Urzędowym. Akt w sprawie AI zacznie obowiązywać dwa lata po jego wejściu w życie, z wyjątkiem pewnych przepisów szczegółowych: zakazy będą obowiązywały już po 6 miesiącach, a przepisy dotyczące sztucznej inteligencji ogólnego przeznaczenia – po 12 miesiącach.
Aby uregulować okres przejściowy przed pełnym wejściem w życie aktu, Komisja zainicjuje pakt na rzecz AI. Pakt ten skupi twórców sztucznej inteligencji z Europy i z całego świata, którzy dobrowolnie zobowiązują się do wdrożenia kluczowych zobowiązań wynikających z aktu w sprawie AI przed przewidzianymi prawem terminami.
Aby promować przepisy dotyczące godnej zaufania sztucznej inteligencji na szczeblu międzynarodowym, Unia Europejska będzie nadal pracować na forach grupy G-7, OECD, Rady Europy, grupy G-20 i ONZ. Niedawno poparliśmy porozumienie przywódców państw grupy G-7 w sprawie międzynarodowych wytycznych i dobrowolnego kodeksu postępowania w zakresie zaawansowanych systemów sztucznej inteligencji w ramach procesu z Hiroszimy dotyczącego AI.