Rozporządzenie Unii Europejskiej o sztucznej inteligencji to pierwsze na świecie kompleksowe prawo dotyczące sztucznej inteligencji (AI), które ma zostać wprowadzone etapami w drugiej połowie 2024 r. Skoncentrowanie się w tym akcie prawnym na zaufaniu, bezpieczeństwie i przejrzystości wpłynie na nowy poziom nadzoru ludzkiego i zgodności z przepisami dotyczącymi sztucznej inteligencji wewnątrz Unii Europejskiej. Rozporządzenie ma również zasięg eksterytorialny, co oznacza, że twórcy i wdrażający sztuczną inteligencję na całym świecie muszą być przygotowani na przestrzeganie jej wymogów.
Firmy na całym świecie będą musiały umieć poruszać się w coraz bardziej złożonym globalnym krajobrazie przepisów, jeśli chcą skutecznie wykorzystać możliwości generatywnej sztucznej inteligencji.W unijnym akcie dotyczącym sztucznej inteligencji podejście do zgodności z przepisami opiera się na szacowaniu poziomie ryzyka.
Rozporządzenie nie reguluje AI jako technologii, ale reguluje jej wykorzystanie w zależności od poziomu ryzyka: niskiego, wysokiego i niedopuszczalnego
Jest mało prawdopodobne, aby zastosowania niskiego ryzyka miały wpływ na zdrowie, bezpieczeństwo i podstawowe prawa, w związku z czym rozporządzenie zawiera niewiele wymogów poza wymogami w zakresie przejrzystości.
Zastosowania wysokiego ryzyka mogą mieć negatywny wpływ na zdrowie lub podstawowe prawa i muszą być zgodne z dodatkowymi obowiązkami regulacyjnymi. Obejmuje to zastosowania sztucznej inteligencji wykorzystywane w kluczowych obszarach, takich jak transport, edukacja, elementy bezpieczeństwa, zatrudnienie, usługi podstawowe, egzekwowanie prawa, migracja i wymiar sprawiedliwości, które mogą mieć potencjalny wpływ na życie obywateli, ich prawa i dostęp do różnych możliwości.
Zastosowania niedopuszczalne są zabronione, z nielicznymi wyjątkami. Obejmuje to rozpoznawanie twarzy i emocji oraz wykorzystanie sztucznej inteligencji do manipulowania oraz wykorzystywania słabych stron ludzi.
Systemy oparte na AI ogólnego przeznaczenia (GPAI), w tym generatywne AI i modele podstawowe, są również regulowane przez rozporządzenie, przy czym obowiązują tu dwa poziomy regulacji: systemy o dużym wpływie i o niskim wpływie. W przypadku modeli GPAI o dużym wpływie i ryzyku systemowym będą obowiązywać bardzo rygorystyczne obowiązki.
Rozporządzenie przewiduje maksymalnie 3-letni okres karencji na dostosowanie się. Systemy określane jako „niedopuszczalne” będą miały krótszy, sześciomiesięczny okres. Modele sztucznej inteligencji ogólnego przeznaczenia podlegają 12-miesięcznemu okresowi, aby spełnić wymogi dotyczące przejrzystości i zarządzania. Przepisy dotyczące systemów sztucznej inteligencji wysokiego ryzyka zintegrowanych z produktami w ramach elementu bezpieczeństwa zaczną obowiązywać po 36 miesiącach.
IBM aktywnie współpracuje z decydentami, aby pomóc w kształtowaniu przepisów dotyczących sztucznej inteligencji.
IBM od dawna wspiera podejście do precyzyjnej regulacji sztucznej inteligencji opartej na użyciu. Współpraca IBM z unijną Komisją Wysokiego Szczebla ds. AI.
Grupa ekspertów oraz Organizacja Współpracy Gospodarczej i Rozwoju (OECD), które opracowały standardy, na których opiera się nowe unijne prawo o sztucznej inteligencji, pozycjonują IBM jako wsparcie dla klientów w dostosowaniu się do tej zmiany w krajobrazie regulacyjnym.
Program zintegrowanego zarządzania IBM umożliwia wdrożenie odpowiedzialnej sztucznej inteligencji na dużą skalę i stanowi światowej klasy dowód dla klientów, którzy chcą zrobić to samo. Opracowany do użytku przez IBM Biuro ds. Prywatności i Odpowiedzialnej Technologii oraz oparty na dojrzałych zasadach zarządzania IBM i technologii IBM, wewnętrzny program zintegrowanego zarządzania (IGP) pomaga efektywnie zarządzać ponad 5500 wewnętrznymi aplikacjami i procesami i został rozszerzony tak, aby obejmował zarządzanie sztuczną inteligencją.
IBM oferuje produkty, które pomagają klientom przyspieszyć zarządzanie sztuczną inteligencją w celu zapewnienia zgodności z unijnym rozporządzeniem o sztucznej inteligencji i innymi obowiązującymi przepisami. System IBM watsonx zgodny jest z unijnym rozporządzeniem w następujących sferach, wypełniając przytoczone poniżej przepisy szczegółowe:
Zarządzanie modelami ryzyka:
- Artykuł 5 – Zakazane praktyki
- Artykuł 6/7 – Systemy AI wysokiego ryzyka
- Artykuł 9 – System zarządzania ryzykiem
- Artykuł 13 – Przejrzystość i udostępnianie informacji użytkownikom
- Artykuł 17 – Systemy zarządzania jakością
- Artykuł 19/43 – Ocena zgodności
- Artykuł 21 – Działania naprawcze
- Artykuł 22 – Obowiązek informowania
- Artykuł 23 – Współpraca z właściwymi organami
- Artykuł 29 – Obowiązki użytkowników systemów AI wysokiego ryzyka
- Artykuł 30 – Organy notyfikujące
- Artykuł 52 – Obowiązki w zakresie przejrzystości w odniesieniu do określonych systemów sztucznej inteligencji
- Artykuł 60 – Unijne bazy danych systemów AI wysokiego ryzyka
- Artykuł 62 – Raportowanie poważnych incydentów
- Artykuł 69 – Kodeksy postępowania
Procedury wdrożeniowe:
- Artykuł 10 – Dane i zarządzanie danymi
- Artykuł 12/20 – Rejestrowanie zdarzeń
- Artykuł 15 – Dokładność, solidność i cyberbezpieczeństwo
Dokumentacja modeli:
- Artykuł 11 – Dokumentacja techniczna
- Artykuł 13 – Przejrzystość i udostępnianie informacji użytkownikom
- Artykuł 18 – Przechowywanie dokumentacji
Budowa modeli:
- Artykuł 10 – Dane i zarządzanie danymi
- Artykuł 15 – Dokładność, solidność i cyberbezpieczeństwo
Ewaluacja i monitorowanie:
- Artykuł 15 – Dokładność, solidność i cyberbezpieczeństwo
- Artykuł 61 – Monitorowanie po wprowadzeniu do obrotu