Sztuczna inteligencja pod kontrolą - co znajduje się w europejskim rozporządzeniu AI Act?

Sztuczna inteligencja pod kontrolą - co znajduje się w europejskim rozporządzeniu AI Act?

Europa jako pierwsza na świecie zdecydowała się na kompleksową regulację wykorzystania systemów sztucznej inteligencji. AI Act to przełomowe rozporządzenie, które wprowadza jasne zasady dotyczące rozwoju, wdrażania i stosowania AI w Unii Europejskiej. Przyjrzyjmy się najważniejszym aspektom tej regulacji.

Czy naprawdę wszystkie systemy AI są groźne?

AI Act wprowadza hierarchiczny system kategoryzacji ryzyka związanego z wykorzystaniem sztucznej inteligencji. W przypadku systemów o minimalnym ryzyku, takich jak filtry antyspamowe czy systemy rekomendacji produktów, regulacje są bardzo ograniczone. Nieco więcej wymogów dotyczy rozwiązań o ograniczonym ryzyku, jak chatboty czy systemy moderacji treści - tu kluczowa jest transparentność i informowanie użytkowników o interakcji z AI.

Znacznie bardziej rygorystyczne zasady dotyczą systemów wysokiego ryzyka, które mogą wpływać na bezpieczeństwo, zdrowie i podstawowe prawa człowieka. W tej kategorii znajdują się m.in. systemy rekrutacyjne, medyczne czy biometryczne. Na szczycie piramidy ryzyka znajdują się rozwiązania niedopuszczalne, wykorzystujące manipulację podprogową, scoring społeczny czy masową inwigilację - ich stosowanie jest całkowicie zakazane.

Kto odpowiada za przestrzeganie nowych przepisów?

Rozporządzenie nakłada szereg obowiązków zarówno na dostawców, jak i użytkowników systemów AI. Fundamentalne znaczenie ma zapewnienie transparentności działania systemów oraz wdrożenie skutecznych mechanizmów kontroli jakości. Organizacje muszą prowadzić szczegółową dokumentację techniczną, regularnie przeprowadzać ocenę ryzyka oraz zapewnić odpowiedni nadzór ludzki nad systemami wysokiego ryzyka.

Kiedy branża musi się przygotować?

Harmonogram wdrażania AI Act jest rozłożony w czasie. Rozporządzenie wchodzi w życie w sierpniu 2024, jednak pełne wdrożenie większości regulacji planowane jest na maj 2025. Część przepisów dotyczących niedopuszczalnych praktyk zacznie obowiązywać już w lutym 2025, natomiast wymogi dla systemów wysokiego ryzyka wejdą w życie w sierpniu 2026.

Co jest absolutnie zakazane?

AI Act wprowadza bezwzględny zakaz stosowania pewnych rozwiązań technologicznych. Dotyczy to przede wszystkim systemów manipulacji społecznej oraz technologii rozpoznawania emocji w miejscach pracy i edukacji. Zabronione jest również wykorzystywanie systemów kategoryzacji biometrycznej opartych na wrażliwych cechach oraz prowadzenie masowej inwigilacji z wykorzystaniem AI. Władze publiczne nie mogą stosować mechanizmów scoringu społecznego.

Czy innowacje przetrwają regulacje?

Rozporządzenie nie ma na celu hamowania rozwoju technologicznego. Wprowadza mechanizmy wspierające innowacje, takie jak piaskownice regulacyjne umożliwiające testowanie nowych rozwiązań. Przewidziano również wsparcie dla MŚP w dostosowaniu się do wymogów oraz programy finansowania badań nad bezpieczną i etyczną AI. Centra innowacji AI będą wspierać rozwój zgodny z regulacjami.

Co to oznacza dla biznesu?

Organizacje będą musiały przeprowadzić gruntowny audyt obecnie stosowanych systemów AI oraz dostosować procesy rozwoju i testowania do nowych wymogów. Konieczne będzie wdrożenie systemów monitorowania i raportowania, a także przeszkolenie personelu w zakresie nowych obowiązków. Niezbędna będzie również aktualizacja polityk i procedur związanych z AI.

AI Act stanowi przełomowy krok w kierunku uregulowania sztucznej inteligencji. Choć dostosowanie się do nowych wymogów będzie wymagało znacznego wysiłku, regulacja ma szansę stać się globalnym standardem odpowiedzialnego rozwoju AI, podobnie jak miało to miejsce w przypadku RODO w obszarze ochrony danych osobowych.