AI Act, czyli pierwsze na świecie kompleksowe przepisy dotyczące sztucznej inteligencji, przyjęte niedawno w Unii Europejskiej, dotyczą zarówno przedsiębiorstw, jak i osób fizycznych wykorzystujących AI. Najszersze zastosowanie nowe przepisy znajdą w stosunku do dwóch grup: dostawców i podmiotów stosujących AI w swoich organizacjach na potrzeby własnej działalności. W istotny sposób wpływają też na funkcjonowanie firm na rynku reklamy internetowej.
Aktywnie uczestniczący w pracach nad projektem rozporządzenia eksperci IAB Polska wyjaśniają, że akt zacznie obowiązywać w pełni 24 miesiące po wejściu w życie, ale niektóre przepisy będą stosowane wcześniej. – AI Act wejdzie w życie 20 dni po publikacji Rozporządzenia w Dzienniku Urzędowym UE. Spodziewamy się, że nastąpi to w ciągu najbliższych kilku tygodni. Dwadzieścia cztery miesiące po tej dacie Rozporządzenie będzie obowiązywać w pełni. Wcześniej, bo już sześć miesięcy od wejścia w życie, ma być przestrzegany zakaz systemów AI stwarzających niedopuszczalne ryzyko. Większość przepisów dotyczących kar będzie zaś obowiązywać po dwunastu miesiącach. Co ważne dla dostawców i podmiotów stosujących sztuczną inteligencję, AI Act przewiduje różne przepisy dla różnych poziomów ryzyka – wyjaśnia Marcin Ręgorowicz, Koordynator Grupy Zadaniowej Prawo AI IAB Polska.
Kogo dotyczy AI Act?
Poza osobami fizycznymi i przedsiębiorcami działającymi w modelu dostawcy (provider) lub podmiotu stosującego AI na potrzeby swojej działalności, nowe regulacje będą obowiązywać także importerów, dystrybutorów, producentów systemów AI i upoważnionych przedstawicieli odbiorców. Istotna informacja dla firm jest taka, że przepisy będą obowiązywać również te podmioty, które nie mają siedziby na terenie UE, ale wynik działania systemów AI, którymi operują, będą wykorzystywane na jej terenie.
Akt w istotny sposób wpływa na działalność wszystkich firm na rynku reklamy internetowej wykorzystujących sztuczną inteligencję, ale stopień tego wpływu może być zróżnicowany. – Zależy on przede wszystkim od kwalifikacji danego systemu AI pod kątem stopnia ryzyka oraz od roli danego podmiotu, czyli tego, czy jest dostawcą, podmiotem stosującym AI, czy też występuje w jeszcze innej roli, np. importera. Niektóre firmy będą musiały całkowicie przebudować procesy biznesowe, w innych przypadkach wpływ może być minimalny, np. ograniczy się do spełnienia obowiązków informacyjnych czy konieczności wprowadzenia polityki wewnętrznej – wyjaśnia Anna Gumkowska, Szefowa Grupy Roboczej AI IAB Polska.
Niezależnie od opisanych kwalifikacji, wszystkie firmy będą musiały spełnić pewne ogólne obowiązki – przede wszystkim zweryfikować to, czy korzystanie z danego systemu AI w ogóle jest dopuszczalne oraz jakie czynności się z tym wiążą. Zakazane zostają praktyki wykorzystania systemów AI, które z uwagi na szczególnie szkodliwe cechy stwarzają istotne zagrożenie dla zdrowia, bezpieczeństwa i praw człowieka (m.in. prawa do prywatności, praw pracowniczych czy praw dziecka). Do zakazanych praktyk należą m.in. stosowanie celowych technik manipulacyjnych, ocenianie lub wykorzystywanie sztucznej inteligencji do systemów monitorowani AI oceny zachowania społecznego (systemy “social scoringu”), czy wykorzystywanie kategoryzacji biometrycznych, które wnioskują na temat: rasy, poglądów politycznych, orientacji seksualnej, itp.
Podmioty wykorzystujące AI zostaną też objęte obowiązkami w zakresie transparentności i wewnętrznych zasad korzystania z systemów. W praktyce oznacza to, że dostawcy wszystkich systemów AI powinni zapewnić, aby użytkownicy wchodzący w bezpośrednią interakcję z tą technologią byli o tym informowani.
Najbardziej dotkliwe obowiązki spadną tylko na część podmiotów, bowiem większość szczegółowych wymogów dotyczy systemów wysokiego ryzyka, wykorzystywanych w krytycznych obszarach, np. w sektorze finansowym, opiece zdrowotnej czy edukacji.
Za niedostosowanie się do nowych regulacji, Rozporządzenie przewiduje szereg administracyjnych kar pieniężnych.
Eksperci o nowych przepisach
W Polsce aktualnie toczy się debata, czy w związku z nowymi przepisami powinny zostać powołane nowe organy monitorujące, czy też ich rolę w zakresie AI powinno się przyznać już istniejącym podmiotom. Organem zajmującym się AI na obszarze UE będzie Europejski Urząd ds. sztucznej Inteligencji.
– Od dawna mieliśmy świadomość, jak potrzebne są regulacje w zakresie bezpieczeństwa i przejrzystości systemów sztucznej inteligencji, która szturmem wdarła się do naszej rzeczywistości. Aby systemy AI były przyjazne dla użytkowników, niedyskryminujące, bezpieczne w zakresie zdrowia i praw człowieka, powinny być nadzorowane przez ludzi. Nowe zapisy jednocześnie wspierają innowacje, zapewniając lepsze warunki do rozwoju i wykorzystywania tej technologii. Dlatego od samego początku aktywnie uczestniczyliśmy w pracach nad projektem AI Act, zarówno na poziomie europejskim, jak i krajowym. Przedstawiliśmy stanowisko w pre-konsultacjach prowadzonych przez Ministerstwo Cyfryzacji. Eksperci IAB uczestniczą również w pracach specjalnej grupy roboczej powołanej w ramach Ministerstwa Cyfryzacji i na bieżąco monitorują prace krajowe, toczące się również w innych organach administracyjnych, jak UODO, UOKiK, Sejm, itp – komentuje Włodzimierz Schmidt, Prezes Zarządu IAB Polska.
Eksperci IAB Polska przygotowali przewodnik dla przedsiębiorców w formie odpowiedzi na kluczowe pytania dotyczące Aktu o sztucznej inteligencji, uwzględniający przede wszystkim kwestie legislacyjne. Przewodnik dostępny jest tutaj>>> FAQ dotyczące AI Act.
Źródło: Lightscape sp. z o.o.
Foto: Marketing przy Kawie // Przewodnik po sztucznej inteligencji 2024” IAB Polska (Grupa Robocza AI