Regulacje AI w Europie – co oznacza dla firm wejście w życie AI Act od sierpnia 2025?
Na początku 2025 roku weszło w życie unijne rozporządzenie AI Act, a od sierpnia tego samego roku zaczynają obowiązywać jego kluczowe przepisy. To pierwsze w Europie kompleksowe prawo regulujące korzystanie ze sztucznej inteligencji, które nakłada na firmy konkretne obowiązki związane ze stosowaniem, wdrażaniem i monitorowaniem systemów opartych na AI (ang. artificial intelligence). Ponieważ rozporządzenie ma bezpośrednie zastosowanie we wszystkich krajach członkowskich, przedsiębiorstwa muszą dostosować się do jego wymogów niezależnie od lokalnej legislacji. Dla biznesu oznacza to konieczność wdrożenia nowych standardów zgodności i większą odpowiedzialność za sposób wykorzystywania technologii AI na rynku. Jeśli zastanawiasz się, co AI Act zmieni w przedsiębiorstwach, ten artykuł jest w sam raz dla Ciebie!
Rozporządzenie o sztucznej inteligencji – dlaczego zostało uchwalone przez Unię Europejską?
Sztuczna inteligencja staje się kluczowym narzędziem rozwoju gospodarczego, ale jej dynamiczny rozwój niesie ze sobą także ryzyko nadużyć i niepożądanych konsekwencji. Wraz z rosnącą liczbą firm wdrażających AI do codziennej działalności, pracownicy i użytkownicy muszą mieć pewność, że decyzje podejmowane z pomocą tych systemów są przejrzyste i bezpieczne. Dlatego powstało unijne rozporządzenie nt. AI, które określa ramy prawne korzystania ze sztucznej inteligencji. Rozporządzenie wskazuje praktyki całkowicie zakazane, definiuje poziomy ryzyka związane z różnymi zastosowaniami AI oraz nakłada na przedsiębiorców konkretne obowiązki w zakresie zgodności, monitorowania i odpowiedzialności prawnej i społecznej.
Rozporządzenie o AI – przepisy, które warto znać
Unijne rozporządzenie o sztucznej inteligencji AI Act to pierwszy kompleksowy akt prawny regulujący zakres korzystania ze sztucznej inteligencji. Jego głównym założeniem jest ochrona obywateli UE przed negatywnymi skutkami wynikającymi ze stosowania zaawansowanej sztucznej inteligencji.
Wspomniana wcześniej klasyfikacja według ryzyka wprowadza cztery poziomy:
- Minimalne ryzyko – dotyczy systemów praktycznie nieszkodliwych, nieobarczonych regulacjami. Można je swobodnie wdrażać w firmie i życiu codziennym.
- Ograniczone ryzyko – tyczy się narzędzi takich jak chatboty czy generatory treści, które wymagają jedynie transparentności, np. informowania użytkowników, że mają do czynienia z AI.
- Wysokie ryzyko – mówi o systemach mających istotny wpływ na prawa, zdrowie lub bezpieczeństwo obywateli UE, które zwykle są wdrażane w krytycznych sektorach, takich jak ochrona zdrowia, infrastruktura, edukacja czy wymiar sprawiedliwości. Aby stosować tutaj AI, Unia Europejska wymaga od wdrażających prowadzenia szczegółowej dokumentacji, nadzoru i ścisłej zgodności z normami.
- Ryzyko niedopuszczalne – obejmuje szereg działań zakazanych. Mowa m.in. o scoringu, manipulacjach, deepfake’ach, fake newsach, wykorzystywaniu AI do popełniania przestępstw czy tworzeniu innych treści zakazanych, ściganych z urzędu w krajach członkowskich.
AI Act: obowiązki dla dostawców i wdrażających
AI Act już od lutego 2025 r. nakłada obowiązek zapewnienia AI literacy – czyli kompetencji i świadomości w zakresie AI – wśród osób odpowiedzialnych za tworzenie i użytkowanie systemów AI. Chodzi o to, aby pracownicy oraz współpracownicy (np. kontrahenci) rozumieli potencjał i zagrożenia AI, potrafili interpretować jej działanie, oceniać ryzyko i podejmować świadome decyzje – adekwatnie do swoich kompetencji i roli w organizacji. Nie jest wymagane formalne potwierdzenie zdobytej wiedzy, ale organizacje muszą dokumentować swoje działania w tym zakresie – od szkoleń po wewnętrzne instrukcje.
Budowanie umiejętności w zakresie sztucznej inteligencji w firmach wymaga opracowania spójnych ścieżek rozwoju. Obejmują one szkolenia wprowadzające, kursy dopasowane do specyfiki stanowiska oraz zajęcia praktyczne. Ważnym elementem jest też zapewnienie stałego dostępu do narzędzi – przedsiębiorstwo powinno posiadać aktywne subskrypcje lub licencje umożliwiające korzystanie z odpowiednich rozwiązań.
Kary za naruszenia AI Actu
W ramach rozporządzenia AI Act przewidziano surowe kary za stosowanie praktyk zakazanych – mowa o sankcjach sięgających nawet do 35 mln euro lub 7% globalnych rocznych przychodów firmy, w zależności od tego, która kwota okaże się wyższa. Przepisy dotyczące systemów zakazanych obowiązują od lutego 2025 r.
Niższe, choć wciąż dotkliwe kary, sięgające 15 mln euro lub 3% światowych obrotów, grożą przedsiębiorstwom za naruszenia związane z systemami wysokiego ryzyka czy modelami ogólnego przeznaczenia (GPAI – General Purpose AI). Identyczne sankcje będą stosowane wobec podmiotów, które nie wypełnią obowiązków informacyjnych – od sierpnia 2026 r. użytkownicy muszą być w określonych sytuacjach jasno powiadamiani, że mają kontakt ze sztuczną inteligencją.
Przepisy unijne a prawo polskie
Przepisy zawarte w rozdziałach I i II rozporządzenia 2024/1689/UE mają bezpośrednie zastosowanie, co oznacza, że państwa członkowskie nie muszą ich dodatkowo implementować do swojego prawa. Zakres zagadnień związanych z rozwojem sztucznej inteligencji jest jednak na tyle szeroki, że mimo wszystko wymaga uzupełniających regulacji krajowych. W Polsce prowadzone są obecnie prace nad rządowym projektem ustawy o systemach sztucznej inteligencji, która ma uporządkować ten obszar na poziomie krajowym.
Potrzeba regulacji sztucznej inteligencji
AI Act pojawił się jako odpowiedź na rosnące znaczenie sztucznej inteligencji w biznesie i życiu codziennym. Regulacje są potrzebne, ponieważ rozwój tej technologii niesie zarówno ogromne korzyści, jak i poważne zagrożenia, takie jak oszustwa, wyłudzenia czy dezinformacja. Nowe przepisy mają nie tylko chronić obywateli, zwłaszcza tych mniej obeznanych z technologią (np. seniorów), ale także zobowiązać pracodawców do podnoszenia kompetencji pracowników, aby mogli świadomie i bezpiecznie korzystać z AI.
Materiał zewnętrzny