Akt o sztucznej inteligencji (AI Act) to rozporządzenie Unii Europejskiej, które wprowadza kompleksowe ramy regulacyjne dla systemów sztucznej inteligencji na terenie UE. Jako rozporządzenie, AI Act obowiązuje bezpośrednio we wszystkich państwach członkowskich, w tym w Polsce, bez konieczności implementacji do prawa krajowego.
Harmonogram wdrażania AI Act:
-
1 sierpnia 2024 r.: AI Act został opublikowany i wszedł w życie, rozpoczynając okresy przejściowe dla poszczególnych przepisów.
-
2 lutego 2025 r.: Wejdą w życie przepisy zakazujące stosowania szczególnie niebezpiecznych systemów AI na terenie UE.
-
1 sierpnia 2025 r.: Zaczną obowiązywać przepisy dotyczące nadzoru nad sztuczną inteligencją, w tym określenie organów nadzoru rynku i organów notyfikujących, a także regulacje dotyczące modeli AI ogólnego przeznaczenia oraz sankcji za naruszenia AI Act.
-
1 sierpnia 2026 r.: Wejdą w życie przepisy odnoszące się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków.
-
1 sierpnia 2027 r.: Ostateczny termin dla niektórych systemów wysokiego ryzyka będących elementem produktów podlegających osobnym normom.
W związku z powyższym, w 2025 roku w Polsce będą obowiązywać już pierwsze przepisy AI Act, zwłaszcza te dotyczące zakazanych praktyk w zakresie sztucznej inteligencji oraz nadzoru nad jej stosowaniem. Ministerstwo Cyfryzacji aktywnie pracuje nad dostosowaniem polskiego systemu prawnego do wymogów AI Act, aby zapewnić skuteczne wdrożenie i egzekwowanie nowych regulacji.
Czy zgodnie z AI ACT należy informować na stronie internetowej o fakcie generowania teksu z użyciem narzędzi AI?
Tak, zgodnie z założeniami AI Act (Artificial Intelligence Act), który jest obecnie procedowany w Unii Europejskiej, istnieje obowiązek informowania użytkowników o tym, że dany tekst, obraz, czy inne treści zostały stworzone przy użyciu narzędzi sztucznej inteligencji. Jest to część regulacji mających na celu zapewnienie transparentności w korzystaniu z AI.
Kluczowe aspekty w kontekście oznaczania treści:
-
Obowiązek ujawniania: Zgodnie z projektem AI Act, w przypadku generowanych treści, szczególnie takich, które mogą być mylące lub które mogłyby zostać pomylone z treściami stworzonymi przez człowieka, należy jasno informować użytkowników, że zostały one wygenerowane za pomocą AI.
-
Przykłady zastosowania:
- Na stronie internetowej, jeśli publikujesz teksty wygenerowane przy pomocy narzędzi AI (np. ChatGPT), powinieneś zamieścić odpowiednią informację, np. w formie adnotacji, że tekst został opracowany przy użyciu sztucznej inteligencji.
- W przypadku obrazów lub wideo generowanych przez AI, również należy to zaznaczyć.
-
Cel regulacji:
- Zapewnienie przejrzystości dla użytkowników.
- Ochrona przed potencjalnym wprowadzeniem w błąd (np. w kontekście deepfake’ów czy treści fałszywych).
- Ułatwienie użytkownikom rozróżniania treści generowanych przez człowieka od tych tworzonych przez AI.
-
Konsekwencje braku oznaczenia: Jeśli przedsiębiorstwo lub osoba nie spełni wymogów dotyczących transparentności, mogą zostać nałożone kary administracyjne, zgodnie z wytycznymi AI Act.
W praktyce oznacza to, że w treściach zamieszczanych na stronie internetowej (np. w blogach, artykułach, opisach produktów) powinna znaleźć się informacja o wykorzystaniu narzędzi AI. Przykładowy zapis mógłby brzmieć:
„Ten tekst został wygenerowany przy użyciu narzędzia sztucznej inteligencji.”
AI ACT- Niniejszy tekst i/lub grafika zostały wygenerowane lub poprawione przy użyciu narzędzia sztucznej inteligencji.