Unia Europejska dokonała przełomu, zatwierdzając pierwszy na świecie akt regulacyjny dotyczący sztucznej inteligencji (AI Act), który przyjmuje podejście oparte na ryzyku, szczególnie skupiając się na obszarach wysokiego ryzyka, takich jak wykorzystanie AI do biometrycznego nadzoru przez rządy. Po zakończeniu negocjacji, w których głos oddali przedstawiciele wszystkich państw członkowskich UE, akt ten zbliża się do finalizacji i wdrożenia.
Nowe sformułowania treści zostały uzgodnione przez państwa członkowskie, a następnym krokiem jest Parlament Europejski. Niedługo po ostatecznym zatwierdzeniu, AI Act wejdzie w życie, jednak UE zaplanowała okres zapoznawczy, co oznacza, że lista zakazanych narzędzi AI nie zostanie wprowadzona przez kolejne sześć miesięcy.
Akt ten obejmuje swoim zasięgiem systemy podobne do ChatGPT, wymagając przejrzystości przed ich wprowadzeniem na rynek. Oczekuje się, że wdrożenie AI Act nastąpi w 2026 roku, z pewnymi przepisami mającymi wejść w życie wcześniej, aby ułatwić stopniową integrację nowego ramowego systemu regulacyjnego.
Komisja Europejska aktywnie wspiera ekosystem AI w UE, tworząc Biuro AI odpowiedzialne za monitorowanie zgodności z aktem, ze szczególnym uwzględnieniem modeli podstawowych, które stwarzają systemowe ryzyka. Celem UE jest ustanowienie pierwszego na świecie kompleksowego prawa dotyczącego sztucznej inteligencji, które ma regulować wykorzystanie AI w celu zapewnienia lepszych warunków wdrożenia, ochrony osób i promowania zaufania do systemów AI.
AI Act będzie egzekwowany przez właściwe krajowe organy nadzoru rynku, wspierane przez Europejskie Biuro AI w ramach Komisji UE. Francja, Niemcy i Włochy początkowo zgodziły się na osłabienie treści AI Act, starając się uniknąć nałożenia sankcji na ustawodawstwo. Ostateczna treść aktu znacząco odbiega od tej wizji, na przykład wymagając od ogólnych modeli dostarczania dokumentacji technicznej do UE, przeprowadzania dodatkowych ocen ryzyka i przestrzegania obowiązujących praw autorskich.
AI Act nałoży również polityki przejrzystości na ogólnego przeznaczenia AI (GPAI), z dodatkowymi wymogami regulacyjnymi dla systemów stwarzających wyższe ryzyko. Komisja ustaliła, że wszystkie modele spełniające wcześniej określoną definicję GPAI muszą stosować się do polityki przejrzystości, co obejmuje przygotowanie dokumentacji technicznej, zgodność z europejskim prawodawstwem dotyczącym praw autorskich i dostarczenie podsumowania danych szkoleniowych.
Dodatkowe regulacje mają zastosowanie do modeli stwarzających systemowe ryzyka, które mogą wywołać efekt domina prowadzący do załamania szerszej ekonomii. Klasyfikacja w tej kategorii opiera się na niejasnych zasadach, takich jak moc obliczeniowa wymagana podczas szkolenia modelu, z modelami przekraczającymi 10 do potęgi 25 operacji zmiennoprzecinkowych (FLOPs) kwalifikującymi się do tej kategorii.