Pierwsze na świecie ważne prawo dotyczące sztucznej inteligencji wchodzi w życie — oto, co oznacza dla amerykańskich gigantów technologicznych – SofolFreelancer


Przełomowe prawo Unii Europejskiej dotyczące sztucznej inteligencji oficjalnie wchodzi w życie w czwartek — i oznacza trudne zmiany dla amerykańskich gigantów technologicznych.

Ustawa o sztucznej inteligencji, przełomowa regulacja mająca na celu uregulowanie sposobu, w jaki firmy rozwijają, wykorzystują i stosują sztuczną inteligencję, została uzyskało ostateczną akceptację państw członkowskich UE, prawodawców i Komisji Europejskiej — organ wykonawczy UE — w maju.

CNBC przedstawiło wszystko, co trzeba wiedzieć na temat ustawy o sztucznej inteligencji (AI Act) i jej wpływu na największe globalne firmy technologiczne.

Czym jest ustawa o sztucznej inteligencji?

Ustawa o AI to część ustawodawstwa UE regulującego sztuczną inteligencję. Po raz pierwszy zaproponowana przez Komisję Europejską w 2020 r. ustawa ma na celu zajęcie się negatywnymi skutkami AI.

Będzie on skierowany przede wszystkim do dużych amerykańskich firm technologicznych, które obecnie są głównymi twórcami i deweloperami najbardziej zaawansowanych systemów AI.

Jednak wiele innych przedsiębiorstw zostanie objętych tymi przepisami — nawet firmy spoza branży technologicznej.

Rozporządzenie ustanawia kompleksowe i zharmonizowane ramy regulacyjne dla sztucznej inteligencji w całej UE, stosując podejście oparte na ryzyku w celu uregulowania tej technologii.

Tanguy Van Overstraeten, szef działu technologii, mediów i technologii kancelarii prawnej Linklaters w Brukseli, powiedział, że ustawa UE o sztucznej inteligencji jest „pierwszą tego typu ustawą na świecie”.

„Może to mieć wpływ na wiele firm, zwłaszcza te, które opracowują systemy AI, ale także te, które je wdrażają lub po prostu używają w określonych okolicznościach”.

W przepisach przyjęto podejście oparte na ryzyku w zakresie regulacji sztucznej inteligencji, co oznacza, że ​​różne zastosowania tej technologii są regulowane w różny sposób w zależności od poziomu ryzyka, jakie stwarzają dla społeczeństwa.

Na przykład w przypadku zastosowań AI uznanych za „wysokiego ryzyka” zostaną wprowadzone ścisłe obowiązki na mocy ustawy AI Act. Takie obowiązki obejmują odpowiednie systemy oceny i łagodzenia ryzyka, wysokiej jakości zestawy danych szkoleniowych w celu zminimalizowania ryzyka stronniczości, rutynowe rejestrowanie aktywności i obowiązkowe udostępnianie szczegółowej dokumentacji modeli władzom w celu oceny zgodności.

Przykładami systemów AI wysokiego ryzyka są pojazdy autonomiczne, urządzenia medyczne, systemy podejmowania decyzji kredytowych, systemy punktacji edukacyjnej i zdalne systemy identyfikacji biometrycznej.

Ustawa wprowadza również całkowity zakaz wszelkich zastosowań sztucznej inteligencji uznanych za „niedopuszczalne” ze względu na poziom ryzyka.

Zastosowania sztucznej inteligencji stwarzające niedopuszczalne ryzyko obejmują systemy „punktacji społecznej”, które klasyfikują obywateli na podstawie agregacji i analizy ich danych, predykcyjne działania policji oraz wykorzystanie technologii rozpoznawania emocji w miejscu pracy lub szkołach.

Co to oznacza dla amerykańskich firm technologicznych?

Amerykańscy giganci, tacy jak Microsoft, Google, Amazonka, JabłkoI Meta aktywnie współpracują i inwestują miliardy dolarów w firmy, które ich zdaniem mogą być liderami w dziedzinie sztucznej inteligencji, w obliczu ogólnoświatowego szaleństwa wokół tej technologii.

Platformy chmurowe, takie jak Microsoft Azure, Amazon Web Services i Google Cloud, odgrywają również kluczową rolę w rozwoju sztucznej inteligencji, biorąc pod uwagę ogromną infrastrukturę obliczeniową potrzebną do szkolenia i uruchamiania modeli sztucznej inteligencji.

Pod tym względem firmy Big Tech bez wątpienia znajdą się wśród firm najczęściej atakowanych w ramach nowych przepisów.

„Ustawa o sztucznej inteligencji ma implikacje wykraczające daleko poza UE. Dotyczy każdej organizacji, która prowadzi jakąkolwiek działalność lub ma wpływ na UE, co oznacza, że ​​ustawa o sztucznej inteligencji prawdopodobnie będzie miała zastosowanie do Ciebie bez względu na to, gdzie się znajdujesz” – powiedział Charlie Thompson, starszy wiceprezes EMEA i LATAM w firmie zajmującej się oprogramowaniem dla przedsiębiorstw Appian, w wiadomości e-mail dla CNBC.

„To spowoduje znacznie większą kontrolę gigantów technologicznych, jeśli chodzi o ich działalność na rynku UE i wykorzystywanie przez nich danych obywateli UE” – dodał Thompson

Meta już ograniczyła dostępność swojego modelu sztucznej inteligencji w Europie ze względu na obawy regulacyjne — choć posunięcie to niekoniecznie było spowodowane unijną ustawą o sztucznej inteligencji.

Właściciel Facebooka poinformował na początku tego miesiąca, że ​​nie udostępni swoich modeli LLaMa w UE, powołując się na niepewność co do ich zgodności z ogólnym rozporządzeniem o ochronie danych, w skrócie RODO.

Dyrektor generalny Capgemini: Nie ma „cudownego środka” pozwalającego czerpać korzyści ze sztucznej inteligencji

Wcześniej firmie nakazano zaprzestanie szkolenia swoich modelek w oparciu o posty z Facebooka i Instagrama w UE, ponieważ istniały obawy, że może to naruszać RODO.

Jak traktuje się sztuczną inteligencję generatywną?

W ustawie UE o sztucznej inteligencji sztuczna inteligencja generatywna została określona jako przykład sztucznej inteligencji „ogólnego przeznaczenia”.

Określenie to odnosi się do narzędzi, które mają umożliwiać realizację szerokiego zakresu zadań na poziomie porównywalnym — jeśli nie lepszym — niż człowiek.

Uniwersalne modele sztucznej inteligencji obejmują m.in. GPT firmy OpenAI, Gemini firmy Google i Claude firmy Anthropic.

W przypadku tych systemów ustawa o sztucznej inteligencji nakłada ścisłe wymogi, takie jak przestrzeganie prawa autorskiego UE, wydawanie oświadczeń o przejrzystości dotyczących sposobu trenowania modeli oraz przeprowadzanie rutynowych testów i odpowiednich zabezpieczeń cyberbezpieczeństwa.

Nie wszystkie modele AI są jednak traktowane jednakowo. Twórcy AI stwierdzili, że UE musi zapewnić, że modele open source — które są bezpłatne dla ogółu społeczeństwa i mogą być używane do tworzenia dostosowanych aplikacji AI — nie będą zbyt ściśle regulowane.

Przykładami modeli open source są LLaMa firmy Meta, Stable Diffusion firmy Stability AI i 7B firmy Mistral.

UE przewiduje pewne wyjątki dla modeli generatywnej sztucznej inteligencji opartych na otwartym kodzie źródłowym.

Jednak aby kwalifikować się do zwolnienia z zasad, dostawcy oprogramowania typu open source muszą udostępnić publicznie swoje parametry, w tym wagi, architekturę modelu i sposób jego wykorzystania, a także umożliwić „dostęp, wykorzystanie, modyfikację i dystrybucję modelu”.

Zgodnie z ustawą o sztucznej inteligencji modele open source, które stwarzają ryzyko „systemowe”, nie będą brane pod uwagę przy wyjątkach.

Różnica między firmami zajmującymi się sztuczną inteligencją o zamkniętym i otwartym kodzie źródłowym jest mniejsza, niż myśleliśmy: Hugging Face

„Konieczne jest dokładne oszacowanie, kiedy zasady zostaną uruchomione i jaką rolę odgrywają zaangażowane strony” – stwierdził. [who said this?] powiedział.

Co się dzieje, jeśli firma naruszy zasady?

Firmy naruszające ustawę UE o sztucznej inteligencji może zostać ukarany grzywną od 35 milionów euro (41 milionów dolarów) lub 7% globalnych rocznych przychodów — w zależności od tego, która kwota jest wyższa — do 7,5 miliona lub 1,5% globalnych rocznych przychodów.

Wysokość kary zależeć będzie od rodzaju naruszenia i wielkości ukaranej firmy.

To więcej niż grzywny możliwe na mocy RODO, rygorystycznego europejskiego prawa o prywatności cyfrowej. Firmy są karane grzywnami w wysokości do 20 milionów euro lub 4% rocznego globalnego obrotu za naruszenia RODO.

Nadzór nad wszystkimi modelami sztucznej inteligencji objętymi zakresem ustawy — w tym nad systemami sztucznej inteligencji ogólnego przeznaczenia — będzie sprawowany przez Europejski Urząd ds. Sztucznej Inteligencji, organ regulacyjny powołany przez Komisję w lutym 2024 r.

Jamil Jiva, globalny szef zarządzania aktywami w firmie fintech Linedata, powiedział CNBC, że UE „rozumie, że muszą nakładać na firmy naruszające przepisy znaczne grzywny, jeśli chcą, aby regulacje miały wpływ”.

Martin Sorrell o przyszłości reklamy w erze sztucznej inteligencji

Podobnie jak RODO pokazało, że UE może „elastycznie dostosowywać swoje regulacyjne wpływy, aby nakazać stosowanie najlepszych praktyk ochrony danych” na poziomie globalnym, tak teraz za pomocą ustawy o sztucznej inteligencji blok ponownie próbuje to powtórzyć, tym razem dla sztucznej inteligencji – dodał Jiva.

Warto jednak zauważyć, że chociaż ustawa o sztucznej inteligencji wreszcie weszła w życie, większość jej przepisów wejdzie w życie dopiero w 2026 roku.

Ograniczenia dotyczące systemów ogólnego przeznaczenia nie zaczną obowiązywać wcześniej niż 12 miesięcy po wejściu w życie ustawy o sztucznej inteligencji.

Obecnie dostępne w sprzedaży generatywne systemy sztucznej inteligencji (np. ChatGPT firmy OpenAI i Gemini firmy Google) mają również 36-miesięczny „okres przejściowy” na dostosowanie swoich systemów do nowych wymogów.

Leave a Reply