Użytkownik Internetu sprawdza ChatGPT na swoim telefonie komórkowym, Suqian, prowincja Jiangsu, Chiny, 26 kwietnia 2023 r.
Przyszłość publikacji | Przyszłość publikacji | Getty Images
LONDYN — Wielka Brytania jest gotowa wprowadzić swoje pierwsze prawo dotyczące sztucznej inteligencji — ale nowy rząd Partii Pracy pod wodzą premiera Keira Starmera stoi przed trudnym zadaniem znalezienia równowagi między stworzeniem przepisów, które będą wystarczająco rygorystyczne, a jednocześnie umożliwią innowacje.
W przemówienie W oświadczeniu złożonym przez króla Karola III w imieniu administracji Starmera rząd oświadczył w środę, że „będzie dążył do ustanowienia odpowiednich przepisów, aby nałożyć wymagania na osoby pracujące nad rozwojem najpotężniejszych modeli sztucznej inteligencji”.
Jednak w przemówieniu nie wspomniano o projekcie ustawy dotyczącej sztucznej inteligencji, którego spodziewało się wielu dyrektorów i komentatorów z branży technologicznej.
W Unii Europejskiej władze wprowadziły szeroko zakrojone prawo znane jako Ustawa o AI która nakłada znacznie surowsze ograniczenia na firmy rozwijające i wykorzystujące sztuczną inteligencję.
Wiele firm technologicznych — zarówno dużych, jak i małych — ma nadzieję, że Wielka Brytania nie pójdzie tą samą drogą, stosując przepisy, które uważają za zbyt restrykcyjne.
Jak mógłby wyglądać projekt ustawy o sztucznej inteligencji w Wielkiej Brytanii
Oczekuje się, że Partia Pracy wprowadzi formalne przepisy dotyczące sztucznej inteligencji, tak jak partia przedstawiła to w swoim manifeście wyborczym.
Rząd Starmera zobowiązał się do wprowadzenia „wiążących regulacji dla garstki firm opracowujących najpotężniejsze modele sztucznej inteligencji” oraz ustawodawstwa zakazującego tworzenia deepfake’ów o charakterze seksualnym.
Skupiając się na najpotężniejszych modelach sztucznej inteligencji, Partia Pracy chciałaby nałożyć surowsze ograniczenia na firmy takie jak OpenAI, Microsoft, Google, Amazonkaoraz startupy zajmujące się sztuczną inteligencją, m.in. Anthropic, Cohere i Mistral.
„Najwięksi gracze na rynku AI prawdopodobnie będą poddawani większej kontroli niż dotychczas” – powiedział Matt Calkins, dyrektor generalny firmy programistycznej Appian, w wywiadzie dla CNBC.
„Potrzebujemy środowiska sprzyjającego szeroko zakrojonym innowacjom, które będzie regulowane przez jasne ramy regulacyjne, zapewniające uczciwe szanse i przejrzystość dla wszystkich”.
Lewis Liu, szef AI w firmie zajmującej się oprogramowaniem do zarządzania umowami Sirion, ostrzegł, że rząd powinien unikać stosowania „podejścia młota o szerokim zasięgu w celu uregulowania każdego pojedynczego przypadku użycia”.
Jego zdaniem przypadki użycia, takie jak diagnostyka kliniczna — która wiąże się z poufnymi danymi medycznymi — nie powinny być wrzucane do tego samego worka co na przykład oprogramowanie dla przedsiębiorstw.
„Wielka Brytania ma szansę, aby ten niuans był właściwy dla ogromnej korzyści jej sektora technologicznego” – powiedział Liu w CNBC. Dodał jednak, że do tej pory widział „pozytywne sygnały” dotyczące planów Partii Pracy dotyczących AI.
Ustawodawstwo dotyczące AI stanowiłoby kontrast z poprzednikiem Starmera. Za byłego premiera Rishi Sunaka rząd zdecydował się na podejście „delikatne” do AI, starając się zamiast tego stosować istniejące przepisy do technologii.
Poprzedni konserwatywny rząd stwierdził w lutowym dokumencie politycznym, że wprowadzenie wiążących środków zbyt wcześnie może „nie rozwiązać skutecznie ryzyka, szybko stać się nieaktualne lub stłumić innowacyjność”.
W lutym nowy minister technologii Wielkiej Brytanii, Peter Kyle, powiedział, że Partia Pracy zamierza wprowadzić ustawowy obowiązek, zgodnie z którym firmy będą musiały udostępniać rządowi dane testowe dotyczące bezpieczeństwa swoich modeli sztucznej inteligencji.
„Chcielibyśmy prawnie zmusić rząd do udostępnienia wyników testów” – powiedział Kyle, wówczas minister technologii w gabinecie cieni, w wywiadzie dla BBC.
Rząd Sunaka uzyskał umowy od firm technologicznych na udostępnianie informacji o testach bezpieczeństwa AI Safety Institute, państwowej instytucji testującej zaawansowane systemy AI. Ale odbywało się to wyłącznie na zasadzie dobrowolności.
Ryzyko stłumienia innowacji
Rząd Wielkiej Brytanii chce unikać zbytniego naciskania na przepisy dotyczące AI, w stopniu, który ostatecznie utrudniłby innowację. Partia Pracy zaznaczyła również w swoim manifeście, że chce „wspierać różnorodne modele biznesowe, które wprowadzają innowacje i nowe produkty na rynek”.
Wszelkie regulacje musiałyby być „zniuansowane”, przypisując obowiązki „odpowiednio”, powiedziała Zahra Bahrololoumi, dyrektor generalna Salesforce na Wielką Brytanię i Irlandię, w rozmowie z CNBC, dodając, że z zadowoleniem przyjmuje wezwanie rządu do „odpowiedniego ustawodawstwa”.
Matthew Houlihan, starszy dyrektor ds. rządowych w Cisco, powiedział, że wszelkie zasady dotyczące sztucznej inteligencji będą musiały „koncentrować się na przemyślanym podejściu opartym na ryzyku”.
Inne propozycje, które zostały już przedstawione przez brytyjskich polityków, dają pewien wgląd w to, co może zawierać ustawa Partii Pracy o sztucznej inteligencji.
Brytyjski ustawodawca Chris Holmes, konserwatywny szeregowy zasiadający w wyższej izbie parlamentu, w zeszłym roku przedstawił projekt ustawy proponujący regulację AI. Projekt ustawy przeszedł trzecie czytanie w maju, przekazując go do niższej izby parlamentu.
Prawo Holmesa miałoby mniejsze szanse na powodzenie niż to zaproponowane przez rząd. Jednak oferuje pewne pomysły na to, jak Partia Pracy mogłaby stworzyć własne ustawodawstwo dotyczące sztucznej inteligencji.
Proponowany przez Holmesa projekt ustawy zawiera propozycję utworzenia scentralizowanego organu ds. sztucznej inteligencji, który nadzorowałby egzekwowanie przepisów dotyczących tej technologii.
Przedsiębiorstwa będą musiały przekazywać Urzędowi ds. Sztucznej Inteligencji dane stron trzecich oraz własność intelektualną wykorzystywaną w szkoleniu ich modeli, a także zapewniać, że wszelkie takie dane i własność intelektualna będą wykorzystywane za zgodą pierwotnego źródła.
W pewnym sensie jest to podobne do działalności unijnego Biura ds. Sztucznej Inteligencji, które odpowiada za nadzór nad rozwojem zaawansowanych modeli sztucznej inteligencji.
Holmes proponuje również, aby firmy wyznaczyły oddzielnych urzędników do spraw sztucznej inteligencji. Ich zadaniem byłoby zapewnienie bezpiecznego, etycznego i bezstronnego korzystania z AI przez firmy, a także zapewnienie bezstronności danych wykorzystywanych w technologii AI.
Jak można go porównać z innymi regulatorami
Matthew Holman, partner w kancelarii prawnej Cripps, powiedział w wywiadzie dla telewizji CNBC, że biorąc pod uwagę dotychczasowe obietnice Partii Pracy, takie prawo będzie nieuchronnie „bardzo dalekie od szeroko zakrojonego zakresu ustawy UE o sztucznej inteligencji”.
Holman dodał, że zamiast wymagać od twórców modeli AI narzucających się ujawnień, Wielka Brytania prawdopodobnie znajdzie „złoty środek”. Na przykład rząd mógłby wymagać od firm AI dzielenia się tym, nad czym pracują, podczas zamkniętych sesji AI Safety Institute, ale bez ujawniania tajemnic handlowych ani kodu źródłowego.
Minister technologii Kyle powiedział wcześniej na London Tech Week, że Partia Pracy nie uchwali tak rygorystycznego prawa, jak AI Act, ponieważ nie chce ograniczać innowacyjności ani zniechęcać dużych firm zajmujących się rozwojem sztucznej inteligencji do inwestycji.
Mimo to brytyjskie prawo dotyczące AI byłoby krokiem naprzód w stosunku do USA, które obecnie nie ma żadnego federalnego ustawodawstwa dotyczącego AI. Tymczasem w Chinach regulacje są bardziej rygorystyczne niż w UE i w każdym ustawodawstwie, które prawdopodobnie przedstawi Wielka Brytania.
W zeszłym roku chińscy regulatorzy sfinalizowali przepisy regulujące generatywną sztuczną inteligencję, których celem jest wyeliminowanie nielegalnych treści i wzmocnienie ochrony bezpieczeństwa.
Liu z Sirion powiedział, że jedną rzeczą, której ma nadzieję, że rząd nie zrobi, jest ograniczenie modeli AI typu open source. „Niezbędne jest, aby nowe przepisy dotyczące AI w Wielkiej Brytanii nie tłumiły open source ani nie wpadały w pułapkę przejęcia regulacyjnego” — powiedział CNBC.
„Istnieje ogromna różnica między szkodami wyrządzanymi przez duże LLM od takich firm jak OpenAI a konkretnymi dostosowanymi modelami open source używanymi przez start-up w celu rozwiązania konkretnego problemu”.
Herman Narula, CEO metaverse venture builder Improbable, zgodził się, że ograniczenie innowacji open-source AI byłoby złym pomysłem. „Potrzebne są nowe działania rządowe, ale te działania muszą koncentrować się na tworzeniu realnego świata dla firm open-source AI, które są niezbędne do zapobiegania monopolom” — powiedział Narula w wywiadzie dla CNBC.