Firma OpenAI, odpowiadając na pytania amerykańskich ustawodawców, oświadczyła, że dokłada wszelkich starań, aby jej zaawansowane narzędzia sztucznej inteligencji nie powodowały żadnych szkód, a pracownicy mieli możliwość zgłaszania obaw dotyczących praktyk bezpieczeństwa.
Startup starał się zapewnić prawodawców o swoim zaangażowaniu w kwestie bezpieczeństwa po tym, jak pięciu senatorów, w tym senator Brian Schatz, demokrata z Hawajów, w liście skierowanym do dyrektora generalnego Sama Altmana, zadało pytania dotyczące polityki OpenAI.
„Naszą misją jest zapewnienie, że sztuczna inteligencja przyniesie korzyści całej ludzkości, i jesteśmy oddani wdrażaniu rygorystycznych protokołów bezpieczeństwa na każdym etapie naszego procesu” – powiedział w środę dyrektor ds. strategii Jason Kwon w liście do prawodawców.
Firma OpenAI oświadczyła, że zamierza w ciągu najbliższych lat nadal dotrzymywać obietnicy przeznaczania 20% swoich zasobów obliczeniowych na badania związane z bezpieczeństwem.
Firma w swoim liście zobowiązała się również, że nie będzie egzekwować umów o niedyskredytowaniu obecnych i byłych pracowników, z wyjątkiem konkretnych przypadków wzajemnego porozumienia o niedyskredytowaniu. Poprzednie limity OpenAI dotyczące pracowników, którzy odeszli z firmy, zostały poddane krytyce z powodu ich wyjątkowo restrykcyjnego charakteru. OpenAI poinformowało od tego czasu, że zmieniło swoją politykę.
Altman później rozwinął tę strategię w mediach społecznościowych.
Kilka szybkich aktualizacji dotyczących bezpieczeństwa w OpenAI:
jak już mówiliśmy w lipcu ubiegłego roku, zobowiązaliśmy się przeznaczyć co najmniej 20% zasobów obliczeniowych na działania związane z bezpieczeństwem w całej firmie.
nasz zespół współpracuje z amerykańskim Instytutem Bezpieczeństwa Sztucznej Inteligencji w celu zawarcia umowy, na mocy której zapewniamy…
— Sam Altman (@sama) 1 sierpnia 2024 r.
„Nasz zespół współpracuje z US AI Safety Institute nad umową, na mocy której zapewnimy wczesny dostęp do naszego kolejnego modelu podstawowego, abyśmy mogli wspólnie rozwijać naukę dotyczącą ocen AI” – napisał na łamach X.
Kwon w swoim liście wspomniał również o niedawnym utworzeniu komisji ds. bezpieczeństwa, która obecnie dokonuje przeglądu procesów i zasad OpenAI.
W ostatnich miesiącach OpenAI stanęło w obliczu szeregu kontrowersji wokół swojego zaangażowania w bezpieczeństwo i możliwości wypowiadania się pracowników na ten temat. Kilku kluczowych członków zespołów ds. bezpieczeństwa, w tym były współzałożyciel i główny naukowiec Ilya Sutskever, zrezygnowało, podobnie jak inny lider zespołu firmy zajmujący się oceną długoterminowych zagrożeń dla bezpieczeństwa, Jan Leike, który publicznie wyraził obawy, że firma stawia rozwój produktów ponad bezpieczeństwo.
(Poza nagłówkiem, artykuł ten nie był edytowany przez zespół NDTV i został opublikowany za pośrednictwem kanału syndykowanego.)