Londyn:
Nowe naukowe zrozumienie i techniki inżynieryjne zawsze robiły wrażenie i przerażały. Bez wątpienia będą to robić nadal. OpenAI niedawno ogłosiło, że przewiduje „superinteligencję” – AI przewyższająca ludzkie możliwości – w tej dekadzie. Jest to odpowiednio budowanie nowego zespołui przeznaczając 20% swoich zasobów obliczeniowych na zapewnienie, że zachowanie takich systemów AI będzie zgodne z wartościami ludzkimi.
Wygląda na to, że nie chcą, aby zbuntowane sztuczne superinteligencje prowadziły wojnę z ludzkością, jak w thrillerze science fiction Jamesa Camerona z 1984 r. Terminator (niepokojąco, terminator Arnolda Schwarzeneggera zostaje wysłany w przeszłość z 2029 r.). OpenAI wzywa najlepszych badaczy i inżynierów uczenia maszynowego, aby pomogli im rozwiązać ten problem.
Ale czy filozofowie mogą mieć coś do wniesienia? Bardziej ogólnie, czego można oczekiwać od wiekowej dyscypliny w nowej, zaawansowanej technologicznie erze, która właśnie się pojawia?
Aby zacząć odpowiadać na to pytanie, warto podkreślić, że filozofia była instrumentalna dla AI od samego początku. Jedną z pierwszych historii sukcesu AI była historia z 1956 r. program komputerowyzwany Teoretykiem Logiki, stworzony przez Allena Newella i Herberta Simona. Jego zadaniem było dowodzenie twierdzeń przy użyciu propozycji z Principia Mathematica, trzytomowego dzieła z 1910 roku autorstwa filozofów Alfreda Northa Whiteheada i Bertranda Russella, którego celem było zrekonstruowanie całej matematyki na jednym logicznym fundamencie.
Rzeczywiście, wczesne skupienie się na logice w AI wiele zawdzięcza podstawowym debatom prowadzonym przez matematyków i filozofów.
Jednym ze znaczących kroków było opracowanie nowoczesnej logiki przez niemieckiego filozofa Gottloba Fregego pod koniec XIX wieku. Frege wprowadził do logiki użycie zmiennych ilościowych – zamiast obiektów, takich jak ludzie. Jego podejście umożliwiło nie tylko powiedzenie na przykład „Joe Biden jest prezydentem”, ale także systematyczne wyrażanie takich ogólnych myśli, jak „istnieje X takie, że X jest prezydentem”, gdzie „istnieje” jest kwantyfikatorem, a „X” jest zmienną.
Inni ważni współautorzy w latach 30. XX wieku to urodzony w Austrii logik Kurt Gödel, którego twierdzenia zupełności i niezupełności dotyczą granic tego, co można udowodnić, oraz „dowód nieokreśloności prawdy” polskiego logika Alfreda Tarskiego. Ten ostatni wykazał, że „prawda” w żadnym standardowym systemie formalnym nie może być zdefiniowana w ramach tego konkretnego systemu, tak że na przykład prawda arytmetyczna nie może być zdefiniowana w ramach systemu arytmetyki.
Wreszcie abstrakcyjna koncepcja maszyny liczącej, opracowana w 1936 roku przez brytyjskiego pioniera Alana Turinga, czerpała z tego rozwoju i wywarła ogromny wpływ na wczesną teorię sztucznej inteligencji.
Można jednak powiedzieć, że nawet jeśli takie dobry staromodny symboliczna sztuczna inteligencja była zadłużona w wysokiej filozofii i logice, sztuczna inteligencja „drugiej fali”oparta na głębokim uczeniu się, wywodzi się bardziej z osiągnięcia inżynierii betonu związane z przetwarzaniem ogromnych ilości danych.
Jednak filozofia również odegrała tu rolę. Weźmy duże modele językowe, takie jak ten, który napędza ChatGPT, który produkuje tekst konwersacyjny. Są to ogromne modele, z miliardami, a nawet bilionami parametrów, trenowane na ogromnych zbiorach danych (zwykle obejmujących znaczną część Internetu). Ale w swej istocie śledzą – i wykorzystują – statystyczne wzorce użycia języka. Coś bardzo podobnego do tej idei został wyartykułowany przez austriackiego filozofa Ludwiga Wittgensteina w połowie XX wieku: „znaczeniem słowa” – powiedział – „jest jego użycie w języku”.
Ale współczesna filozofia, a nie tylko jej historia, jest istotna dla AI i jej rozwoju. Czy LLM mógłby naprawdę zrozumieć język, który przetwarza? Czy mógłby osiągnąć świadomość? To są głęboko filozoficzne pytania.
Nauka do tej pory nie była w stanie w pełni wyjaśnić, w jaki sposób świadomość powstaje z komórek w ludzkim mózgu. Niektórzy filozofowie uważają nawet, że jest to tak „trudny problem”, że poza zasięgiem naukii może wymagać pomocy filozofii.
W podobnym duchu możemy zapytać, czy AI generująca obrazy może być naprawdę kreatywna. Margaret Boden, brytyjska kognitywistka i filozofka AI, twierdzi, że chociaż AI będzie w stanie produkować nowe idee, będzie trudno je ocenić jak to robią ludzie kreatywni.
Ona również przewiduje że tylko architektura hybrydowa (neuro-symboliczna) – taka, która wykorzystuje zarówno techniki logiczne, jak i głęboka nauka z danych – osiągniemy sztuczną inteligencję ogólną.
Wartości ludzkie
Wracając do zapowiedzi OpenAI, ChatGPT, zapytany o rolę filozofii w erze sztucznej inteligencji, zasugerował nam, że (między innymi) „pomaga ona zapewnić, że rozwój i wykorzystanie sztucznej inteligencji są zgodne z ludzkimi wartościami”.
W tym duchu być może możemy zaproponować, że jeśli dostosowanie AI jest poważnym problemem, za jaki uważa je OpenAI, to nie jest to tylko problem techniczny, który powinni rozwiązać inżynierowie lub firmy technologiczne, ale także społeczny. Będzie to wymagało wkładu filozofów, ale także socjologów, prawników, decydentów, użytkowników obywatelskich i innych.
Rzeczywiście wiele osób martwi się o rosnąca potęga i wpływy firm technologicznych i ich wpływu na demokrację. Niektórzy twierdzą, że potrzebujemy zupełnie nowego sposobu myślenia o AI – biorąc pod uwagę podstawowe systemy wspierające tę branżę. Brytyjski adwokat i autor Jamie Susskind argumentował na przykład, że nadszedł czas, aby zbudować „republika cyfrowa„– taki, który ostatecznie odrzuca ten sam system polityczny i ekonomiczny, który dał firmom technologicznym tak duży wpływ.
Na koniec zadajmy sobie krótkie pytanie, jak AI wpłynie na filozofię? Logika formalna w filozofii faktycznie sięga czasów starożytnych prac Arystotelesa. W XVII wieku niemiecki filozof Gottfried Leibniz zasugerował, że pewnego dnia możemy mieć “Kalkulator” – maszynę liczącą, która pomagałaby nam w quasi-wyroczni znajdować odpowiedzi na pytania filozoficzne i naukowe.
Być może zaczynamy teraz realizować tę wizję, a niektórzy autorzy opowiadają się za „filozofia obliczeniowa” który dosłownie koduje założenia i wyciąga z nich konsekwencje. To ostatecznie pozwala na faktyczne i/lub zorientowane na wartości oceny wyników.
Na przykład, projekt PolyGraphs symuluje efekty udostępniania informacji w mediach społecznościowych. Następnie można to wykorzystać do obliczeniowego rozwiązania kwestii, w jaki sposób powinniśmy formułować nasze opinie.
Nie ulega wątpliwości, że postęp w dziedzinie sztucznej inteligencji dał filozofom wiele do myślenia; być może nawet zaczął udzielać pewnych odpowiedzi.
(Autor:Anthony GraylingProfesor filozofii, Northeastern University w Londynie I Brian Piłkaprofesor nadzwyczajny filozofii AI i etyki informacji, Northeastern University w Londynie)
(Oświadczenie informacyjne:Brian Ball otrzymuje fundusze od British Academy, a wcześniej był wspierany przez Royal Society, Royal Academy of Engineering i Leverhulme Trust. Anthony Grayling nie pracuje, nie konsultuje, nie posiada udziałów ani nie otrzymuje funduszy od żadnej firmy ani organizacji, która mogłaby odnieść korzyści z tego artykułu, i nie ujawnił żadnych istotnych powiązań poza swoim stanowiskiem akademickim)
Niniejszy artykuł został przedrukowany z Rozmowa na licencji Creative Commons. Przeczytaj oryginalny artykuł.