21 lekcji na XXI wiek. Yuval Noah Harari
Читать онлайн книгу.presją? Czy dobrze pracuję w zespole?
Może się zdarzyć, że jakaś dziewczyna wybierze studia prawnicze, ponieważ ma niewłaściwe wyobrażenie na temat własnych umiejętności i jeszcze bardziej zniekształconą wizję tego, z czym w rzeczywistości wiąże się bycie prawnikiem (wcale nie trzeba przez cały dzień wygłaszać patetycznych przemówień ani krzyczeć: „Sprzeciw, Wysoki Sądzie!”). Tymczasem jej przyjaciółka postanawia spełnić swoje marzenie z dzieciństwa i pójść na studia artystyczne, na których chce się uczyć zawodowo tańca baletowego, mimo że nie ma odpowiedniej do tego budowy kości, brakuje jej też koniecznej dyscypliny. Po latach obie kobiety bardzo żałują swych decyzji. W przyszłości będziemy mogli oprzeć się na Google’u, który będzie podejmował takie decyzje za nas. Google będzie mógł mi powiedzieć, że studia na wydziale prawa lub w szkole baletowej będą dla mnie stratą czasu – a jednocześnie, że mógłbym zostać znakomitym (i bardzo szczęśliwym) psychologiem albo hydraulikiem58.
Z chwilą gdy sztuczna inteligencja stanie się lepsza od nas w podejmowaniu decyzji w sprawie naszej kariery, a może nawet naszych związków, będzie się musiało zmienić nasze pojęcie ludzkości i życia. Przywykliśmy myśleć o życiu jako o dramacie podejmowania decyzji. Demokracja liberalna i kapitalizm wolnorynkowy traktują jednostkę jako niezależny podmiot, który nieustannie dokonuje wyborów dotyczących świata. Wszelkie utwory narracyjne – czy będą to sztuki Szekspira, powieści Jane Austen czy tandetne hollywoodzkie komedie – zazwyczaj obracają się wokół bohatera, który musi podjąć jakąś wyjątkowo ważną decyzję. Być albo nie być? Posłuchać żony i zabić Dunkana czy posłuchać głosu sumienia i oszczędzić starego króla? Wyjść za pana Collinsa czy za pana Darcy’ego? Na dramacie, jakim jest podejmowanie decyzji, skupiona jest również chrześcijańska i muzułmańska teologia, które twierdzą, że wieczne zbawienie lub potępienie zależy od dokonania właściwego wyboru.
Co stanie się z tą wizją życia, gdy coraz bardziej będziemy się zdawać na podpowiedzi sztucznej inteligencji? Obecnie Netflixowi powierzamy rekomendowanie nam filmów, a Mapom Google decydowanie, w którą stronę skręcić na skrzyżowaniu. Z chwilą jednak gdy zaczniemy polegać na SI w zakresie wyboru studiów, pracy, żony czy męża, ludzkie życie przestanie być dramatem podejmowania decyzji. Demokratyczne wybory i wolny rynek nie będą miały wielkiego sensu. Podobnie jak większość religii i dzieł literackich. Wyobraźmy sobie Annę Kareninę, która bierze do ręki smartfona i pyta facebookowy algorytm, czy powinna nadal być żoną Karenina, czy uciec z dziarskim hrabią Wrońskim. Albo pomyślmy o swojej ulubionej sztuce Szekspira, w której wszystkie najważniejsze decyzje podejmuje algorytm Google’a. Życie Hamleta i Makbeta będzie znacznie szczęśliwsze, ale jakiego właściwie rodzaju to będzie życie? Czy mamy modele pozwalające je rozumieć?
Gdy władza przejdzie z ludzi na algorytmy, możemy przestać rozumieć świat jako przestrzeń, w której niezależne jednostki starają się podejmować właściwe wybory. Zamiast tego możemy zacząć postrzegać cały wszechświat jako przepływ danych, uważając, że organizmy to nic więcej niż biochemiczne algorytmy, i wierząc, że powołaniem ludzkości w kosmosie jest stworzenie wszechogarniającego systemu przetwarzania danych – a następnie włączenie się weń. Już dzisiaj stajemy się maleńkimi chipami wewnątrz gigantycznego systemu przetwarzania danych, którego nikt tak do końca nie rozumie. Codziennie za pośrednictwem e-maili, tweetów i artykułów przyswajam niezliczone bity danych, przetwarzam te dane i przekazuję z powrotem nowe bity za pośrednictwem kolejnych e-maili, tweetów i artykułów. Tak naprawdę nie wiem, gdzie jest moje miejsce w ogólnym planie ani w jaki sposób moje bity danych łączą się z bitami wytwarzanymi przez miliardy innych ludzi i komputerów. Nie mam czasu się tego dowiadywać, ponieważ jestem za bardzo zajęty odpowiadaniem na te wszystkie e-maile.
Ktoś mógłby zaprotestować, mówiąc, że algorytmy nigdy nie będą w stanie podejmować za nas ważnych decyzji, ponieważ takie decyzje zazwyczaj dotyczą wymiaru etycznego, a algorytmy nie rozumieją etyki. Nie ma jednak powodu, by zakładać, że algorytmy nie okażą się lepsze od przeciętnego człowieka nawet w etyce. Już dzisiaj, gdy smartfony i pojazdy autonomiczne podejmują decyzje, które niegdyś uchodziły za zarezerwowane dla ludzi, urządzenia te zaczynają borykać się z tymi samymi problemami etycznymi, którymi przez całe tysiąclecia zadręczali się ludzie.
Załóżmy na przykład, że tuż przed poruszający się drogą samochód autonomiczny wyskakuje dwoje dzieci goniących piłkę. Na podstawie przeprowadzonych błyskawicznie obliczeń algorytm kierujący samochodem dochodzi do wniosku, że jedynym sposobem uniknięcia potrącenia tej dwójki dzieciaków jest gwałtowny skręt na przeciwny pas i zaryzykowanie kolizji z nadjeżdżającą ciężarówką. Algorytm oblicza, że w takiej sytuacji prawdopodobieństwo śmierci właściciela samochodu – który śpi smacznie na tylnym siedzeniu – wynosi 70 procent. Co powinien zrobić algorytm?59
Filozofowie przez całe tysiąclecia spierali się o takie „dylematy wagonika” (tak się je nazywa, ponieważ podręcznikowe przykłady we współczesnych filozoficznych debatach odwołują się nie do samochodu autonomicznego, lecz do wagonika kolejki, który wymknął się spod kontroli i pędzi w dół po torach60. Jak dotąd ich argumenty miały żenująco niewielki wpływ na rzeczywiste zachowanie, ponieważ w sytuacji kryzysowej ludzie zbyt często zapominają o swych filozoficznych poglądach i kierują się po prostu emocjami oraz pierwotnym instynktem.
Jeden z najokropniejszych eksperymentów w dziejach nauk społecznych przeprowadzono w grudniu 1970 roku na grupie studentów Princeton Theological Seminary, którzy przygotowywali się do tego, by zostać pastorami Kościoła prezbiteriańskiego. Każdemu z nich polecono, by szybko udał się do odległej sali i wygłosił tam wykład na temat przypowieści o miłosiernym Samarytaninie. Opowiada ona o tym, jak pewien Żyd podróżujący z Jerozolimy do Jerycha został obrabowany i pobity przez bandytów, którzy następnie zostawili go na poboczu drogi, by tam skonał. Po jakimś czasie przechodzili tamtędy kapłan i lewita, obaj jednak nie zareagowali na jego widok. Natomiast Samarytanin – członek sekty, którą Żydzi mieli w wielkiej pogardzie – widząc bliźniego w potrzebie, zatrzymał się, zaopiekował się nim i ocalił mu życie. Morał z tej przypowieści jest taki, że człowieka należy oceniać na podstawie jego faktycznego zachowania, a nie przynależności do konkretnej religii.
Jeden po drugim gorliwi młodzi seminarzyści pędzili zatem do wskazanej sali, zastanawiając się po drodze, jak by tu najlepiej wyjaśnić morał płynący z przypowieści o miłosiernym Samarytaninie. Na trasie, którą w takim pośpiechu pokonywali, twórcy eksperymentu posadzili jednak nędznie ubranego człowieka. Siedział on w drzwiach z pochyloną głową i zamkniętymi oczami – wyglądał, jakby osunął się na ziemię z braku sił. W chwili gdy każdy z niczego niepodejrzewających seminarzystów mijał go pospiesznie, „cierpiący” kaszlał i wydawał z siebie jęki. Większość seminarzystów nawet się nie zatrzymała, by spytać, co mu dolega, nie mówiąc o tym, by miała mu zaoferować pomoc. Napięcie emocjonalne wywołane koniecznością szybkiego dotarcia do wyznaczonej sali brało górę nad moralnym obowiązkiem niesienia pomocy cierpiącemu obcemu człowiekowi61.
Ludzkie emocje biorą górę nad teoriami filozoficznymi w niezliczonych innych sytuacjach. Sprawia to, że etyczna i filozoficzna historia świata jest dość przygnębiającą opowieścią o cudownych ideałach i bynajmniej nie idealnym postępowaniu. Ilu chrześcijan rzeczywiście nadstawia drugi policzek, ilu buddystów rzeczywiście wznosi się ponad egoistyczne obsesje i ilu żydów rzeczywiście kocha bliźnich jak siebie samych? Po prostu w taki sposób dobór naturalny ukształtował homo sapiens. Podobnie jak wszystkie ssaki, homo sapiens używa emocji
58
J. Delman,
59
J.-F. Bonnefon, A. Shariff, I. Rawhan,
60
Ch.W. Bauman et al.,
61
J.M. Darley, D.C. Batson,