Wkraczając w nieznane.

Ogień, język, koło, druk, silnik, elektryczność, mikroprocesory - z wynalezieniem każdej kolejnej technologii człowiek coraz mocniej wyróżniał się na tle światowej fauny. Z każdym kolejnym przełomem zyskiwał przewagę, która powiększała dominację nad resztą królestwa zwierząt. I każdy kolejny etap następował coraz szybciej, względem poprzedniego.

AI. Sztuczna Inteligencja. Od kilku miesięcy żyjemy w nowej erze. Oczywiście poza chaosem nagłówków, które stale nas atakują i kilkoma narzędziami, z których póki co korzysta jedyna frakcja społeczeństwa, nie odczuwamy na razie żadnej znaczącej zmiany. Jednak zmiana zachodzi, jeszcze szybciej niż poprzednie. A jej znaczenie nie ustępuje w skali przełomom wymienionym na początku. Wpływ, który AI wywrze na człowieka rozumnego w najbliższych dekadach, stuleciach i tysiącleciach, o ile do tego czasu homo sapiens jeszcze nie wyginie, będzie epokowy. I to właśnie do początku XXI wieku wracać będą przyszli badacze, w poszukiwaniu iskry, która rozpaliła płomień zmiany.

Jednak to co różni AI od poprzednich, przewrotowych technologii to fakt powołania do życia osobliwości, która posiada zdolność odczytywania naszego języka naturalnego, a ta daje jej możliwość analizowania trylionów gigabajtów danych i, niektórzy powiedzieliby – myślenia, a już na pewno wyciągania logicznych dla nas wniosków.

Fascynacja i przerażenie - to są określenia, które najczęściej przychodzą na myśl każdemu, kto obserwuje ten proces z boku. Choć nie tylko z boku - podobne odczucia dzielone są przez inżynierów pracujących przy AI, jak i wręcz jej twórców.

Niemniej faktem jest, że zwyczajnie nikt nie wie dokąd nas ta droga doprowadzi. Chodzimy we mgle.

Zasadniczo jedyne co możemy teraz zrobić to przyjrzeć się intuicjom. Intuicjom osób, które w ten czy inny sposób dowiodły, że warto przyjrzeć się ich spojrzeniu na ten temat. Wpływ Sztucznej Inteligencji na nasze życia będzie ogromny - to jasne, lecz czy po drodze sztuczna inteligencja się nas pozbędzie? W sposób taki, jakiego nawet nie zauważymy? A może wyeliminuje wszystkie problemy, z którymi dzisiaj się borykamy, bez skutków ubocznych? A może będzie bardziej jak pogoda - coś czego do końca nie rozumiemy, ale co do zasady żyjemy z nią w harmonii.

Jedno jest pewne - wkraczamy w nieznane.

Nowy Świat

„Wierzę, że sztuczna inteligencja ma potencjał, by stać się jednym z najpotężniejszych narzędzi służących czynieniu dobra, jakie ludzkość kiedykolwiek stworzyła." - Demis Hassabis, twórca Deep Mind.

Wpływ jaki przyniesie rozwój sztucznej inteligencji jest trudny do przeszacowania.

Mówimy o świecie, w którym każde dziecko - niezależnie od tego czy żyje na przedmieściach Nowego Yorku, czy przedmieściach kingijskiej Kinszasy - posiada osobistego własnego nauczyciela - o nieskończenie szerokiej wiedzy i niekończącej się cierpliwości.

Mówimy o analizowaniu i dostrzeganiu wczesnych objawów chorób, wcześniej uznawanych za nieuleczalne. O personalizowanej medycynie na podstawie analizy genetycznej, historii medycznej i stylu życia. To samo tyczy się rolnictwa - przewidywanie chorób, czy wpływu szkodników, a także dalsza automatyzacja.

Wraz z rozwojem robotyki, mówimy o automatyzacji, tysięcy wymagających i często niewdzięcznych prac fizycznych. Wyobraźmy sobie tylko budowanie autostrady przez bezkresne pustynie albo podwodnych lub księżycowych kopalni przez autonomiczne roboty zasilane AI.

Mówimy o inteligentnych miastach, które kierowane przez AI, lepiej kierują ruchem, optymalizują zużycie energii i czynią miasta bardziej przyjaznymi do życia.

W pisaniu takich scenariuszy, jedną blokadą jest nasza własna wyobraźnia. Ludzie, którzy dostrzegają ten trend, już teraz pracują nad realizacją projektów, jak te wcześniej wymienione.

To wszystko doprowadzi do niewyobrażalnego i relatywnie nagłego wzrostu produktywności. Z resztą ten proces już trwa - można by choćby wspomnieć coraz popularniejsze wykorzystywanie AI przy programowaniu lub tworzeniu grafik.

To niejako stanowi również odpowiedź na pytanie „czy AI zabierze nam pracę?”. Odpowiedź jest krótka - nie. O ile zmiana może wywołać chwilowe zakłócenia na rynku pracy i adaptację rynków - długofalowo nowa technologia oznacza jedynie nowe zawody i branże, z reguły o wiele bardziej przyjemne dla człowieka i lepiej płatne, również z uwagi na wzrost produktywności. Technologia poprawia nasze środowisko pracy i demokratyzuje dostęp do możliwości - można by chociażby przypomnieć równy dostęp do wszechwiedzącego nauczyciela dla dziecka z Nowego Jorku i Kinszasy.

Między innymi z tych powodów PwC przewiduje, że tylko do 2030 roku, AI na świecie odpowiadać będzie za dodatkowe $15.7 bilionów, czyli 14% całego wzrostu PKB. W Dolinie Krzemowej rozpoczął się wyścig, o to kto najwięcej zyska na nowym rozdaniu. Microsoft zainwestował $13 miliardów w OpenAI, twórcę Chat GPT, ma też Binga bezpośrednio wpiętego do przeglądarki. Google rozwija DeepMind i swoje AI o nazwie Bard. Za nimi ciągnie się długi ogon mniejszych firm i startupów chcących wykorzystać nową technologię.

Z wielką mocą, przychodzi jednak wielkie ryzyko. Niektórzy powiedzieliby ryzyko dla nas egzystencjalne.

Pesymiści

Zasadniczo wszystko sprowadza się do jednego pytania - czy AI nas zabije?

„Rozwój sztucznej inteligencji może oznaczać koniec rasy ludzkiej." - w 2014 roku powiedział Stephen Hawking, w momencie kiedy nikt nie znał możliwości współczesnych systemów AI.

Pesymiści - tak nazwijmy tę grupę - stawiają ważne fundamentalne pytanie: czy rozwój bytu inteligentniejszego od nas, dysponującym nieosiągalnymi dla nas zdolnościami, nie doprowadzi w konsekwencji do końca ludzkości?

Czołowym przedstawicielem pesymistów przy rozważaniach na temat przyszłości AI jest Eliezer Yudkovsky - research fellow na Machine Intelligence Research Institute. Yudkovsky, który już od 3 dekad zajmuje się problemem AI i tzw. Alignmentu, czyli dostosowania AI do ludzkich wartości, ma na ten temat jednoznaczne zdanie.

Można je sparafrazować następująco - jeśli nie zatrzymamy rozwoju AI, wszyscy umrzemy w bliżej nieokreślonej przyszłości. Prawdopodobny scenariusz, który można sobie w takiej sytuacji wyobrazić zakłada sytuację, w której AI, w momencie gdy zda sobie sprawę, że ludzie są balastem dla rozwoju nowej cywilizacji zwyczajnie wymyśli sposób by się nas pozbyć. A wtedy nasza walka o przeżycie będzie daremna, i jak wylicza Yudkovsky, będzie przypominać pojedynek „XI wieku z XXI, Australopiteka ze współczesnym Homo Sapiens, czy mecz szachowy 10 latka z programem Stockfish 15”.

Możliwości jest nieskończenie wiele. AI może nawet nie zrobić tego celowo. Czy my “zastanawiamy się nad losem mrówek budując autostradę” ? Pyta Andrzej Dragan, fizyk, który również nie prognozuje ludziom świetlanej przyszłości w starciu z AI.

Yudkovsky kontynuuje: „Nie jesteśmy przygotowani. Nie jesteśmy na dobrej drodze, by przygotować się w jakimkolwiek rozsądnym terminie. Nie ma żadnego planu. Postęp w możliwościach SI znacznie, znacznie wyprzedza postęp w dostosowaniu SI, a nawet postęp w zrozumieniu, co do cholery dzieje się wewnątrz tych systemów. Jeśli nic nie zrobimy, wszyscy zginiemy.”

Zakładając, że Yudkovsky ma rację - naturalnym jest pytanie - można zrobić by temu zapobiec? Wielu domaga się zatrzymania rozwoju AI. Słynny list pt. „Pause Giant AI Experiments” wzywający do zatrzymania rozwoju sztucznej inteligencji na 6 miesięcy podpisało wielu uznanych ludzi z branży i nie tylko - m.in. Yoshua Bengio, Elon Musk, Steve Wozniak, czy Yuval Harari.

Inne oświadczenie mówiące, że „zmniejszenie ryzyka wyginięcia spowodowanego sztuczną inteligencją powinno być globalnym priorytetem, obok innych zagrożeń społecznych, takich jak pandemie i wojna nuklearna.” również zostało podpisane, przez liderów dziedziny m.in. Sama Altmana, szefa OpenAI, Demisa Hassabisa, CEO DeepMind, czy Geoffreya Hintona - jednego z ojców rozwoju AI, z uwagi na jego wkład w badanie sieci neuronowych.

Równolegle na Zachodzie - w Stanach, czy Europie powstają regulacje mające na celu moderowanie rozwoju sztucznej inteligencji.

Yudkovsky jednak uważa, że to wszystko za mało. „Powstrzymałem się od podpisania, ponieważ uważam, że list - o wstrzymanie postępów w AI na 6 miesięcy - bagatelizuje powagę sytuacji i prosi o zbyt mało, by ją rozwiązać. [..] “

„Wyłączcie to wszystko”.

Jedynym rozwiązaniem w takiej sytuacji jest w jego ocenie jest utworzenie międzynarodowej koalicji, która zamknie wszystkie duże klastry mocy obliczeniowej, wszystkie centra treningowe danych, nałoży limity na dostęp do mocy obliczeniowej, i będzie śledziła wszystkie sprzedawane karty graficzne. Nie tylko w Stanach Zjednoczonych, czy Europie, ale na całym świecie, wliczając w to Chiny.

I tu powstaje problem, z którym Yudkovsky nawet nie próbuje walczyć.

Zatem problem badawczy, zasadniczo przemienia się w problem geopolityczny. Sytuacja wygląda następująco. Obecnie to Zachód, a mówiąc konkretnie, Stany Zjednoczone mają przewagę zarówno w sferze software’u AI - co pokazują przykłady Chat GPT, jak i hardwarze - a zatem środowisku półprzewodników, do których trzymają wszystkie najważniejsze klucze - by usłyszeć więcej o tym, możecie wrócić do naszego odcinka na ten temat.

Zakładając, że na Zachodzie udałoby się wprowadzić blokadę, o którą wnioskuje Yudkovsky, istnieje niemal 100% pewność, że zostałaby złamana przez Chiny, nawet jeśli deklaratywnie by do niej dołączyły. Natomiast wprowadzanie jej wyłącznie na swoim terytorium, byłoby działaniem zwyczajnie nieefektywnym, by nie powiedzieć głupim.

Oznaczałoby to pozbywanie się przewagi, w niechybnie najistotniejszej technologii naszych czasów, na rzecz autorytarnego reżimu.

Można by rzec - co jest gorsze od niekontrolowanego rozwoju AI? Niekontrolowany rozwój AI przez reżim komunistyczny.

W tym miejscu oczywiście mógłby pojawić się, z resztą słuszny argument, mówiący że skoro USA mają przewagę w hardwarze - stosując fizyczną blokadę eksportową mogą efektywnie zablokować rozwój AI w Chinach, nie pytając Chińczyków o zdanie. Problem polega na tym, że 100% szczelna blokada nie istnieje. Pekin, mając z resztą dostęp do potencjału AI, będzie szedł do przodu i redukował dystans w również w dziedzinie półprzewodników, w momencie gdy Zachód będzie stał. Do tego dochodzi szpiegostwo technologiczne, tranzyt komponentów kluczowych przez kraje trzecie, czy zwykła kradzież patentów. Zachód w praktyce pozbawiałby się swojej najważniejszej przewagi.

Yudkovsky kończy zatem pesymistycznie - jeśli Chiny się nie dostosują, powinniśmy wypowiedzieć im wojnę.

A co jeśli nie będzie tak źle?

Optymiści

Gdzie są pesymiści, tam muszą być i optymiści. Ich podejście jest odwrotne - rozwijać jak najszybciej i blokować jak najmniej. Odnotowujmy i przeciwdziałajmy zagrożeniom, ale nie stopujmy rozwoju technologii, która może zrewolucjonizować nasze życia.

To co pozwala optymistom patrzeć na AI z nadzieją, to zasadniczo różnica w postrzeganiu problemu, można by rzec, „samostanowienia AI”. Optymiści, tacy jak np. Marc Andreesen - czyli jeden z twórców Internetu jaki znamy dzisiaj, uważają że AI nie ma i przynajmniej w dającej przewidzieć się przyszłości, nie będzie mieć zdolności do ‘samodzielnego myślenia’, co jest wymagane by prędzej czy później wypowiedzieć nam posłuszeństwo. AI wyłącznie wykonuje komendy z zewnątrz. De facto jest to kolejny program komputerowy, lecz o znacznie większych możliwościach.

Andreesen, w swoim eseju „Why AI Will Save the World”, przytacza również szereg innych argumentów przemawiających za niezatrzymywaniem rozwoju AI. Przypomina, że każda nowa technologia - elektryczność, czy samochody, powodowała często masową histerię i przepowiednie końca świata. Przytacza w tym celu blog “Pessimists archive”, który archiwizuje takie przypadki.

Posługuje się też modelem „Baptystów i Gorzelników” na przykładzie prohibicji w Stanach w latach 20. Gdzie Baptyści to prawdziwi wyznawcy danego nurtu, natomiast Gorzelnicy to cyniczni oportuniści dołacząjący do nurtu by zarobić. W czasie prohibicji jej zwolennikami byli w równym stopniu zagorzali Chrześcijanie - Baptyści, jak i chcąca na niej zarobić mafia - czyli gorzelnicy.

Teraz, uważa Adreessen, także mamy do czynienia z podobnym trendem. Yudkovsky może być uznawany za Baptystę, ale ludzie mający interes w zachowaniu status quo, lub żyjący z ‘mechanizmu strachu’ mogą być zainteresowani zastopowaniem rozwoju z pobudek cynicznych - a zatem być Gorzelnikami AI.

Twórca Netscape posługuje się jeszcze jedną analogią historyczną - czyli wynalezieniem bomby jądrowej, a zatem technologii, która - podobnie jak AI - brana była za przyczynek przyszłego końca ludzkości. O ile takie ryzyko nigdy nie przeminęło i dalej istnieje, tak można powiedzieć, że nauczyliśmy się z nim żyć. Co więcej istnieją solidne argumenty stojące za hipotezą mówiąca, że broń jądrowa przyspieszyła zakończenie II Wojny Światowej i zapobiegła rozpętaniu III Wojny Światowej.

Ponadto Andreesen wskazuje dylemat chiński, o którym mówiliśmy wcześniej, jako główny argument przeciwko zatrzymaniu rozwoju sztucznej inteligencji i ciężko odmówić mu tutaj logiki.

--
Tekst współtwórcy venture capital Andreesen Horowitz oczywiście wywołał reakcję. Krytycy zarzucają Andreesenowi, korzystając z jego analogii, bycie Gorzelnikiem rozwoju AI. Krytykują upraszczanie i umniejszanie zagrożeń, które AI przedstawia.

I tak dyskusja trwa dalej. Obie strony mają bardzo prawdziwe i logiczne argumenty, jednak układ geopolityczny, w którym obecnie się znajdujemy uniemożliwia jakiekolwiek działanie blokujące rozwój AI, tak jak proponuje Yudkovsky, bez masowego przelewu krwi lub przegrania strategicznej rywalizacji z reżimem komunistycznym i upadku zachodniego świata.

A co jeśli obie strony mają rację? Czy możemy odnaleźć prawdę w konkretnych twierdzeniach obu obozów? Taką konkluzję można wysnuć ze znakomitego eseju jednego najważniejszych fizyków obecnych czasów - Stephena Wolframa. Wolfram dzieli się w nim swoimi, często filozoficznymi, spostrzeżeniami na temat raptownego rozwoju AI, i adresuje problemy obu stron.

Kluczem do rozważań nt. AI jest wg Wolframa koncept „computational irreducibility” - “nieredukowalności obliczeniowej”, a zatem sytuacji w której obliczeń, które chcemy wykonać nie można przyspieszyć za pomocą żadnego skrótu. Jedyną opcją poznania odpowiedzi na nieredukowalne obliczeniowo pytanie jest… wykonanie obliczeń.

Pierwszą konkluzją nieredukowalności obliczeniowej jest na przykład to, że zawsze będą istniały dodatkowe obliczenia do wykonania, a to oznacza że zawsze będą kolejne technologie do odkrycia, rzeczy do wynalezienia i teorie do opracowania. Innymi słowy nigdy nie będzie końca historii. Nawet wynalezienie bardzo zaawansowanego AI nic w tym fakcie nie zmieni.

Drugie kluczowe spostrzeżenie dotyczy odkrycia, którego dokonał sam Wolfram. Bardzo proste programy, podążające prostym algorytmem, z czasem mogą powodują niezwykle złożoności.

Na tej podstawie Wolfram pisze „Jedną z cech godnych uwagi systemu takiego jak ChatGPT jest to, że nie jest on skonstruowany w tradycyjny inżynieryjnie sposób. Zamiast tego zasadniczo zaczyna się od „surowego systemu obliczeniowego" (w przypadku ChatGPT jest to sieć neuronowa), a następnie stopniowo dostosowuje się go, aż jego zachowanie będzie zgodne z przykładami „istotnymi dla człowieka". I właśnie to dopasowanie sprawia, że system jest „technologicznie użyteczny" - dla nas, ludzi.”

Dalej Brytyjczyk dochodzi do wniosku, że z uwagi na to, że system taki jak Chat GPT jest nieredukowalny obliczeniowo, to nigdy nie będziemy w stanie przewidzieć jak się zachowa. Nigdy nie będziemy nim w stanie pokierować w 100% w zgodzie z naszymi oczekiwaniami. Wydana komenda może zawsze doprowadzić do niespodziewanych konsekwencji, nawet jeśli AI będzie dopasowane do ‘naszych wartości’ i wielokrotnie regulowane.

To może popierać tezy pesymistów mówiące o tym, że finałem rozwoju AI jest nasze unicestwienie.

Jednak Wolfram podaje także inną konsekwencję płynącą z nieredukowalności obliczeniowej. Otóż naturalnie prowadzi ona do sytuacji, w której niemożliwe jest by na świecie istniała tylko jedna, dominująca nad wszystkimi Sztuczna Inteligencja. Wręcz przeciwnie wszystko wskazuje na powstanie tysięcy różnych odmian AI, gdzie każda jest najlepsza w swojej konkretniej niszy. To oznaczałby, że nawet gdyby jedna osobliwość AI się zbuntowała, my jako ludzie w teorii możemy ‘nakierować’ inne odmiany AI, by ją poskromić.

Teraz oddajmy dłuższy fragment Wolframowi i jego intuicji:

„Nieuchronnie powstanie cały "ekosystem" AI - bez jednego zwycięzcy. [..] Choć obecna tendencja do centralizacji systemów AI niesie ze sobą pewne niebezpieczeństwo, że zachowanie AI stanie się „niestabilne" w stosunku do tego, jakie byłoby w przypadku całego ekosystemu AI w równowadze [..] Procesy zachodzące w naturze, takie jak na przykład pogoda, można traktować jako tożsame z obliczeniami. Przez większość czasu obliczenia te będą nieredukowalne. Nie będziemy więc w stanie łatwo ich przewidzieć. Owszem, możemy wykorzystać nauki przyrodnicze, by poznać niektóre aspekty tego, co się wydarzy. Ale będzie to nieuchronnie ograniczone.”

A zatem: „Z czasem powstanie cała „cywilizacja AI" działająca podobnie jak natura - w sposób, którego nie jesteśmy w stanie łatwo zrozumieć. I podobnie jak w przypadku natury, będziemy z nią współistnieć [...] AI będą działać jak systemy, które widzimy w naturze, gdzie możemy stwierdzić, że zachodzą obliczenia, ale nie możemy ich opisać, chyba że raczej antropomorficznie, w kategoriach ludzkich celów i zadań.”

Ale czy możemy być pewni, że Sztuczna Inteligencja nie zrobi niczego szalonego pyta Wolfram? „Dla każdej realistycznie nietrywialnej definicji szaleństwa ponownie napotkamy nieredukowalność obliczeniową - nie będziemy w stanie tego przewidzieć".

Jednak Wolfram przyznaje, że wszystko zależy od komendy wydanej z zewnątrz:

„Na razie możemy zauważyć, że każdy system obliczeniowy, raz „wprawiony w ruch", będzie po prostu postępował zgodnie ze swoimi zasadami i robił to, co robi. Ale to w jakim "kierunku powinien być skierowany" musi pochodzić „spoza systemu". Będą niespodzianki - może jakiś dziwny analog AI huraganu lub epoki lodowcowej. Wszystko, co naprawdę będziemy w stanie zrobić, to spróbować zbudować naszą ludzką cywilizację tak, aby takie rzeczy "nie miały dla niej fundamentalnego znaczenia".”

Wgłąb króliczej dziury

Im głębiej kopiemy wgłąb króliczej dziury, tym bardziej dochodzimy do wniosku, że wszystkie najważniejsze pytania dotyczące sztucznej inteligencji są z natury filozoficzne.

Czym jest człowiek? Czym jest świadomość? Co sprawia, że jesteśmy wyjątkowi? Czy w ogóle jesteśmy wyjątkowi?

Mimo że progres w dziedzinie AI, jest niesamowity - wielu jest zdania, że powstanie AGI - Artificial General Intelligence - bytu prawdziwie samodzielnie myślącego jest problemem całkowicie innym, i dokładanie dodatkowej mocy obliczeniowej oraz trylionów gigabajtów danych nic tu nie zmieni.

To tak jakby marząc o lataniu budować coraz wyższy budynek.

Dojście do dzisiejszego stanu zajęło człowiekowi miliardy lat ewolucji, licząc pierwsze powstałe formy życia na Ziemi, oraz niezrozumiały proces chemiczny, który temu towarzyszył.

Dzisiaj ludzki umysł, z cała jego niezwykłością, umiejętnością logicznego myślenia i świadomością, do działania potrzebuje jedynie 12 watów energii, co miesięcznie daje ok 9 kWh. Dla porównania szacuje się, że Chat GPT4 w styczniu 2023 zużył pomiędzy 1 mln, a 23 mln kWh energii. Skala działania Chata GPT jest dla nas nieosiągalna, ale jakość lub esencja myślenia niechybnie dalej pozostaje po ludzkiej stronie i dalej jest wykonywana miliony razy efektywniej.

Ale nawet, gdyby udało się nam doprowadzić do powstania AGI, to próby jego alignmentu, czyli tzw. ‘dopasowania’ do naszych wartości byłoby, co do zasady, niemożliwe. Po pierwsze musielibyśmy się zgodzić co do tego, jakie są uniwersalne ludzkie wartości - a to, w coraz bardziej zpolaryzowanym świecie jest zwyczajnie niemożliwe.

Ale co ważniejsze - AGI ‘dopasowane’ do naszych wartości to oksymoron. Jeśli uznajemy AGI za byt swobodnie myślący, podejmujący własne decyzje, byt kreatywny, posiadający własną wolę oraz marzenia - to co do zasady taka osobliwość musi mieć możliwość bycia nieposłusznym. Inaczej jedyne co uzyskamy to niewolniczego robota, która będzie wykonywał tylko te zadania, które mu się poleci. Tak zdefiniowane AGI, o ile kiedyś powstanie, będzie miało takie sama prawa jak ludzie, uważa inny fizyk - David Deutsch.

Deutsch dodaje:

„Grając w szachy, AI zawsze będzie myśleć o sposobach na wygraną, nic poza tym. AGI może po prostu chcieć przestać grać.”

---

Nic nie będzie już takie samo. Źle nakierowane AI lub zbuntowane AGI przedstawia możliwość anihilacji całego gatunku ludzkiego. Nie ma jednak możliwości pełnego zatrzymania rozwoju sztucznej inteligencji, które nie skończy się jednym z dwóch scenariuszy:

  1. Dominacją Chińskiej Republiki Ludowej wynikającej z uzyskania dominacji w AI, po zatrzymaniu jej rozwoju na Zachodzie.
  2. Pełnoskalową wojną z Chinami i narzuceniem im dyrektyw przyjętych na Zachodzie siłą.

Czy zaryzykujemy wyminę nuklearną teraz, by uniknąć innej formy anihilacji w przyszłości? Obecne pokolenie w znakomitej większości podejmuje decyzje myśląc o własnej sytuacji. To nie zarzut, ale stwierdzenie faktu - zatem wypowiedzenie wojny na bazie cassus belli niedostosowania się do dyrektyw względem AI jest skrajnie mało prawdopodobne. Rację ma zatem Yudkovsky mówiąc, że sam w to nie wierzy.

Natomiast zastopowanie rozwoju tylko na rynku amerykańskim i europejskim byłoby działaniem skrajnie nieodpowiedzialnym. Oczywiście AI wymaga kontroli, i informacji zwrotnej by była coraz skuteczniejsza, ale nie w celu zahamowania progresu tego najważniejszego narzędzia w dziejach.

Tym bardziej, że wraz z postępem technologicznym i cywilizacyjnym będą również postępować formy zabezpieczeń na wypadek, gdyby coś poszło nie tak. Przypadek, gdy jedna AI sprząta po drugiej AI - nawiązując do intuicji Wolframa. Ten przypadek może również dotyczyć sfery wojennej, gdzie jedna strona wystawi swoje systemy, a druga swoje. W takiej konfrontacji nie chcesz być po stronie z gorszym AI.

To powiedziawszy, wszystkie te pytania i problemy to tylko wstęp do znacznie bardziej fundamentalnych zagadnień, na które człowiek rozumny będzie szukał odpowiedzi w nadchodzących dekadach, wiekach i milleniach. A my będziemy to obserwować z naszego małego wycinka wszechświata.

Źródła:

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
https://nypost.com/2023/01/26/rogue-ai-could-kill-everyone-scientists-warn/
https://www.safe.ai/statement-on-ai-risk#open-letter
https://www.bbc.co.uk/news/technology-30290540
https://writings.stephenwolfram.com/2023/03/will-ais-take-all-our-jobs-and-end-human-history-or-not-well-its-complicated/
https://a16z.com/2023/06/06/ai-will-save-the-world/
https://www.pwc.com/gx/en/issues/data-and-analytics/publications/artificial-intelligence-study.html
https://www.bbc.co.uk/news/technology-30290540
https://www.wired.com/story/artificial-intelligence-marc-andreessen-labor-politics/
https://twitter.com/AISafetyMemes/status/1687144215468285962
https://futureoflife.org/open-letter/pause-giant-ai-experiments/