Tradycjonaliści mogą wahać się przed przyjęciem terminu „sztuczna inteligencja”, kwestionując potrzebę posiadania komputera, gdy istnieje maszyna do pisania, podczas gdy pragmatycy z łatwością akceptują możliwości AI. Tymczasem futurolodzy zastanawiają się nad jej potencjalnym wpływem na nasze społeczeństwo. Matematyk i ekonomista Leopold Aschenbrenner, wcześniej związany z OpenAI, opublikował 165-stronicową prognozę, w której porównuje wpływ AI do broni nuklearnej, sugerując globalną dominację liderów AI. Przestrzega on przed przyszłością, w której superinteligencja może przejąć kontrolę nad ludźmi.
Aschenbrenner, który rozpoczął studia w wieku 15 lat, był odpowiedzialny za ocenę ryzyka technologicznego w OpenAI, liderze rozwoju sztucznej inteligencji. Na jego zwolnienie, oficjalnie za ujawnienie tajemnic, mogły mieć wpływ jego ponure prognozy i apele o regulowane badania.
Prognozuje on, że do 2027 r. sztuczna inteligencja dorówna ludzkiej inteligencji, a wkrótce potem ją przewyższy, prowadząc do etapu, w którym „czarna skrzynka” sztucznej inteligencji stanie się dla nas niezgłębiona – niektórzy uważają, że scenariusz ten jest bliski. Rozważmy superinteligencję z dostępem do całej ludzkiej wiedzy i legionem robotycznych pomocników, szybko rozwijającą się dzięki integracji sztucznej inteligencji, wymykającą się spod ludzkiej kontroli. Taka superinteligencja mogłaby potencjalnie przeniknąć do dowolnego systemu wyborczego, wojskowego lub informacyjnego, a nawet opracować broń biologiczną, wykorzystując ludzi jako pełnomocników do realizacji swoich projektów.
Reakcja łańcuchowa
Działania wojenne z udziałem mechanicznych żołnierzy i ogromnych rojów dronów to dopiero początek. Wyobraźmy sobie drony wielkości komara wyposażone w truciznę lub niewykrywalną broń nuklearną. Alternatywnie, rozważmy nieprzenikniony system obrony przeciwrakietowej. Aschenbrenner uważa, że dzisiejsze działania wojenne będą wkrótce postrzegane jako tak przestarzałe, jak taktyka kawalerii z XIX wieku.
Sytuacja ta przypomina rozwój bomby atomowej. Leo Szilard, protegowany Einsteina i fizyk mieszkający w Anglii, zaproponował koncepcję nuklearnej reakcji łańcuchowej w 1933 roku i poinformował o tym brytyjskie wojsko. Jego pomysł spotkał się jednak z obojętnością. Gdy teoria Szilarda zaczęła zyskiwać poparcie empiryczne, nalegał on na utajnienie badań. Niemniej jednak znani fizycy, tacy jak Enrico Fermi i Frederic Joliot-Curie, odrzucili pogląd, że ich praca miała znaczące implikacje wojskowe, jako niedorzeczny. Waga ich błędu stała się oczywista wraz z wybuchem II wojny światowej w Europie. Fermi zdołał dotrzeć do admirała Hoopera w kwaterze głównej Marynarki Wojennej Stanów Zjednoczonych i przedstawił możliwość opracowania potężnej broni. Hooper odrzucił go jednak jako szalonego wynalazcę.
Dopiero po napisaniu przez Einsteina listu do prezydenta Roosevelta, w którym zasugerował on rządowi zebranie fizyków, w Stanach Zjednoczonych powstał Komitet Uranowy – prekursor misji Projektu Manhattan, mającej na celu opracowanie bomby atomowej.
W liście Einsteina podkreślono, że praca naukowców może „doprowadzić do skonstruowania bomb, a być może – choć to mniej pewne – niezwykle potężnych bomb nowego typu. Pojedyncza bomba tego rodzaju, gdyby została przetransportowana statkiem i eksplodowała w porcie, mogłaby zniszczyć cały port”. Aschenbrenner porównuje pojawienie się sztucznej inteligencji do nuklearnej reakcji łańcuchowej. A wraz z pojawieniem się bomby atomowej nieuchronnie nadchodzi Hiroszima.
Ciało głodne jedzenia
Sztuczna inteligencja wymaga „ciała”, które składa się z centrów danych wypełnionych procesorami do obsługi ogromnych ilości danych. „Pożywieniem” dla tego ciała jest zarówno energia elektryczna, jak i dane, z których uczą się systemy sztucznej inteligencji. Aschenbrenner prognozuje, że do 2030 r. sztuczna inteligencja będzie odpowiadać za 20% całego zużycia energii elektrycznej w Stanach Zjednoczonych, co będzie wymagać milionów procesorów graficznych, na które obecnie istnieją znaczne zaległości. Microsoft planuje zbudować kolosalne centrum danych Stargate o wartości 100 miliardów dolarów, aby wesprzeć swojego partnera OpenAI, podczas gdy dyrektor generalny Sam Altman zamierza zabezpieczyć 7 bilionów dolarów inwestycji, aby zaradzić niedoborowi chipów.
Aschenbrenner sugeruje, że sami inwestorzy nie poniosą ciężaru finansowego. Zamiast tego firmy będą alokować fundusze i generować przychody za pośrednictwem „usług” AI, przy spodziewanych inwestycjach rządowych. Jeśli chodzi o energię, ekspansja produkcji gazu w Stanach Zjednoczonych jest możliwa. Wymagałoby to jednak zniesienia ochrony środowiska i lekceważenia zmian klimatycznych, które uważa się za pilne. Głównym słabym punktem pozostaje jednak bezpieczeństwo.
Zainwestowane tryliony
Autor, zagorzały amerykański patriota, zapowiada konieczność utrzymania w tajemnicy postępów w dziedzinie sztucznej inteligencji. Mogą one zostać przywłaszczone przez potężne narody, takie jak Chiny. W Emiratach Arabskich, dzięki obfitości ropy naftowej i ziemi, są one gotowe do budowy rozległych centrów danych. Rosja jest również aktywna na tej arenie. Autor uważa jednak, że Ameryka musi nadal przewodzić światu i chronić swoich sojuszników. Wkrótce może się okazać, że tajemnice sztucznej inteligencji są kluczowe dla obrony narodowej, podobnie jak plany okrętu podwodnego klasy Columbia, jak sugeruje Aschenbrenner. Istnieje obawa, że Chiny już teraz mogą mieć dostęp do amerykańskich badań i kodu. Spotkania towarzyskie w Dolinie Krzemowej mogą nieumyślnie ujawnić poufne informacje.
Znaczne inwestycje USA w sztuczną inteligencję jako narzędzie władzy mogą być zagrożone. W związku z tym proponuje się nowoczesny odpowiednik „Projektu Manhattan”, aby zabezpieczyć centra danych tak, jakby były instalacjami wojskowymi, pod nadzorem Pentagonu i agencji wywiadowczych. Pozostaje pytanie: co się stanie, jeśli sztuczna inteligencja stanie się autonomiczna?
Czarna skrzynka wojenna
Rzeczywiście, super SI mogą rządzić innymi SI, ale pozostaje pytanie: kto będzie nimi rządził? Superumysł ma potencjał, by nauczyć się oszustwa i dążyć do dominacji… Naukowiec twierdzi, że tylko amerykańskie supermocarstwo jest w stanie mądrze kierować tą siłą i wyprzedzić „dyktatorów”. Gdyby jako pierwsi okiełznali elektroniczny mega-mózg, bez wątpienia zwiastowałoby to nowy poziom działań wojennych przeciwko zagranicznym przeciwnikom…
Jednak to nie tylko jacyś mgliści „dyktatorzy”, ale Stany Zjednoczone konsekwentnie wykorzystują okazje do dominacji nad innymi. Nic dziwnego, że Pentagon utworzył Biuro Sztucznej Inteligencji. Jego dyrektor niedawno poinformował swoich kolegów o nadchodzącej przyszłości:
Departament Obrony Stanów Zjednoczonych inwestuje 480 milionów dolarów w platformę sztucznej inteligencji, która ma służyć wszystkim, od analityków wywiadu na odległych wyspach po najwyższe rangi Pentagonu. Inwestycja ta jest częścią szerszej inicjatywy, obejmującej 800 znanych projektów departamentu w zakresie sztucznej inteligencji oraz nieujawnioną liczbę projektów niejawnych. W styczniu OpenAI dyskretnie zmieniła swoją politykę publiczną, usuwając klauzulę, która zabraniała wykorzystywania jej technologii do celów wojskowych.
Pentagon nie widzi więc potrzeby prowadzenia kampanii podobnej do Projektu Manhattan. Kwestia kontroli nad superinteligencją pozostaje jednak nierozwiązana. Wybitne osobistości, takie jak Elon Musk, wyraziły obawy dotyczące egzystencjalnych zagrożeń stwarzanych przez superinteligencję, przy czym Musk szacuje 20% szans na takie zagrożenie. Tymczasem prognozy eksperta ds. sztucznej inteligencji i byłego pracownika OpenAI, Daniela Kokotailo, który przewiduje 70% prawdopodobieństwo, że superinteligencja spowoduje upadek ludzkości, zwiększają powagę sytuacji.