Coraz więcej krajów przyjmuje swoje narodowe programy rozwoju sztucznej inteligencji. Technologia różnych rzeczy i systemów internetowych, takich jak inteligentny dom, jest aktywnie rozwijana. Pierwsze początki całkowitej cyfryzacji gospodarki zaczęły pojawiać się wraz z pojawieniem się pierwszych kryptowalut. Wtedy wiele krajów ogłosiło plany konwersji swoich walut narodowych na cyfrowe. Na przykład w Chinach cyfrowy juan jest już testowany, choć na razie w ograniczonych ramach.

Trend jest oczywisty i zrozumiały: za 10-20 lat ludzkość wejdzie w erę informacji, cyfryzacja stanie się integralną częścią naszej cywilizacji, a każdy człowiek będzie miał swoje cyfrowe miejsce w tym systemie i pozostawi swój ślad z dowolnych działań.

Wszelkiego rodzaju horrory (takie jak pojawienie się złośliwej sztucznej inteligencji, powstanie maszyn przeciwko ludziom itp.) są zbyt spekulatywne, a raczej wręcz fantastyczne. Istnieje zagrożenie o wiele bardziej realne i złowrogie niż wydarzenia przedstawione w filmie Terminator. Prawdopodobnie każdy zaawansowany użytkownik komputerów PC spotkał się z sytuacją, w której doskonale działający komputer mógł nagle zamarznąć, zrestartować się lub całkowicie wyłączyć. Na monitorze nagle pojawia się „niebieski ekran śmierci”, a w grach i programach wyskakują różnego rodzaju błędy.

Niebieski ekran śmierci

W 99% przypadków jest to błąd w oprogramowaniu lub wada w kodzie. Natomiast w 1% przypadków jest to niezależna i już nie powtarzająca się anomalia.

Podobną anomalią jest awaria całkowicie sprawnego urządzenia, w którym to przypadku nie jest możliwe zidentyfikowanie przyczyny błędu na poziomie oprogramowania. Nie można więc prześledzić żadnego wzorca jej przejawiania się i zapobiec wystąpieniu takiej anomalii w przyszłości.
Przemysł mikroelektroniczny zaczął borykać się z takimi anomaliami już w latach 70-tych, kiedy układy scalone stały się krytycznie małe.

Niemal natychmiast stało się oczywiste, że źródłem takich awarii są wysokoenergetyczne cząstki promieniowania kosmicznego. Po dostaniu się do układu scalonego cząstka może go całkowicie unieszkodliwić, indukując promieniowanie wtórne w poszczególnych elementach układu (ale i tak, na szczęście, w zdecydowanej większości przypadków cząstki przelatują przez układ, nie powodując fizycznych uszkodzeń).

Praca „A New Physical Mechanism for Soft Errors in Dynamic Memories” opisuje mechanizmy powstawania takich zdarzeń, ich korelację i częstotliwość występowania, w oparciu o intensywność napromieniowania różnych układów scalonych.

Najczęściej promienie kosmiczne zmieniają potencjał komórek pamięci w mikroukładzie, na przykład zamieniając jeden bit informacji z zera na jeden. Efekt ten określany jest jako „zaburzenie pojedynczego zdarzenia” (SEU).

W zależności od tego, gdzie dokładnie i jaki efekt cząsteczka wywarła na mikroukładzie, różne są też konsekwencje tego „pojedynczego uszkodzenia”. Program może albo po prostu wydać krytyczny błąd danych, lub automatycznie zrestartować się, próbując przywrócić swoją wydajność, albo też może kontynuować pracę, wydając już błędne dane, co może wywołać kaskadowy efekt zestawu błędów. I dobrze, jeśli ten program jest izolowany (odwrotny bit można przepisać na poprawny). A jeśli jest otwarty na ogólny dostęp i będzie służył jako źródło danych do wykonania innych programów lub podprogramów odpowiedzialnych np. za bezpieczną realizację procesów niebezpiecznych dla człowieka lub społeczeństwa?

Sytuację dodatkowo pogarsza zmniejszanie rozmiarów układów scalonych. I tak, w układach wykonanych w technologii 22 nm częstotliwość występowania „pojedynczych efektów” jest zwiększona o rząd wielkości w porównaniu z układami wykonanymi w technologii 130 nm. Przy wymiarze 22 nm pojedyncza cząstka kosmiczna jest w stanie uderzyć nie w jeden, ale w kilka elementów logicznych obwodu jednocześnie. Wzrasta również częstotliwość występowania nieodwracalnych uszkodzeń mikrosomów.

Sonda kosmiczna New Horizons, wystrzelona w 2006 roku i docierająca do Plutona w 2015 roku, korzystała z jeszcze starszego, odpornego na promieniowanie procesora Mongoose-V z 1998 roku. Jednak awarii komputerów nadal nie dało się uniknąć.

Problem ten jest obecnie szczególnie dotkliwy w przemyśle kosmicznym. Najczęstszym powodem awarii satelitów jest awaria elektroniki pokładowej. Nasza elektronika użytkowa generalnie nie nadaje się do pracy w przestrzeni kosmicznej, zawodzi prawie w 100% przypadków w krótkim czasie. Satelity muszą pracować przez kilka lat. Dlatego cała elektronika kosmiczna jest produkowana według specjalnych standardów, jest maksymalnie zabezpieczona i powielana w kilku równoległych procesach. Dlatego jej cena jest nierealistycznie wysoka i nie przypomina masowej dystrybucji i użytkowania.

Na przykład, w niektórych satelitach stosuje się układy scalone oparte na technologii KNS (krzem na szafirze), która zapewnia odporność na promieniowanie w warunkach kosmicznych. Rozważmy najbardziej znaczące społecznie przypadki awarii komputerów z powodu spontanicznych zmian bitów:

– W 2003 roku, podczas głosowania w Belgii: wówczas „jednorazowe zaburzenie” spowodowane ekspozycją na cząstkę jonizującą zmieniło jeden bit informacji z „0” na „1”, co przypisało kandydatowi dodatkowe 4096 głosów, dodając je do rzeczywistych 514 głosów.

– W 2008 r. cząstka promieniowania jonizującego zmieniła bit informacji w inercyjnej jednostce nawigacji i kontroli lotu samolotu Airbus A330, co doprowadziło do błędnych danych dotyczących kąta natarcia, wysokości i prędkości lotu. Autopilot samolotu zareagował na to gwałtownym szarpnięciem w dół z taką siłą, że 119 pasażerów odniosło obrażenia o różnym stopniu ciężkości. Ponadto błąd ten spowodował kaskadową awarię w działaniu kilku systemów pokładowych, co uniemożliwiło bezpieczne kontynuowanie lotu.

Przez ponad 30 lat aktywnych badań nad tym problemem nie znaleziono niezawodnego sposobu ochrony elektroniki przed pojedynczymi wysokoenergetycznymi cząstkami.

Tego typu awaria może zdarzyć się zawsze i wszędzie

Dla przykładu, najgroźniejsze, moim zdaniem, może być pojawienie się błędu w kodzie programu sztucznej inteligencji, który sprowokuje anulowanie ważnych blokad programowych (pamiętacie same prawa robotyki Isaaca Asimova?). Bardzo niemiłą niespodzianką będzie również błąd w systemie bankowym, który może doprowadzić do wyzerowania osobistego konta bankowego. Co jednak, jeśli autonomiczna taksówka przyszłości, na skutek awarii systemu, rozbije się o słup z pasażerami?
Powszechna cyfryzacja – jako nowy etap ewolucji społeczeństwa – może być jednym z etapów „wielkiego filtra”

Wielki Filtr to hipoteza wysunięta w 1996 roku przez Robina D. Hensona, mająca na celu rozwiązanie paradoksu Fermiego, wynikającego z braku widocznych śladów działalności obcych cywilizacji, które według wszelkich obliczeń powinny były zasiedlić cały wszechświat w czasie jego istnienia.

Wszystkie skoki ewolucyjne – zarówno fizjologiczne, jak i technologiczne – stanowią rodzaj „Wielkiego Filtra”, który cywilizacja albo pokonuje, albo przestaje się dalej rozwijać. Jaka jest najpoważniejsza bariera w postaci głównego „Wielkiego Filtra” nie jest dziś nauce znana. Być może właśnie cyfryzacja inteligentnej cywilizacji jest tą barierą. Wyobraźmy sobie społeczeństwo, które od co najmniej 50 lat żyje w cyfrowym świecie, wirtualnym środowisku i przestrzeni informacyjnej. I nagle gdzieś w pobliżu (w skali kosmicznej) wybucha supernowa, której promieniowanie jonizujące całkowicie niszczy znany ludziom świat.

Dla nas taką supernową może być gwiazda Betelgeuse, która, nawiasem mówiąc, może wybuchnąć w każdej chwili. Dla życia biologicznego na Ziemi wybuch tej gwiazdy nie będzie stanowił szczególnego zagrożenia, czego nie można powiedzieć o współczesnej elektronice.

Mimo wszystko cyfryzacja jest koniecznym etapem, przez który musi przejść nasza cywilizacja, aby zwiększyć tysiąckrotnie swoją produktywność przy zachowaniu poziomu zużycia zasobów pierwotnych. Pozostaje nam tylko zabezpieczyć się na tyle, na ile to możliwe i tak rozmieścić centra danych, aby uniknąć całkowitego załamania się całego systemu z powodu nieproszonych gości w postaci cząstek promieniowania kosmicznego, których wpływu jeszcze jakieś 50 lat temu nawet byśmy nie zauważyli.


Opracował: Amon
www.strefa44.pl
0 Udostępnień
Kategorie: Nauka / Kosmos

Zostaw komentarz


*

code


  • Facebook

Szukaj temat