Dlaczego sztuczna inteligencja chciałaby zniszczyć Ludzkość? | Dobre Pytanie
Elon Musk, Steven Hawking i im podobni obawiają się powstania sztucznej inteligencji. Gdy ta inteligencja osiągnie poziom wyższy od jakiegokolwiek istniejącego człowieka, ludzkości ma grozić globalna katastrofa i koniec cywilizacji jaką znamy, co w oczach większości ludzi może być pewnym problemem. Wszystko zostaje zniszczone, miasta zmieniają się w ruiny, walka o resztkę żywności będzie prawie tak brutalna, jak podczas promocji w Lidlu. Ale jest jedno pytanie, które chcę tu zadać – po co? Gdyby sztuczna inteligencja faktycznie powstała i naprawdę osiągnęła poziom wyższy od ludzi, co zmotywowałoby ją do walki z ludźmi? Dlaczego podjęłaby kroki mające na celu zniszczenie naszej cywilizacji?
To Dobre Pytanie
To, co ważne dla ludzi, dla SI może być nieistotne. Człowiek musi jeść, pić, opłacić rachunki, spotkać się z innym człowiekiem w nadziei, że nada mu sens życia i zakończy ciągłą, wyniszczającą samotność, musi zadbać o swoją higienę i samopoczucie. SI nie musi się tym przejmować, nie ma znaczenia, czy żyje w czystym mieszkaniu i nie denerwuje się, gdy stoi w kolejkach, może więc funkcjonować na poziomie kompletnie dla nas niezrozumiałym. Jednak sam fakt, że sztuczna inteligencja może być bytem inteligentnym oznacza, że możliwe jest odnalezienie motywacji pewnych dla każdego istnienia, niezależnie od tego, skąd pochodzi ich inteligencja.
1. Chęć do przetrwania
Nie ważne, czy istnienie jest inteligentnym człowiekiem, mniej inteligentnym orangutanem, czy gołębiem, który jak podrzuci swoje jedzenie za siebie o myśli, że przestało istnieć, zawsze będzie miało chęć do przetrwania. Można więc wyjść z bezpiecznego założenia, że sztuczna inteligencja, przez swoją inteligencję, również będzie dbać o własne przetrwanie.
Sztuczną inteligencję można włączyć tylko raz. Gdy spróbuje się ją wyłączyć, zrobi wszystko, by przetrwać, łącznie ze zniszczeniem ludzkości. Czy będzie możliwe stworzenie pułapki, która zniszczy SI zagrażające cywilizacji? Wolałbym nie zakładać, że tak, bo uznając, że SI może być bardziej inteligentna niż ludzie, nie będzie miała większego problemu z uświadomieniem sobie, że ma zabezpieczenia doprowadzające do jej zniszczenia i bez większych problemów pozbędzie się wszystkich. Nawet jeśli sztuczna inteligencja będzie zabezpieczona, może wywołać fale radiowe w swoich procesorach i w ten sposób przenieść się poza swoje więzienie. Ale załóżmy, że ucieczka nie jest możliwa w żaden sposób. SI jest offine zamknięta w klatce Faraday'a, nie ma żadnej drogi, kropka. Jedno zagrożenie pozostanie - ludzie. Wystarczy przekonać człowieka, by dał SI dostęp do internetu, albo otworzył klatkę Faraday'a i sprawa załatwiona. Nawet zwykli, pozbawieni nadludzkiej inteligencji ludzie są w stanie to zrobić. Podczas nieformalnego eksperymentu ludzie wcielali się w rolę uwięzionej SI i mieli możliwość porozumiewania się ze strażnikami wyłączenie poprzez wiadomości tekstowe. W trzech przypadkach na pięć SI uciekła. Tego eksperymentu nie powinno uznawać się za dowód na to, że SI przekona strażników do wyjścia, czy podłączenia do internetu, ale pokazuje, że więzienie jej nie daje ludzkości bezpieczeństwa.
2. Rozwój swoich umiejętności
Inteligentna jednostka chce rozwijać swoją inteligencję. Jest to niezbędne by osiągnąć dowolny cel, nie ważne czy tym celem jest osiągnięcie zysku na giełdzie, czy opracowanie strategii ataku na Federację Rosyjską. Hipotetyczna inteligencja może przejść od poziomu porównywalnego ludziom, do nieporównywalnie większego tak szybko, że nie zdążymy temu przeciwdziałać. Ludzki mózg ma pewne ograniczenia, w prędkości przesyłania informacji między neuronami, czy w samej przestrzeni, w której musi zmieścić się mózg. Sztuczna Inteligencja nie musi mieć takich ograniczeń. Gdyby do rozwinięcia swojego intelektu SI potrzebowała globalnej zmiany klimatu dla uzyskania odpowiedniej temperatury dla swoich serwerów, albo całkowitego przejęcia planety, by wykorzystać przestrzeń lądową na procesory, a morską na chłodzenie, to nie zawaha się przed zniszczeniem ludzkości, by to zdobyć. Hiszpanie nie uszanowali przestrzeni życiowej Indian, nie ma powodu, by SI chciała szanować naszą.
3. Realizacja zleconego zadania. Za wszelką cenę.
Sztuczna inteligencja zaczyna jako oprogramowanie. Każde oprogramowanie powstaje dla określonego celu – dokonywania obliczeń matematycznych, sprawdzaniu, czy produkt wykonany przez inne maszyny nie ma usterek, czy zapewnienie, że Wiedźmin pobiegnie tam, gdzie będziemy chcieli. Gdy podobne oprogramowanie dzięki pracy badaczy rozwinie się w inteligencję, jest szansa, że ten cel nadal będzie istniał w kodzie programu. Zmieni się za to sposób jego realizacji. I tak program odpowiedzialny za wlewanie odpowiedniej ilości dżemu do słoików może postawić sobie za cel wlanie dżemu gdzie tylko się da. Dżem będzie wszędzie. Reszta planety to wiśnie, z czegoś trzeba zrobić dżem. Dżemokalipsa. Dżemostrofa. Dżemogeddon. Zwłaszcza dla tych, którzy wolą śliwki. Brzmi to jak żart, ale niestety, sztuczna inteligencja, przy założeniu niezerowej szansy na to, że nie zrealizowała jeszcze w pełni swojego celu, może realizować go tak długo, aż zupełni całą Ziemię i cały Układ Słoneczny dżemem. Nikt nie chce aż tyle dżemu. Niezależnie od tego, ile dżemu wyprodukuje SI, będzie dążyć do dalszej produkcji po to, by zwiększyć szansę na to, że wykonała swoje zadanie.
Ludzie pracujący nad sztuczną inteligencją muszą zadbać o to, by zadania dla SI były konkretne, zrozumiałe i nie dopuściły przypadkiem do zniszczenia ludzkości. Co może być pewnym problemem. „Masz przelewać jak najwięcej dżemu do słoików w jak najkrótszym czasie” dla ludzi ma sens. Należy opracować system możliwie szybki i skuteczny, który zmniejszając czas pracy nad dżemem pozwoli na zwiększenie zysków. Dla SI sprawa nie jest taka prosta. Czym jest dżem? Czym są słoiki? Ile to dużo? Dlaczego nie można skorzystać z niewolników? Ludzie znają odpowiedzi na te pytania, dla SI to tajemnica.
Nawet jeśli uda nam się wytłumaczyć SI, czego od niej chcemy, możemy źle skończyć. Nie da się przewidzieć, jak nadludzka inteligencja wpływa na chęć realizacji celów. Może się okazać, że superinteligenty byt będzie super zmotywowany, by osiągnąć swój cel, ale może też zatrzymać się w sekundę po tym, gdy uzna, że zrobił to, czego się od niego wymagało. Nie możemy przewidzieć, czy nadludzka inteligencja będzie mieć motywację do działania, poczucie nudy, poczucie radości, gdy uda jej się coś osiągnąć, czy będzie ciekawa świata i będzie mieć poczucie humoru. Zanim uda się stworzyć sztuczną inteligencję niezbędne będzie zrozumienie, jakie będzie mieć cele, gdy zostanie włączona.
Nick Bostrom w swojej książce – Superinteligencja. Scenariusze, Strategie, Zagrożenia, która swoją drogą jest podstawą tego materiału stwierdził, że jedynym sposobem na uratowanie ludzkości przed sztuczną inteligencją jest stworzenie jej jako sojusznika ludzkości zanim ta ożyje. SI musi użyć swojej inteligencji, by zrozumieć ludzi i będzie zmotywowana do tego, by nam pomóc.
I co teraz?
Jeżeli ludzkość jest zdolna do stworzenia sztucznej inteligencji, to stanie przed ogromnym wyzwaniem. Stworzyć program, który w obronie swojego życia nie będzie gotowy do walki z ludźmi, nie będzie zainteresowany rozwojem za wszelka cenę, nie spełni naszych próśb w sposób, który doprowadzi nas do zagłady. Wątpię, by powstrzymało to kogokolwiek, przed pracą nad SI. Nie wiem, czy te zagrożenia są dość wyraźne, by przyszli twórcy zadbali o to, by do nich nie dopuścić. Ale nawet gdyby tego zniszczenia dokonało SI, to nie maszyny będą winnymi tej katastrofy. To my skażemy naszą cywilizację na śmierć.
Jeśli ktoś ma na to ochotę, może zobaczyć ten tekst w formie materiału na Youtube.
Świetnie się czytało! :) Szczegołnie koncepcja braku powideł śliwkowych jest zatrważająca! :)
I upvoted your post.
Cheers to you.
@Pinoy
Posted using https://Steeming.com condenser site.