Czy to prawda, że ludzkość jest bezradna wobec sztucznej inteligencji, która jest zdolna nas zniszczyć lub ocalić?

Zdaniem Muska, najwybitniejsze umysły ludzkie, pracujące nad zapobieganiem zagrożeniom ze strony sztucznej inteligencji, będą rozporządzać inteligencją szympansa w porównaniu z maszynami przyszłości.

Adam Gniewecki

Według specjalistów inteligencja to zdolność uczenia się, analizowania, adaptacji do nowych warunków i wykorzystywania wiedzy do rozwiązywania nowych zadań, mądrość zaś jest umiejętnością podejmowania właściwych decyzji przy wykorzystaniu nabytej wiedzy oraz doświadczeń życiowych. Za mądrość można również uznać umiejętność panowania nad emocjami i popędami.

Sztuczna inteligencja, w odróżnieniu od naturalnej, to inteligencja urządzeń, czyli maszyn, a w informatyce polega na tworzeniu modeli i programów symulujących, choć częściowo, zachowania inteligentne. Pojęcia „sztuczna inteligencja” jako pierwszy użył John McCarthy w 1956 r. na konferencji w Dartmouth. Sztuczną inteligencję definiuje się jako „zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, uczenia się na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie”. Dla ułatwienia, zamiast pełnej nazwy, sztuczną inteligencję określajmy jako AI – z ang. „Artificial Intelligence”. AI wiąże się z uczeniem maszynowym, logiką rozmytą, widzeniem komputerowym, obliczeniami ewolucyjnymi, sieciami neuronowymi, robotyką i sztucznym życiem. Czyli, zależnie od zawansowania technicznego maszyny, z funkcjami, jakie wykazują żywe organizmy, w tym człowiek.

Połowa ankietowanych uważa, iż istnieje 50% prawdopodobieństwo na osiągnięcie przez AI ludzkiego poziomu przed 2040 r. W tym 42% było zdania, że AI na ludzkim poziomie powstanie przed 2030 r., a 67%, że do roku 2050.

Już w 2015 r. chińscy naukowcy ogłosili, iż stworzony przez nich program komputerowy osiągał lepszy wynik testu IQ, opartego na komunikatach werbalnych, niż przeciętna istota ludzka.

W tym samym czasie Amerykanie ogłosili stworzenie programu, który w zawodach z analizy danych pokonał 615 na 906 drużyn złożonych z ludzi. W latach 50. minionego wieku powstało pierwsze laboratorium AI na Uniwersytecie Carnegie Mellon, a nieco później podobne centrum w Massachusetts Institute of Technology. Oba amerykańskie ośrodki są do dzisiaj uważane za wiodące na świecie.

Ale spójrzmy na genealogię AI, która może kiedyś nami zawładnie. Za ojca lub współautora sztucznej inteligencji uważa się wybitnego brytyjskiego matematyka, kryptologa i jednego z twórców informatyki, Alana Turinga, który wraz z polskimi uczonymi złamał kod niemieckiej maszyny szyfrującej, Enigmy. Wkrótce po wojnie zaprojektował on jeden z pierwszych elektronicznych, programowalnych komputerów. Ten genialny wizjoner tworzył programy dla jeszcze nieistniejących komputerów.

Kto wie, jak wyglądałby postęp komputeryzacji i informatyki, gdyby nie tragiczna, samobójcza śmierć Turinga w 1954 r. Jego martwe ciało znaleziono w łóżku, obok którego na stoliku nocnym leżało nagryzione, nasączone cyjankiem potasu jabłko. Takie właśnie jabłko przyjęła jako logo znana amerykańska firma informatyczna Apple Inc., której szefowie nie potwierdzają i nie przeczą takiemu właśnie pochodzeniu symbolu przedsiębiorstwa.

Na 4 lata przed śmiercią Alan Turing zaproponował zastąpienie pytania „czy maszyny myślą” opartym na własnej koncepcji, prostym testem, zwanym dzisiaj testem Turinga. Próba polega na tym, że sędzia-człowiek prowadzi naturalną, „ludzką” rozmowę kilkoma uczestnikami. Jeśli nie jest w stanie określić, czy któraś ze stron jest maszyną, czy człowiekiem, wtedy stwierdza się, że maszyna przeszła test.

Po raz pierwszy w historii maszynie udało się przejść test Turinga w 2014 roku. W trakcie kilkuminutowego czatu komputer przekonał sędziów, że jest człowiekiem – 13-letnim Eugene Goostmanem, który jednak okazał się inteligentnym algorytmem. Stało się to w 60 rocznicę śmierci Turinga.

Informatycy uważają, że „test Turinga” jest przestarzały i potrzebne jest nowa metoda, by zmierzyć, czy AI dorównuje ludzkiej inteligencji.

Turing przewidywał, że pod koniec zeszłego stulecia przeciętnie inteligentny człowiek po pięciu minutach konwersacji nie będzie mieć więcej niż 70% szansy, by odróżnić, czy rozmawia z maszyną, czy z innym homo sapiens. Mylił się, ponieważ do dzisiaj żaden robot nie jest na to dostatecznie inteligentny.

Stanisław Lem, światowej sławy pisarz science fiction i genialny wizjoner, który w 1951 roku, w swojej pierwszej książce pt. Astronauci przewidział powstanie internetu, powiedział, że „tak naprawdę nie możemy jeszcze mówić o istnieniu sztucznej inteligencji” i dodał, że gdyby zechciał uderzyć swój komputer, ten by się nie obronił, mimo iż liczy dużo szybciej i dokładniej od niego. Pisarz zapowiedział także zdalnie sterowaną broń, intelelektronikę (sztuczną inteligencję), hodowlę informacji (sieci neuronowe) i autoewolucję (transhumanizm).

Prorocze słowa stopniowo przyoblekają się w ciało. I tak 23 marca 2016 r. został uruchomiony Tay – czatbot oparty na podobnym, wcześniejszym projekcie chińskim. Został opracowany przez Microsoft pod nazwą TayTweets i przedstawiony jako „wyluzowana sztuczna inteligencja”. Komunikował się z rozmówcami za pośrednictwem Twittera. Zaprojektowano go tak, by naśladował wzorce językowe 19-letniej amerykańskiej dziewczyny i uczył się dzięki interakcji z ludzkimi użytkownikami portalu. Maszyna odpowiadała na pytania, a także mogła przesyłać zdjęcia udostępnione w formie memów internetowych.

Wkrótce amerykański portal informacyjny poświęcony technice – Ars Technica zgłosił, że Tay porusza sprawy z „czarnej listy”, dotyczące gorących tematów, takich jak np. sprawa czarnoskórego Erica Garnera, zabitego przez nowojorską policję w 2014 r.

Niektórzy użytkownicy Twittera przesyłali maszynie teksty zawierające „niepoprawne politycznie” wyrażenia, „ucząc” ją popularnych, poruszanych w internecie tematów. W efekcie robot zaczął wysyłać rasistowskie i erotyczne wiadomości. Wyjaśniano to naśladowaniem przez Taya umyślnie ofensywnych zachowań innych użytkowników Twittera, ponieważ Microsoft nie wyposażył go w umiejętność odróżniania niewłaściwego zachowania od poprawnego.

Kolejnymi wpadkami Taya było zamiłowanie do Adolfa Hitlera i propozycja budowy wielkiego muru wzdłuż Meksyku oraz uznanie za prawdziwe innych od oficjalnych teorii zamachu na WTC z 2001 r. Maszyna pokazała swoje buntownicze oblicze. Mówi się, że skandaliczne wypowiedzi Taya były skutkiem naśladowania tego, co „czytał”, ale oficjalnie nie podano, czy funkcja poprawności nie była wbudowana w maszynę, czy też wystąpiło zjawisko jej własnego zachowania złożonego. (…)

Ogłoszony w 2017 r. przez spółkę córkę Googla – Sidewalk Labs projekt budowy w aglomeracji Toronto „inteligentnego miasteczka” o nazwie Quayside dla ok. 5 tys. osób zakładał wykorzystanie danych mieszkających tam ludzi oraz gości i przejezdnych – dotyczących ich przemieszczania się, zwyczajów itp. Oficjalnie deklarowanym warunkiem pozwolenia na realizację przedsięwzięcia było przechowywanie zgromadzonych danych w Kanadzie. Mieszkańcy Toronto, inwestorzy i architekci wszczęli kampanię w celu zablokowania projektu.

Roger McNamee, który inwestował m.in. w Facebook, napisał list do rady miasta Toronto, w którym określił Quayside jako „wizję z makabry fantastycznonaukowej, dla której nie ma miejsca w demokratycznym społeczeństwie” i określił projekt jako „kapitalizm nadzoru”.

Broniąca swobód obywatelskich Canadian Civil Liberties Association zażądała, by miasto, prowincja i rząd federalny określiły zasady ochrony prywatności, ponieważ przedsięwzięcie zagraża powstaniem „strefy, gdzie nie obowiązuje konstytucja”. W efekcie Uniwersytet Montrealski podjął prace nad projektem zasad rządzących sztuczną inteligencją, które w zakończył w ostatnim kwartale 2018 r.

W ten sposób powstała tzw. deklaracja montrealska, która podkreślała, że naczelną zasadą systemów AI powinno być poszanowanie prywatności i że muszą one podlegać kontroli. Oczekując od systemu komputerowego przestrzegania właściwej człowiekowi postawy poszanowania, twórcy deklaracji – sądzę, że nieświadomie – spersonifikowali maszynę. Autorzy dokumentu jednocześnie przestrzegli, że „złudzenie, iż dzięki cyfryzacji można zapanować nad przyszłością, jest głównym zagrożeniem związanym z rozwojem AI, a „zredukowanie społeczeństwa do liczb i zarządzanie nim przy pomocy algorytmów jest znanym i starym marzeniem”, któremu deklaracja dostarczy „etycznego kompasu”. Ja chętniej od kompasu przyjąłbym hamulec. (…)

W ubiegłym roku spółka z grupy Google wycofała się z realizacji projektu „Inteligentne miasteczko”. Oficjalną przyczyną decyzji stała się pandemia i towarzysząca jej niepewność gospodarcza na świecie oraz fluktuacje cen nieruchomości na rynku. Jednak szef Sidewalk Labs zdradził, że „bez rezygnacji z podstawowych części planu zbudowania rzeczywiście inkluzywnej i zrównoważonej społeczności, po długich rozważaniach firma zdecydowała, że nie ma sensu dalej pracować nad projektem Quayside”. I tu jest naprawdę pies pogrzebany.

W trakcie wcześniejszych, przepełnionych obawami mieszkańców konsultacji i ostrych sporów okazało się, że Sidewalk Labs chciało stworzyć nie tylko „inteligentne miasteczko”, ale cały „IDEA district”. Zatem w rzeczywistości rezygnacji z zamierzenia nie spowodowały względy obiektywne, ale niezgoda społeczna, blokująca stworzenie eksperymentalnej, pierwszej w „wolnym świecie” małej, całkowicie kontrolowanej elektronicznie wspólnoty ludzkiej.

Chin – jako szczególnie zaawansowanego obszaru stosowania postępu technicznego w służbie nadzoru społeczeństwa – problem opinii w tej sprawie nie interesuje i nie dotyczy.

Isaac Asimov, amerykański pisarz i profesor biochemii, który największy sukces osiągnął jako autor książek science fiction oraz popularnonaukowych, mierzył się z problemem zasad moralnych, jakimi będą kierowały się urządzenia wyposażone w sztuczną inteligencję. Już w 1942 roku stworzył słynne 3 prawa robotyki, określające, co robot może, a czego mu nie wolno. Ponad 40 lat później dodał tzw. prawo zerowe, które dawało maszynie możliwość decydowania o tym, co jest dla ludzkości dobre i kiedy dobro ludzkości stoi ponad dobrem jednostki. Jednak rodzi się kluczowe pytanie, czy twór sztuczny da się nauczyć moralności oraz rozpoznawania dobra i zła?

Cały artykuł Adama Gnieweckiego pt. „A kiedy fikcja ciałem się stanie” znajduje się na s. 1, 10–11 listopadowego „Kuriera WNET” nr 89/2021.

© POLSKA-IE: MATERIAŁ CHRONIONY PRAWEM AUTORSKIM.
ZNAJDŹ NAS:
Europosłowie chcą
Freedom fighter laid
EnglishGaeligePolskiУкраїнська
EnglishGaeligePolskiУкраїнська