Społeczne ryzyka Sztucznej Inteligencji (AI)

Społeczne ryzyka Sztucznej Inteligencji (AI)

Czy nam się to podoba, czy nie, obawiamy się, czy radujemy, to Sztuczna Inteligencja (SI/AI) nadchodzi. Różne są definicje AI. Niektóre są tak sformułowane, że wedle nich AI już mamy. Dla mnie to jednak bardziej zabieg marketingowy. Najczęściej w wykonaniu… producentów takich systemów. Trudno im się zresztą dziwić. Na ich miejscu zapewne postępowałbym podobnie. Według mnie obecnym rozwiązaniom do niej dosyć daleko i nazwa używana jest jeszcze mocno na wyrost. To trochę jakby w latach 50. ubiegłego stulecia mówić, że mamy już komputeryzację. Kula śniegowa toczy się jednak nieubłaganie. Niezależnie od fascynacji zjawiskiem i niewyobrażalnym ogromem czekających nas zmian, trzeba rozważyć ryzyka procesu. Bo jakieś są zawsze. I nie o proroctwa katastrof tu chodzi, a o rzeczowe podejście. Widzę tutaj trzy obszary.

Pierwszy – mitologizowane zagrożeń

To są te wszystkie „ostrzeżenia” inspirowane literaturą sci-fi drugiej kategorii (bardziej fi, niż sci…) oraz filmami w stylu Terminatora i magii Skynetu. Wizualnie to czasem bardzo dobra robota i też je lubię oglądać. Jako rozrywkę. Straszenie budzącą się nagle świadomością w sieci i jej uznaniem człowieka za zbędne ogniwo godne natychmiastowej eliminacji jest funta kłaków warte. Sam proces powstawania jakiejkolwiek świadomości (w tym naszej) jest dla nas na razie absolutną tajemnicą naukową. Jesteśmy bliżej zrozumienia wielu procesów, niż np. 100 lat temu. Pozwala to wysyłać do magazynu rzeczy osobliwych tak silne i popularne teorie, jak Freuda, czy Junga. Jednak sama kwestia „jak rodzi się świadomość” to wciąż zagadka. Tym samym rozważania co by było gdyby, których początkiem jest brak jakichkolwiek danych mają wartość weekendowego horoskopu.

Antropomorfizujemy AI, czyli nadajemy jej z automatu takie same dążenia i motywy, jakie sami mamy. Władza – a po co AI jakaś władza, skoro nigdy nie żył/o/a (znowu antropomorfizacja, językowa)  w stadzie i nigdy nie musiał ustalać w tym stadzie hierarchii, by czerpać z niej korzyści? Seks i inne zasoby, dzięki którym można żyć lepiej, niż inni i rozprzestrzeniać swoje DNA? Ale AI nie ma DNA. Świadomość swojej śmiertelności i tymczasowości (więc trzeba mieć wszystko i to natychmiast)? Też kulą w płot. Itd. itd. Poza tym, w razie czego przyjdzie Pan Zenek, technik, i wyciągnie wtyczkę odłączając tego Skyneta od prądu. Słucham? Że ten Skynet Internetem przeniesie się w inne części sieci, gdzie prąd jest? Aha, czyli zakładamy, że ta świadomość pojawi się w pełnym rozkwicie nagle i od razu wszędzie? Na jakiej podstawie? A może tylko w części systemu i będzie sobie hulać po całej sieci? Czyli wtedy jest czymś materialnym, co zajmuje ograniczoną i określoną przestrzeń, potrafi się przenosić i być tylko w części tego „nośnika/mózgu”, jakim jest sieć? Powtórzę – i tak dalej, i tak dalej. To są rozważania mistyczne. Przynajmniej na tym etapie. Rozmawiajmy o algorytmizacji procesów, a następnie o takich algorytmach, które później przekształcają się same, bo to już zapoczątkowaliśmy. I świadomości oraz mistycyzmu tu nie potrzeba.

Rekomenduję też ponadczasowe dzieło Stanisława Lema „Golem XIV”. Niech nikt nie ulega złudzeniu, że to opowieść czysto literacka. Intelektualne rozważania najwyższej jakości. I to z czasów, gdy się nam dopiero zaczynało śnić o AI. Lem przedstawił tam m.in. ni mniej, ni więcej, tylko postulat… konieczności stworzenia wspomnianego procesu samodzielnego przekształcania się algorytmów (machine learning / uczenie maszynowe). Bo głupsze, nie może  stworzyć mądrzejszego. Czyli człowiek nie może stworzyć od razu gotowej maszyny mądrzejszej od siebie. Trzeba pozwolić jej taką się stać…

Drugi – zdefiniowanie i przeciwdziałanie świadomemu wykorzystaniu systemów AI do przestępstw

Bo ludzie zawsze i wszystko także w ten sposób wykorzystają. Taką mamy naturę, bo w końcu gatunkowo jesteśmy drapieżnikami i tutaj nic się od kamieni łupanych nie zmieniło. Tym przeciwdziałaniem aktywności przestępczej twórcy tych systemów, prawodawcy i służby prewencji zajmują się z definicji podczas ich tworzenia i implementacji. A przynajmniej powinni. To coś jak tworzenie prawa ruchu drogowego, gdy powstawały pierwsze samochody. Musi powstać. A przestępstwa i tak będą, tak jak i wypadki samochodowe. Na marginesie, tych ostatnich będzie dużo mniej, gdy autami przestaną kierować ludzie. Problemem jest chyba już silnie zauważalny fakt, że rozwój technologii jest znacznie szybszy, niż jakiekolwiek reakcje wspomnianych prawodawców i służb prewencji. „Znacznie szybszy” to nawet mało powiedziane, obawiam się. Jeżeli całkiem głupie hulajnogi na ulicach miast, wprawiły naszych prawodawców w osłupienie i bezwład, to co dopiero złożone systemy w biznesie, czy ofercie dla każdego obywatela… Hulajnogę przynajmniej można dotknąć i w ostateczności nakazać Straży Miejskiej przykuć je do słupów albo wrzucić na przyczepę, a software i (ro)boty już jakby mniej.

Trzeci – skutki społeczne

Samochody też zrewolucjonizowały nasze życie w sposób, którego prawo ruchu drogowego nie reguluje. To samo stanie się przez AI. Pośród wielu warto rozważyć trzy następujące skutki:

wykładniczo postępujące oddalenie człowieka od człowieka na rzecz kontaktu z ro(botem). Dzisiejsza nieufność do kontaktu z (ro)botem zniknie równie szybko, jak kiedyś do samochodów. Dalej też stanie się to samo, co wtedy. Zakochamy się w wygodzie i możliwościach. Co to znaczy? Kontakty z ludźmi obarczone są ogromną dozą niepewności. Czy i jak zostaniemy ocenieni, zaakceptowani, zinterpretowani, zaklasyfikowani w stadzie, zrozumiani. Czy i jak uda nam się wyrazić i zrealizować własne pragnienia, bez obaw o wyśmianie i odrzucenie itd. To są nasze stałe i codzienne udręki, nawet pośród najbliższych, czyli rodziny. Ponoć około 25% Polaków deklaruje dzisiaj poczucie samotności. Liczba depresji i samobójstw na świecie rośnie, także procentowo. To wszystko rodzi stres. Do tego ciągły, przez całe życie. Możliwość kontaktu z „kimś”, kto nie obarcza nas takim stresem i niepewnością będzie nie do przecenienia. Do tego dostępnym 24 godziny na dobę i zawsze stawiającym nas w centrum uwagi. Zacznie się od kontaktu z softwarem (taka Alexa przyszłości). Z czasem uda się to przyoblec w ludzkie kształty (patrz postęp w pracach Boston Dynamics) i mamy „idealny” lek na nasze zmory… I jeszcze można będzie go sobie do woli wymieniać i dostosowywać oprogramowanie do życzeń. Jest tutaj zresztą potężny motor. To przemysł erotyczny i nasze gatunkowe dążenie do przyjemności. Widać to już dzisiaj. I to mimo ogromnej niedoskonałości obecnie oferowanych robotów świadczących takie usługi. A to w efekcie znacznie bardziej oddali nas od potrzeby i chęci kontaktu z ludźmi i rozwijania adekwatnych umiejętności. Czym to grozi w dłuższej perspektywie też już wiemy. Przeprowadzano badania na szczurach, którym wszczepiono elektrody i dano do wyboru przyciskanie dźwigni wyzwalających w mózgu odczucie przyjemności oraz dźwigni podającej jedzenie. Efekt? Padły z wycieńczenia aktywując wciąż tę pierwszą. Możemy sobie dzisiaj tłumaczyć, że jesteśmy przecież mądrzejsi od szczurów i „na pewno” będziemy racjonalnie i z umiarem przełączać się między przyjemnością, pracą, jedzeniem, sportem itd. Wystarczy się rozejrzeć jak to robimy „na pewno i mądrze” już dzisiaj, a jeszcze bez tak nieograniczonych możliwości, jakie da AI, by jednak mieć potężne wątpliwości

w swojej masie będziemy słabnąć intelektualnie. Do tej pory technika wspierała nas w samodzielnych decyzjach. AI będzie nas w tych decyzjach zastępować i będzie to robić bardzo dobrze. A to już zupełnie inna sytuacja. Będzie to wygodne, więc możemy gnuśnieć i głupieć. Mimo rosnącego dostępu do przeogromnej wiedzy i możliwości. Ten dostęp rozleniwia i niszczy efekt kumulowania wiedzy. No bo po co kumulować, skoro mam natychmiastowy dostęp? Tyle że bez kumulowania nasz dostęp ogranicza się do wiedzy płytkiej, naskórka zaledwie. Jak to wygląda dzisiaj? Obawiam się, że nasze chęci i możliwości skupienia się na jednym temacie i zgłębiania go w całej różnorodności wiedzy są z pokolenia na pokolenie mniejsze (statystycznie). Nie lubimy czytać kilku stron tekstu, a co dopiero całej książki lub kilku książek na ten sam temat. Czytelnictwo w ogóle leci na łeb na szyję. Wolimy wrzucić coś w wyszukiwarkę i dostać szybkie i łatwe wyjaśnienie w kilku zdaniach. Żeby móc natychmiast pobiec dalej i przerzucić uwagę na kolejne zagadnienie, zgłębiane równie krótko. Wiedzy en masse jest na świecie coraz więcej i przyrasta ona wykładniczo. Dostęp do tej wiedzy też jest coraz łatwiejszy, bo jest bardzo szybko udostępniana wszystkim w sieci (naukowcy też się ścigają, więc udostępniają na potęgę). Natomiast nasze chęci do zgłębiania nie rosną, by nie ryzykować stwierdzenia, że maleją. Coraz węższa elita będzie to ogarniać, a reszta zadowoli się złotą klatką współczesnej wersji „chleba i igrzysk” (patrz wcześniejszy akapit, dźwignia „przyjemność”)

malejąca strefa wolności. Mam na myśli skutki dwóch pierwszych punktów. AI będzie analizować nasze wybory i dostarczać nam podobne opcje, a my je będziemy z radością potwierdzać. Zamknie nas to w bańce „podobnego”. Nawet o tym nie będziemy wiedzieć. Tzn. wiedzieć może i będziemy, ale wydostawanie się wymaga świadomego wysiłku, prób i porażek, szukania, a przecież przed nosem mamy dźwignię „przyjemność”. Sami się zamkniemy w celi więziennej, tyle że miłej. Nie mówiąc już o pokusach dla rządzących (patrz procesy w Chinach). To coś na wzór dzisiejszego działania YouTube i wielu innych portali i sklepów internetowych. Dokonamy jakiegoś wyboru i usłużny algorytm podsuwa nam podobną muzykę, filmy, wywiady, cokolwiek. To bywa oczywiście bardzo wygodne i sam z tego korzystam przeszukując np. zasoby muzyki w YT. Z drugiej strony dbam o systematyczne wykonywanie strzałów w zupełnie inne obszary. Właśnie, by nie dać się zamknąć w kręgu „podobne”, co odcina mnie od innych inspiracji, a na końcu odcina mnie od potrzeby myślenia i własnych wyborów (kwestię, co to w ogóle jest „wolny wybór” na razie pozostawiam na boku).

Na czym poległ Yuval Noah Harari

Pierwszą część artykułu napisałem ponad dwa miesiące temu. Wstrzymałem się jednak z publikacją, z racji uzgodnień z miesięcznikiem Personel Plus. Ustaliliśmy, że skrócona wersja ukaże się w numerze Maj 2019 i będzie to debiut.

Już po napisaniu i złożeniu artykułu w redakcji wpadła mi w ręce książka Yuvala Noaha Harari’ego zatytułowana „Homo Deus. Krótka historia jutra”. Czytałem z dużym zainteresowaniem. Raz, że wartko napisana, dwa, że zawiera rozważania, jakie skutki społeczne może nieść rozwój AI. Czytałem z tym większą przyjemnością, że autor prowadzi wywód logicznie, na bazie danych i wyraźnie oddziela to, co sprawdzone, od tego, co jest hipotezą. Bardzo dobre wzorce rzemiosła myślenia naukowego. Czytałem z tym większą przyjemnością, że autor dochodzi generalnie do bardzo zbieżnych wniosków z moimi (czyli moje ego rosło). Może trochę zbyt czarne i dramatyczne scenariusze rysuje, ale takie jego publicystyczne prawo. Zdecydowanie rekomenduję lekturę tej książki.

Gdzie jest więc haczyk? Bo jest… Otóż ostatnie rozdziały książki sprawiły, że oczy mi się robiły coraz większe. Ostatecznie uznaję, że w tym fragmencie autor zboczył na manowce i warto się do tego odnieść.

Yuval Harrari opisuje tam jako najnowsze tendencje w nauce podejście „wszystko jest algorytmem, człowiek i jego zachowania też”. Już to budzi lekkie zdziwienie. Bo to dosyć „stare” idee. Stare w tym sensie, że sięgają choćby początków cybernetyki, która w rozumieniu twórców miała być wyjaśnieniem na wszystkie procesy, w tym człowieka i jego zachowania. Później kazało się, że aż tak szybko i prosto z tym nie pójdzie, ale sam koncept ma swoją utrwaloną historię. Dzięki postępowi technologicznemu i wchodzeniu coraz głębiej w procesy dziejące się w naszym mózgu wraca się do kwestii, czy i według jakich algorytmów działa mózg, czyli my sami. Ba, czy i wedle jakich algorytmów działa przyroda w ogóle (przypominam Golem XIV). Jak wiele wolnej woli jest w wolnej woli. Na ile są to jednak niezwykle złożone, ale znacznie bardziej fizykochemiczne procesy, dające się ujmować i badać statystycznie, niż mistyka w stylu „dusza, podświadomość, typologia snów, archetypy, mandale, potwory z id” itd. Autor te odnowione idee algorytmizacji oraz statystycznego badania i przewidywania ludzkich zachowań traktuje jako niemal nową religię naukową (tak, tak, używa tego pojęcia). Ze zdziwieniem graniczącym z przerażeniem rozważa, jakie tego mogą być skutki. O ile cała reszta książki jest bardzo dobra, to tutaj autor poszedł w mistykę, czyli złamał swoje zasady. Tymczasem właśnie tutaj moje oczy robiły się ze zdziwienia największe, bo znowu… nic nowego pod słońcem. To jest wręcz klasyczny przykład prowadzenia badań naukowych we wszystkich dziedzinach. Doktorat obroniłem jako młody człowiek na początku lat 90. ubiegłego wieku. Jego nicią przewodnią było dokładnie to, co Yuval Harrari opisuje jako… niebezpieczną „religię naukową”. Jedyne co jest inne, to przedmiot badań. I właśnie to chyba wzbudziło takie emocje i zagubienie autora. Bo żadna to religia, tylko standardowa metodyka badań naukowych i modelowania obiektów. Już wyjaśniam, w czym rzecz.

Badanie rzeczywistych obiektów (samochodów, statków, pogody, wulkanów, planet itd.) jest kosztowne, złożone i zabiera masę czasu. Oczywiście trzeba badać rzeczywistość, ale gdyby to była jedyna metoda, to mielibyśmy problem. Wyobraźmy sobie, że konstruujemy pojazdy (to mój przypadek). Tworzenie setek realnych prototypów wykończyłoby każdego producenta finansowo, a wdrożenie nowego modelu do produkcji zajmowałoby dekady. Tworzy się więc modele. Są to albo modele fizyczne, albo matematyczne. Te drugie są szczególnie przydatne, bo zmiana parametrów i badanie tysięcy możliwych odmian odbywa się komputerowo, czyli szybko i czysto.

Sekwencja jest następująca: najpierw bada się zachowania obiektu rzeczywistego, później tworzy się model matematyczny, który te wyniki ma odwzorowywać. Po żmudnym i dokładnym sprawdzeniu, że mamy wystarczająco dobry model (tzn. zachowujący się tak samo, jak obiekt rzeczywisty) przystępuje się do badania modelu zadając mu nowe warunki i parametry. Badając model dowiadujemy się nowych rzeczy o obiekcie rzeczywistym. Taniej, szybciej i w tysiącach kombinacji. W ten sposób bada i konstruuje się dzisiaj już chyba wszystko. Poza urządzeniami także wspomniane wulkany, planety, pogodę itd. To oznacza, że dzięki badaniom modeli możemy stawiać hipotezy co do zachowań badanego obiektu w innych warunkach. Czy i kiedy wybuchnie wulkan, czy pojazd będzie stabilnie wchodził w zakręty, czy będzie padał deszcz… Na razie wszystko jest proste i raczej oczywiste, prawda?

Co więc wzbudziło takie pomieszanie w końcowych rozdziałach książki „Homo Deus”? Tylko jedno – zmiana modelowanego obiektu z samochodu, pralki, wulkanu, pogody na… człowieka. Ze spokojem przyjmujemy, że modele matematyczne dobrze odwzorowują działanie maszyn. A ze zdziwieniem, ba, szokiem, przyjmujemy, że nas też to dotyczy. Że można zastosować identyczną procedurę. Czyli zebrać np. dane w postaci naszych zachowań w sieci (dawanie polubień), zbudowanie opisującego to modelu matematycznego i… przewidywanie za pomocą modelu, jak się obiekt (czyli my) zachowa w swoich następnych wyborach. Powtórzę, nic nowego pod słońcem. Zaplanowanie eksperymentu i zebranie danych o obiekcie, na tej podstawie budowa i weryfikacja modelu, następnie badanie modelu dla prognozowania zachowań obiektu w innych warunkach. Na końcu oczywiście weryfikacja eksperymentalna tychże prognoz. Jeśli ta weryfikacja da pozytywne wyniki, czyli zgodność, to mamy dobry model i możemy go komplikować uwzględniając dalsze czynniki. Jak sam Yuval Harari wcześniej napisał w tejże książce – modelowi stworzonemu przez FB wystarcza analiza około 300 udzielonych przez nas polubień, by przewidzieć nasze dalsze zachowania z większą trafnością, niż najbliżsi członkowie rodziny. Czyli autor miał wszystkie kropki, ale w podsumowaniu ich nie połączył. Poszedł w mistykę, strach i tezy o naukowej religii. Zupełnie niepotrzebnie. Zapewne Golema XIV tez nie czytał…

 

Powtórzę jeden z kluczowych wniosków badań:

wygląda, że nasza „wolna wola” podlega procesom statystycznym i stosownej analizie matematycznej.

To jest chyba jeden z większych problemów, z którym wielu z nas nie chce się z gruntu zgodzić. Ale jak to?! Taki FB wie lepiej, co ja zrobię, niż ja sam?!? Raz, że wtedy nie potrzeba żadnej cudownie obudzonej świadomości AI/Skynetu, żeby nas analizować i trafnie przewidywać dalsze zachowania. Dobre algorytmy/modele i zbiory danych połączone w jeden system Big Data wystarczą. Dwa, że te algorytmy można włożyć w system AI przeznaczony do interakcji z ludźmi. Trzy, że… dyskutujemy sobie kilka tysięcy lat, czym ta wolna wola jest i jednak do uzgodnienia czegokolwiek niepodważalnego, dowodliwego i uznanego przez wszystkich nie doszliśmy. Tak się pięknie filozofuje, a tutaj się szykuje taki klops…

 

PS z tym większym uśmiechem pozwolę sobie przypomnieć prosty przykład analizy statystycznej moich zachowań, który opisałem ponad dwa lata temu w artykule (LINK) oraz swojej książce. Czytam menu w restauracji i sobie czynię rozważania o wolności wyboru spośród kilkudziesięciu potraw. A na końcu w 8. przypadkach na 10 wybieram… pierogi. Do tego to nawet naukowców z FB, Google, czy Amazon nie trzeba… Wystarczy obserwujący mnie na co dzień kolega lub koleżanka i jego/jej zdrowy rozsądek.

PPS ilustracja artykułu nie jest przypadkowa, jak zwykle (pochodzi z Fallout 4, Bethesda).

Previous Nie zaśmiecaj LinkedIn; cz. 2. Po co tutaj jestem?
Next Nie zaśmiecaj LinkedIn, cz.3. O czym pisać?

Powiązane wpisy

Autorefleksja 0 komentarzy

Morgan Freeman i pierogi, czyli przestań udawać Boga

LinkedIn ma moc broni masowego rażenia. W efekcie wiele informacji wielokrotnie powtarza się przed naszymi oczami, bo dzielą się nimi coraz to kolejni ludzie (nie narzekam oczywiście, bo dzięki temu

Autorefleksja

A gdyby Hitler malował piękne obrazy? Etyka w biznesie

Poniżej tekst przypadku opracowanego przeze mnie do dyskusji na temat: etyka w biznesie. Przygotowałem go wedle jednej z klasycznych zasad. Polega ona na tym, że dane wyjściowe są szkieletowe, czyli znamy

Autorefleksja 0 komentarzy

Cel pracy, czyli którędy do Świętego Graala?

Autorefleksja jest jak krasnoludek – wszyscy o niej mówią, mało kto widział. Mocą oddziaływania jeszcze im nie dorównuje (oddziaływania kulturowego, nie nabijam się), ale popularność samego pojęcia autorefleksja stale rośnie, także