Demitologizacja algorytmów – dlaczego Google nie zdobędzie władzy nad naszymi duszami

Od jakiegoś czasu możemy obserwować wysyp różnych eksperckich (a jeszcze częściej pseudo-eksperckich) opinii na temat algorytmów, sztucznej inteligencji, a przede wszystkim zagrożeń ze strony technologicznych gigantów, które bez skrupułów będą wykorzystywać zebrane o nas dane do wciskania nam swoich produktów albo wpływać na nasze życie. Nasiliło się to mniej więcej od 2016 roku, kiedy amerykańska matematyk Cathy O’Neil, która będąc zaangażowana w ruchy lewicowe i feministyczne jednocześnie była pionierką dziedziny zwanej “Data Science”, wydała swoją książkę “Broń matematycznej zagłady”. Ostatnio w Polsce wiele z jej argumentów (niestety, w przeciwieństwie do niej,  nie posiadając przy tym faktycznej branżowej wiedzy) powtarzał w wywiadzie z Grzegorzem Sroczyńskim ekonomista Jan Zygmuntowski (wywiad ukazał się na łamach portalu Gazeta.pl)

Giganci potrzebują państwa

Przede wszystkim błędna jest teza, że gigantom technologicznym państwo nie jest do niczego potrzebne. Każda z wymienionych korporacji albo powstała z inicjatywy państwa, albo państwo w pewnym momencie w pewien sposób włączyło się w jej rozwój. Relacje korporacje technologiczne – państwo są znacznie bardziej skomplikowane niż “konkurencja o władzę i dusze”. Te pierwsze są w zasadzie całkowicie ograniczone władzą państwową. Oczywiście w sytuacji, kiedy państwo jest słabe mogą próbować na nie wpływać np. pośrednio lub bezpośrednio promować w wynikach wyszukiwania jedną opcję polityczną. Ale ostatecznie walczące w Europie i Ameryce o prawa mniejszości (w szczególności seksualnych) Google w Chinach współpracuje rządem w cenzurowaniu internetu.

Magia algorytmów

Cała “magia algorytmów” opiera się na wyszukiwaniu bardzo prostych korelacji na bardzo dużych danych. Jeżeli algorytm znajdzie korelacje, że 30 procent ludzi w wieku 30-35 lat, którzy lubią filmy Tarantino i regularnie odwiedzają Starbucksa ma problemy z terminowym spłacaniem karty kredytowej, to może się okazać, że taka osoba będzie miała problem z dostaniem kredytu hipotecznego. Algorytm będzie działał jak opisywane przez Daniela Kahnemana “myślenie statystyczne” – opierał się na prostej, matematycznej predykcji i oceniał z kim statystycznie mamy do czynienia i czy udzielenie kredytu danej osobie jest bezpieczne czy nie.

Jest ono o tyle różne od myślenia stereotypowego, że kluczowe tu jest pytanie “jaki procent osób pijących kawę na wynos ma problem ze spłacaniem kredytów”, a nie “jaki procent osób niespłacających kredytów pije kawę na wynos”. Oczywiście ciężko będzie wytłumaczyć korelację między kawą i Pulp Fiction, a niezapłaconymi ratami kredytu, ale sam algorytm również nie będzie w stanie wytłumaczyć jak do takich wniosków doszedł. Tutaj pewnie przydałby się jakiś ogarnięty matematycznie socjolog, który mógłby przedstawić historyjkę o tym, że człowiek, który używa karty kredytowej, aby napić się kawy za piętnaście złotych, zarabiając przy tym dwadzieścia dwa złote na rękę za godzinę nie jest na tyle wiarygodnym dla banku człowiekiem, aby wiązać się z nim na trzydzieści lat.

Podobnie zresztą jest z firmami ubezpieczeniowymi. Taki algorytm, który miałby wyceniać wartość składki na podstawie “danych z internetu” prawdopodobnie nie miałby lepszej skuteczności niż prosty formularz z pytaniami, w których prawdomówność byłaby warunkiem ważności ubezpieczenia. Oczywiście nieco trudniej byłoby oszukać taki algorytm, niż kartkę papieru, jednak w razie konfrontacji doświadczony agent ubezpieczeniowy chcący udowodnić kłamstwo w formularzu poradziłby sobie od “magicznych algorytmów” znacznie lepiej.

Czego szuka algorytm

 “Uczenie się algorytmów”, które miałyby odpowiadać za naszą składkę ubezpieczeniową nie przypomina w niczym naszego uczenia się chodzenia czy gry na pianinie, ale jest gra “Memo”, gdzie algorytm porównuje ze sobą dwie odkryte przed chwilą karty i sprawdza czy są do siebie podobne czy nie. Ostatecznie jedyne czego algorytm poszukuje  to jak bardzo dwie cechy są ze sobą skorelowane, bez wnikania czy faktycznie one mają one coś ze sobą wspólnego czy ich korelacja jest zupełnie przypadkowa i wynika po prostu ze statystyki. Matematycy często podają jako przykłady takich korelacji wykresy zależności konsumpcji sera, a liczby zgonów spowodowanych przez zawinięcie się w prześcieradło albo porównują roczną liczbę utonięć na basenach do liczby filmów, w których pojawiał się w danym roku Nicolas Cage.

Tutaj znowu dochodzimy do momentu, w którym każdy człowiek – nawet matematyk zamknięty w swojej matematycznej piwnicy z komputerem, skarpetkami frotte, porozrzucanymi notatkami i figurkami z Gwiezdnych Wojen – ma wystarczającą wiedzę ogólną, żeby takie zależności odrzucić jako nieprzydatne i zupełnie przypadkowe, natomiast dla algorytmu jest to równie sensowna korelacja jak powiązanie wzrostu z wagą, a im dłużej algorytm będzie szukał takich korelacji, oddalając się od bazowej dziedziny – tym więcej zamiast sensownych zależności, będzie zbierał zupełnie przypadkowe śmieci.

Algorytmy w dynamicznym świecie

Kolejnym problemem algorytmów jest fakt, że świat, w którym żyjemy jest światem dynamicznym. Wyszukane koralacje, które sprawdzały się w roku 2019 wcale nie muszą sprawdzać się w roku 2021 i cały system statystyczny, na którym będą operować, nawet po bardzo dokładnym zbadaniu nie będzie nam w stanie powiedzieć dlaczego tak właśnie się dzieje.

Ostatecznie wszystko to będzie się sprowadzało do pośredniego odgadywania psychometrycznych cech człowieka, takich jak predykcja ilorazu inteligencji, albo testu “wielkiej piątki” oraz oceny czynników środowiskowych – czyli jeżeli jesteś inteligentny, pracowity, masz wyższe wykształcenie, a Twoi rodzice pochodzą z klasy wyższej średniej – dostaniesz większy kredyt niż lekkoduch z kubkiem Starbucksa w ręku, który po ucieczce z położonego gdzieś na głębokiej prowincji domu rodziców zachłysnął się wielkomiejskim stylem życia. Wszystko to jest jak los człowieka wspinającego się po schodach z obrazów Mauritsa Cornelisa Eschera – po przebyciu długiej drogi w górę znowu znajduje się się w tym samym miejscu, bo dokładnie to samo robią dzisiaj ręcznie specjaliści do spraw oceny ryzyka kredytowego. W zasadzie z jednym zastrzeżeniem – osoby, które zajmują się dzisiaj takim ręcznym zbieraniem informacji o potencjalnym kredytobiorcy stracą pracę, bo wykorzystanie systemu IT będzie po prostu wydajniejsze i tańsze.

Naiwna wiara

Pozostaje jeszcze fakt naiwnej wiary w to, że dzisiejsze wielkie firmy technologiczne dalej będą rozdawać karty w następnych latach czy dziesięcioleciach. Historia zna przypadki takie jak Brytyjska Kompania Wschodnioindyjska, która (uwzględniając warunki historyczne) była znacznie potężniejsza, niż wszystkie dzisiejsze największe firmy technologiczne razem wzięte, a w 2019 roku mało kto słyszał, że coś takiego kiedyś istniało. 

Podsumowując chciałem wyraźnie zaznaczyć, że zagrożenie – zarówno ze stron wielkich firm technologicznych jak i ogólnie rozwoju technologii sztucznej inteligencji czy algorytmów istnieje. Będziemy musieli w przyszłości stawić czoła z ogromnymi przemianami ekonomicznymi, które mogą wypchnąć wiele osób z rynku pracy. Podobnie, tworzone przez te firmy rozwiązania, mogą zostać wykorzystane do zupełnie tradycyjnej inwigilacji, a takie wrażliwe informacje stać się przedmiotem (również zupełnie tradycyjnego) szantażu. Natomiast bajkopisarstwo o “kapitalizmie kognitywnym” odsuwa nas tylko od prawidłowej identyfikacji prawdziwych zagrożeń.