Czy sztuczna inteligencja będzie za nas decydować?


W ostatnich latach sztuczna inteligencja - SI (Artificial Intelligence - AI) jest coraz częściej stosowanym rozwiązaniem w obszarze nowych technologii, a zarazem tematem poruszanym w filmach science-fiction i dyskusjach naukowców i fachowców w wielu branżach. Od pewnego czasu pojawiają się też alarmistyczne prognozy, według których AI może nami rządzić lub nawet nas unicestwić. Przestrzegały już przed nią takie osoby, jak chociażby Elon Musk, czy Stephen Hawking. Jeden z najbardziej wziętych współczesnych myślicieli - Yuval Noah Harari stwierdził, że AI już niedługo będzie posiadała świadomość. Wyposażony w AI robot otrzymał obywatelstwo Arabii Saudyjskiej, a współczesne produkcje filmowe karmią nas obrazem superinteligentnych maszyn. Należy jednak zacząć od określenia, czym jest owa sztuczna inteligencja.
Sztuczna inteligencja jest przede wszystkim programem. Nie zmieni tego fakt, że ten kto o niej mówi jest znanym profesorem, ani wielomilionowe nakłady na jej promocję. O jakiejkolwiek świadomości nie ma nawet mowy, nawet gdybyśmy wyposażyli w AI robota, który wizualnie jest nie do odróżnienia od człowieka. Jest to program. Jego podobieństwo do ludzkiej inteligencji polega na sposobie analizy dostarczonych danych, pozwalającym na ich łączenie na zasadzie skojarzeń. Zasadnicza różnica pomiędzy inteligencją sztuczną, a inteligencją ludzką, oczywiście poza możliwościami (na dzień dzisiejszy), polega na sposobie postrzegania i wartościowania zjawisk, który raczej nigdy się nie zmieni. Nawet wtedy, gdy uda się zastosować w AI rozwiązania podobne do myślenia abstrakcyjnego i oparte chociażby na rachunku prawdopodobieństwa. Jest to oczywiście prawdopodobne, chociażby w konstruowaniu rozwiązań technologicznych, ponieważ istnieje szansa, że sztuczna inteligencja będzie w stanie dość sprawnie przeanalizować możliwości łączenia ze sobą znanych technologii oraz skutki takiego łączenia. O współczującym nam robocie możemy więc zapomnieć, chociaż bardzo prawdopodobne, że będziemy wyposażeni na starość w takiego, który w przypadku naszego złego samopoczucia zrobi smutną minę i powie ckliwym tonem: "nie martw się". Będzie to jednak tylko i wyłącznie proces interpretacji danych dotyczących naszego zachowania, mimiki, głosu, a być może nawet odczytu wewnętrznych reakcji organizmu.
W przypadku sztucznej inteligencji, problem polega na sposobie jej postrzegania przez ludzi. Ludzie w znacznej mierze opierają swoje poglądy na informacjach udostępnionych przy pomocy mediów, a te starają się sztuczną inteligencję "humanizować". Spotkałem się nawet z sytuacją, kiedy efekt dokonanej przez AI analizy danych składających się z kilkuset artykułów prasowych, przedstawiony został jako samodzielny osąd, a przynajmniej taki był kontekst informacji na ten temat. No właśnie. Przedstawmy fakty.
  1. Wnioski sztucznej inteligencji - wszystko zależy od treści danych wejściowych i jeśli dostanie "ona", jako dane wejściowe, pozycję literacką pod tytułem "Mein Kampf", to stanie się faszystką.
  2. Kontekst i wartościowanie - dla sztucznej inteligencji mogą istnieć jako pojęcia, natomiast nie jest ona w stanie ich zinterpretować. Występuje w tym przypadku pewien paradoks, ponieważ gdybyśmy wykorzystali ten sam program AI, ale dwie różne instalacje, do analizy "Mein Kampf" i "Biblii", a następnie zapytali obydwie sztuczne inteligencje co zrobić, gdy do naszego domu wejdzie kot to można się spodziewać, że w obydwu przypadkach otrzymalibyśmy wskazówkę, aby go zabić. Faszystowska AI mogłaby potraktować zwierzę jako gorszą formę życia, natomiast religijna - jako obraz obcego bóstwa. Oczywiście jest to przerysowany obraz, jednak dobrze obrazuje sposób "myślenia" AI.
  3. Analiza danych - bez wstępnej weryfikacji logicznej przez człowieka, może prowadzić do katastrofalnych wniosków. Gdyby pozwolić AI na samodzielną analizę dużych zbiorów danych z internetu, mogłoby się na przykład okazać, że wykorzystanie drewna dębowego do produkcji mebli w Europie negatywnie wpłynęło na populację kangurów w Australii tylko dlatego, że wskazywałyby na to dane liczbowe.

Faktem jest, że instytucje oraz przedsiębiorstwa coraz częściej polegają na sztucznej inteligencji. Do tego stopnia, że zaczyna być ona stosowana w kluczowych obszarach funkcjonowania państw, czego przykładem może być chociażby Estonia, gdzie prowadzone są prace nad wykorzystaniem AI w sądownictwie. Wiele osób obawia się takich rozwiązań i chyba całkiem słusznie, bo wszystko zależy od tego, kto wdraża i uruchamia AI oraz jakie dostarcza jej dane. Wiele kontrowersji wzbudza chociażby możliwość militarnego wykorzystania sztucznej inteligencji, jako elementu wyposażenia dronów autonomicznie podejmujących decyzje co do celu ataku. Prawda jest jednak taka, że elementem decydującym jest i tak człowiek, i nawet pozwolenie sztucznej inteligencji na samodzielne podejmowanie decyzji, też będzie decyzją człowieka (przydałyby się testy psychologiczne dla osób odpowiedzialnych za programowanie, wdrożenia i obsługę systemów opartych na AI). To człowiek decyduje o obszarze i zakresie zastosowania, człowiek określa zakres autonomii decyzyjnej sztucznej inteligencji oraz człowiek pozostawia sobie (lub nie) możliwość jej wyłączenia w przypadku, gdy funkcjonuje ona nieprawidłowo. Odpowiedzialność za ewentualne skutki jest więc tylko i wyłącznie ludzka.

Źródła:
Grafika: Pixabay

Komentarze

Popularne posty z tego bloga

Hyperloop - kiedy czas na Europę?

O ile można "ulepszyć" człowieka?

Czy tylko Hyperloop?