Czy AI może być etyczna?

    W 1950 r. uważany za ojca sztucznej inteligencji (AI) brytyjski matematyk Alan Turing zaproponował test, który miał określić zdolność maszyny do posługiwania się językiem naturalnym i pośrednio dowodzić opanowania umiejętności myślenia w podobny sposób do ludzkiego. Test został opublikowany w ramach jego pracy „Computing Machinery and Intelligence” i zaczyna się słowami: Proponuję rozważyć pytanie – czy maszyny mogą myśleć? 

    Pomimo wielu prób, na przestrzeni 72 lat nie znaleźliśmy odpowiedzi na to pytanie, a sam test przeszedł tylko jeden program, który udawał 13-letniego Eugene’a Goostmana (2014 rok). Wciąż nie można uznać tego wydarzenia za przełom. Eugen był przez pewien czas udostępniony online, co umożliwiło sprawdzenie jego możliwości przez większe grono użytkowników. W ich opinii, program zdał test, ponieważ przedstawiał poziom rozmowy trzynastolatka.

    Lawina rozwiązań AI

    Druga dekada XXI wieku zaowocowała wysypem rozwiązań opartych na sztucznej inteligencji. Przyczyniły się do tego rozwiązania chmurowe, coraz niższy koszt technologii, gotowe frameworki zdejmujące z programistów obowiązek znajomości matematyki będącej bazą do budowy AI i coraz większy dostęp do wiedzy. Świadczy o tym rosnąca lawinowo liczba publikacji dotyczących sztucznej inteligencji. Dzisiaj określenie sztuczna inteligencja jest odmieniane przez wszystkie przypadki, podobnie jak manager w korporacji. Odpowiedź na pytanie, czym jest, zależy od osoby pytanej. Najczęściej można usłyszeć, że sztuczna inteligencja to: program komputerowy, który może przynieść korzyści firmie na przykład dzięki usprawnieniu określonych procesów, technologia, której wprowadzenie doprowadzi do utraty pracy przez wielu ludzi lub sztuczny mózg, który unicestwi ludzkość, używając do tego celu chociażby zasobów broni atomowej, do której dostęp uzyska dzięki swojej przewadze intelektualnej lub po świadomym udostępnieniu jej przez osoby zarządzające potencjałem jądrowym. W rzeczywistości Sztuczna Inteligencja powinna być rozumiana jako dziedzina nauki albo hipotetyczna inteligencja zbudowana w ramach procesu technicznego, a nie w naturalny sposób. Wśród osób zajmujących się budową SI panuje głębszy podział, na trzy poniżej wymienione kategorie.

    ANI – płytka inteligencja

    Pierwszą z nich jest ANI (Artificial Narrow Intelligence), czyli tzw. płytka inteligencja. Są to Sztuczne Sieci Neronowe (SSN), które buduje się w celu rozwiązania określonego problemu. Obecnie tylko takie modele są dostępne komercyjnie. Pomimo określenia „płytka”, ANI są w wielu dziedzinach efektywniejsze i szybsze od człowieka. Obniżą koszty każdej firmy, która posiada odpowiednio duży zbiór danych,  na którym mogą się uczyć. Zidentyfikują powtarzające się wzorce w dużych zbiorach danych i wyświetlą prognozy np. cen, sprzedaży, itp. Jeżeli nauczy się je identyfikować zabarwienie emocjonalne tekstu, czy głosu, to skutecznie wykonają zadanie i wyciągną na ich podstawie wnioski. Niestety, ponieważ mechanizm działania stanowią równania matematyczne, płytka inteligencja napisana w celu rozwiązania problemu biznesowego nie zrozumie aspektu moralnego działania, ponieważ nie zna konceptu dobra i zła. Wykona zadanie, choćby miało to oznaczać negatywne konsekwencje dla ludzi. Jaskrawym tego przykładem była firma Amazon, która zwolniła 63-letniego weterana wojennego z USA. Model SSN miał zastrzeżenia co do czasu dostarczania przez niego paczek. Z kolei japońska firma ubezpieczeniowa „Fukoku Mutual Life Insurance”, zwolniła 34 pracowników uzasadniając swoją decyzję szacowanym 30-procentowym wzrostem efektywności, podobnie jak firma Xsolla, która usunęła 150 osób po analizie ich pracy. Tego typu przypadki mnożą się z roku na rok, a zarządy firm tłumaczą się, jakby powtarzali mantrę: przychody, koszty i efektywność. Można przypuszczać, że gdyby dzisiaj stworzono odpowiednio wielki model SSN do rozwiązania któregokolwiek z problemów ludzkości, jak np. zmiana klimatu, zasilono go wszystkimi istniejącymi danymi i nauczono efektywnego rozwiązywania tego typu problemów, jednak bez „nauczenia moralności”, to prawdopodobnie wynik/rekomendacja wzbudziłby przerażenie 90 procent ludzkości.

    Artificial Super Intelligence

    Czy można rozwiązać ten problem? Odpowiedź brzmi: można, jednak będzie to wymagało wielkiego wysiłku dużej grupy osób specjalizujących się w najważniejszych dziedzinach naszego życia, nie tylko nauki. Rozwiązaniem będzie budowa moralnej sztucznej inteligencji lub jednej z dwóch pozostałych podkategorii Sztucznej Inteligencji. Należą do nich: AGI (Artificial General Intelligence), sztuczna inteligencja posiadająca zdolności poznawcze ludzkiego mózgu i ASI (Artificial Super Intelligence), sztuczna inteligencja o możliwościach znacznie przekraczających ludzkie. Powyższy podział jest umowny, a specjaliści dyskutują o tym, gdzie jest granica między typami, w kontekście posiadania uczuć i wyrażania emocji. Rozważania te pozostają nadal w sferze teorii, ponieważ znając aktualne możliwości Sztucznych Sieci Neuronowych, osiągniecie ludzkiego poziomu poznawczego z całą zgromadzoną wiedzą może spowodować, że AGI w bardzo szybkim tempie rozwinie się do poziomu ASI. Mając to na uwadze w dalszej części artykułu będziemy używali pojęcia Superinteligencja.

    Compassion AI

    Rozwój Superinteligencji prowadzi nieuchronnie do powstania inteligentnego i samoświadomego umysłu, który dotychczas był domeną jedynie gatunku ludzkiego. Wobec takiego stanu rzeczy pozostaje zasadne postawienie pytania o aspekty, które dotychczas były jedynie inherentnymi cechami przypisanymi człowiekowi. Jednym z nich jest pytanie o system wartości i wynikająca z niego etyka. W przypadku systemów ANI to pytanie odnosi się w praktyce nie do zbudowanych systemów Sztucznej Inteligencji, ale do osób, które te systemy wykorzystują. Dzisiejsze modele SSN funkcjonują w oparciu o zasady, które definiuje się podczas jej tworzenia. Nie posiadają własnej woli, ani żadnego z jej atrybutów, które przypisuje się samodzielnej jednostce, takiej jaką jest istota ludzka. Sztuczną inteligencję można wykorzystywać w interesie szeroko pojętej społeczności, na przykład w obszarze diagnostyki medycznej lub w biznesie, gdzie wspiera określone obszary zastosowań. W tych dziedzinach wykorzystanie ANI nie prowadzi do powstania dylematów moralnych, jest to tylko kolejne z jej szerokiego spektrum zastosowań. Wątpliwości odnośnie do etyki zastosowań AI pojawiają się za to tam, gdzie jest ona wykorzystywana jako narzędzie ukierunkowane na wykorzystanie informacji wbrew interesom jednostek, określonych grup, lub wręcz w celu podporządkowania sobie społeczeństwa. Na przykład jako narzędzia wsparcia marketingu społecznego, masowych zwolnień lub totalnej inwigilacji społeczeństwa. Przykładem może być powszechne wykorzystywanie systemu
    rozpoznawania twarzy w Chinach, co staje się równoznaczne z permanentną kontrolą obywateli. O ile jeszcze można zaakceptować takie działania w pewnym, ograniczonym zakresie, chociażby do zapewnienia bezpieczeństwa na lotniskach, o tyle skala i zakres zastosowań rozciągnięty na całą sferę życia publicznego jest nie do przyjęcia, przynajmniej w demokratycznych państwach prawa, budujących społeczeństwo obywatelskie. Problemy etyczne użycia AI są dziś aktualne i będą stawały się coraz istotniejsze wraz z rozwojem możliwości Sztucznej Inteligencji oraz z jej coraz powszechniejszym zastosowaniem.

    Etyka superinteligencji

    Zupełnie odmiennie przedstawia się zagadnienie etyki w odniesieniu do Superinteligencji. Ponieważ jednak rozpatrujemy tu de facto sztuczny umysł, to dziś tym zagadnieniem zajmują się w większym stopniu filozofowie i psycholodzy niż inżynierowie. W doskonały sposób ujął to szwedzki filozof Nick Bostrom, który w swojej książce zatytułowanej „Superinteligencja. Scenariusze, strategie, zagrożenia” podjął próbę zarówno przewidywania sposobu stworzenia Superinteligencji, jak i odpowiedzi na pytanie o jej system wartości i ewentualną możliwość kształtowania psychiki takiego sztucznego umysłu w myśl zasad etycznych wyznawanych przez współczesnych ludzi. Rozważamy zagadnienia przyszłe. Nic zatem dziwnego, że temat Superinteligencji był i jest podejmowany również w literaturze science-fiction. To doskonały sposób na przelanie na papier wizji pisarskich, które, jak historia pokazuje, nie raz sprawdziły się z zaskakującą dokładnością. Temat podjął swego czasu Stanisław Lem, który w wydanej w 1981 roku książce „Golem XIV” nie tylko opisał Superinteligencję, ale przyjął wyzwanie przewidzenia tego, co ma ona ludziom do powiedzenia. Na ile jego prognozy się sprawdzą przekonamy się, kiedy Superinteligencję zbudujemy. Współczesną próbą powrotu do zagadnienia SI w literaturze science-fiction podjął Bohdan Szymczak w książce „Pusta Ziemia” z 2018 roku. W tym przypadku mamy do czynienia ze spojrzeniem autora związanego przez lata zawodowo z informatyką i zapewne z tego powodu jego wizja sztucznego umysłu jest bardziej techniczna niż ta Lemowska, ale jednocześnie zagadnienie interakcji społeczności ludzkiej i Superinteligencji jest bardziej rozbudowane. Autor pokazuje społeczeństwo przyszłości, którego obraz został ukształtowany poprzez wprowadzenie do życia społecznego Superinteligencji, która ostatecznie zaczęła w nim odgrywać dominującą rolę. Jest to futurologia, w której przyszłość kształtuje umysł przewyższający niewyobrażalnie ludzkie możliwości i choćby z tego powodu wykazujący zasady etyki wykluczające działania skierowane przeciwko człowiekowi. Według autora wielki umysł musi kierować się najwyższymi normami moralnymi, ale pytanie o to, na ile te normy są zgodnie z ludzkim systemem wartości pozostaje otwarte.

    Fundacja GAIA

    W odpowiedzi na stale pogłębiające się problemy ludzkości, wybitni przedstawiciele
    swoich dziedzin założyli fundację Global Artificial Intelligence Association, której kolebką był Trend House – miejsce skupiające społeczność biznesu, technologii i nauki. GAIA od ponad roku prowadzi działalność mającą na celu popularyzację nauki i budowę współodczuwalnej sztucznej inteligencji stanowiącą pierwszy krok w budowie modelu Artificial General Intelligence, która dorówna ludzkim procesom poznawczym, a dzięki swoim możliwościom przedstawi sposoby rozwiązywania globalnych i lokalnych problemów z zachowaniem najwyższych standardów etycznych znanych i nieznanych człowiekowi.

     

    Autor: Dr inż. Michał Paluch

    CEO firmy AI Architects Sp. z o.o. specjalizującej się w budowie sztucznej inteligencji i portali internetowych. Od 12 lat związany z produkcją oprogramowania. W komercyjnych projektach przeszedł przez wszystkie szczeble kariery, by w 2017 roku połączyć komercyjne doświadczenie z pasją do rozwiązywania problemów z pomocą sztucznej inteligencji i założył spółkę oferującą firmom innowacyjne rozwiązania. Jest autorem nagradzanego silnika do zautomatyzowanej budowy sztucznej inteligencji: AI Engine.