Superinteligentne AI – sztuka zachowania równowagi między szansą i zagrożeniem – Jerzy Filipowicz-Limanówka

Superinteligentne AI

Udostępnij post

Przeglądając zasoby informacyjne dostępne w Internecie uświadomiłem sobie pewną, charakterystyczną rzecz, mianowicie źródła mainstreamowe, tj. główne media oraz niezależni blogerzy publikujący wiadomości dotyczące sztucznej inteligencji, pełne są doniesień o kolejnych rewolucyjnych sukcesach firm zajmujących się ich tworzeniem w tym pokazujące nam nowatorskie możliwości ich zastosowania.

W opozycji do nich stoją z kolei artykuły, w których autorzy rozważają konsekwencje wynikające z postępującej automatyzacji czy cyfrowej autonomizacji działań realizowanych przez człowieka. Jaki wyłania się z tych rozważań obraz, czy faktycznie grozi nam to, co autorzy tych publikacji próbują nam przekazać? Czy faktycznie prezentowany świat wysoko cyfrowej społeczności kiedyś nadejdzie? I to za naszego, być może, życia?

Spójrzmy na wypowiedzi opiniotwórczych osób zaangażowanych w rozwój rozwiązań inteligentnych, takich jak Elon Musk czy profesor Stephen Hawking. Elon Musk w trakcie National Governors Association Summer Meeting na Rhode Island zorganizowanej w 2017r. powiedział – “Dopóki ludzie nie zobaczą robotów, które chodzą po ulicach i zabijają innych ludzi… nie będą wiedzieli, jak mają reagować, ponieważ wydaje im się to takie eteryczne (temat sztucznej inteligencji). AI to rzadki przypadek, kiedy moim zdaniem powinniśmy być proaktywni w ustanawianiu regulacji, a nie reaktywni. Dlatego, że moim zdaniem z reaktywną postawą dojdziemy do momentu, w którym będzie już za późno”.

Profesor Stephen Hawking w liście otwartym podpisanym wraz z innymi autorytetami w 2016r. powiedział „Prawdziwym ryzykiem związanym z rozwojem sztucznej inteligencji nie jest to, że będzie złośliwa, a kompetencje, w jakie będzie wyposażona. Superinteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem.”

Osobiście nie dziwi mnie ton tej dyskusji. Bez względu na temat, w społeczeństwie zawsze znajdą się zarówno osoby bezkrytycznie promujące jakieś tezy, rozwiązania, przedstawiające świat w kolorowych barwach, jak również osoby stojące do nich w opozycji. Zastanówmy się jednak nieco bardziej systematycznie, czy faktycznie jest się czego obawiać? A jeśli tak, to czy istnieje sposób abyśmy rozsądnie podeszli do dalszych prac nad sztuczną inteligencją? Uważam, że wprowadzenie rozsądku do dyskusji nad wykorzystaniem oraz kierunkiem dalszego rozwoju sztucznej inteligencji może przynieść nam tylko korzyści. Z pewnością nie zablokuje procesu jej rozwoju, a jedynie uczyni go właściwym, tj. zapewni właściwe relacje między twórcą i jego dziełem nakierowane na zapewnienie przede wszystkim bezpieczeństwa twórcy.

„Inteligencja”

Myślę, że każdy z nas, nawet intuicyjnie, rozumie pojęcie Sztucznej Inteligencji. Oczywiście powstało wiele rozpraw, które podjęły próbę zdefiniowania pojęcia „inteligencja” w sposób naukowy, natomiast na potrzeby niniejszego artykułu przyjmijmy, że punktem wyjścia jest człowiek jako istota inteligentna i charakteryzujące go procesy myślowe takie jak wnioskowanie, logiczne myślenie, podejmowanie decyzji. Następnie odniosę te zjawiska i charakterystyki do stworzonych przez człowieka rozwiązań cyfrowych będących sztucznym tworem, próbujących odwzorować całokształt zjawisk składających się na inteligencję twórcy, czyli właśnie człowieka. Możemy zadać jednak pytanie – czy wszystkie rozwiązania inteligentne są sobie równe, czy w równym stopniu odwzorowują inteligencję człowieka?

W inżynierii zajmującej się rozwiązaniami inteligentnymi zdefiniowano trzy różne grupy systemów. Możemy wyróżnić tzw. ANI (Artificial Narrow Intelligence), czyli wyspecjalizowane rozwiązania inteligentne, tzw. AGI (Artificial General Intelligence), czyli rozwiązania próbujące zaimplementować ogólną, uniwersalną inteligencję człowieka, oraz tzw. ASI (Artificial SuperIntelligence), czyli rozwiązania w pełni dorównujące i mogące odwzorować inteligencję człowieka, a nawet ją prześcignąć.

Czy wiemy co zawierają poszczególne grupy systemów?

W grupie ANI mamy rozwiązania takie jak rozpoznawanie mowy, rozpoznawanie obrazu, translację języka i tym podobne, czyli bardzo konkretne rozwiązania, które rozwijane są od dziesięcioleci i nawet teraz obecne są w naszym życiu.

Grupa rozwiązań AGI..

znanych również jako strong-AI (silne AI) lub full-AI (pełne AI), to rozwiązania, w których podstawowym założeniem jest uruchomienie systemu będącego w stanie podjąć się realizacji dowolnego intelektualnego zadania, które może wykonać człowiek. Prace nad takimi systemami cały czas trwają, jednakże sukces ich działania w dużej mierze zależy między innymi od możliwości jakie daje infrastruktura IT oraz na tym czy jesteśmy wstanie odwzorować sposób w jaki funkcjonuje ludzki mózg tak aby móc potem odwzorować w pełni te procesy w systemie.

Grupa rozwiązań AGINie tak dawno przeczytałem, że podobno w Chinach udało się zbudować infrastrukturę na tyle silną, że jej moc obliczeniowa jest w stanie dać podstawę do uruchomienia systemu AGI, nadal jednak pozostaje kwestia pełnego zrozumienia jak działa ludzki mózg. Niemniej wydaje się jednak, że to już tylko kwestia czasu, kiedy uda nam się uruchomić AGI i odkryjemy, na ile w pełni inteligentny, mogący realizować dowolny proces intelektualny system może sprawdzić się w praktyce. Czy emulowanie pracy całego mózgu da nam jakieś wymierne korzyści? Zobaczymy. Myślę, że w tym przypadku będziemy mogli mówić o rewolucji.

Wiemy co to jest ANI i AGI, czym w takim razie jest koncepcja ASI? Sztuczna superinteligencja jest, możemy powiedzieć, najwyższym stopniem „wtajemniczenia” w dziedzinie sztucznej inteligencji. Wyobraźmy sobie rozwiązanie, które inteligencją przewyższa najbardziej inteligentnego człowieka, realizuje procesy intelektualne w czasie nieporównywalnie krótszym niż najinteligentniejszy człowiek. Brzmi to jak fantastyka naukowa. W przypadku takiego rozwiązania nie mówimy już tylko o realizowaniu pojedynczego procesu logicznego jak to ma miejsce w przypadku ANI, ani również o emulowaniu ludzkiego mózgu jak to ma miejsce w przypadku AGI. Mówimy tutaj o możliwościach intelektualnych wykraczających poza możliwości samego człowieka. Zastanawiam się, czy człowiek byłby w ogóle w stanie zrozumieć swoje dzieło, gdyby udało mu się stworzyć rozwiązanie inteligentniejsze od swojego twórcy.

Praktyczne AI

Skoro już wiemy czym charakteryzują się poszczególne grupy systemów, zastanówmy się jakie wnioski płyną z praktycznego zastosowania każdego z rozwiązań AI. Dzisiaj, z punktu widzenia oddziaływania na nasze życie i tego co robimy, rozwiązania klasyfikowane jako ANI, możemy uznać za naszą codzienność. Rozwiązania AGI, czy tym bardziej ASI, są obecne nadal bardziej w sferze naukowych rozważań i badań niż praktycznego zastosowania, aczkolwiek mając na uwadze coraz częściej pojawiające się informacje o szybkim rozwoju infrastruktury niezbędnej do skutecznego uruchomienia AGI warto moim zdaniem przyjrzeć się zagrożeniom i wyzwaniom związanym z uruchomieniem takiego rozwiązania, gdyż niewykluczone, że prace nad AGI zostaną istotnie przyspieszone po jego skutecznym uruchomieniu.

Spośród wszystkich zagrożeń i wyzwań, które moglibyśmy wskazać, a które w istotny sposób zależeć będą od stopnia autonomizacji i zaawansowania danego rozwiązania począwszy od ANI a skończywszy na ASI, chciałbym skupić się na dwóch, które według mnie co do zasady są uniwersalne i dotyczą każdego rodzaju rozwiązania.

Mam tu na myśli po pierwsze zmiany jakie będą zachodzić w społeczeństwie w związku z upowszechniającą się automatyzacją i autonomizacją, oraz po drugie, można powiedzieć, związane z tym wyzwanie jakim jest konieczność dostosowania aktualnie obowiązującego systemu prawnego umożliwiającego przede wszystkim ustanowienie odpowiednich relacji pomiędzy rozwiązaniami inteligentnymi a ich twórcą, czyli człowiekiem.

Potrzebna akceptacja!

W mojej opinii, podstawowym wyzwaniem jest przede wszystkim akceptacja ze strony społeczeństwa. Ogromne możliwości zastosowania AI w dziedzinach takich jak medycyna czy przemysł spowodują, że stanie się ona powszechna, a co za tym idzie skutki wdrożenia tej technologii dotkną znaczną liczbę populacji. Już teraz niepokój budzi stale rosnąca automatyzacja niektórych zawodów czy też aktywności, szczególnie tych, które nie wymagają wysokospecjalistycznych kwalifikacji. Postępująca automatyzacja potencjalnie może, ale nie musi wyeliminować z rynku pracy pewną część aktywnych zawodowo osób, z drugiej strony może też stymulować podnoszenie kwalifikacji w celu utrzymania się na rynku. Organizacje reprezentujące pracowników, same firmy czy agendy rządowe, będą musiały podjąć wyzwanie i wypracować w tej kwestii odpowiednie porozumienie. Aby takie porozumienie mogło zostać zawarte oraz prace w jego kierunku mogły się toczyć, konieczna jest przede wszystkim wola wszystkich stron oraz świadomość zmian jakie zachodzą.

Niewątpliwie widzę tu istotną rolę przywódczą agend rządowych, których celem i misją jest reprezentowanie całego społeczeństwa oraz dbanie o jego bezpieczeństwo i tworzenie warunków sprzyjających zaspokajaniu zróżnicowanych potrzeb.

Potrzebna akceptacjaOczywiście równie ważną rolę, stymulującą do dyskusji i wypracowania kompromisów, pełnią organizacje społeczne między innymi reprezentujące pracowników i pracodawców. Kolejnym ważnym aspektem jest poziom, powiedzielibyśmy szczebel, tej dyskusji. Tworzenie, rozwijanie i wdrażanie rozwiązań inteligentnych jest zjawiskiem globalnym, zatem tego typu dyskusja powinna toczyć się na arenie międzynarodowej, niemniej wypracowanie konkretnych rozwiązań to domena krajowa, w związku z tym możemy myślę uznać, że rozwiązania te wypracowane przykładowo w ramach Unii Europejskiej mogą być niewystarczające.

Jeszcze raz podkreślę – kontynuowanie i pogłębianie dyskusji musi toczyć się również na lokalnym rynku. Oczywiście, pojawia się istotne pytanie, kto konkretnie powinien tym się zająć. W mojej ocenie, ze względu na fakt, że rozwiązania AI dotykają niemal wszystkich aspektów życia jednostki jak i społecznego, przykładowo mają wpływ na rynek pracy, bezpieczeństwo wewnętrzne i zewnętrzne, administrację i finanse, oznacza to, że być może każda dziedzina powinna być w tej dyskusji właściwie reprezentowana. Pojawiają się również wątpliwości, czy wszystkie strony tej dyskusji w równym stopniu są zainteresowane udziałem. O ile nie mam wątpliwości, że sektor prywatnych przedsiębiorstw jest zainteresowany przede wszystkim rozwojem samego przedsiębiorstwa i wypracowaniem korzyści dla ich właścicieli, między innymi poprzez rozwój rozwiązań inteligentnych, a organizacje społeczne przede wszystkim bronią interesów samych pracowników, o tyle właśnie instytucje publiczne powinny pełnić rolę, powiedzielibyśmy, koordynatora czy facilitatora, który zarówno pracodawcom jak i pracownikom może ułatwić znalezienie płaszczyzny porozumienia. W mojej ocenie, przynajmniej na dzień dzisiejszy, niestety za mało obecne są w tej dyskusji właśnie instytucje publiczne w naszym kraju. Mam nadzieję, że to się zmieni.

System prawa a AI

Kolejnym zagadnieniem, możemy powiedzieć wyzwaniem, jest oczywiście aktualnie obowiązujący system prawa. Wystarczy jeden tylko przykład: autonomiczne pojazdy. Możemy sobie wyobrazić, że w państwach o liberalnym systemie prawnym, który nie ingeruje w sferę ruchu drogowego, już dzisiaj pojawienie się pojazdu nie sterowanego przez kierowcę może być z punktu widzenia prawa legalne i dopuszczalne, jednakże w kraju takim jak Polska, gdzie system prawa jest bardzo rozbudowany i zazwyczaj skomplikowany, aby taki pojazd mógł bezpiecznie i legalnie włączyć się do ruchu, być może konieczne byłoby wprowadzenie niezbędnych zmian dostosowawczych w aktualnym systemie prawa (czy i jakie konkretnie zmiany byłyby konieczne będzie wynikiem głębokiej analizy obowiązujących regulacji).

Dzisiaj moglibyśmy zadać szereg intrygujących pytań takich jak ‘Jak to możliwe, że pojazdem nie kieruje kierowca? To kto kieruje? Kto odpowiada za poruszający się pojazd?’. Odpowiedzi na te pytania mogą być zaskakujące w konfrontacji z aktualnie obowiązującymi przepisami.

Innym przykładem może być zastosowanie rozwiązań w pewnym sensie ingerujących w sferę prywatności każdego człowieka – przykładowo system dokonujący analizy porównawczej obrazu z kamer miejskich, przemysłowych, zainstalowanych w urządzeniach komputerowych, monitoring rozmów telefonicznych i sms’ów, system analizujący informacje dostępne w sieci Internet, w tym komunikaty wysyłane kanałami publicznymi i prywatnymi, i – jak powiedziałem – dokonujący głębokiej analizy porównawczej w celu identyfikacji pewnych zdefiniowanych wzorców, przykładowo w celu wykrycia zjawisk czy działań stanowiących zagrożenie bezpieczeństwa.

System prawa i konieczność jego adaptacji to nie tylko sama kwestia legalności wprowadzenia do obrotu rozwiązań inteligentnych, to również zagadnienie jakim jest sprawowanie nadzoru nad tworzeniem i stosowaniem rozwiązań inteligentnych, oraz umocowanie prawne instytucji oddelegowanych do kontroli i podjęcia działań nadzorczych w stosunku do twórców rozwiązań czy podmiotów je wykorzystujących w celu zagwarantowania bezpieczeństwa człowieka.

Oczywiście zanim takie instytucje mogłyby się pojawić i realizować swoje uprawnienia wynikające z przepisów prawa, konieczne jest określenie jakie cechy musi posiadać rozwiązanie inteligentne, aby uznać je za bezpieczne i nie stanowiące zagrożenie dla człowieka. Dyskusja, która dałaby odpowiedź na pytanie `W jaki sposób powinny być tworzone rozwiązania inteligentne oraz czym się powinny charakteryzować, aby uznać je za bezpieczne?`, wymaga zaangażowania całej społeczności międzynarodowej i takie prace już zostały, w zasadzie, uruchomione, czy to na poziomie Unii Europejskiej (wystarczy wspomnieć tutaj szereg zaleceń komisji przy Parlamencie Europejskim wydane w 2017 roku) oraz na szczeblu poszczególnych krajów.

Jako lidera możemy wskazać tutaj rząd Stanów Zjednoczonych i raporty takie jak Artificial Inteligence, Automation, and the Economy wydany w 2016 roku czy drugi raport Preparing for the future of Artificial Inteligence również wydany w 2016 roku. Tego typu dyskusja, oprócz charakteru prawnego, ma niewątpliwie również charakter etyczny. Za chwalebne należy uznać powołanie organizacji jaką jest AI ethics research group powołana między innymi z inicjatywy Elona Muska. Zastanawiające w tym kontekście jest opuszczenie tej grupy właśnie przez samego Elona Muska, gdzie jako oficjalną przyczynę podano konflikt interesów między udziałem w pracach tej grupy i zintensyfikowaniem w Tesli prac nad rozwojem sztucznej inteligencji. Pozostaje nam mieć nadzieję, że powód był czysto ekonomiczny, tj. konieczność wsparcia Tesli w poprawieniu wyników finansowych, a nie etyczny.

Sztuczna superinteligencja – warto nad nią pracować?

 

Czy warto nad nią pracowaćPodsumowując, powiedziałbym, że o ile łatwo ulegamy zachwytowi wynikającemu z coraz to nowych możliwości jakie dają nam rozwiązania inteligentne i zapewne niejedna osoba z wypiekami czyta doniesienia o twórcach robotów prześcigających się w wymyślaniu i uczeniu ich z sukcesem coraz to nowych „sztuczek”, jednakże warto przez chwilę i co jakiś czas zastanowić się, czy przypadkiem nie zapominamy o nas samych. O tym po co to robimy, czemu ma służyć uczenie maszynowe, dlaczego człowiek koniecznie chce stworzyć emulator ludzkiego mózgu, czy faktycznie warto jest pracować nad sztuczną superinteligencją. Czy to jest jedynie, powiedzielibyśmy, dziecięca zabawa i czy przypadkiem przy tej zabawie, tak jak małe dzieci, nie poparzymy sobie rączek.

Osobiście optuję za rozsądkiem, nawet ograniczeniem funkcjonalności, a być może dzięki temu zminimalizujemy zidentyfikowane ryzyko i unikniemy zagrożeń. Zastanówmy się nad tym, bo warto.

Zapraszam do zapoznania się z kolejnymi artykułami, które będą traktować o praktycznych zastosowaniach AI w SMART OFFICE. Wszystkie artykuły dostępne są na stronie grupy SMART OFFICE.

Oceń ten Artykuł

Zwiększ efektywność swojego działu IT!

Skontaktuj się z nami i dowiedz się jak możesz poprawić efektywność pracy Twojego działu IT.