Przejdź do menu Przejdź do treści

Sztuczna inteligencja

zdefiniowana po raz pierwszy w roku 1955 przez J. McCarthy’ego. Trudno o jednoznaczną definicję sztucznej inteligencji, ponieważ na pierwszym miejscu należałoby wyjaśnić pojęcie inteligencji biologicznej – ludzkiej. Głównym założeniem staje się przeniesienie inteligentnych zachowań człowieka na płaszczyznę algorytmów i programów komputerowych. Sztuczna inteligencja jest zatem projektowaniem systemów o podobnych do ludzkich umiejętnościach – rozumowania, uczenia się, analizowania – wykorzystujących posiadaną wiedzę.

W środowisku naukowym rozważa się dwa podejścia do sztucznej inteligencji. Pierwsze to słaba sztuczna inteligencja opierająca się na poznaniu procesów toczących się w mózgu i przeniesieniu ich na numeryczny algorytm. To podejście, nazywane podejściem klasycznym, nie wykracza poza logiczne programowanie. Silna sztuczna inteligencja to krok wyżej na drabinie technologicznej ewolucji związany z powstaniem procesu samouczenia się i samodoskonalenia się maszyn. Modele wykorzystujące silną sztuczną inteligencja opierają się na głębokich sieciach neuronowych oraz dogłębnym i wnikliwym poznaniu biologicznych układów w mózgu. Definicje sztucznej inteligencji można budować z co najmniej kilku perspektyw. Jedną z nich jest perspektywa filozoficzna skupiająca się głównie na próbie zrozumienia bytów inteligentnych, płaszczyzna poznawczo-konstruktywna pozwoli rozważać poruszane kwestie z perspektywy możliwości rozwoju i kreacji bytów inteligentnych, przedstawiciele nauk ścisłych, w tym głównie informatyki skupią się na technicznych badaniach nad systemami AI (artificial intelligence), w szczególności systemami głębokiego uczenia maszynowego opartymi na sieciach neuronowych. Możliwości sztucznej inteligencji uświadomiła wygrana programu AlphaGo w niealgorytmiczną grę w Go w 2016 r.

Do wiodących ośrodków zajmujących się sztuczną inteligencją należą: Massachusetts Institute of Technology, Carnegie Mellon University, International Business Machine (IBM), a także prywatne ośrodki, takie jak: Fujitsu, Hitachi, NEC, Mitsubishi, Oki, Toshiba, Sony, Honda. Sztuczna inteligencja rozwija się w pięciu głównych obszarach: autonomicznych robotów i pojazdów, rozpoznawania i przetwarzania obrazów, przetwarzania i generowania mowy, wirtualnych asystentów i uczenia maszynowego. Rozwój na tych płaszczyznach może w przyszłości doprowadzić, według niektórych badaczy, do powstania superinteligencji, która przewyższa procesy poznawcze człowieka, a opierając się na uczeniu maszynowym, jest zdolna do samodzielnego podejmowania decyzji, a także wyciągania wniosków z zebranych danych.

Sztuczna inteligencja zrewolucjonizowała współczesny świat, A. Ng nazwał ją nową elektrycznością. Świat jest podzielony zarówno na zwolenników sztucznej inteligencji, jak i na jej przeciwników. Zwolennicy w perspektywie czasu i właściwego podejścia do rozwoju sztucznej inteligencji widzą ogromną szansę dla gatunku ludzkiego związaną z automatyzacją produkcji, zastąpieniem jednostek ludzkich w wielu dyscyplinach, co poza szerszym spojrzeniem i lepszym wykonaniem zadań przyczyni się także do zwiększenia ludzkiego czasu wolnego, a w przyszłości być może również do rezygnacji z pracy i wygenerowania dochodu gwarantowanego. Zagrożeniem jest powstanie superinteligencji, która zostanie wyrwana z ram określonych przez człowieka. Bez właściwego podejścia skupionego na interdyscyplinarnej dyskusji wobec rozwijającego się wyzwania technika ta, nieuregulowana od strony prawnej i etycznej, może stać się zagrożeniem, a nie szansą.

Jednym z kluczowych problemów dotyczących sztucznej inteligencji jest wykorzystanie jej w celach wojskowych. Autonomiczne systemy bojowe mają zarówno swoich zwolenników, jak i przeciwników. W trakcie International Joint Conferences on Artificial Intelligence 28 lipca 2015 r. został opublikowany otwarty list naukowców sprzeciwiających się jakiemukolwiek rozwojowi sztucznej inteligencji w systemach uzbrojenia. Zdaniem inicjatorów listu wyposażenie wojska w technologię sztucznej inteligencji i autonomicznych systemów bojowych jest możliwe w ciągu najbliższych lat, a nie dziesięcioleci, jak sądzono wcześniej. Jeśli do tego dojdzie, wydarzenie to należy traktować jako trzecią – po wynalezieniu prochu i wykorzystaniu broni atomowej –rewolucję w wojskowości. Sprzeciw wobec zastosowania sztucznej inteligencji w systemach bojowych ma kilka przyczyn. Po pierwsze, pojawienie się tego rodzaju broni spowoduje nowy wyścig zbrojeń, w którym wezmą udział nie tylko siły zbrojne państw wysokorozwiniętych, ale także ugrupowania terrorystyczne, watażkowie państw upadłych i reżimy autorytarne. Po drugie, technologia sztucznej inteligencji jest znacznie tańsza od technologii broni atomowej. Po trzecie, sztuczna inteligencja i autonomiczne systemy bojowe mogą być uznane za „idealną” broń służącą do zabójstw, destabilizacji narodów, tłumienia niepokojów społecznych oraz czystek etnicznych. Do 2019 r. list został podpisany przez 4502 badaczy z obszaru robotyki oraz 26 215 osób reprezentujących inne dziedziny naukowe i osoby spoza świata naukowego (sygnowali go m.in.: E. Musk, S. Wozniak, N. Chomsky, D. Hassabis czy F. Wilczek). Zagrożenia związane z wykorzystaniem autonomicznych systemów bojowych przedstawił również prof. Ch. Heyns (południowoafrykański prawnik) w raporcie przedstawionym w 2013 r. na forum Rady Praw Człowieka Organizacji Narodów Zjednoczonych. Badacz poruszył w nim takie kwestie, jak: brak empatii maszyn, możliwe trudności w odróżnieniu cywilów i żołnierzy w czasie konfliktu zbrojnego oraz problem odpowiedzialności za śmierć cywilów. W zaleceniach sugerował, aby Organizacja Narodów Zjednoczonych wezwała wszystkie państwa do wstrzymania badań nad autonomicznymi systemami bojowymi do czasu wypracowania przez ONZ ram dotyczących przyszłości tego rodzaju uzbrojenia.

Nie brak jednak argumentów wskazujących na konieczność rozwoju sztucznej inteligencji w siłach zbrojnych. Zwolennicy tego rozwiązania podkreślają, po pierwsze, działanie autonomicznych systemów bojowych jako mnożnika siły (force multiplier). Innymi słowy, umożliwiają one zintensyfikowanie ognia przy wykorzystaniu mniejszej liczby żołnierzy niż obecnie. Po drugie, cyborgizacja sił zbrojnych doprowadzi do zastępowania ludzi przez maszyny i ograniczy ofiary w czasie działań bojowych. Po trzecie, roboty są lepiej przystosowane do prowadzenia niebezpiecznych i długich misji, takich jak: loty bombowców strategicznych czy usuwanie materiałów wybuchowych. Po czwarte, wykorzystanie robotów w misjach zagranicznych może się okazać znacznie tańsze niż użycie „konwencjonalnego wojska”. Jak podkreślił D. Francis na łamach „The Fiscal Times”, w 2013 r. koszt utrzymania amerykańskiego żołnierza w Afganistanie wyniósł od 850 tys. dolarów do 1,2 mln dolarów rocznie. Robot TALON – łazik, który może być wyposażony w broń, kosztuje 230 tys. dolarów. Łazik 710 Warrior służący do holowania pojazdów na polu walki to wydatek rzędu 300–400 tys. dolarów. Humanoidalny robot PETMAN służący do testowania odzieży używanej przez armię Stanów Zjednoczonych, a szczególnie jej odporności na chemiczne środki bojowe, kosztuje 26,3 mln dolarów. Po piąte, użycie technologii sztucznej inteligencji w przyszłych konfliktach zbrojnych może się przyczynić do procesu „humanizacji wojny”.

Systemy broni autonomicznej nie będą zakłócane emocjami, takimi jak strach, lęk czy histeria. Jak podkreślił Ł. Kamieński z Uniwersytetu Jagiellońskiego, emocje w czasie działań bojowych są jedną z największych słabości człowieka. Przykładem tego jest wydarzenie, do którego doszło w Iraku w listopadzie 2005 r., kiedy w reakcji na śmierć amerykańskiego kaprala piechoty morskiej rozwścieczeni towarzysze wzięli odwet na irackich cywilach, zabijając dwadzieścia cztery osoby, w tym dziewięć kobiet, pięcioro dzieci i niemowląt. Wydarzenie to zostało przedstawione w filmie Bitwa o Irak (Battle for Haditha) w reżyserii N. Broomfielda. Wykorzystanie technologii sztucznej inteligencji w siłach zbrojnych nie musi być jednak związane z etycznie kontrowersyjną formą odbierania życia lub selekcją celów. P. Svenmarck, L. Luotsinen, M. Nilsson i J. Schubert na łamach „Swedish Defence Research Agency” wskazali na trzy wojskowe obszary wykorzystania sztucznej inteligencji: nadzór morski, zwalczanie min podwodnych oraz cyberbezpieczeństwo. W pierwszym przypadku technologia sztucznej inteligencji zostałaby wykorzystana do monitorowania ruchu statków oraz wykrywania potencjalnych zagrożeń. W drugim do wykrywania i neutralizacji min zastosowane zostałyby autonomiczne pojazdy podwodne. W trzecim przypadku technologia sztucznej inteligencji zostałaby wykorzystana do wykrywania nietypowego ruchu w sieci internetowej i ostrzegania przez cyberatakiem.

Niezależnie od toczącej się debaty między zwolennikami i przeciwnikami wykorzystania technologii sztucznej inteligencji od wielu lat prowadzone są zaawansowane badania w tym obszarze. Amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (Defense Advanced Research Projects Agency, DARPA) od lat 60. XX w. realizuje programy rozwoju zaawansowanych systemów komputerowych oraz badania nad ich automatyzacją mające służyć powstaniu sztucznej inteligencji. W latach 1983–1993 realizowany był program Strategic Computing Initiative składający się w sumie z 92 projektów prowadzonych w 60 ośrodkach (zakładach przemysłowych, ośrodkach akademickich, laboratoriach badawczych) o łącznej wartości ponad 1 mld dolarów. Pomimo że nie udało się osiągnąć celu, jakimi było stworzenie sztucznej inteligencji, badania DARPA zdynamizowały rozwój przemysłu komputerowego w USA. W kolejnych latach DARPA skupiła się na pracach badawczych w obszarze neurobiologii i szybkich komputerów. W 2011 r. na badania neurobiologiczne Departament Obrony USA wydał ponad 350 mln dolarów, z czego DARPA miała do dyspozycji 240 mln, siły lądowe 55 mln, marynarka wojenna 34 mln, a lotnictwo 24 mln. W 2014 r. z kolei amerykańska armia opublikowała strategię tzw. trzeciego offsetu mającą umożliwić dominację wojskową Stanów Zjednoczonych w kolejnych latach. Pierwsza strategia była związana z rewolucją nuklearną, druga z rewolucją informacyjną, najnowsza zaś zakłada ścisłą współpracę człowieka i maszyny.

Edyta Sadowska, Tomasz Wójtowicz

N. Bostrom, Superinteligencja. Scenariusze, szanse, zagrożenia, tłum. D. Konowrocka-Sawa, Helion, Gliwice 2016; A. Etzioni, O. Etzioni, Pros and Cons of Autonomous Weapons Systems, „Military Review” 2017, May–June; W. Fehler, Sztuczna inteligencja – szansa czy zagrożenie, „Studia Bobolanum” 2017, nr 3; M. Flasiński, Wstęp do sztucznej inteligencji, PWN, Warszawa 2011; Ch. Hayns, Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Human Rights Council, United Nations 2013; Ł. Kamieński, Nowy wspaniały żołnierz. Rewolucja biotechnologiczna i wojna w XXI wieku, Wydawnictwo Uniwersytetu Jagiellońskiego, Kraków 2014; A. Przegalińska, Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję, Universitas, Kraków 2016; T. Walczak, Istota inteligencji: fascynujaca opowieść o ludzkim mózgu i myślących maszynach, Helion, Gliwice 2006; T. Walsh, To żyje. Sztuczna inteligencja. Od logicznego fortepianu po zabójcze roboty, PWN, Warszawa 2018.