Sztuczna inteligencja pojawia się w coraz większej ilości dziedzin życia, a algorytmy, na podstawie których działa z każdym rokiem stają się bardziej zaawansowane. Powstają różne próby nadania robotom podmiotowości prawnej: robot humanoidalny Sophia otrzymał obywatelstwo Arabii Saudyjskiej, a Parlament Europejski przyjął rezolucję w sprawie nadania robotom statusu osoby elektronicznej. W przypadku najbardziej zaawansowanych maszyn autonomicznych coraz częściej powstaje trudność w przypisaniu odpowiedzialności konkretnemu podmiotowi, który zaprojektował, wyprodukował bądź użytkuje daną maszynę. 

Robot autonomiczny, znany również jako po prostu autorobot lub autobot, to robot, który wykonuje zachowania lub zadania z wysokim stopniem autonomii (bez wpływu z zewnątrz). Pierwszym wymogiem dla pełnej fizycznej autonomii jest zdolność robota do dbania o siebie. Wiele z dostępnych obecnie na rynku robotów zasilanych bateriami potrafi samodzielnie znaleźć i podłączyć się do stacji ładowania, a niektóre roboty są zdolne do samodzielnego dokowania w celu naładowania baterii. Kolejną cechą jest priopriocepcja czyli wyczuwanie własnego stanu wewnętrznego. W przykładzie z ładowaniem baterii, robot może proprioceptywnie stwierdzić, że jego baterie są na wyczerpaniu i wtedy poszukuje ładowarki. Inny popularny czujnik proprioceptywny służy do monitorowania ciepła. Zwiększona propriocepcja będzie wymagana dla robotów, które będą pracować autonomicznie w pobliżu ludzi i w trudnych warunkach. Popularne czujniki proprioceptywne obejmują czujniki termiczne, optyczne i dotykowe. Robot może także wiedzieć, kiedy jest uszkodzony i samodzielnie poszukiwać niezbędnych części zamiennych. Dalej – eksterocepcja, czyli wyczuwanie elementów środowiska zewnętrznego. Autonomiczne roboty posiadają szereg czujników środowiskowych. Typowe czujniki eksterocepcji obejmują spektrum elektromagnetyczne, dźwięk, dotyk, substancje chemiczne (zapach, aromat), temperaturę, zasięg do różnych obiektów i wysokość. Kolejnym krokiem w zachowaniu autonomicznym jest rzeczywiste wykonywanie zadań fizycznych. Przykładowo roboty odkurzające poruszają się one po rozległych obszarach i pilotują w ciasnych sytuacjach wokół domów, korzystając z czujników kontaktowych i bezkontaktowych. Roboty te używają zastrzeżonych algorytmów w celu zwiększenia zasięgu w stosunku do zwykłego, losowego odbijania się od powierzchni zewnętrznych. Kolejny poziom autonomicznego wykonywania zadań wymaga od robota realizacji zadań warunkowych. Na przykład, roboty bezpieczeństwa mogą być zaprogramowane do wykrywania intruzów i reagowania w określony sposób w zależności od tego, gdzie intruz się znajduje. Robot autonomiczny powinien posiadać także autonomiczną nawigację tj. poruszać się samodzielnie zarówno w pomieszczeniach zamkniętych, jak i otwartych, a także pracować przez dłuższy czas bez nadzoru człowieka. Nadzór człowieka powinien ograniczyć się w zasadzie jedynie do niezbędnej konserwacji robota, a nie sterowania za pomocą pilota lub innego urządzenia. Robot autonomiczny może również uczyć się lub zdobywać nową wiedzę, np. dostosowując się do nowych metod realizacji zadań lub adaptując się do zmieniającego się otoczenia. Zakres wykorzystania mobilnych robotów autonomicznych w dzisiejszym społeczeństwie stale rośnie. W zależności od branży, wykorzystywane są następujące typy robotów: medyczne, wojskowe, przemysłowe, budowlane, naukowe i badawcze, itd. Roboty od dawna pomagają w szeroko pojętym przemyśle.

Pojawia się pytanie, w jaki sposób uregulować odpowiedzialność za działania robotów autonomicznych. Jedną z koncepcji jest zastosowanie odpowiedzialności za produkt niebezpieczny. Przepisy polskiego kodeksu cywilnego przewidują odpowiedzialność określonych podmiotów, przede wszystkim producenta, na zasadzie ryzyka za szkodę wyrządzoną przez produkt niebezpieczny.Określony w Kodeksie Cywilnym obowiązek odszkodowawczy z tytułu szkód wyrządzonych przez produkt niebezpieczny obejmuje, co do zasady, naprawienie wszelkich strat i uszczerbków (zarówno majątkowych jak i niemajątkowych) wyrządzonych przez produkt niebezpieczny. Obejmuje to zarówno straty poniesione wprost w wyniku zdarzenia powodującego szkodę (tzw. szkoda rzeczywista), jak i potencjalnych korzyści jakie zostały utracone w wyniku wystąpienia zdarzenia powodującego szkodę (utrata spodziewanych korzyści). Co również ważne, możliwość dochodzenia odpowiedzialności za szkody wyrządzone przez produkt niebezpieczny nie zamyka drogi do dochodzenia odszkodowania na zasadach ogólnych. W szczególności poszkodowany będący nabywcą niebezpiecznego produktu będzie mógł dochodzić swoich roszczeń w oparciu o odpowiedzialność kontraktową za niewykonanie lub nieprawidłowe wykonanie umowy lub w oparciu o przepisy regulujące rękojmie za wady i gwarancję jakości towaru. Zasadniczo, za szkody wyrządzone przez produkt niebezpieczny będzie w pierwszej kolejności odpowiadał jego producent (wytwórca). Ponadto, w określonych sytuacjach Kodeks Cywilny przewiduje możliwość objęcia odpowiedzialnością również innych podmiotów: Wytwórców materiału, surowca albo części składowej produktu, osób podających się za producentów (tzw. quasi-producent lub producent nominalny) poprzez podanie swojej nazwy, znaku towarowego lub innego oznaczenia odróżniającego, jak również osób wprowadzających na rynek produkty pochodzenia zagranicznego (dostawcy produktu). Powyższe podmioty odpowiadają na zasadzie solidarności z producentem. 

Podobne rozwiązanie zaproponował Parlament Europejski. 16 lutego 2017 r. Parlament Europejski przyjął Rezolucję 2015/2103 (INL) zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki. Dokument ten porusza problematykę funkcjonowania sztucznej inteligencji w obrębie prawa, mając na uwadze gwałtowny rozwój osiągnięć w dziedzinie robotyki. W założeniu propozycje zawarte w dokumencie miałyby znaleźć zastosowanie w wypadku powstania sztucznej inteligencji dorównującej ludziom. Ustawodawca europejski zastosował w niej dwa kluczowe pojęcia, które na chwilę obecną wyznaczają sposób myślenia o regulacjach prawnych dotyczących sztucznej inteligencji, czyli pojęcia: statusu osoby elektronicznej i konsumenta. Status osoby elektronicznej stanowi de facto kolejną formę podmiotowości prawnej. Dokument wzywa do opracowania wspólnej europejskiej definicji inteligentnych autonomicznych robotów. Odpowiedzialnością za działanie robota obarczony byłby producent lub dostawcy, a odpowiedzialność opierałaby się na zasadzie ryzyka. Rozwiązanie prawne zastosowane do kwestii odpowiedzialności robotów i sztucznej inteligencji w przypadkach innych niż szkody materialne nie może w jakikolwiek sposób ograniczać rodzaju lub zakresu szkód, za które można uzyskać odszkodowanie. Nie powinno ono również ograniczać form odszkodowania oferowanego osobie poszkodowanej wyłącznie dlatego, że przyczyną szkody był czynnik pozaludzki. Przyszły instrument prawny powinien być oparty na szczegółowej ocenie przeprowadzonej przez Komisję w celu określenia, czy należy zastosować odpowiedzialność na zasadzie ryzyka czy też podejście zakładające zarządzanie ryzykiem. Należy utworzyć obowiązkowy system ubezpieczeń, który mógłby opierać się na zobowiązaniu producenta do wykupienia ubezpieczenia w związku z wytwarzanymi przez siebie automatycznymi robotami. Taki system ubezpieczeń mógłby zostać uzupełniony funduszem, aby możliwe było dokonywanie napraw szkód w przypadkach, które nie są objęte ubezpieczeniem.

W literaturze pojawiają się ostatnio głosy, aby odpowiedzialność prawną ponosiły także same roboty autonomiczne. Według zwolenników koncepcji silnej sztucznej inteligencji odpowiednio zaprogramowany komputer byłby w istotnym zakresie równoważny umysłowi ludzkiemu, tj. np. posiadałby zdolność „samouczenia się” oraz procedury umożliwiające mu rozwiązywanie problemów poprzez uczenie się. Zdaniem Ying Hu z Yale University, aby można było przypisać odpowiedzialność moralną robotowi autonomicznemu muszą być spełnione łącznie trzy przesłanki: 

  • Wyposażenie robota w algorytmy zdolne do podejmowania decyzji moralnych
  • Zdolność robota do komunikowania decyzji moralnych,
  • Działanie robota bez bezpośredniego nadzoru człowieka.

Inteligentny robot musi być wyposażony w algorytmy, które są w stanie do podejmowania nietrywialnych decyzji istotnych moralnie (“algorytmy moralne”). Decyzja jest moralnie istotna, jeśli dotyczy wyboru pomiędzy dwoma lub więcej sposobami działania, które mogą być uznane za słuszne lub niesłuszne przez zwykłych członków naszego społeczeństwa. Inteligentny robot musi być zdolny do komunikowania ludziom swoich decyzji moralnych, w tym sposoby działania dostępne dla robota przed podjęciem decyzji, wagę, jaką przykłada do każdego z nich, oraz sposób działania, które ostatecznie wybierze.  Weźmy jako przykład autonomiczny pojazd: powinien on być w stanie poinformować ludzi, że zanim stracił kontrolę, jedynymi dwoma praktycznymi kierunkami działania było zderzenie z człowiekiem po jego lewej lub z drzewem po prawej stronie; po stwierdzeniu, że życie ludzkie jest cenniejsze niż życie drzewa, wybrał ten drugi sposób działania. Ponadto, inteligentny robot musi być w stanie i mieć pozwolenie na działanie w swoim środowisku bez bezpośredniego nadzoru człowieka. Innymi słowy, robot nie opiera się na poradach etycznych udzielanych mu przez człowieka tylko działa samodzielnie.

Jaki byłby sam cel ponoszenia odpowiedzialności przez roboty? Po pierwsze – inteligentne algorytmy mogłyby się uczyć, jakie zachowanie jest złe. Jeśli jeden robot zostałby ukarany np. poprzez wyłączenie jego procesora danych – wysyłałby sygnał do innych robotów, których algorytmy uczyłyby się, że należy unikać danego zachowania, bo grozi to wyłączeniem robota. W ten sposób roboty stawałyby się bardziej moralne. Byłaby realizowana funkcja prewencyjna prawa karnego – odstraszanie pozostałych robotów od popełniania zachowań karalnych. Po drugie – z uwagi na funkcję sprawiedliwościową prawa karnego – zaspokojeniu poczucia sprawiedliwości osoby pokrzywdzonej, oraz rodziny ofiary i jej grupy społecznej poprzez ukaranie sprawcy.  Przeciwnicy takiego modelu wskazują na brak społecznego uzasadnienia odpowiedzialności robotów, podobnie, jak obecnie nowoczesny system prawny nie pociąga do odpowiedzialności zwierząt. (dawniej oczywiście były procesy przeciwko zwierzętom, jednak wynikały one głównie z zabobonów, np. zakładających, że zwierzęta uosobieniami złych duchów i proces zwierzęcia miał za zadanie oczyścić daną społeczność ze złych duchów – na to oczywiście nie ma miejsca w nowoczesnym prawie karnym). 

Na razie taki scenariusz wydaje się być jeszcze w sferze science fiction a postulaty wprowadzenia odpowiedzialności samych robotów znajdują się przede wszystkim w sferze de lege ferenda, jednak być może w następnych dziesięcioleciach wobec szybkiego rozwoju techniki prawo będzie musiało zmierzyć się z podobnymi przypadkami. Obecnie zasadniczo wystarczające wydaje się uregulowanie odpowiedzialności za działania robotów autonomicznych w ramach reżimu odpowiedzialności za produkt niebezpieczny.

Bibliografia:

  1. L. Bosek, Perspektywy rozwoju odpowiedzialności cywilnej, zagadnienia wybrane odpowiedzialności za inteligentne roboty, Forum Prawnicze Nr 2(52) (2019), s. 3-17.
  2. J. Ciszewski, P. Nazaruk (red.), Kodeks cywilny. Komentarz aktualizowany, red. J. Ciszewski, P. Nazaruk, LEX/el. 2021
  3. J. Gudowski, Tytuł VI1 Odpowiedzialność za szkodę wyrządzoną przez produkt niebezpieczny [w:] Kodeks cywilny. Orzecznictwo. Piśmiennictwo. Tom III. Zobowiązania. Część 1, Warszawa 2019.
  4. Y. Hu, Robot Criminals, 52 U. Mich. J. L. Reform 487 (2019), https://repository.law.umich.edu/mjlr/vol52/iss2/5.
  5. J. Kondek, Odpowiedzialność odszkodowawcza za oprogramowanie i sztuczną inteligencję (uwagi de lege lata i de lege ferenda), Instytut Wymiaru Sprawiedliwości, Prawo Prywatne 2021.
  6. Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)), https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A 52017IP0051.

Autor: magister Szymon Balcerek, aplikant radcowski w Okręgowej Izbie Radców Prawnych w Krakowie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *