Obecność w naszej przestrzeni życiowej robotów, a ściślej mówiąc sztucznej inteligencji, będzie czymś całkowicie normalnym i czym prędzej trzeba się do tego przyzwyczaić. W coraz większej przestrzeni wykorzystywane będą najróżniejsze automaty, które będą do pewnego stopnia podejmowały autonomicznie decyzje. Oczywiście wciąż są to programy komputerowe takie jak gry hazardowe maszyny na pieniądze albo na przykład aplikacje, czy też może wyszukiwarka Google, z której korzystamy codziennie. Co jednak zrobić w sytuacji, gdy wystąpi jakieś zagrożenie, które może przynieść szkodę albo utratę życia? Na kogo będzie wówczas spadać odpowiedzialność, gdy wystąpi na przykład wypadek z udziałem pojazdu autonomicznego? Problem prawny jest rzeczywiście bardzo duży i nie tak łatwy do zinterpretowania.
Odpowiedzialność sztucznej inteligencji
Od dawna prawnicy, ale również programiści oraz technolodzy zastanawiają się nad tym, jak konkretnie w praktyce ma wyglądać odpowiedzialność związana ze sztuczną inteligencją. Jeżeli chodzi o opinie prawników oraz osób odpowiedzialnych za ustawodawstwo, to nikt nie jest raczej zachwycony tym, aby to sztuczna inteligencja sama za siebie odpowiadała. Z czym przecież miałoby się to wiązać? Z nadaniem osobowości prawnej automatom? Do tego chyba raczej nie chcemy dopuścić. Wszyscy przecież mamy w pamięci rozmaite scenariusze filmowe, gdzie terminator był emanacją właśnie sztucznej inteligencji. Jeżeli już jednak wiemy, że nie przekażemy praw automatom, to na kogo będzie zrzucona odpowiedzialność. Bo ktoś przecież musi odpowiadać za ewentualne błędy programów komputerowych i maszyn.
AI sama za siebie nie będzie odpowiadać
W grę wchodzą tu na pewno przepisy prawa cywilnego. Są to jak wiemy zasady uniwersalne, które będą stosowane nie tylko i wyłącznie w polskim prawie, ale w każdym. Na pewno bardzo ważne będą zagadnienia takie jak zasada ryzyka, winy oraz słuszności. Problematyczność i to całkiem sporą stwarza tutaj również fakt, że powstanie i stosowanie w praktyce sztucznej inteligencji to wynik działania przecież wielu ekspertów. Chodzi o programistów, producentów, testerów oprogramowania, ale także sprzedawców. Nie zapominajmy też oczywiście o właścicielach i użytkownikach. Żadnej winy na przykład nie będzie ponosić właściciel pojazdu, jeżeli to użytkownik, który go pożyczył, spowoduje wypadek. Problem jednak ze sztuczną inteligencją jest taki, czy do zbioru tych podmiotów odpowiedzialnych za ewentualne szkody dołącza właśnie ona. Jeżeli przecież nagle występuje błąd systemu, który był wielokrotnie sprawdzany i niezawodny to dlaczego byśmy mieli kogoś obarczać odpowiedzialnością poza AI?
Odpowiedzialna może być tylko osoba
Z drugiej strony nawet wtedy gdybyśmy przyznali pewną odpowiedzialność programowi komputerowemu, słusznie przyznając, że człowiek nie poniósł żadnej winy w przypadku wystąpienia błędu, to i tak przecież sztuczna inteligencja nie byłaby w stanie w praktyce za siebie odpowiadać. Zasady prawa są stosowane przecież wobec osób, a AI taką nie jest. Mogłoby tutaj też występować oczywiście pewne zagrożenie, gdybyśmy sztucznej inteligencji nadali formę osobowości prawnej. Byłoby to wydarzenie bez precedensu i mające duże konsekwencje na przyszłość. Skoro przecież w jednym wymiarze nadana by była osobowość, to dlaczego tego nie robić w innych. Prawnicy mogliby się powoływać na wspomniany przypadek i sprawa komplikowałaby się jeszcze bardziej.
Interpretacja odpowiedzialności
W praktyce więc wszystko będzie raczej zależeć od tego, jakiej przestrzeni konkretnie dotyczył błąd. Z zależności od tego, w jakiej sferze był on odnotowany, odpowiadać będzie programista albo producent. W innych okolicznościach może to być użytkownik, czy też właściciel albo nawet dostawca danych. W tym ostatnim przypadku sytuacja taka wystąpiłaby wówczas, gdyby na przykład sztuczna inteligencja popełniła błąd w tym okresie czasu, gdy jeszcze by się uczyła.
Read more about: moviesflix