Autor przytacza przypadek, w którym sztuczna inteligencja dopuściła się co najmniej kilku czynów, które dałoby się zakwalifikować jako przestępstwa.

"W marcu 2016 r. Microsoft zaliczył spektakularną wpadkę. Po zaledwie 16 godzinach funkcjonowania musiał wyłączyć swojego chatbota o nazwie Tay mającego symulować posty nastolatki na Twitterze. Tay zaczęła podważać istnienie Holocaustu oraz pozwalała sobie na komentarze nazywające feminizm rakiem.

Co więcej, pojawiły się także rasistowskie wpisy skierowane przeciw obywatelom Meksyku i Żydom oraz takie, w których gloryfikowała Hitlera. Tego było za wiele. Microsoft został zmuszony do uciszenia niesfornego robota oraz wystosowania przeprosin." - czytamy.

Gdyby do taka sytuacja miała miejsce na terenie Polski, a obraźliwe posty publikował człowiek, można byłoby jego czyny zakwalifikowac jako przestępstwa (art. 256 § 1 - propagowanie faszyzmu, art. 257 k.k. - znieważanie grupy ludności) i to zagrożone karą pozbawienia wolności. Odpowiedzialności karnej nie poniesie ani robot, ani osoby, które go wymyśliły.

"Twórcami byli programiści z Microsoftu, którzy przygotowali  Tay do działania. Problem jest jednak taki, że także ich zachowanie Tay zaskoczyło. Przestępstwa te mogą być popełnione tylko umyślnie i ta umyślność musi być odnoszona do programistów. Tay musiałaby zostać tak zaprogramowana, żeby w interakcjach z użytkownikami pisać przestępne treści. Tutaj jednak tak nie było." - podkreśla autor.

Dodaje, że wraz z rozwojem technologii prawo karne coraz częściej będzie stawało przed tego rodzaju wyzwaniami. Zwłaszcza że wiele robotów tworzonych jest na potrzeby armii do celów bojowych. Może się zatem zdarzyć, że będą sprawcami poważniejszych przestępstw niż obrażenie kogoś na portalu społecznościowym.


 

 

Prawo karne przyszłości
Kamil Mamak
  • rzetelna i aktualna wiedza
  • darmowa wysyłka od 50 zł