Strojové rozhodování nepřináší dilemata jen v autonomním řízení

S nástupem umělé inteligence a strojového učení se objevují nečekaná úskalí. Tam, kde má umělá inteligence začít nahrazovat člověka, se totiž musí vyřešit některá klíčová dilemata. Člověk totiž za svá rozhodnutí nese morální i právní odpovědnost. Kdo ji však ponese, rozhodne-li stroj?

Kdo ponese odpovědnost za učící se stroje?

Současná etika robotiky se poněkud absurdně řídí postulátem známého sci-fi spisovatele Isaaca Asimova. Jeho tři zákony robotiky se zatím všichni rozhodli dobrovolně respektovat. Které to jsou?

  1. Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo.
  2. Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem.
  3. Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem.

Jenže existují situace, kdy stroje přesto lidem ublíží, nebo dokonce budou muset ublížit. Jako první na ně narazil automobilový průmysl a představují hlavní problém, který teď brání zavedení autonomních aut. A kdy tedy stroj bude muset člověku ublížit? Třeba když dojde na situaci, kdy před auto vběhne malé dítě a stroj se bude muset rozhodnout, zda dítě srazit a zachránit posádku, či strhnout řízení, zachránit dítě a ohrozit posádku. A teď nastává problém, pro co se rozhodnout a jestli brát v potaz, že v autě jede jeden dospělý, dva dospělí, dva dospělí a tři děti a podobně.

Německé Spolkové ministerstvo dopravy připravilo první odpovědi

Právě dilema „koho zabít“ zkusilo jako první rozseknout německé Spolkové ministerstvo dopravy. To dalo dohromady etickou komisi pro autonomní řízení v čele s profesorem Udo Di Fabiem ze Spolkového ústavního soudu, která letos v červenci prezentovala první výstupy své práce. Výstupem je prvních 20 etických pravidel.

Tato zpráva přichází s poměrně zajímavými konstatováními. Třeba že odpovědnost za autonomní řízení a jeho nastavení musí nést veřejný sektor nebo že člověk má mít vždy možnost rozhodnout se sám, a to i v rozporu s vůlí umělé inteligence. Němci také rozhodli výše předloženou zásadní etickou otázku, koho má stroj zabít. V případě nevyhnutelné nehody je jakékoliv rozlišování mezi jednotlivci založené na osobních charakteristikách – věku, pohlaví, fyzické či psychické konstituci – naprosto nepřípustné. Autonomní auto s dvěma dospělými tak raději obětuje dítě, které před něj vběhne. Stroj má tedy rozhodnout patrně odlišně, než by to udělala velká část řidičů. Kompletní text zprávy etické komise v anglickém jazyce naleznete zde.

Není to jen o autonomních autech

Jenže etika autonomních a učících se strojů jde ještě mnohem dál. Pokud dnes jakýkoliv stroj fungující podle pevně daného programu způsobí škodu a jeho obsluha dodrží veškeré instrukce k jeho ovládání, nese za ni odpovědnost výrobce. U učícího se stroje je tohle značně problematické. Jde totiž o to, kdo ho jak učil. Ostatně zpráva o incidentu s rasistickou umělou inteligencí, která se učila jen z lidské komunikace na internetu, proběhla letos i českými médii. Byť ji její „výrobce“ stáhl, stihla být mezitím „zlá“ na spousty lidí. Proto Němci překvapivě říkají, že právní odpovědnost by neměl nést ani výrobce, ani ten, kdo stroj učí, ale stát.

U chytrých strojů a ERP systémů v korporacích to bude složitější

V případě firemní sféry je to velice důležitá otázka. Autonomní učící se stroje v Průmyslu 4.0 totiž budou mít možnost měnit kapacitní plány výroby v závislosti na tom, co se ve výrobě děje – tedy třeba na tom, které stroje hlásí poruchu, případně potřebují údržbu. Jenže co když rozhodnou špatně a výrobu zastaví či zdrží? Třeba proto, aby ochránily část strojů před zničením. Kdo ponese zodpovědnost? Firma, které stroje patří, firma, jež je vyrobila, nebo se s tím snad bude muset smířit zákazník? Anebo škody pokryje stát?

A co v případě umělé inteligence nasazené pro řízení podniku, například pro optimalizaci logistiky? Kdo ponese zodpovědnost za to, když umělá inteligence na základě regresních analýz a dalších statistických nástrojů určí, že pro další sezonu je potřeba mít 80 % svetrů v červené barvě, ale „in“ začne být modrá? V současné praxi nesou finální odpovědnost manažeři nebo lidé, kteří rozhodnou na základě výsledků nějaké analýzy. V budoucnu, s nástupem autonomních aut a nové „robotické etiky“, to možná bude jiné. Tak či onak nás strojové učení postaví před celou řadu nových dilemat, jež budeme muset vyřešit. Zdaleka ne všechna jsou přitom na první pohled zřejmá jako ta v případě autonomních vozidel.