Etické problémy umělé inteligence

Kdokoliv, kdo kdy četl sci-fi, vám potvrdí, že roboti-zabijáci jsou problém. Institut elektrických a elektronických inženýrů, lépe známý jako IEEE, s tím chce něco dělat.

Etické problémy umělé inteligence


V úterý vydala „Globální iniciativa pro IEEE pro etickou ohleduplnost v umělé inteligenci a autonomních systémech“ zprávu, zaměřenou na pobídnutí inženýrů a badatelů, aby při budování nového inteligentního softwaru a hardwaru přemýšleli eticky.

Zpráva je zaměřena na přivedení lidského rozměru do tvorby umělé inteligence. Je asi sto stran dlouhá, nicméně vystupuje z ní několik základních témat. Volá po vyšší transparentnosti toho, jak fungují automatizované systémy, zvýšeném zapojení lidí a starosti o důsledky navrhovaných systémů.

Etická ohleduplnost v umělé inteligenci a automatizovaných systémech bude stále důležitější s tím, jak společnosti a vlády tyto technologie stále více využívají. Zatímco se spousta popkulturní diskuse točí okolo neuvěřitelně inteligentních systémů, už dnes jsou používány algoritmy, které mohou mít významné dopady na firemní a politickou tvorbu rozhodnutí (decision making).

Raja Chatila, předseda iniciativy, řekl v jednom rozhovoru, že si nemyslí, že by si inženýři a společnosti byli vědomi problémů, které jsou ve hře.

„Myslím si – a to je můj osobní názor – že si většina inženýrů a společností není skutečně vědoma těchto etických problémů nebo jim není skutečně otevřena,“ řekl. „Je to proto, že takto nebyli vyškoleni. Byli vyškoleni na to, aby vyvíjeli efektivní systémy, které fungují, a nebyli vyškoleni na to, aby vzali do úvahy etické záležitosti.“

Jedním z klíčových problémů, jež se projevují již nyní, je algoritmická zaujatost. Počítačové systémy mohou reflektovat světonázor svých tvůrců (a také tak činí), což může být problém ve chvíli, kdy tyto hodnoty neodpovídají hodnotám zákazníka.

Pokud jde o transparentnost, pak zpráva opakovaně volá po tvorbě automatizovaných systémů, jež dokážou reportovat, proč činí konkrétní daná rozhodnutí. Toho je u některých v dnešní době využívaných špičkových technik strojového učení složité dosáhnout.

Navíc není tak neobvyklé, že společnosti drží přesné detaily svých algoritmů strojového učení pod pokličkou, což tlak na transparentnost taktéž trochu komplikuje.

Transparentnost je klíčem nejen k chápání věcí typu algoritmů pro rozpoznávání obrazu, ale také budoucnosti našeho vedení válek. Diskuse zprávy IEEE o autonomních zbraňových systémech je plná klidného, ale děsivého jazyka typu popisů fakticky anonymních zabijáckých strojů, vedoucích k „nevysvětlitelnému násilí a společenskému zmatku.“

Zdroj: CIO.com


Úvodní foto: (c) petrovich12 - Fotolia.com




Komentáře