Jak učíme roboty od špatného?

algoritmické skvrny předstírá na robotech sociálních médií správnou špatnou etikuPoznámka redakce: Společnost Digital Trends uzavřela partnerství s mezinárodně uznávanou konferencí o designu, technologiích a uživatelských zkušenostech WebVisions, aby pomohla přivést na letošní akci v Portlandu v Oregonu lumináře Douglasa Rushkoffa. V rámci našeho partnerství jsme také rádi, že můžeme představit vybraný obsah ze zasvěceného blogu WebVision Word. Tento týden přispěvatel Mark Wyner uvažuje, jak postupujeme při výuce umělé inteligence od špatného. Užívat si!

Twitter připustil, že až 23 milionů (8,5 procenta) jeho uživatelských účtů jsou autonomní Twitterboti. Mnoho z nich je zde, aby zvýšilo produktivitu, provedlo výzkum nebo se dokonce pobavilo. Přesto mnoho z nich bylo vytvořeno se škodlivými úmysly. V obou případech je známo, že se roboti chovají pochybnou etikou - možná proto, že jsou to jen drobné ukázky umělé inteligence (AI).

Lidé v současné době staví mnohem sofistikovanější stroje, které budou čelit otázkám etiky v monumentálních měřítcích. Dokonce i ve smrtelnosti lidí. Jak tedy zajistíme, aby v pravý čas učinili správná rozhodnutí?

Postavte to nebo naučte

Klíčovým faktorem úspěšného budování autonomních strojů, které se symbioticky shodují s lidskými bytostmi, je etika. A v zásadě existují dva způsoby, jak programovat etiku do strojů:

Nejprve je můžete napevno nakódovat do jejich operačních systémů. Tady jde o to, že etika je subjektivní. Etika ve stroji závisí na etice v jeho tvůrci. Ale my lidé se ne vždy shodujeme ve své morálce. Bojujeme ve válkách kvůli etickým rozdílům. Takže jak budujeme autonomní stroje, aby byly etické, stavíme v mezích našich stávajících rozdílů.

roboti-správně-špatně-etika-2

Zadruhé můžete poskytnout určité pokyny a poté umožnit stroji naučit se vlastní etice na základě vlastních zkušeností. Tento pasivní přístup ponechává dostatek prostoru pro nesprávné interpretace morálky, v závislosti na tom, jaké chování je možné pozorovat. Podívejme se na nedávné zhroucení Twitteru AI společnosti Microsoft, Tay, který byl podveden k tweetingu rasistických nadávek a podpoře genocidy na základě falešného závěru o přijaté etické normálnosti.

Tým společnosti Georgia Tech na tom pracuje, učí kognitivní systémy, aby se naučil chovat se společensky přijatelným způsobem čtením příběhů. Systém odměn s názvem Quijote má pomoci kognitivním systémům identifikovat protagonisty příběhů, které stroje používají k sladění svých vlastních hodnot s hodnotami lidských bytostí. Není jasné, jaké metody Microsoft s Tay použil. Pokud by však jejich techniky byly preventivní, stejně jako u vzdělávacího systému Georgia Tech, jsme daleko od upevnění etiky v umělé inteligenci.

Etická paralýza

To vše je nyní založeno na myšlence, že počítač může dokonce porozumět etice. Jak ukazuje Alan Winfield ve své studii Směrem k etickému robotovi, když počítač narazí na etický paradox, výsledek je nepředvídatelný, často paralyzující. Ve své studii byl kognitivní robot (A-robot) požádán, aby zachránil „lidského“ robota (H-robota) před nebezpečím. Když A-robot dokázal zachránit pouze jednoho ze dvou H-robotů, chřadl a připustil ve svém vlastním zmatku, aniž by zachránil ani jednoho.

Existuje starodávná filozofická debata o tom, zda je etika otázkou rozumu nebo emocí. Mezi moderními psychology panuje shoda, že etické rozhodování vyžaduje racionální i emocionální úsudek. Jak uvádí profesor Paul Thagard v článku o tomto tématu, „etické soudy jsou často velmi emotivní, když lidé vyjadřují svůj silný souhlas nebo nesouhlas s různými činy. To, zda jsou také racionální, závisí na tom, zda je kognitivní hodnocení, které je součástí emocí, provedeno dobře nebo špatně. “

Rozhodnutí s důsledky

Pokud tedy kognitivní stroje nemají kapacitu pro etiku, kdo je odpovědný za porušení zákona? V současné době se zdá, že to nikdo neví. Ryan Calo z University of Washington School of Law poznamenává: „robotika poprvé kombinuje promiskuitu dat se schopností fyzicky ublížit; robotické systémy plní úkoly způsoby, které nelze předem očekávat; a roboti stále více stírají hranici mezi osobou a nástrojem. “

Proces legislativy je obtížně pomalý, zatímco technologie na druhou stranu exponenciálně spěchá.

Zločiny mohou být také docela závažné. Nizozemský vývojář Jeffry van der Goot se musel bránit - a jeho Twitterbot - když mu na dveře zaklepala policie a informovala se o hrozbě smrti zaslané z jeho účtu na Twitteru. Pak je tu Random Darknet Shopper; nákupní robot s týdenním příspěvkem 100 $ v bitcoinech na nákupy na Darknet pro uměleckou výstavu. Švédské úředníky to pobavilo, když si koupili extázi, kterou umělec vystavil. (Na podporu uměleckého vyjádření však drogy nezkonfiškovali, dokud výstava neskončila.)

V obou těchto případech orgány udělaly, co mohly, v rámci zákona, ale nakonec odpustily lidským majitelům, protože se výslovně ani přímo nedopustili trestných činů. Ale jak se to překládá, když člověk rozpoutá umělou inteligenci s úmyslem zlomyslnosti?

Ironickou realitou je, že zkoumáme způsoby, jak můžeme řídit naše autonomní stroje. A kromě naší pochybné schopnosti vštípit do nich etiku jsme často zmateni samotným jejich obecným chováním. Při diskusi o metodách, které stojí za jejich neuronovými sítěmi, odhalil softwarový inženýr Google Alexander Mordvintsev: „… i když se jedná o velmi užitečné nástroje založené na známých matematických metodách, ve skutečnosti překvapivě málo rozumíme tomu, proč některé modely fungují a jiné ne.“

Můžeme držet krok?

Ve všech ohledech je proces legislativy obtížně pomalý, zatímco technologie na druhou stranu exponenciálně spěchá. Jak vysvětluje Vivek Wadhwa z univerzity Singularity „zákony nemohou držet krok, protože ... zákony jsou v zásadě kodifikovanou etikou. Že vytvoříme konsenzus jako společnost o tom, co je dobré a co špatné, a pak se stane to, co je správné a co špatné, a pak se to stane tím, co je legální a co nezákonné. To je způsob, jakým postupuje. U většiny těchto technologií jsme se nerozhodli, co je dobré nebo špatné. “

Pokud zákon dohoní, můžeme psát vlastní zkázu. Všechny ty řeči o robotech ovládajících svět? Možná jen hromadně chodí, dokud neuvězníme tolik své rasy, že se staneme menšinou v autonomních bytostech. Šach mat.

Poslední příspěvky

$config[zx-auto] not found$config[zx-overlay] not found