Jak učinit roboty etickými tím, že je naučíte říkat ne

výuka robotů ai, jak říkat žádné chomáče Matthiase Scheutze Matthias Scheutz Kelvin Ma / Tufts University Ať už je to váš smartphone, který sleduje vaše oblíbené restaurace s sebou, nebo váš webový prohlížeč, který udržuje karty na webech, které navštěvujete nejčastěji, ve vaší domácnosti je pravděpodobně technologie, která se o vás učí.

Jak se počítače v nadcházejících letech transformují z nástrojů na asistenty, výukové potřeby technologie, kterou denně používáme, exponenciálně porostou. Tyto služby budou sofistikovanější a dosáhnou mnohem dále než dnes - ale než se tak stane, budou muset být mnohem chytřejší.

Počítačové systémy, umělá inteligence a pomocní roboti budou muset zasáhnout knihy o celé řadě témat - lidská konverzace, kulturní normy, sociální etiketa a další. Dnešní vědci učí AI lekce, které budou potřebovat, aby pomohli uživatelům zítřka, a rozvrh kurzu není takový, jaký byste očekávali.

První kroky k chytřejší AI

V loňském roce se v mezích laboratoře interakce člověka a robota na bostonské Tufts University přiblížil malý robot k okraji stolu. Když robot dosáhl této propasti, všiml si, že povrch, po kterém kráčel, skončil a řekl svému operátorovi: „Promiň, to nemohu udělat.“

Tím stroj potvrdil, že práce Matthiase Scheutze a Gordona Briggsa byla úspěšná. Dvojice se rozhodla dát svému robotovi schopnost odmítnout požadavek stanovený lidským operátorem, přičemž ukázka fungujícího systému byla u stolu testovaného subjektu sebezáchovy.

Scheutzův a Briggsův projekt je součástí klíčové oblasti výzkumu umělé inteligence. Interakce člověk-robot - někdy označovaná jako HRI - je základním prvkem naší pokračující práce směrem k praktické aplikaci AI. Je snadné zapomenout, že většina robotů je stále převážně hypotetickým zájmem, že tyto stroje se jednoho dne budou muset integrovat s lidmi, kterým mají pomáhat.

Naučit robota chodit je jedna věc. Výuka stejného robota, když je bezpečné přejít silnici, je zcela odlišná. To je jádro projektu, který provedli Scheutz a Briggs. Chtěli dát robotovi schopnost odmítat příkazy, které vydal, pokud se zdá, že by provedení úkolu poškodilo.

Pro člověka by se to mohlo zdát jako implicitní prvek akce pohybu. Roboti však nemají „zdravý rozum“.

Důležitost slova „ne“

Naučit robota odmítnout objednávku, která ji pošle do zkázy, je pro robota a pro kohokoli, kdo je jeho vlastníkem, zjevným přínosem. Ale jeho význam sahá mnohem hlouběji. Pomáhat robotovi říci „ne“ znamená pomoci mu naučit se posoudit důsledky jeho jednání.

"Stejně tak nechceme, aby lidé slepě plnili pokyny od jiných lidí, ani nechceme, aby instruktivní roboti prováděli lidské příkazy, aniž by kontrolovali, jaké jsou jejich účinky," řekl Scheutz pro Digital Trends.

Musíme učit roboty, aby neposlouchali příkazy, které nejsou eticky správné.

„Pokyny mohou být v dané situaci nevhodné z mnoha důvodů,“ pokračoval, „ale hlavně proto, že by mohly způsobit újmu lidem nebo poškození majetku, včetně samotného robota. Uvažováním o možných výsledcích instruované akce by robot mohl být schopen detekovat potenciální porušení norem a potenciální škody vyplývající z akce a mohl by se je pokusit zmírnit. “

V zásadě, když robot obdrží pokyny k chůzi vpřed, zkontroluje tento požadavek na základě informací, které má k dispozici. Pokud se zdá, že je něco podezřelé, robot pak může vyjádřit své obavy lidskému operátorovi a nakonec příkaz přímo odmítnout, pokud instruktor nemá žádné další údaje, které by uklidnily jeho obavy.

Vědecký proces nevytváří tak chytlavý titulek jako hrozba robotické vzpoury pro nás lidi. Bulvární noviny jako Daily Mail informovaly o Scheutzově práci s karikaturním nadpisem spekulujícím o blížícím se podmanění našeho druhu z rukou vládců robotů. O nás v DT je ​​známo, že také vtipkujeme o robotické apokalypse. Je to obvykle v dobré zábavě, ale v takových případech to může poškodit schopnost výzkumníků dostat své poselství ven.

"Vždy budou existovat odpovědi, které vytrhnou výzkum z kontextu a zaměří se na to, co se nám zdá nepříjemné, jako je myšlenka robotů, kteří neposlouchají naše příkazy," uvedl Scheutz v reakci na zprávu Daily Mail. "Klíčovým aspektem našeho výzkumu, který takové chytlavé titulky ignorují, je naučit robota odmítat příkazy, které jsou." není eticky v pořádku - a jen ty. Nebýt obecně neposlušný. “

Co kdyby například malý chlapec řekl domácímu robotu, aby na svého malého bratra vysypal horkou kávu jako žert? Zajištění toho, aby k tomu nemohlo dojít, je zásadní pro úspěch jakékoli společnosti vyrábějící takovou technologii pro spotřebitelský trh a je to možné pouze tehdy, má-li robot širokou databázi sociálních a etických norem, na které se může odkazovat, kromě své schopnosti říci „ne“. “

Přidání vrstev složitosti

Lidé vědí, že přestanou chodit, když se blíží prudký pokles, nebo proč je nevhodné kojence kojit horkou kávou. Naše zkušenosti nám řekly, co je nebezpečné a co to znamená. Ať už jsme v minulosti něco udělali nebo nám bylo řečeno, můžeme použít informace, které jsme uložili, a informovat tak své chování v nové situaci.

Roboti mohou řešit problémy na stejném principu. Ale ještě jsme nevyrobili počítač, který by se dokázal učit jako člověk - a i tak je etika učení proces, který trvá roky. Roboti musí mít k dispozici informace o životnosti, než se dostanou do světa.

Rozsah této práce je ohromující, daleko nad rámec toho, co by mnozí mohli očekávat. Kromě toho, že robot naučí, jak plnit jakýkoli úkol, k němuž jsou vysíláni, existuje další vrstva složitosti, kterou nabízí mnoho složitostí interakce člověk-robot.

Andrew Moore je děkanem School of Computer Sciences na Carnegie Mellon University. V této roli poskytuje podporu skupině 2 000 studentů a členů fakulty, z nichž mnozí pracují v oblastech souvisejících s robotikou, strojovým učením a umělou inteligencí.

"Jsme zodpovědní za pomoc při zjišťování toho, v jakém roce 2040 bude žít," řekl mi. "Takže jsme také zodpovědní za to, že rok 2040 je velmi dobrým rokem pro život." Vzhledem k tomu, že je pravděpodobné, že v této vizi budoucnosti budou hrát roli pomocní roboti, má Moore ve vztahu mezi strojem a uživatelem spoustu zkušeností. Pro představu o tom, jak se toto pouto vyvine v příštích letech, používá známý příklad asistenta smartphonu.

Dnes mnoho z nás nosí smartphone, který je schopen odpovědět na otázky jako „kdo je současný prezident Spojených států?“ a složitější dotazy typu „jak vysoký jsou prezident dcer Spojených států?“ Brzy uvidíme, že se akce založené na těchto otázkách stanou samozřejmostí. Můžete například požádat telefon, aby si objednal nový balíček plenek.

Aby demonstroval další fázi vývoje, Moore předložil zdánlivě neškodnou ukázkovou otázku. "Mám čas si jít dát kávu před mým dalším setkáním?"

Více o AI: Algoritmus strojového učení vloží slova George W. Bushe do úst Baracka Obamy

"Pod kapotou je spousta znalostí, které se musí k počítači dostat, aby mohl odpovědět na otázku," řekl Moore. I když dnešní technologie dokáže této otázce porozumět, systém potřebuje k zodpovězení spoustu dat. Jaká je linka v kavárně? Jak je na tom provoz? Jaký druh nápoje si uživatel obvykle objedná? Poskytnutí přístupu k těmto datům počítači představuje své vlastní výzvy.

Systémy umělé inteligence budou potřebovat přístup k obrovskému množství informací - některé z nich jsou vytesány do kamene, některé se neustále mění - jednoduše k provedení složitých úkolů, které od nich očekáváme za pár let.

Moore ilustruje tento bod porovnáním tónu hlasu, který může člověk zaujmout, když mluví se šéfem svého šéfa nebo starým přítelem. Někde ve vašich databázích je jádro informací, které vám říká, že s prvními by mělo být zacházeno s určitými sociálními podněty, které při rozhovoru s druhou nejsou tak nutné.

Pokud požádáte Google, aby ukázal červené šaty, a jedním z výsledků je toustovač, celá věc se rozpadne.

Pro člověka jsou to jednoduché věci, ale něco, co je třeba vštípit do AI. A čím je úkol naléhavější, tím důležitější je přesnost. Zeptat se asistenta, jestli máte kávu, je jedna věc. Ale co když jste byli zraněni a potřebujete vědět, do které nemocnice se dostanete nejrychleji - a možná potřebujete pomoc robotů? Chyba se najednou stává život ohrožující.

"Je vlastně docela snadné napsat program strojového učení, kde ho trénujete se spoustou příkladů," řekl Moore. "Až tuto práci dokončíš, skončíš s modelem." To funguje docela dobře, a když budujeme takový systém, mluvíme o „přesnosti“ a používáme fráze jako „přesnost“ a „odvolání.“ Zajímavé je, že je celkem jednoduché získat věci, které jsou správné, 19krát z 20. “

"Pro mnoho aplikací je to dost dobré." Ale v mnoha dalších aplikacích - zejména pokud jde o bezpečnost nebo kde kladete velmi komplikované otázky - opravdu potřebujete, aby váš systém měl přesnost 99,9 procent. “

Důvěra uživatelů je také problém. „[Pokud] se Google zeptáte,„ ukažte mi 15 nejoblíbenějších červených šatů “a vyhodí to výsledky a jen jeden z nich je ve skutečnosti toustovač, pak se celá věc rozpadne. Uživatelé tomu přestanou věřit. “ Uživatel, který robotovi ztratí důvěru, jej pravděpodobně úplně přestane používat.

Výuka společných znalostí

I bez ohledu na konkrétní úkoly, které má každá jednotlivá implementace dosáhnout, budou roboti a AI potřebovat k provozu ve volné přírodě obrovské množství základních znalostí. Všechno od sociálních podnětů až po bezpečnostní předpisy musí být otisknuto do mozků strojů, aby byl zajištěn jejich úspěch.

Naštěstí jiné obory pomáhají v některých prvcích tohoto výpočetního kurikula. "S věcmi, jako je navigace, a s analýzou výrazu lidské tváře existuje existující vědecká disciplína, která ve skutečnosti obsahuje spoustu skutečných dat," řekl Moore. Jednotlivé výzkumné projekty lze také často přehodnotit.

"Algoritmy, na kterých pracujeme, jsou obecné," řekl mi Matthias Scheutz s odkazem na výzkum, který spolu s Gordonem Briggsem vedli na Tufts University. "Lze je použít v jakékoli doméně, pokud robot má nezbytná vyjádření akcí a norem pro danou doménu."

Moduly, které by mohly robotovi dát schopnost rozeznávat lidské výrazy, nebo aby nespadly ze stolu, určitě mají své využití. Každý by se však postaral o velmi malou část základních požadavků stroje na provoz bez dozoru. Zobecněný operační systém by mohl představovat základní úroveň běžných znalostí, kterou lze snadno sdílet mezi různými implementacemi.

"Jedním z hlavních donorů tohoto druhu práce je skupina, která financovala mnoho dalších věcí, které se ukázaly jako důležité," řekl Moore. "To je DARPA." Mají řadu velkých projektů zaměřených na takzvané „běžné znalosti pro robotiku“. ““

Pokud se umělé inteligence a pomocní roboti stanou realitou v ne příliš vzdálené budoucnosti, bude pravděpodobně klíčovým prvkem některá verze této platformy „běžné znalosti robotiky“. Může to být dokonce klíč k širokému přijetí v hlavním proudu.

Je třeba udělat spoustu práce, než bude existovat znalostní základna, která může podpořit první vlnu spotřebitelských robotů. Konečný produkt může být vzdálený několik let, ale základy potřebné k usnadnění jeho tvorby nejsou science fiction.

Poslední příspěvky

$config[zx-auto] not found$config[zx-overlay] not found