Itt talál meg engem:

Twitter icon
Facebook icon
Flickr icon
Google+ icon
LinkedIn icon
RSS icon

Kit öljön meg a vezető nélküli autó?

A vezető nélküli autó szoftvere nagy úr. Élet és halál között kell döntést hoznia. És jobban kell csinálnia, mint ahogy az ember csinálná.

Most lett igaza Isaac Asimovnak a robotok ügyében, legalább is részben. Több, mint hetven évvel azután, hogy megírta a robotika három alaptörvényét, a vezető nélküli autók esetében valósággá válik az egész problémakör.

1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.

2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.

3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.

Ki haljon meg?

Ki haljon meg?

 

Működik a robotika három törvénye?

A valóság egyre nyivánvalóbbá teszi, hogy ezek a törvények a gyakorlatban betarthatatlanok, vagy legalább is komoly módosításra szorulnak. Ezzel a dilemmával szembesülnek nap mint nap az önműködő autók szoftvereinek megalkotói. A mindennapi járműforgalomban részt vevők tudják, hogy bármikor adódhat vészhelyzet. Olyan is előfordul, hogy valaki mindenképpen megsérül, vagy meghal. A newtoni törvényeken kívül a sofőr az, akinek hatása van ezekre az eseményekre. Beletapos valamelyik pedálba, félrerántja a kormányt, vagy egyszerűen a szeme elé kapja a kezét: ezek a tizedmásodpercek döntenek emberéletekről.

A szoftver nem iszik

Amikor mindezt egy szoftver végzi, a pontosság, a szabálykövetés és valószínűleg a biztonság is sokkal jobb kezekben van, mint nálunk, embereknél. A számítógép nem esik pánikba, nem mobilozik, nem iszik, nem dühöng, nem nézi a nőket a járdán, nem a dudálással van elfoglalva fékezés helyett. Csakhogy ez az akkurátus tökély együtt jár egy halálos felelősséggel. Ha minden pillanatban száz százalékos racionalitású döntéseket hoz, akkor élet és halál urává válik.

A robot megöli a gazdáját

Az ön mellett haladó szembejövő sávban tömötten halad a forgalom. Az egyik autó hirtelen átjön az ön sávjába, mert meg akar előzni valakit. Fékezni nincs elég idő. Ön mellett jobbra, a járdán egy óvodáscsoport halad párokban, kézenfogva. Hogyan dönt? Frontálisan ütközik, és meghal a szembejövővel együtt? Félrerántja a kormányt, és megöl egy csomó gyereket? Esetleg nem dönt semmit, hanem pánikszerűen tapos, és rángatja a kormányt? A szoftver nem így működik. Neki bőven van ideje kiszámolni, milyen manőverrel okozza a lehető legkisebb kárt. Bele van programozva. Ez viszont azt jelenti, hogy el kell döntenie, ki fog meghalni. Valószínűleg nem a gyerekek, hanem ön és a szembejövő. Egy robot dönt emberek életéről vagy haláláról.

Erkölcsi kísérletek

Asimov törvényei nehezen alkalmazhatók a gyakorlatban. Önkéntesekek feltett kérdések formájában végeztek olyan kísérleteket a kutatók, amelyekkel az emberi és a roboterkölcs közötti különbséget vizsgálták. Nézzük a következő gondolatkísérletet: ha ön egyenesen halad tovább, egy egész csoportnyi embert üt el. Ha félrerántja a kormányt, akkor csak egyet. A tétlenség tömeges halált, a cselekvés egyetlen halálesetet eredményez. A megkérdezettek 75 százaléka nyilatkozott úgy, hogy erkölcsösnek találná félrerántani a kormányt. Ugyanakkor csak 65 százalék vélte úgy, hogy az autógyárak szoftverei is így viselkednének. A legtöbb embernek láthatólag nehéz feldolgozni az erkölcsi döntésihozatal gépesítését. Nehéz feladat nem különválasztani embert és robotot.

Büntethető a robot?

Íme egy asimovi jogi probléma: a gyártó olyan szoftverrel szerelje fel a járművet, amelyik mindenképpen helyettünk dönt, vagy ajánljon alternatívákat az adott közlekedési helyzethez igazítva? Ki a felelős, egy ilyen kontrollált emberi döntés következményeiért? Vagy a másik esetben: kinek a büntethetőségét kell vizsgálni egy olyan döntés következményeiért, amit egy szoftver hozott meg?

Kiderülnek a gyengeségeink

A robot autóvezetés közben bármikor  szembekerülhet az asimovi törvényekkel. Olyan döntésekre kényszerülhet, amelyek embereknek okoznak kárt. Nem védhet meg minden embert egyszerre, valakit fel kell áldoznia. Amikor az erkölcsi döntéseket számítógépes algoritmusok hozzák meg helyettünk, az sokak számára kínos, némelyeknek elfogadhatatlan. Talán éppen azért, mert az adott élethelyzeben mindenképpen tökéletesen racionális, megindokolható döntést fog hozni.  Esetleg jobban fogja képviselni a saját erkölcseinket, mint mi magunk. Talán egyszerűen az emberi esendőség, a véletlenszerűség, a kiszámíthatatlanság hiányzik nekünk ebből a folyamatból. A gyengeségünk sokkal nyilvánvalóbbá válik, amint egy okos robot kiiktatja az egyenletből.