hirdetés
hirdetés

Ember-robot együttműködés

Mikor és mennyire bízzunk a gépekben?

Másként ítélünk meg helyzeteket, ha embert vagy gépet teszünk felelőssé valamilyen esemény miatt. A Massachusetts Institute of Technology (MIT) kutatója, César A. Hidalgo a Brain Baron tartott előadást arról, hogy bizonyos helyzeteket mennyire másként értékelünk, ha emberek vagy gépek hoznak döntéseket. Gary Smith közgazdász professzor szerint az utóbbit nem szabad hagyni, mert a gépek alkalmatlanok erre. 

hirdetés

A cikk eredetileg a Kreatív július-augusztusi számában jelent meg.

Az emberi történelem során a fontos találmányok megjelenése körül jellemzően fellángolt a vita, hogy helyénvaló-e az újdonság használata, és ha igen, akkor milyen formában, milyen keretek közt. A szabályozás a világunk működésének egyik fontos pillére, ezért nem meglepő, hogy a probléma napjaink egyik leginkább felkapott területét, a mesterséges intelligenciát is érinti.

Ahogy az emberek, az általuk alkotott robotok is hibáznak. Az MIT-ről a Brain Barra érkező César A. Hidalgo előadásának központi témája az volt, hogyan ítélik meg az emberek a hibákat elkövető robotokat. Hogyan kellene viselkedniük a gépeknek? Vajon a gépek az embereket fair módon kezelik? Rendelkeznek-e például olyan kódolással, ami részrehajlóvá teszi őket? Hogyan ítéljük meg mi, emberek a gépeket, és vajon az fair-e?

Hidalgo és munkacsoportja egy készülő könyv alapjául szolgáló kutatás részeként 80 esetet vizsgált meg arra összpontosítva, hogyan ítélnek meg az emberek hibákat attól függően, hogy azokat emberek vagy gépek követték el. Az előadáson három példát emelt ki, mindegyik esetben két változatot különített el: az egyik változat szerint a hibás döntést ember hozta, a másikban egy gép.

César A. Hidalgo
César A. Hidalgo

Az egyik példa szerint egy metróállomáson a felügyelő vagy az algoritmus észrevesz egy személyt, aki gyanús csomagot visz magával, de később kiderül róla, hogy csak egy üzletember. Egy másik esetben egy cunami közelít egy tengerparti városhoz, és dönteni kell, hogy 100 százalékos valószínűséggel kimentik a lakosság felét, vagy a siker 50 százalékos valószínűségével megpróbálják evakuálni a teljes populációt. A harmadik dilemma egy önvezető autó körül forgott, itt különböző eseteket vizsgáltak meg, beleértve, hogy emberi vagy gépi vezető okozza-e a balesetet, vagy egy baleset elkerülése érdekében olyan döntést hoz, amivel emberi sérülést okoz.

„Olyan helyzetekben, amikor fizikai sérülés merül fel, az emberek a gépeket szigorúbban ítélik meg, mint az embereket – összegzett előadása során Hidalgo. – Ha egyenlőségről vagy lojalitásról van szó, az emberekkel szemben szigorúbbak vagyunk, mint a gépekkel. Bizonytalanságot rejtő esetekben az emberek szintén keményebben bánnak a gépekkel, és úgy ítélik meg, hogy a működésük súlyosabb károkat okoz. Automatizálás esetén a felelősség feltolódik az irányítókhoz. Ha a mesterséges intelligencia bevezetését latolgatjuk egy szervezetben, azt is látni kell, hogy a döntés központosítja a felelősséget azokért az akciókért, amiket az AI elvégez.”

Asimov ezt már régen megoldotta

Az előadás több szempontból is váratlan irányba tartott, hiszen az MIT-ről érkező kutató elsősorban nem technológiai központú prezentációt tartott, hanem etikáról, moralitásról beszélt, és a kutatás is e köré épül. Szintén elgondolkodtató, hogy a bonyolultnak tűnő problémát nem lehet-e szabályozói eszközökkel kezelni, hiszen erre nem hivatalosan a science fiction-író Isaac Asimov már 1942-ben kísérletet tett a robotika három alaptörvényének definiálásával. A probléma súlyát azonban jelzi, hogy az AI-etika azóta is foglalkoztatja a terület több ismert kutatóját. Hidalgo úgy vélte, nem egyszerű szabályozási kérdésről van szó.

„Azt gondolom, hogy a formális intézmények természetesen fontosak, de ez nem minden. Az emberek folyamatosan megítélik a másikat, de nem azáltal, hogy elolvassák egy ország alkotmányát, a polgári és a büntető törvénykönyvet. A társadalmi elvárások informálisak. Szerintem ez a legnehezebb rész az egészben, mert a törvényeknek, amiket létrehozunk, kódolniuk kellene a meggyőződéseinket” – mondta az előadása után a Kreatívnak.

„A mesterséges intelligencia kontextusában még nem értettük meg teljesen a meggyőződéseinket vagy a reakcióinkat. Nem számítok túl sok szabályozásra addig, amíg ez meg nem történik. Szerintem tudásalapon kell szabályoznunk, e téren a nehézséget pedig az jelenti, hogy meg kell ismernünk, informálisan miként ítélkezünk. Az emberek egymás között mindig ezt csinálják, ez segíthet majd rávilágítani arra, hogy néhány ötletet előírásokba öntsünk, és kiderüljön, ki lesz a felelős. Ez összetett probléma.”

A kutató később hozzátette, szerinte mindig észben kell tartanunk, hogy „a törvények nem a végső igazságot jelentik azzal kapcsolatban, hogy mi etikus és mi nem. Ezek csak mechanizmusok, amelyek révén megpróbáljuk koordinálni az etikát a társadalomban.” Arra is figyelmeztetett, hogy óvatosan kell bánnunk a múlt és a jövő értékeinek megítélésével is.

„A társadalom soha nincs felkészülve, és nem is volt egy változásra sem. Ez állandó. Viszont képes az alkalmazkodásra, néha nagyon gyorsan. Eközben a fejlődést nem lehet megállítani, az emberek befektetnek a technológiába, és ezzel kielégítenek valamilyen létező szükségletet. Nagyon óvatosnak kell lennünk a jövő megítélésével a mai perspektívánkból, mert a történelmet az jellemzi, hogy a moralitás változik, és nem akarnánk, hogy a száz év múlva élő emberek mondják meg nekünk, hogy mi helyes és mi helytelen. Ha ezt elfogadjuk, akkor azt is el kell, hogy nekünk sem szabad megmondani az ötven év múlva élő embereknek, mi a helyes.”

Ne higgyük el, hogy mindent tudnak

Hidalgo a gépek kapcsán nem érvelt se pro, se kontra, egy előző napi panelbeszélgetés résztvevője, Gary Smith azonban nyíltan kijelentette, hogy nem lehet bármilyen feladatot rábízni a mesterséges intelligenciára. A mesterséges intelligencia veszélyeit taglaló AI delusion című könyv szerzője a Kreatívnak kijelentette: „A mesterséges intelligencia jelenleg ott tart, hogy nagyon jó egyszerű, ismétlődő feladatok végrehajtásában és korrelációk megtalálásában, de ahol már józan észre, bölcsességre vagy kritikai gondolkodásra van szükség, egyszerűen nem működik, mert nem erre programozták.”

Smith és beszélgetőtársa, Budapesti Ilona vitájára megtelt a Secret Garden sátra, könyve nyomán az amerikai közgazdász képviselte a szkeptikus nézőpontot, de a későbbi beszélgetésünk során nem vetette el teljesen a gépek felhasználásának lehetőségét. „Az én üzenetem az, hogy nem hihetjük, hogy a számítógépek okosabbak nálunk, és nem bízhatunk bennük. Egyre inkább támaszkodunk rájuk, hogy döntéseket hozzanak arról, hogy valaki megkapjon-e egy állást, hitelt, mennyit fizessen az autója biztosítására, vagy ha bűnt követ el, hány évre menjen börtönbe. Mind statisztikai összefüggéseseket használnak” – mondta.

„A gépi támogatás nagyon jó. Remekül rátalálnak dolgokra, amiket nem kell kiértékelniük. Az egyik példa, amikor egy ügyvéd számítógépet használ a precedensek felkutatására, hogy mi releváns és mi nem. Ekkor az emberi szakértelem számítógépes támogatással társul. A veszély abban rejlik, amikor az emberek átadják a döntést a számítógépeknek” – összegzett. 

(forrás: Kreatív Online)
hirdetés
Ha hozzá kíván szólni, jelentkezzen be!
 
hirdetés
hirdetés
hirdetés

Kiadónk társoldalai

hirdetés