hirdetés
hirdetés

Mesterséges Intelligencia

Lassan beelőzhet a mesterséges intelligencia

Érdemes nem ölbe tett kézzel nézni, amint beteljesíti szándékait az emberfeletti gépi értelem.

hirdetés

A Bosszúállók Ultron nevű főgonoszát elméletileg a világ megmentésére hozták létre. A tudományos-fantasztikus sors szomorú fintora, hogy ő ezt a célt csak úgy látja megvalósíthatónak, ha az egész emberiséget elteszi láb alól.

A tudomány manapság már ott tart, hogy komolyan el kell kezdenünk gondolkodni: mi lesz, ha saját magunknál is okosabb robotok kerülnek majd le a gyártószalagokról? Hogy kerülhetjük el Ultron korát? Nick Bostrom, az Oxfordi Egyetem egyik, az emberiség jövőjével foglalkozó intézetének igazgatója 2014-es könyvében éppen ezt a kérdést járja körül. A mű címe: Szuperintelligencia: utak, veszélyek, stratégiák.

A tényben, hogy Ultron az emberiség elpusztításával képzeli megmenteni a világot, Bostrom a „perverz megvalósítás” (perverse instantiation) egyik megnyilvánulását vélné felfedezni. Ilyen esetekben a mesterséges intelligencia (MI) olyan utat talál céljának kivitelezéséhez, amely ellentétes alkotójának törekvéseivel. Ilyen például, amikor az MI-t megkérjük, hogy valakinek csaljon mosolyt az arcára, a gép pedig lebénítja a célszemély arcidegeit, amitől ő ugyan mosolyogni fog, csak hát nem őszintén.

Bostrom szerint ilyen módon látszólag ártalmatlan célok is az emberiség végpusztuláshoz vezethetnek. Ha például egy MI parancsot kap az iratkapocsgyártás „maximalizálására”, nem lehetetlen, hogy a szóban forgó gépi értelem először a Földet, majd pedig a látható univerzum egyre nagyobb darabjait fogja írószerekké átkonvertálni.

Kontroll

Egyesek azzal érvelhetnek, hogy a „buta” MI realisztikusabb veszélyeket tartogat a bolygó népessége számára (háborús bűnök, tőzsdekrach), ám Bostrom arra figyelmeztet: ha pusztán távoli lehetőség is a szuperintelligencia megszületése, már komolyan kell vennünk, ez utóbbi ugyanis akár a civilizációnak is véget vethet. „Elengedhetetlen, hogy még azelőtt megoldjuk a problémát, mielőtt valaki rájön, hogy hogyan alkossa meg a gépi szuperintelligenciát” – írja a szerző. „Már ma kutatásokat kell végeznünk e kontrollproblémával kapcsolatban, hiszen nem tudjuk, hogy mekkora is ez a probléma, illetve, hogy mennyi időnk van a megoldás kidolgozására.”

Bostrom a cél érdekében (ti. hogy a szuperintelligens robotok ne pusztítsák el az emberiséget) az alkalmazandó módszerek két nagy csoportját különbözteti meg. Az egyik lehetőség, hogy bizonyos területeken korlátozzuk az MI képességeit [pl. letiltjuk az internetről vagy nem vértezzük fel semmilyen „fizikai manipulátorral” (pl. robotkar)]. Ez természetesen csak ideiglenesen működhet, hiszen a csalafinta elme idővel simán ráveheti „mafla” kapuőreit, hogy megfosszák őt a rabláncoktól.

Motiváció

Az író szerint inkább az MI alapvető szándékait kellene meghatározni, és így, ha a gépeknek volna is rá lehetőségük, akkor sem ártanának nekünk. Egyik stratégia erre az volna, ha egy követendő szabályrendszert írnánk elő a számukra (pl. Asimov: A Robotika Három Törvénye). Itt nehézséget jelenthet például megadnunk, hogy a gépek mely szabályokat kövessék, illetve, hogy ezek hogyan fogalmazhatók meg a komputerek számára is értelmezhető módon.

Egy másik lehetőség, hogy csak szerény célokkal ruházzuk fel a gépet, ám itt komoly figyelmet kell fordítani annak meghatározására, hogy a mesterséges lény hogyan is tartsa korlátok között a világra gyakorolt hatását.

Harmadszor alkotni lehetne egy nem annyira szuperintelligens robotot, majd csak miután békés szándékairól meggyőződtünk, akkor fejlesztenénk tovább a masinát, ügyelve, nehogy a romlás útjára tévedjen.

Egy utolsó módszerként arra utasíthatjuk a robotot, hogy találja ki, hogyan lehetne biztonságos. „Megpróbáljuk arra ösztönözni az MI intelligenciáját, hogy tanulja meg, mik a mi értékeink, illetve jósolja meg, hogy mely lépéseit helyeselnénk” – mondja Bostrom. A lényeg tehát, hogy a mesterséges szuperintelligenciának ki kellene találnia, hogy mit akarunk, és így nem csak az utasításainkat követné.

A robotapokalipszis megvalósulása ugyanakkor még így sem zárható ki teljesen.

„Nem elég, ha az MI megtanulja, hogy mik az értékeink: a motivációs rendszert is úgy kell kialakítani, hogy a gépnek késztetése is legyen az értékek követésére” – fogalmaz könyvében Bostrom.

Fotó: Shutterstock

Zamaróczy Ádám
a szerző cikkei

(forrás: Popular Science)
hirdetés
Ha hozzá kíván szólni, jelentkezzen be!
 
hirdetés
hirdetés
hirdetés
hirdetés