hirdetés
hirdetés

Az MI-vel sem könnyű

Amikor a mesterségesintelligencia-fagyi visszanyal

Az Amazon története biztosan nem segít enyhíteni a gépek és a mesterséges intelligencia térhódításától való szorongásunkat.

hirdetés

A Reutersen megjelent cikk alapján az online vásárlások egyik óriása kénytelen volt felfüggeszteni egy új kiválasztási eszköz tesztelését. A riport szerint azért, mert a mesterséges intelligencián alapuló algoritmus elkezdte diszkriminálni a női jelölteket.

Tele reménnyel

A balul elsült történet még 2014-re nyúlik vissza, amikor is a skóciai Amazon fejlesztőmérnökei előálltak egy olyan MI-n alapuló algoritmussal, amely végig böngészi a jelöltadatbázisokat a tökéletes pályázók megtalálásának reményében, ezzel is könnyítendő a HR osztály terheit. A Reuters meg nem nevezett forrása szerint az ötletet kezdetben mindenki díjazta, és annak reményében hívták életre, hogy ha beletáplálnak 100 önéletrajzolt az pillanatok alatt kilistázza az 5 legjobbat, akiket aztán alkalmaznak.

A nem kifejezetten polkorrekt valóság

Azonban a valóság egészen más lett. 2015-ben a fejlesztő csapat ráeszmélt, hogy „teremtményük” sem mentes a torzításoktól, ráadásul mindezt a férfiak javára teszi. Kiváltképp olyan pozícióknál, amelyek már amúgyis férfiak uralta terepnek számítanak, mint például a szoftverfejlesztők. Mivel a mesterséges intelligencia maga is olyan szabályszerűségeket követ, amelyek a piaci trendeken alapulnak, valamint a már ott dolgozók cv-jét elemzi, a nőket valahogy mindig kiszórta a rostából, és a férfiaknak kedvezett. Ez azért is rendkívül kínos, mivel ez az a terület, amelyen a női dolgozók száma rendkívül alulreprezentált, egy ilyen algoritmus, pedig tovább mélyíti a nemi szakadékot, ez pedig befolyásolja a trendeket, amiből az MI tanul, és kész is az ördögi kör.

Miután évekig próbálták az MI-ből kiölni a belénk már amúgyis a veleinkig beszívott sztereotípiákat, a próbálkozásokkal 2017-ben végleg felhagytak.

A "take home message":

Az Amazon példája is jól mutatja, hogy hiába igyekszünk kiváltani az emberi létünkből adódó döntési torzításokat, a mesterséges intelligencia (egyelőre) maga is automatikusan követni fogja. A probléma az, hogy ezek a programok mintázatokat keresnek hatalmas adatbázisokban, és aszerint döntenek. Azonban ezek az adathalmazok sok esetben magukban hordozzák a társadalmi kirekesztés mintázatait.

Manapság számos cég a fél- vagy teljesen automatizált kiválasztási rendszerek kiépítése felé vette az irányt. Mindezzel nincsen baj, de tisztában kell lenni a rendszer hátulütőivel, és számolni kell azzal, hogy nem kízárt az sem, hogy végül az ember teremtette rendszer maga sem lesz képes meghaladni az emberi gondolkodás csapdáit.

(forrás: HRPWR)
hirdetés
Ha hozzá kíván szólni, jelentkezzen be!
 
Cik[241811] galéria
hirdetés
hirdetés
hirdetés

Kiadónk társoldalai

hirdetés