Internet böngészője nem ajánlott környezet, kérjük, telepítse a Google Chrome webböngészőt! .. Letöltés Most!
pén. nov 27th, 2020
Your ads here .. click here!

A mesterséges intelligencia egy lopakodó erő, aminek a nyomában kell lennünk

A mesterséges intelligencia (MI) már szervesen beépült rengeteg, nap mint nap használt szolgáltatásba: ott van a dugókat előrejelző, autókba épített navigációs rendszerekben, a Netflix vagy a Spotify ajánlói mögött, és a Facebook is rengeteg feladatot bíz algoritmusokra a hírfolyam kezelésétől a fotók elemzéséig. Naponta választunk olyan opciók közül, amiket a mesterséges intelligencia ajánl nekünk egyedi ízlésünkhöz és korábbi szokásainkhoz igazítva.

Fotó: Ivándi-Szabó Balázs / 24.hu

Az MI kapcsán pedig egyre többször jelenik meg az a félelem, hogy jönnek a robotok, az algoritmusok, és elveszik a munkánkat. „A jövőtől leginkább azért félünk, mert nem tudunk rá felkészülni, és alapból is hajlamosak vagyunk negatívabban hozzáállni, mint amilyen valójában lesz” – mondta Szökőcs Csaba, az EvoSoft vezető szoftvermérnöke a Neumann Társaság A jelenből a digitális jövőbe című eseményén, melynek témája az MI volt.

 A mesterséges intelligencia nagy veszélye, hogy egy lopakodó erő. Ha nem figyelünk oda, könnyen lehet, hogy egyik pillanatról a másikra egy másik világban ébredünk fel. Értem ezt arra, hogy egy iparág teljesen átrendeződött. Az MI egyik legfontosabb attribútuma, hogy öntanuló, magukat fejlesztő rendszerekről van szó, melyek gyorsan képesek nagyokat előreugrani, és átírni bizonyos szabályokat

– fejtette ki kérdésünkre George Tilesch (Tilesch György) mesterségesintelligencia-szakértő, aki szintén előadott a Neumann Társaság eseményén. Tilesch a washingtoni Fehér Ház MI-etikai munkacsoportjának tagja, a Neumann Társaság Mesterséges Intelligencia Nagykövete, őt telefonon értük el kérdéseinkkel.

Tilesch szerint a téma hosszú évekig például a taxisok kiváltására alkalmas önvezető autók fejlődése miatt került fókuszba a médiában, ám inkább az látható, hogy a vállalatok belső folyamatai mennek végig egy szoftveres automatizáción. Emiatt inkább a fehérgalléros munkakörben tevékenykedők vannak veszélyben, olyanok, akik túlképzettek a pozíciójukhoz képest: rengetegen végeznek például alacsonyabb rangú adminisztratív munkát. Az unióban pedig egyébként is komoly probléma a fiatalok munkanélkülisége.

Az ügyvédet nem fogja teljesen kiváltani az algoritmus

A munkák kiváltásáról általános gondolat, hogy a robotok a rutinszerű fizikai melót, kvázi a robotolást váltják ki, a szellemi munka kapcsán viszont elsőre nem egyértelmű, hogyan jönnek képbe az algoritmusok – például a tárgyalótermekben, az ügyvédi szakmában.

Az amerikai jogrendszer erősen esetjogi alapú. Ez azt jelenti, hogy minden ügy úgy dől el, hogy akik a háttérkutatást végzik, azok mennyire tudják a megfelelő, releváns eseteket megtalálni a múltban, amelyek meghatározzák az aktuális bírói döntést is. A kutatás az amerikaiaknál esszenciálisabb szerepet tölt be a folyamat során, mint Magyarországon, ezt lényeges hangsúlyozni. Amerikában van egy egyedi szakma, az ügyvédjelölt, aki csinálja ezt a háttérmunkát, az adminisztrációt, ezt képes elvégezni egy MI is. Egyébként én nem hiszem, hogy a peres ügyvédek kenyerét elvenné bármiféle MI-alapú szoftver

– fejtette ki Tilesch a 24.hu kérdésére.

Ennek nyomán ügyvédjelöltből kevesebbre lesz szükség, és az ilyen megoldásokat használó ügyvédi irodák versenyelőnyt szereznek, mivel rövidebb idő alatt végeznek kiterjedtebb kutatásokat, ami alátámasztja a döntést a bírósági tárgyalásban – véli a szakértő. És ez nem a jövő, hiszen Amerikában az elítéltek feltételes szabadlábra helyezését már egy automatizált rendszer segíti, nagyjából az ügyek 30 százaléka valamilyen döntéselőkészítő szoftveren keresztül fut.

Ezt úgy kell elképzelni, hogy egy mesterségesintelligencia-alapú megoldásba beletáplálják a paramétereket, ami aztán a bírónak ad döntési javaslatot, például hogy javasolt-e feltételes szabadlábra helyezni adott személyt. Tilesch még említi, hogy nagy veszélyeket rejt magában az is, hogy a gépek döntését feljebb rangsorolhatjuk az emberekénél.

Komolyan fennáll az a veszély, ha jön egy rendszer, ami intelligensebb, felkészültebb, mint a bíró, akkor a bíró azt mondja majd, hogy nem bírálja felül az MI javaslatát, hiszen az úgyis jobban tudja, mint ő. Ezt pedig exrapolálhatjuk más területekre is. Lesz olyan csábítás, hogy az emberek levessék magukról a felelősséget azzal az indokkal, hogy az MI azt mondta. Ezért amiatt aggódom leginkább, hogy az ember hajlamos kiengedni a kezéből a döntés jogát.

Az algoritmust is ember tervezi

A technológusok szerint ha etikai probléma vetődik fel egy algoritmus döntése miatt, annak két forrása lehet. Az egyik maga az adatforrás (mennyire koszos, releváns a bevitt adat), a másik a modellforrás (ez maga a szoftver). Vihetünk be tisztább adatokat, de az adatokat emberek viszik be. Ahogy a világból válogatunk, már alapból elfogult (angol nyelvben a biased kifejezést használják a szakszövegek). Ennek nem csak a továbbviteléről van szó, de az MI skáláz is, tehát a rendszerbe beépült rossz döntések, problémás történetek pillanatok alatt megsokszorozódnak – magyarázza Tilesch.

Erre több valós példa is említhető a világból. Az Egyesült Királyságban például nagy botrányt keltett a nyáron, hogy a koronavírus-járvány miatt elmaradtak az érettségik, így a hallgatók ajánlott jegyekkel jelentkezhettek volna egyetemekre. Az angol kormány erre jegyszabályozó programot használt.  Ám az algoritmusos súlyozás nem volt éppen etikus.

Ha valaki jó tanuló volt, de egy alacsonyabban értékelt iskolában folytatott előtanulmányokat, azt a rendszer mínusz pontnak vette. Ugyanígy kivételezett azokkal is, akik kisebb tanulócsoportokból érkeztek – így az elitiskolákból érkezők előnyben voltak, tehát az algoritmus szerint az egyéni jó eredmény mellett fontos a tanuló társadalmi csoportja is. Sokan egyenesen „szegényellenesnek” nevezték a megoldást.

Sötét jövőt hozhat az arcfelismerés rendszere, ha nem vigyázunk

A technológia gyors fejlődése miatt szabályokra és irányelvekre van szükség.

A probléma felfedezhető a HR világában is. Pár éve az Amazon fejlesztett magának egy algoritmust toborzáshoz, ami segített kiválogatni, hogy az e-mailen érkező önéletrajzokból kiket érdemes behívni interjúra. Mivel nem volt elég széles a mintavétel, ezért a szoftver szerint minden pozícióra fehér férfi szoftverfejlesztőt kellett volna felvenni. Ezt a projektet le is lőtte a cég.

Fotó: Chris Ratcliffe / Bloomberg / Getty Images

A bankoknál pedig a hitelbírálatkor csapódhat le az, hogy elfogult szempontok alapján értékel egy szoftver. Volt már példa arra, hogy egy automatizált hitelbírálat során a rendszer azt is figyelte, hogy a hitelt kérvényező személy mobiljának mekkora a töltöttsége – ha nagyon alacsonyan volt, a rendszer azt feltételezte, hogy a kérvényező nem elég pontos, nem elég előrelátó, ami mínusz pontokat érhetett.

Gyorsan szalad, nehéz megfogni

Bár a mesterséges intelligenciák terén még messze nem értünk el a fejlettség végső szintjére, de már most akadnak olyan etikai aggodalmak, amikkel kapcsolatban sürgősen le kell fektetni a jogi alapokat és szabályokat. Az arcfelismerés körül kialakuló vita is azt mutatja, égető az igény arra, hogy a szabályozók nagyobb figyelmet szenteljenek a kérdésnek. Az etikus használathoz ipari sztenderdé váló irányelvekre és szilárd jogi alapokra van szükség. Bár sokan mondják, hogy hova a sietség, hiszen még csak az út elején járunk, de épp ezért nem szabad várni, a tét túlságosan nagy. Az államok épp a jogi keretrendszer kidolgozásán munkálkodnak, de erőteljesen küzdenek a problémákkal. Az egyik probléma a lassúság, ezt jól példázza, hogy a GDPR-t is öt évig készítették elő, majd két év múlva lépett hatályba.

Jogi értelemben a vadnyugaton vagyunk MI szabályozásban. Nagyon gyorsan elmegy mellettünk a technológiai fejlődés, és később nehéz belenyúlni. A másik probléma, hogy meg kell tudni magyarázni, mi alapján hozza meg egy komplex algoritmus a döntéseket. Az MI-re nem szabad úgy gondolni, mint egy hagyományos szoftverre. Az a gyönyörű és egyben veszélyes benne, hogy paramétereket adunk neki, az pedig tanulásra van optimalizálva, így mi csak toljuk bele az adatot, aztán hátradőlünk. Utána a rendszer magától gondolkodik és következtetéseket von le, fejleszti magát. Ezért nehéz visszakövetni a döntéseket

– magyarázza Tilesch.

Ilyen téren jelenleg az Európai Unió áll a legjobban, vélhetően 2021 elején várható egy fontos bejelentés a mesterséges intelligencia szabályozásával kapcsolatos keretrendszerről. Októberben az EP brüsszeli plenáris ülésén a mesterséges intelligencia fejlesztésének etikai és jogi vetületeiről elfogadott ajánlás szerint a mesterséges intelligenciára épülő technológiákkal szemben elvárásnak kell lenni, hogy maradjanak emberközpontúak, emberek alkossák meg őket, biztonságos, átláthatók és elszámoltathatók legyenek.

Legyen garantált az elfogultság- és megkülönböztetés-mentesség, nyújtsanak módot jogorvoslatra, legyenek társadalmi és környezeti szempontból fenntarthatók, és tartsák tiszteletben az alapvető jogokat és az adatvédelmi szabályokat.

A képviselők kiemelték, hogy az önálló tanulásra képes technológiákat úgy kell megtervezni, hogy működésük minden pontját ember tudja felügyelni. Ha egy adott funkció használata súlyos etikai vétséghez vezetne, vagy veszélyes lehet, biztosítani kell, hogy az ember letilthassa az önálló tanulást, és visszavegye a teljes irányítást a technológia felett.

Tilesch szerint dönteni kell arról is, hogy mely alkalmazási területek potenciálisan veszélyesek, ezek kockázati fokozata határozza majd meg, milyen minősítéssel kerülhetnek a piacra. Még nagy küzdelmek várhatók, de szerencsére észrevehető az a trend is, hogy a nagyvállalatoknál megindult egy önszabályozási folyamat, több nagy tech cég is kidolgozza saját etikai kódexeit. Ahogy a dublini Digital Summiton is hallhattunk róla tavaly, a Microsoft például már megfogalmazott fő irányelveket, amik mentén az etikai szempontoknak is megfelelő szolgáltatásokat lehet tervezni.

A két fő elem a pártatlanság és a megbízhatóság: ez azt jelenti, hogy az MI-rendszereknek minden embert egyenlőként kell kezelnie, mindenkinek előnyöket kell kínálnia. A megbízhatóság és pontosság kérdése is fontos, mivel az algoritmus sem tökéletes. A rendszerek ugyan gyorsan fejlődnek, de még messze vannak a tökéletestől.

A mesterséges intelligencia etikai normáiról fogadott el ajánlást az Európai Parlament

A mesterséges intelligencia fejlesztése mellett az etikai normákat és a technológiába vetett bizalmat is erősítenék.

Kiemelt kép: Getty Images

Vélemény, hozzászólás

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük


Your ads here. Click here

Your ads here .. click here!

MÉDIAAJÁNLAT - BANNERHIRDETÉS