A Microsoft nem ad el mesterséges intelligenciával összefüggő technológiát tekintélyelvű kormányoknak és az Amazonon belül is sokan vannak, akik követnék a példáját. A La Repubblica két szakértő véleményét kérte.
Különböző a koruk, a szaktudásuk, és az intézmény, ahol dolgoznak. A 72 éves Tomaso Poggio komoly szaktekintélynek számít a szektorban. Jelenlegi ő a vezető a bostoni MIT Brains, Minds and Machines részlegnek. A 49 esztendős Giorgio Metta az Iit (Istituto Italiano di tecnologia) igazgatója.
-Mi kelt Önökben félelmet a mesterséges intelligencia iránt?
P: Túl sok a felhajtás körülötte. Nem lesznek rövid időn belül az emberi agyhoz hasonló digitális rendszerek. Még évtizedekre és sok felfedezésre van szükség ehhez, Elon Musk, vagy Stephen Hawking, eltúlozták a veszélyt. De az igaz, hogy vannak témák, amelyekkel most kell szembenézni. Például a személyiségi jogokkal és azzal a ténnyel, hogy társadalmi keretekben használva ellenőrző rendszerré válhat és a diktátorok életét könnyíti meg. Nem véletlen, hogy a legjobb arcfelismerő rendszerek kínaiak, vagy hogy Aszad Szíriában megtisztította a terepet az ellenségtől az orosz ellenőrző technológia felhasználásával.
M: Jelenleg az AI-k jól szerepeknek ismétlődő folyamatokban, kevésbé változó környezetben, de messze vannak attól, ahogy a sci-fikben bemutatják őket. Én jobban tartok az emberi ostobaságtól, és nyugtalanít, hogy ez a forradalom – AI, automatizálás, robot – esetleg nem terjed el, hogy előnyei kevés ország, kevés társaság kezében maradnak, hogy ezek a technológiák a termelésre, az egészségügyre alkalmazva a társadalmi egyenlőtlenséget növelhetik, ahelyett, hogy megszüntetnék.
-Mi a véleményük az Európai Uniós elvekről e téren?
P: Nagyszerű dolog és azt gondolom, hogy a Web nagyjai is egyetértenek azzal, hogy a szabályokat a kormányoknak és a nemzetközi szerveknek kell megszabniuk, mivel a probléma nem a szabályban van, hanem ugyanazt kell érvényesíteni mindenhol, mindenkire. Egyik AI sem intelligens önmagában, még a Deep Mind Alpha Zorója sem, amely magától tanul meg sakkozni. Ha játszik és az épület kigyullad, ott marad ahelyett, hogy mentse magát. Ezzel csak illusztálni akarom, hogy az AI-knak fogalmuk sincs arról, hogy mi történik körülöttük. Van azonban egy abszurd, ironikus aspektus is: nem tudjuk pontosan, mi történik néhány, a „deep learninggel” összefüggő egyes folyamatokban.
M: Az EU szabályai kitűnő kiindulást jelentenek. Érintik a lényeges pontokat, így azt, hogy a technológiák akarva vagy akaratlanul a diszkrimináció kockázatát rejtik magukban. Gondolok például egy bizonyos típusú orvosi analízisre, amely gyakrabban hibázik bizonyos típusú embereknél. Érinti a szabály az algoritmusok átlátszóságának kérdését is. Tudnunk kell, mi történik a belsejükben.
-Úgy használjuk a fejlett algoritmusokat, hogy nem tudjuk, hogyan cselekszenek?
P: Matematikailag nem tudjuk, miért működik ilyen jól. Én azt gondolom, hogy elméletileg értem, de biztos vagyok abban, hogy két éven belül sokkal többet tudunk. A tudományban ez nem annyira meglepő. Azután, hogy Alessandro Volta felfedezte az elektromosságot, 60 év kellett, míg eljutottunk egy igazi matematikai elmélethez, de ez nem akadályozta, hogy közben legyenek ezzel összefüggő felfedezések, találmányok. Ebben az esetben azonban rendszerekről van szó, amelyek többek között autókat tudnak vezetni, és jobb tudni hogyan. Az AI-k fejlesztésében fontos a figyelmet a White Box-ra koncentrálni (egy teszt, amely felfedezi a hibákat és megtalálja a helyüket a rendszerben). Nem feledjük azonban, hogy hány területe van az életnek, amelyekről keveset tudunk. És a dolgok egyre bonyolultabbak lesznek.
M:Nem minden esetben. Néha önállóan cselekszenek és fogalmunk sincs, miért éppen úgy, ahogy. Vannak rendszerek, amelyek tanulnak, és maguk választják ki, hogyan oldjanak meg bizonyos problémákat. A Google által kreált AlphaGo tud néhány megmagyarázhatatlan lépést, amellyel legyőzte a Go világbajnokát. Amíg a játékoknál maradunk, nem látok semmi problémát. Problémát jelenthet viszont egy kórházban egy kibernetikai biztonsági rendszer. Az a baj, hogy nem tudjuk mindig megérteni egyes lépések okait. Egyébként nem lehet az abszolút érthetőséget feltételként szabni az algoritmusok létrehozásánál, mert ez blokkolná a kutatást.
Kommentek:
A hozzászólások a vonatkozó jogszabályok értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a Felhasználási feltételekben és az adatvédelmi tájékoztatóban.