A bostoni Massachusetts Institute of Technology (MIT) közelebb hozza a mesterséges intelligenciákat a finom tapintás kifejlesztéséhez.
A kutatók kidolgoztak egy rendszert, amely meg tudja állapítani csupán képek alapján, hogy milyen érzés lesz megérinteni egy tárgyat, és le tudja ezt írni egy érzékelővel ellátott kar általi tapintással.
Az emberek számára elképzelni, vagy felismerni egy tárgy tapintási tulajdonságait a látvány alapján természetes dolog. Mint ahogy az is, hogy a tárgyat érintve precíz információkat tud adni róla. A robot számára viszont ez korszakos lépés, amelyre most a MIT Computer Science and Artificial Intelligence laboratóriumában készülnek.
Egy most közzétett tanulmányban egy olyan mesterséges intelligencia-rendszert írnak le, amely képes képeket alkotni tárgyakról tapintás alapján, vagy tapintási tulajdonságairól egy bizonyos számú információ alapján, vagyis képes „látni” tapintással és „elképzelni” látással.
„A képeket nézve modellünk el tudja képzelni, milyen érzés megérinteni egy sima felületet, vagy egy éleset – magyarázta tanulmány fő szerzője, Yunzhu Li – Egy tárgy érintésével meg tudja állapítani, milyen lesz annak interakciója a környezettel. A robotok ezzel hatékonyabbá válnak, kevesebb adattal tudjuk őket beprogramozni a tárgyak megragadásához és mozgatásához szükséges feladatok elvégzésére.”
Az elv mindig ugyanaz: minél kevesebb adatra lesz szükségük induláskor és a feladat elvégzése közben, annál gyorsabbak lesznek és hasznosabbak is, mert képesek lesznek egyedül is tanulni és feladatokat végrehajtani.
A csapat egy ellentétes generatív rendszert alkalmazott az érintő és a vizuális ösztönzők párosítására és szükség volt egy előzetes betanításra. A kutatók erre a célra egy Kuku nevű robotkart használtak Getsight érintős szenzorral, amelyet a MIT egy másik laboratóriuma készített. Ezekkel térképezték fel 3D-ben a felületeket, amelyeket érintésre szántak, valamint azokat a tárgyakat, amelyeknek megfogása, áthelyezése volt a feladat.
A kutatók ily módon 200 különböző tárgyat regisztráltak a finom szövetektől a mindennapi eszközökig. Kb. 12 ezer videóklipből álló adatbázist hoztak létre. Ez lett a Visgel, 3 millió látható és tapintható párosítással. A rendszer ezeknek a klipeknek és a robotkar által szerzett információknak alapján megtanulta, hogy milyen tulajdonságai vannak ezeknek az anyagoknak és hogyan lehet leírni őket.
Az így szerzett információk természetesen még nem teljesek. Ennek ellenére a kutatók úgy vélik, hogy ezzel az előrelépéssel spontánabb és egyenesebb út nyílhat meg az ember és a gép interakciójában, különösen az iparban és olyan területeken, ahol szoros az együttműködés, főleg olyan helyzetekben, amikor az információk nem láthatók világosan és egyértelműen.
„Ez az első olyan módszer, amellyel sikerül meggyőző módon összekapcsolni a vizuális és a tapintó jeleket – kommentálta Andrew Owens, a kaliforniai Berkeley egyetem kutatója – az ilyen módszerek nagyon hasznosak lehetnek a robotikában, például olyankor, amikor tudni kell, hogy a kérdéses anyag puha vagy kemény, hogy miként lehet a legjobban megfogni.”
A módszer nagyobb érzékenységgel ruházza fel a robotot, hiszen, ha nem is olyan kifinomultan, mint az ember, az öt legfontosabb érzékelésből kettőnek birtokába kerül.
Jelenleg a MIT robotja csak irányított körülmények között tudja azonosítani a tárgyakat. A következő lépés lesz egy szélesebb adatbázis építése, amely lehetővé teszi számára érinti ügyességének fejlesztését.
Kommentek:
A hozzászólások a vonatkozó jogszabályok értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a Felhasználási feltételekben és az adatvédelmi tájékoztatóban.