Az alapvetően látó emberek számára készült HoloLens sisakját ezúttal látássérülteken tesztelték, mégpedig úgy, hogy egyszerűbb hangalapú utasításokkal egészítették ki az eszközt, amely egy kis időre megpróbált a szemük lenni.
A Microsoft tavaly év végén jelentette be, hogy több európai országban, köztük Magyarországon is elérhetővé teszi a HoloLens nevű készülékét, amelyen keresztül a környezetünket digitálisan kivetített háromdimenziós tárgyakkal együtt láthathatjuk. A VR-szemüveggel kombinált virtuális sisakot most vizuális protézisként tesztelték látássérült embereken, és nagyon úgy tűnik, hogy működik – írja cikkében a TechCrunch. Az eszköz valós idejű hangjelzésekkel és utasításokkal írja le a felhasználó környezetét, és egyben felhívja a figyelmet arra, hogy a különböző tárgyakat milyen irányban, távolságban és mekkora nagyságában találja.
A Kaliforniai Műszaki Egyetem és a Dél-Kaliforniai Egyetem kutatói egyelőre senkit nem ringatnának illúzióba: szerintük ma még egyszerűen nem reális cél a látás visszaadása. Ugyanakkor a látás helyettesítéséhez nem is feltétlen magának a tárgynak a megjelenítésére van szükség, hanem arra, hogy legyen valami, ami elnavigálja a keresett tárgyhoz a nem látó embert. És mivel a HoloLens egyik legjobb tulajdonsága éppen az, hogy a vizuálisan elérhető adatok összegyűjtéséből és egy adott hely különböző akadályairól – köztük egy helyiségben pl. a falak és ajtók helyéről – készült térkép segítségével le tudja képezni az adott környezetet, ezért a kutatók most mindezt a hang segítségével igyekeztek tökéletesíteni a látássérültek számára.
Az eszköz néhány irányjelző kifejezéssel és az adott tárgyakkal érintkezés jellegzetes hangjain keresztül érzékelteti a felhasználóval, hogy éppen hol és mit talál egy adott lakásban. A falak közelségét például egy jellegzetes, súrlódásra utaló, fehér zaj jelzi, majd ahogy elfordul a felhasználó, az eszköz balról jobbra tartó irányban sorolja fel az összes, szobában található nagyobb berendezési tárgyat és bútort. Ha pedig egy adott dolgot keres – mondjuk vendégségben a kanapét -, akkor fejének megmozdításával újra meghallgathatja, hogy pontosan tőle milyen irányban, milyen távolságra találja meg azt.
A két kaliforniai egyetem kutatóiból álló csapat a teszt során (videó erről itt) a hét vak embernek olyan feladatokat adott, hogy a hangjelzések alapján mutassanak egy adott tárgyra, vagy találják meg a széket a szobában, de úgy, hogy közben a különböző akadályokat is biztonságosan kikerüljék. Aztán egy ház bejáratától a második emeletre kellett feljutniuk úgy, hogy csak a headseten keresztül kapott hangokra volt szabad figyelniük. A virtuális vezetőjük ugyanis erre a kis időre szemük helyett szemük volt. Az alapján, amit az eszköz látott, a tesztalanyok fülébe mindössze a “kövess” kifejezést ismételgette és az irányjelző szavakat használta, de közben figyelmeztetett a lépcsőkre és arra, ha az ideális útvonalról letértek a felhasználók. A feladatokat mindannyian hiba nélkül, az összes akadályt kikerülve teljesítették, és persze sokkal rövidebb idő alatt, mint ahogyan azt hanggal kísért navigáció nélkül szokták tenni.
Az eredmények összegzéseként a kutatók ugyanakkor arra is emlékeztetnek, hogy a vak embereknél a szem hiányzó funkcióit és az agy látásért felelős területeit helyettesítő mesterséges intelligencia szükségét már több mint 30 évvel ezelőtt megjósolták. Szerintük most már csak a rendszer működésének finomításán van a hangsúly, amit ha sikerül a Microsoftnak megugrania, akkor az olyan mindennapi használatban lehet a vakok és gyengénlátók segítségére, mint pl. az általuk keresett üzletbe jutás egy nagy bevásárlóközpontban, vagy egy kórházban a saját kórtermük megtalálása az eszköz segítségére támaszkodva. “Most már legalább van egy olyan platformunk, amely a valóság hangjait képes felhasználni mindarra, amit a szemükkel sokan nem képesek érzékelni” – idézi cikkében a lap a tesztről készült tanulmány szerzőit.
Hasonló érdekes hírekért keresd fel a Kreatív Next by Telenor rovatát is!