Az MIT kutatói olyan eljárást fejlesztettek ki, ami lehetővé tette számukra, hogy az elmosódott, bemozdult képekből is kinyerjék akár a legfinomabb részleteket is. A Massachusetts Institute of Technology (MIT – Massachusettsi Műszaki Egyetem) kutatóinak egy csoportja megtalálta annak módját, hogyan nyerje vissza az elveszett részleteket, és hogyan készítsen bemozdult videókból tiszta, éles részeket. „Vizuális de-projekciós modell” névre hallgató algoritmusuk konvolúciós neurális hálózatra épül, amit képpárokkal (alacsony és ugyanazon képek magas felbontású verzióival) tanítottak be, így az képes felismerni, hogyan keletkezhet a nagyfelbontású képből elmosódott, bemozdult, alacsony felbontású fotó.
Amikor az algoritmusnak ismeretlen, alacsony felbontású, rossz minőségű képeket mutatnak, amelyek bemozdult részeket is tartalmaznak, a modell kielemzi a jeleneteket, hogy a videóban vajon mi okozhatta a bemozdulást. Az analízis után az algoritmus olyan új képkockákat szintetizál, amelyekben a tiszta és a bemozdult képkockák adatait egyesíti. A kutatócsoport tesztjei során a modell képes volt arra, hogy egy videó 24 képkockáját újraalkossa, amiben egy személy testtartását, méreteit, és lábainak helyzetét is látni lehetett. A sci-fi és ultramodern bűnügyi filmekből ismert „zoomolj rá és emeld ki a részleteket” azért még odébb van, ráadásul a csapat jelenleg az orvosi célú alkalmazhatóságra fókuszál: elképzeléseik szerint a technológia alkalmas lehet arra, hogy a 2D-s röntgen felvételekből majd 3D-s, tehát térbeli képanyagot „gyúrjon”, ami a CT-nél is több információval szolgálhatna – pluszköltségek nélkül.
Mivel az orvostechnológiai térbeli képalkotás igen drága játék, ezért ez az új módszer forradalmi hatással lehetne például a fejlődő országok egészségügyére. „Ha az egyszerű röntgenképekből CT felvételeket készíthetnénk, az egyfajta forradalmi eredmény lenne. Csak küldd rá a sima röntgenképre az algoritmust és máris eléd tárulnak az elveszett részletek.” – mondta Guha Balakrishna, a csapat egyik vezető tagja. (Forrás: engadget.com, news.mit.edu)