https://frosthead.com

Protetická končetina „vidí“, co její uživatel chce chytit

Když něco chytíte, vaše ruka dělá většinu práce. Váš mozek jen říká: „Jdi, neboj se, jak se to stane.“ Ale s protetickou, dokonce i nejpokročilejší, vyžaduje tato akce mnohem větší záměrnost. Výsledkem je, že mnoho pacientů opouští nejmodernější končetiny.

Související obsah

  • Jak hackování neuronových sítí může pomoci Amputees Flawlessly Crack Egg
  • Získání protézy je snadné, ve srovnání s tím, jak to dělat, co chcete

Moderní protetika přijímá příkazy ve formě elektrických signálů od svalů, ke kterým jsou připojeny. Ale ani ta nejlepší protetika to ještě nedokáže udělat. Uživatelé si potřebují dlouhé tréninkové období, aby si zvykli na končetinu. Často se mohou pohybovat pouze omezeným způsobem a uživatelé musí ručně přepínat mezi mřížkami, aby mohli plnit různé úkoly - řekněme, aby otevřeli dveře proti sevření a otočili klíčem. Celkově to znamená, že ruka nemůže hladce pracovat s mozkem.

Jedním z nástrojů, který by mohl pomoci vyřešit tento problém, je počítačové vidění. Vědci z Newcastle University namontovali webovou kameru na protetickou ruku, připojili ji k hluboké učící se neuronové síti a dali zařízení dvěma ampérům, jejichž paže byly amputovány nad zápěstí, ale pod loktem. Počítač použil kameru k tomu, aby zjistil, co uživatel sáhl, a automaticky upravil přilnavost protézy.

Výsledky jsou zatím slibné. V článku v časopise Journal of Neural Engineering tým Newcastle uvedl, že uživatelé dosáhli úspěšnosti nad 80 procent při snímání a pohybu objektů.

„Pokud to dokážeme zlepšit, získáme sto procent, bylo by mnohem spolehlivější použít ruku pro amputéry, “ říká Ghazal Ghazaei, student PhD v Newcastlu a hlavní autor článku. „Pokud to bude používán v reálném životě, měl by být bezchybný. “

Samotné zařízení bylo protetikou, která se nazývala i-limb ultra, a webová kamera byla levným chatem Logitech Quickcam Chat s nízkým rozlišením. Skutečnou novinkou bylo, jak tým Ghazaei vymyslel schéma počítačového učení, aby využil informace z webové kamery.

Software rozpoznává vzory ve tvaru objektu, který má být zvednut, a klasifikuje je do kategorií na základě přilnavosti, kterou potřebuje, aby je mohl účinně uchopit. Aby naučil počítač této technice, Ghazaei nakrmil každý 72 obrázků, každý po 5 stupních, po 500 objektech. Software filtruje objekty podle jejich funkcí a učí se pomocí pokusů a omylů, které spadají do kterých kategorií.

Poté, když je protetika prezentována s objektem, klasifikuje síť obraz s nízkým rozlišením na základě jeho širokého, abstraktního tvaru. Nemusí to být něco, co systém předtím viděl - obecný tvar objektu stačí, aby sdělil ruce, jakou přilnavost použít. Ghazaei a tým použili čtyři typy sevření, včetně špetky (dva prsty), stativu (tři prsty), neutrální dlaně (jako uchopení šálku kávy) a proniknuté dlaně (kde dlaň směřuje dolů).

Počítačové vidění bylo dříve používáno na robotických rukou, jak v protetických, tak průmyslových robotech. Takové úsilí však zahrnovalo buď objekty standardní velikosti a tvaru, jako ve výrobním prostředí, nebo pomalejší algoritmy. Systém vyvinutý v Newcastlu byl schopen projít tímto procesem dostatečně rychle, aby správně klasifikoval objekty ve 450 mikrosekundách nebo přibližně 1/2000 vteřiny. "Hlavním rozdílem je čas, který je potřeba, abychom pochopili a splnili úkol, " říká Ghazaei. "Pro některé z nich je to asi čtyři sekundy a některé potřebují několik snímků." Pro nás je to jen jeden snímek a je to velmi rychlé. “

Dopady této technologie jdou daleko nad rámec vyzvednutí domácích potřeb. Zobrazovací systémy by mohly protetickým nohám pomoci zjistit, jak daleko jsou od země, a podle toho se upravit například. Společné jsou oba případy robotický systém, který pracuje ve spojení s mozkem.

"Hlavní myšlenkou je interakce mezi robotickým zařízením a člověkem a přidání robotické inteligence do robotického systému, " říká Dario Farina, profesor neurorehabilitačního inženýrství na Imperial College London, jehož laboratoř studuje neuromuskulární rozhraní pro těla a mozky a zařízení, ke kterým se připojují.

"Protézu neovládá pouze pacient, který ovládá svým mozkem a nervovým rozhraním, ale také pacientovi pomáhá druhá inteligentní entita, která je namontována na protéze a která vidí životní prostředí, " říká Farnia, která nebyla zapojena do studie Newcastle. „Hlavní výzvou v této věci je skutečně sdílet kontrolu mezi člověkem a zpravodajským systémem.“

Je to raná cesta do sloučení umělé inteligence s mozkem a vymýšlí se, které akce fungují nejlépe pro každého bez vytváření konfliktů. Ghazaei narazil na tento problém; stále pracuje na tom, jak velká část širokého pohybu je ovládána počítačem protetiky, oproti činnostem uživatele. Právě teď uživatel nasměruje protézu na předmět, přiměje jej, aby vyfotil, a pak si rameno vybere uchopení a uchopení.

Je to jen jedna z mnoha zbývajících výzev. V tuto chvíli systém nerozumí dlouhým objektům, které se rozkládají mimo dohled. Má potíže s přeplněným pozadím. Někdy interpretuje vzdálenější objekt jako menší, bližší. A Ghazaei říká, že dalším cílem je zvýšit počet typů uchopení na 10 nebo 12. Ale už, jak říká, dva uživatelé v testu ocenili zvýšení výkonu a jednoduchost, která se hodí pro základní akt vyzvednutí.

Protetická končetina „vidí“, co její uživatel chce chytit