Kursy • Poradniki • Inspirujące DIY • Forum
Ludzie i zwierzęta wykorzystują do tego celu nie tylko ręce, ale i oczy. Tę samą funkcję pełnią systemy wizyjne, dzięki którym zwiększa się precyzja ruchów robotów. Jest to szczególnie ważne, gdy obiekty zmieniają swoje położenie podczas chwytania, czyli praktycznie zawsze w realnych sytuacjach.
W eksperymencie uczestniczyło 14 maszyn. Każde ramię miało 7 stopni swobody i posiadało kamerę RGB z czujnikiem głębi.
Związek pomiędzy danymi z czujników i wykonywaną czynnością nie zawsze jest oczywisty. Uczenie robotów wykonywania wszystkich indywidualnych czynności byłoby trudne. Dlatego ich twórcy postawili na samodzielną naukę przy użyciu sieci neuronowej.
Wszystkie procesy były całkowicie autonomiczne – udział ludzi ograniczył się do przygotowania pudełek z przedmiotami i włączenia urządzeń.
Pracując nad koordynacją wzrokowo-ruchową i obserwując własne ruchy, robot uczy się przewidywać, które z nich mają największe szanse zakończyć się sukcesem w konkretnej sytuacji.
Pojawiają się inteligentne reakcje, takie jak korygowanie ruchów w czasie rzeczywistym. Maszyna zaczyna rozróżniać obiekty małe od dużych, miękkie od twardych, itp.
Po setkach tysięcy prób, kształty chwytaków zaczęły różnić się między sobą. Wynika to z faktu, że oświetlenie lub umieszczenie kamer również nieznacznie się różnią.
Badania wynalazców nad taką adaptacją mogą w przyszłości oznaczać lepsze przystosowanie robotów do różnorodnych warunków i środowisk.
Źródło: [1]
To nie koniec, sprawdź również
Przeczytaj powiązane artykuły oraz aktualnie popularne wpisy lub losuj inny artykuł »
chwytanie, google, maniupulatory, roboty
Trwa ładowanie komentarzy...