OldSkull Czerwiec 28, 2012 Udostępnij Czerwiec 28, 2012 Chumanista, tylko, że na tej samej karcie masz system, a do tego karta o rzeczywistych transferach (podanych przez użytkowników, nie przez producenta) >30MB/s będzie kosztować nawet kilkaset złotych. Pozostaje dalej problem obróbki potwornej ilości danych. Na 700MHz procesorze będziesz potrzebował kilka sekund na każdą sekundę filmu. baton, ja myślę, że sporo może dać zmiana konstrukcji robota, np. ze skrętną osią napędową i jednym szybkim serwem sterować skrętem, a normalnym silnikiem napędzać. Był już nawet taki robot i całkiem nieźle sobie radził. Cytuj Link do komentarza Share on other sites More sharing options...
MatManiak Czerwiec 28, 2012 Udostępnij Czerwiec 28, 2012 Kto powiedział, że musi być RPi lub ARM? Na AVR też można: http://www.jrobot.net/Projects/AVRcam.html Aczkolwiek to trochę "bieda" jeśli chodzi o możliwości, więc tak jak poprzednicy polecałbym RPi lub jakąś inną płytkę o podobnej wydajności (bo nie na RPi się swiat kończy - jest dużo podobnych, łatwiej dostępnych i bardziej dojrzałych projektów od RPi, ale to RPi jest najbardziej rozreklamowane). Cytuj Link do komentarza Share on other sites More sharing options...
riddyk Czerwiec 28, 2012 Udostępnij Czerwiec 28, 2012 Najlepsza kamera do ATmegi była by czarno-biała i 8x8 pikseli, odczytywana multipleksowo lub po I2C. Tyle powinno wystarczyć do znalezienia drogi, resztę pinów wykorzystasz do zapisu tego na zewnętrzny EEPROM. Powinieneś również użyć rejestru szeregowo-równoległego aby zwiększyć ilość pinów I/O. Powinieneś uzyskać co najmniej 30fps. Taką kamerę możesz wyciągnąć z optycznej myszki. Pozdrawiam. Cytuj Link do komentarza Share on other sites More sharing options...
Treker (Damian Szymański) Czerwiec 28, 2012 Udostępnij Czerwiec 28, 2012 Ja tutaj ciągle nie widzę przewagi kamery nad zwykłymi czujnikami. Trasę można zmapować tak czy tak. Ważniejsza jest kwestia późniejszego wykorzystania tej mapy. baton, ja myślę, że sporo może dać zmiana konstrukcji robota, np. ze skrętną osią napędową i jednym szybkim serwem sterować skrętem, a normalnym silnikiem napędzać. Był już nawet taki robot i całkiem nieźle sobie radził. Do tego przydałaby się chyba również jakaś specyfikacja tras. Ciężko zrobić coś innego, gdy organizatorzy mają pełną dowolność tworzenia trasy jaką należy pokonać - chociażby występujące ciasne pętle... Cytuj Link do komentarza Share on other sites More sharing options...
Polecacz 101 Zarejestruj się lub zaloguj, aby ukryć tę reklamę. Zarejestruj się lub zaloguj, aby ukryć tę reklamę. Produkcja i montaż PCB - wybierz sprawdzone PCBWay! • Darmowe płytki dla studentów i projektów non-profit • Tylko 5$ za 10 prototypów PCB w 24 godziny • Usługa projektowania PCB na zlecenie • Montaż PCB od 30$ + bezpłatna dostawa i szablony • Darmowe narzędzie do podglądu plików Gerber Zobacz również » Film z fabryki PCBWay
bebek89 Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 wyzwaniem jest zrobic robota autonomicznego z czujnikami w roli głownej z kamera według mnie do takiego zadania trzeba miec duże zaplecze obliczeniowe w postaci kilku rdzeniowego procesora przykład moze bbyc chocc by roboty z "DARPA Grand Challenge" a w mniejszej skali Freescale cup. dlatego warto narazie zostac przy standardowych czujnikach lini i sharpach 🙂 ktos z kolegow na forum przedstawiał projekt prostej platformy zrobił swiatłoluba na kamerce interenetowej i procesorze 200mhz z marnym rezultatem 🙁 [ Dodano: 29-06-2012, 12:31 ] ps. warty uwagi jest film dokumetalny "The GREAT ROBOT RACE" LNK Cytuj Link do komentarza Share on other sites More sharing options...
marek1707 Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 Jednak rozpoznawanie różnych obiektów na obrazie 2D a detekcja czarnego paska na białym tle w pojedyńczej linii pikseli to różnica. A pomysł zrobienia LFa z kamerką traktowałbym raczej jak o możliwośc pozbycia się długiego "nosa" z czujnikami i znacznego zmniejszenia momentu bezwładności w osi pionowej. Kostrukcja byłaby mechanicznie bardziej zwarta więc i osiągi mogłaby mieć dużo lepsze. Przychodzi mi do głowy np. podwozie o strukturze słynnej Tetry (z konkurencji MM) wyposażone w wirtualny "nos" patrzący z 15 cm do przodu.. Pytane, czy za nowymi możliwościami i większą dynamiką ruchu nadążyłby procesor (i umiejętności programistów) ale - jak sądzę - to tylko kwestia czasu 🙂 Cytuj Link do komentarza Share on other sites More sharing options...
bebek89 Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 Gdzyby zastosowac procesory DSP moze i jest szansa ale i tak czy DSP dałby rade obrobic 50fps'ow jak i nie wiecej w robocie stanlej było 6 procesorow 1,6GHz pentium M do jednej kamery i kilku skanerow SICK Cytuj Link do komentarza Share on other sites More sharing options...
Harnas Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 W 2011 na ISTROBOT był lf który używał kamery w smartfonie. Nie powalał szybkością, a chyba całe obliczenia były realizowane na procesorze w smartfonie, a przesył danych do silników odbywał się chyba po bluetooth. Myślę że największym problemem nie jest moc obliczeniowa, tylko w miarę szybka kamera - dużo fps żeby dało się coś odczytać przy prędkości 3m/s. Cytuj Link do komentarza Share on other sites More sharing options...
Maniac Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 A powiedzcie mi taką rzecz, pewnie jest o tym jakaś wzmianka w regulamine konkurencji FTL, ale korzystając z okazji, że temat śledzi sporo osób siedzących w tym temacie, to zapytam, czy jednostką obliczeniową może być PC, który otrzymuje dane np. po bluetooth od bota? Nie rozstrzygajmy narazie kwesti szybkości przesyłu itp., lecz sam fakt, czy regulamin na to pozwala. Cytuj Link do komentarza Share on other sites More sharing options...
baton Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 Gdzyby zastosowac procesory DSP moze i jest szansa ale i tak czy DSP dałby rade obrobic 50fps'ow jak i nie wiecej w robocie stanlej było 6 procesorow 1,6GHz pentium M do jednej kamery i kilku skanerow SICK Bez przesady, naprawdę. Programowałem robota do Freescale Cupa i na tych ich marnym procku działało to naprawdę bardzo dobrze. Na liniowej kamerce można to i na atmedze zrobić, przecież to się niczym nie różni od zwykłych czujników linii, tyle że jest ich raptem 8 razy więcej. Maniac, nie można czegoś takiego zrobić, zabroniona jest jakakolwiek komunikacja z robotem poza start/stop. A odnośnie wykorzystania już pełnej kamery z matrycą pikseli, myślę, że ten dokument może Was zainteresować: http://twingo.ict.pwr.wroc.pl/~konar/uploads/download/raporty/systemwizLinefollowerFinal.pdf Cytuj Link do komentarza Share on other sites More sharing options...
Chumanista Czerwiec 29, 2012 Autor tematu Udostępnij Czerwiec 29, 2012 baton A mógłbyś podesłać link do zakupu tej kamerki 128x1 oraz jakiś prosty tutorial do jej obsługi w programie? Bo nawet PID na 128 "czujnikach" mógłby dać świetne efekty, a usunięcie listwy czujników odbiciowych z przodu dałoby wiele korzyści. Poza tym, czy moglibyście polecić jakąś mysz z której czujnik działa do 5m/s, a jest łatwy do połączenia z atmegą? Cytuj Link do komentarza Share on other sites More sharing options...
baton Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 Kamerę otrzymaliśmy za darmo od Freescale'a w ramach udziału we Freescale Cup'ie, nie wiem jak wygląda sprawa jej kupna. Tu na pewno znajdziesz więcej informacji na ten temat: http://freescalecupwiki.freescale.com/ Cytuj Link do komentarza Share on other sites More sharing options...
Barto Czerwiec 29, 2012 Udostępnij Czerwiec 29, 2012 Pozwolę się włączyć do dyskusji. Otóż w mojej pracy magisterskiej wykorzystuje "kamerkę" do lfa. Prędkości które osiągam to na chwilę obecną to 3m/s. Wracając do samego czujnika-są 3 podstawowe problemy-prędkość przetwornika ADC (ale tutaj nawet AVRki sobie radzą), oświetlenie i montaż mechaniczny. Zdecydowanie zaprzeczam, jakoby cała matryca pikseli była potrzebna. Jak ktoś tu już pisał (lub nie)- jest to zbędny nadmiar informacji. Do trendu wystarczy o WIELE mniej. Co do kwestii mechanicznej- "nie da się" wyeliminować wąsą- wpływ zewnętrznych warunków oświetleniowych (przede wszystkim słońce) jest przygniatający (gdyby ktoś nawet chciał się bawić w algorytmy adaptacyjne musiałby mieć w ramach trasy parenaście punktów pracy i zebranych wzorców samego oświetlenia). Owszem można ograniczyć wpływ tego poprzez częstotliwość taktowania czujnika, ale w pewnym momencie pojawia się problem z bardzo intensywnym własnym sztucznym doświetleniem. Wszystko sprowadza się do znanych wyglądem konstrukcji , ale zasłonięcie toru wizyjnego przed słońcem. Mapowanie trasy- to zupełnie inna historia, jest ona na pograniczu regulaminu (tym również się zajmuję) i chyba nie jest tematem wątku 😉. Ktoś również stwierdził, że to wszystko "masakryczna" robota. I tutaj się zgodzę. Zrobienie sztywnego i lekkiego skanera jeżdżącego z taką prędkością to jest wyzwanie. Największa oczywista zaleta kamerki nad tradycyjnymi transoptorami- nie ma problemu z gęstym rozstawem czujników(przede wszystkim jak je rozstawić) i grubością lini- wszystko załatwia się elastycznym programem. Co do myszek- wszystkie typowe podczerwone pracują do 0,5m/s a szybciej pomiary się wysypują. Jakiś czas temu jak sie pytałem o prędkości laserowych myszek to też to nie powalało czego nie można powiedzieć o cenie ;]. Zdecydowany niedobór formy nad treścią. Cytuj Link do komentarza Share on other sites More sharing options...
Chumanista Czerwiec 30, 2012 Autor tematu Udostępnij Czerwiec 30, 2012 Nie da się uniknąć problemu oświetlenia poprzez zamianę obrazy na czarno-biały z odcieni szarości przed analizą? Freescale'owe kamerki bazują (z tego co przeczytałem pod linkiem dwa posty wyżej) na matrycach stąd. Nie wiem czy będą one poprawnie działać bez obiektywu i na jakiej odległości od podłoża. Poza tym nie wiem jak wygląda kwestia zakupu tego na sztuki. Cytuj Link do komentarza Share on other sites More sharing options...
baton Czerwiec 30, 2012 Udostępnij Czerwiec 30, 2012 Wszystkie 15 robotów zbudowanych na PWr w ramach Freescale Cup miały jakiś sposób doświetlania trasy - na ogół było to MNÓSTWO jasnych LEDów albo jak przypadku naszej ekipy - jeden 3W Power LED. Ale jedna z lepszych ekip odpadła właśnie z powodu słońca. Myślę, że bez optyki działać w ogóle nie będzie do takich celów 😉 Cytuj Link do komentarza Share on other sites More sharing options...
Pomocna odpowiedź
Dołącz do dyskusji, napisz odpowiedź!
Jeśli masz już konto to zaloguj się teraz, aby opublikować wiadomość jako Ty. Możesz też napisać teraz i zarejestrować się później.
Uwaga: wgrywanie zdjęć i załączników dostępne jest po zalogowaniu!