Skocz do zawartości

Jaka kamera do atmegi?


Chumanista

Pomocna odpowiedź

Chumanista, tylko, że na tej samej karcie masz system, a do tego karta o rzeczywistych transferach (podanych przez użytkowników, nie przez producenta) >30MB/s będzie kosztować nawet kilkaset złotych. Pozostaje dalej problem obróbki potwornej ilości danych. Na 700MHz procesorze będziesz potrzebował kilka sekund na każdą sekundę filmu.

baton, ja myślę, że sporo może dać zmiana konstrukcji robota, np. ze skrętną osią napędową i jednym szybkim serwem sterować skrętem, a normalnym silnikiem napędzać. Był już nawet taki robot i całkiem nieźle sobie radził.

Link do komentarza
Share on other sites

Kto powiedział, że musi być RPi lub ARM? Na AVR też można:

http://www.jrobot.net/Projects/AVRcam.html

Aczkolwiek to trochę "bieda" jeśli chodzi o możliwości, więc tak jak poprzednicy polecałbym RPi lub jakąś inną płytkę o podobnej wydajności (bo nie na RPi się swiat kończy - jest dużo podobnych, łatwiej dostępnych i bardziej dojrzałych projektów od RPi, ale to RPi jest najbardziej rozreklamowane).

Link do komentarza
Share on other sites

Najlepsza kamera do ATmegi była by czarno-biała i 8x8 pikseli, odczytywana multipleksowo lub po I2C. Tyle powinno wystarczyć do znalezienia drogi, resztę pinów wykorzystasz do zapisu tego na zewnętrzny EEPROM. Powinieneś również użyć rejestru szeregowo-równoległego aby zwiększyć ilość pinów I/O. Powinieneś uzyskać co najmniej 30fps.

Taką kamerę możesz wyciągnąć z optycznej myszki.

Pozdrawiam.

Link do komentarza
Share on other sites

Ja tutaj ciągle nie widzę przewagi kamery nad zwykłymi czujnikami. Trasę można zmapować tak czy tak. Ważniejsza jest kwestia późniejszego wykorzystania tej mapy.

baton, ja myślę, że sporo może dać zmiana konstrukcji robota, np. ze skrętną osią napędową i jednym szybkim serwem sterować skrętem, a normalnym silnikiem napędzać. Był już nawet taki robot i całkiem nieźle sobie radził.

Do tego przydałaby się chyba również jakaś specyfikacja tras. Ciężko zrobić coś innego, gdy organizatorzy mają pełną dowolność tworzenia trasy jaką należy pokonać - chociażby występujące ciasne pętle...

Link do komentarza
Share on other sites

Zarejestruj się lub zaloguj, aby ukryć tę reklamę.
Zarejestruj się lub zaloguj, aby ukryć tę reklamę.

jlcpcb.jpg

jlcpcb.jpg

Produkcja i montaż PCB - wybierz sprawdzone PCBWay!
   • Darmowe płytki dla studentów i projektów non-profit
   • Tylko 5$ za 10 prototypów PCB w 24 godziny
   • Usługa projektowania PCB na zlecenie
   • Montaż PCB od 30$ + bezpłatna dostawa i szablony
   • Darmowe narzędzie do podglądu plików Gerber
Zobacz również » Film z fabryki PCBWay

wyzwaniem jest zrobic robota autonomicznego z czujnikami w roli głownej z kamera według mnie do takiego zadania trzeba miec duże zaplecze obliczeniowe w postaci kilku rdzeniowego procesora przykład moze bbyc chocc by roboty z "DARPA Grand Challenge" a w mniejszej skali Freescale cup. dlatego warto narazie zostac przy standardowych czujnikach lini i sharpach 🙂 ktos z kolegow na forum przedstawiał projekt prostej platformy zrobił swiatłoluba na kamerce interenetowej i procesorze 200mhz z marnym rezultatem 🙁

[ Dodano: 29-06-2012, 12:31 ]

ps. warty uwagi jest film dokumetalny "The GREAT ROBOT RACE" LNK

Link do komentarza
Share on other sites

Jednak rozpoznawanie różnych obiektów na obrazie 2D a detekcja czarnego paska na białym tle w pojedyńczej linii pikseli to różnica. A pomysł zrobienia LFa z kamerką traktowałbym raczej jak o możliwośc pozbycia się długiego "nosa" z czujnikami i znacznego zmniejszenia momentu bezwładności w osi pionowej. Kostrukcja byłaby mechanicznie bardziej zwarta więc i osiągi mogłaby mieć dużo lepsze. Przychodzi mi do głowy np. podwozie o strukturze słynnej Tetry (z konkurencji MM) wyposażone w wirtualny "nos" patrzący z 15 cm do przodu.. Pytane, czy za nowymi możliwościami i większą dynamiką ruchu nadążyłby procesor (i umiejętności programistów) ale - jak sądzę - to tylko kwestia czasu 🙂

Link do komentarza
Share on other sites

W 2011 na ISTROBOT był lf który używał kamery w smartfonie. Nie powalał szybkością, a chyba całe obliczenia były realizowane na procesorze w smartfonie, a przesył danych do silników odbywał się chyba po bluetooth.

Myślę że największym problemem nie jest moc obliczeniowa, tylko w miarę szybka kamera - dużo fps żeby dało się coś odczytać przy prędkości 3m/s.

Link do komentarza
Share on other sites

A powiedzcie mi taką rzecz, pewnie jest o tym jakaś wzmianka w regulamine konkurencji FTL, ale korzystając z okazji, że temat śledzi sporo osób siedzących w tym temacie, to zapytam, czy jednostką obliczeniową może być PC, który otrzymuje dane np. po bluetooth od bota? Nie rozstrzygajmy narazie kwesti szybkości przesyłu itp., lecz sam fakt, czy regulamin na to pozwala.

Link do komentarza
Share on other sites

Gdzyby zastosowac procesory DSP moze i jest szansa ale i tak czy DSP dałby rade obrobic 50fps'ow jak i nie wiecej w robocie stanlej było 6 procesorow 1,6GHz pentium M do jednej kamery i kilku skanerow SICK

Bez przesady, naprawdę. Programowałem robota do Freescale Cupa i na tych ich marnym procku działało to naprawdę bardzo dobrze. Na liniowej kamerce można to i na atmedze zrobić, przecież to się niczym nie różni od zwykłych czujników linii, tyle że jest ich raptem 8 razy więcej.

Maniac, nie można czegoś takiego zrobić, zabroniona jest jakakolwiek komunikacja z robotem poza start/stop.

A odnośnie wykorzystania już pełnej kamery z matrycą pikseli, myślę, że ten dokument może Was zainteresować:

http://twingo.ict.pwr.wroc.pl/~konar/uploads/download/raporty/systemwizLinefollowerFinal.pdf

Link do komentarza
Share on other sites

baton

A mógłbyś podesłać link do zakupu tej kamerki 128x1 oraz jakiś prosty tutorial do jej obsługi w programie?

Bo nawet PID na 128 "czujnikach" mógłby dać świetne efekty, a usunięcie listwy czujników odbiciowych z przodu dałoby wiele korzyści.

Poza tym, czy moglibyście polecić jakąś mysz z której czujnik działa do 5m/s, a jest łatwy do połączenia z atmegą?

Link do komentarza
Share on other sites

Pozwolę się włączyć do dyskusji. Otóż w mojej pracy magisterskiej wykorzystuje "kamerkę" do lfa. Prędkości które osiągam to na chwilę obecną to 3m/s.

Wracając do samego czujnika-są 3 podstawowe problemy-prędkość przetwornika ADC (ale tutaj nawet AVRki sobie radzą), oświetlenie i montaż mechaniczny.

Zdecydowanie zaprzeczam, jakoby cała matryca pikseli była potrzebna. Jak ktoś tu już pisał (lub nie)- jest to zbędny nadmiar informacji. Do trendu wystarczy o WIELE mniej.

Co do kwestii mechanicznej- "nie da się" wyeliminować wąsą- wpływ zewnętrznych warunków oświetleniowych (przede wszystkim słońce) jest przygniatający (gdyby ktoś nawet chciał się bawić w algorytmy adaptacyjne musiałby mieć w ramach trasy parenaście punktów pracy i zebranych wzorców samego oświetlenia). Owszem można ograniczyć wpływ tego poprzez częstotliwość taktowania czujnika, ale w pewnym momencie pojawia się problem z bardzo intensywnym własnym sztucznym doświetleniem. Wszystko sprowadza się do znanych wyglądem konstrukcji , ale zasłonięcie toru wizyjnego przed słońcem.

Mapowanie trasy- to zupełnie inna historia, jest ona na pograniczu regulaminu (tym również się zajmuję) i chyba nie jest tematem wątku 😉.

Ktoś również stwierdził, że to wszystko "masakryczna" robota. I tutaj się zgodzę. Zrobienie sztywnego i lekkiego skanera jeżdżącego z taką prędkością to jest wyzwanie.

Największa oczywista zaleta kamerki nad tradycyjnymi transoptorami- nie ma problemu z gęstym rozstawem czujników(przede wszystkim jak je rozstawić) i grubością lini- wszystko załatwia się elastycznym programem.

Co do myszek- wszystkie typowe podczerwone pracują do 0,5m/s a szybciej pomiary się wysypują. Jakiś czas temu jak sie pytałem o prędkości laserowych myszek to też to nie powalało czego nie można powiedzieć o cenie ;]. Zdecydowany niedobór formy nad treścią.

Link do komentarza
Share on other sites

Nie da się uniknąć problemu oświetlenia poprzez zamianę obrazy na czarno-biały z odcieni szarości przed analizą?

Freescale'owe kamerki bazują (z tego co przeczytałem pod linkiem dwa posty wyżej) na matrycach stąd.

Nie wiem czy będą one poprawnie działać bez obiektywu i na jakiej odległości od podłoża.

Poza tym nie wiem jak wygląda kwestia zakupu tego na sztuki.

Link do komentarza
Share on other sites

Wszystkie 15 robotów zbudowanych na PWr w ramach Freescale Cup miały jakiś sposób doświetlania trasy - na ogół było to MNÓSTWO jasnych LEDów albo jak przypadku naszej ekipy - jeden 3W Power LED. Ale jedna z lepszych ekip odpadła właśnie z powodu słońca.

Myślę, że bez optyki działać w ogóle nie będzie do takich celów 😉

Link do komentarza
Share on other sites

Dołącz do dyskusji, napisz odpowiedź!

Jeśli masz już konto to zaloguj się teraz, aby opublikować wiadomość jako Ty. Możesz też napisać teraz i zarejestrować się później.
Uwaga: wgrywanie zdjęć i załączników dostępne jest po zalogowaniu!

Anonim
Dołącz do dyskusji! Kliknij i zacznij pisać...

×   Wklejony jako tekst z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Twój link będzie automatycznie osadzony.   Wyświetlać jako link

×   Twoja poprzednia zawartość została przywrócona.   Wyczyść edytor

×   Nie możesz wkleić zdjęć bezpośrednio. Prześlij lub wstaw obrazy z adresu URL.

×
×
  • Utwórz nowe...

Ważne informacje

Ta strona używa ciasteczek (cookies), dzięki którym może działać lepiej. Więcej na ten temat znajdziesz w Polityce Prywatności.