Skocz do zawartości

BuxBleed

Użytkownicy
  • Zawartość

    71
  • Rejestracja

  • Ostatnio

Reputacja

0 Neutralna

O BuxBleed

  • Ranga
    4/10

Informacje

  • Płeć
    Mężczyzna
  • Lokalizacja
    Gliwice
  1. 1. Mam model matematyczny kamery, w sensie kalibruje kamerę za pomocą odpowiedniej funkcji w OpenCV używając do tego szachownicy.( współczynniki zniekształcenia, ogniskową, oraz centra optyczne(?) zapisane w postaci macierzy i wektorów) Może to jakoś wykorzystać ? 2. Ok 3. Na razie to pomińmy
  2. Potrzebuję wsparcia informacyjnego odnośnie projektu robota sterowanego wizyjnie. Na ten moment, mam robota który jeździ, nie ma osi skrętnej, skręcanie odbywa się różnicowo, czyli zmiana kierunków obrotu w silnikach. To sprawia że jest w stanie chociażby obrócić się o 180 stopni w miejscu, w praktyce wchodzi bezwładność i tak nie jest. Jest do niego dobrze zrobione sterowanie za pomocą akcelerometru w telefonie, dane wysyłane przez BlueTooth, kręcimy telefonem, robot jeździ skręca opuszcza pisak gdy wciśniemy przycisk jest ok. Wersja finalna ma umożliwić rysowanie jakichś prostych figur.
  3. Tak, masz rację powinno to wyglądać z>= 1 && z <= 9. Po tej poprawce robot zdaje się poruszać mniej chaotycznie, jednak jest to wciąż dalekie od perfekcji. No mógłbym w zasadzie wypisywać to co wysyłam poniżej w jakimś TextBoxie i go aktualizować co jakiś czas używając Timera, albo też robot mógłby przesyłać informację zwrotną wysyłając natychmiast to co otrzymał.
  4. Po wielu dniach ciężkiej walki ogarnąłem mniej więcej ten problem. Steruje robotem za pomocą akcelerometru w telefonie, napisałem do tego aplikację w App Inventorze. Robot działa na silnikach krokowych sterowanych układem DRV8825 Mam jednak problem w odpowiednim odczytywaniu danych z akcelerometru. Pokręciłem sobie swoim telefonem w w każdy możliwy sposób i rozpisałem przedziały wartości jakie przyjmują odpowiednio współrzędne xyz po poszczególnych rotacjach. No i nie działa Robot reaguje na odczyt z akcelerometru no ale, świruje, zachowuje się nieprzewidywalnie i czasami w ogóle n
  5. Cześć, niedawno otrzymałem swoją malinkę. Zakupiłem ją do celów komputerowego przetwarzania obrazów. Postanowiłem skorzystać z biblioteki OpenCV i samemu skompilować ją wraz ze wszystkimi potrzebnymi dodatkami. Lecz przed właściwą kompilacją biblioteki natknąłem się na pewien problem z pewnymi plikami urządzeń znakowych jak sądzę. Nie posiadam jakiejś szczegółowej wiedzy na temat systemu Linux to też polegałem na tym co znalazłem w internecie no ale mimo tego nie udało mi się rozwiązać problemu... Wykonywałem wszystkie kroki po kolei tak jak przedstawia poniższy tutorial, aż w pewnym mome
  6. Ja akurat operowałem na impulsach, policzyłem sobie że 1 impuls to 0.03925 mm drogi pokonanej przez robota i obrót o ok 0.02 stopnia względem drugiego koła. I teraz sobie operuje na tych wartościach. Zbocze narastające podaje na silnik co 0.1ms i to jest stałą wartością.
  7. No okej opanowałem trochę popisałem i policzyłem. Udało mi się sterować robotem za pomocą pewnego rodzaju komend: Znak 'f' lub 'F' Forward - robot jedzie do przodu o ileś tam centymetrów Znak 'b' lub 'B' Backwards - robot jedzie do tyłu o ileś tam centymetrów Znak 'r' lub 'R' Right - robot obraca się w prawo, w miejscu o 90 stopni Znak 'l' lub 'L' Left- robot obraca się w lewo, w miejscu o 90 stopni Znak 'o' lub 'O' obrót, literka r od rotate była zajęta - robot obraca się o 180 stopni No i podając przez terminal ciąg znaków dajmy na to "fbflro" robot wykonuje zadaną sekwencję ruchó
  8. No nie do końca, tak to wygląda. Po pierwsze bardzo bym chciał żeby środek ciężkości pokrywał się ze środkiem geometrycznym robota ale z przyczyn konstrukcyjnych jest to nie możliwe. Powiedziałbym że jest najbardziej jak tylko się da, można oczywiście obciążyć go dodatkowymi obciążnikami aby tak było. Czyli rozumiem że jak steruje sobie silnikami krokowymi o rozdzielczości 200 kroków, na driverze jest ustawiona rozdzielczoścć 1/32 kroku czyli najmniejszy kąt o jaki może obrócić się koło wynosi 360/(200*32) = 0,05625 stopnia. Promień koła wynosi 40mm czyli ze wzoru na długość łuku koła licz
  9. Cześć, mam problem z obmyśleniem algorytmu sterowania różnicowego do silników krokowych opartych na sterowniku DRV8825. Chodzi o to żeby korzystając z aplikacji, na androida wykorzystującej żyroskop i akcelerometr w telefonie sterować robotem. Apkę napiszę w android studio w języku Java, bo tak chyba jest najłatwiej. Jak w ogóle zabrać się za coś takiego ? Póki co to wiem jak ruszać robotem do przodu i do tyłu :/
  10. Nie mam jeszcze gotowego programu do tego projektu. Pisałem program wykrywający i namierzający wybrany kolor z przestrzeni HSV korzystając z kamerki internetowej 0.3mpx. No super namierzało pozycję kartki o wymiarach 6 cm x 6 cm nawet z kilku metrów. Działający program zajmował cały jeden rdzeń procesora i7 7700HQ. Ze znacznikami aruco nic jeszcze nie robiłem.
  11. No to chyba zdecyduje się na zakup Raspberry Pi Camera HD v2 8MPx, myślę chyba będzie najlepszą opcją.
  12. Jeden znacznik odniesienia może być nawet A4, openCV ma bibliotekę do generowania i przetwarzania takich znaczników, więc kod jest już jak sądzę dobrze zoptymalizowany. Z drugim będzie już gorzej, bo będzie miał wymiary maksymalnie 5cm x 5cm do tego kamerka na wysokości około metra, zawieszona na suficie czy jakimś gimbalu. BTW: Za rok mam kończę inżynierkę, może malina pozwoliłaby mi zrobić jakiś ciekawy projekt na pracę dyplomową ?
  13. Na pewno potrzebowałbym właśnie wykrywania tych znaczników bo właśnie realizuje taki projekt, więc między innymi potrzebowałbym czegoś co by wykrywało położenie jednego znacznika względem drugiego będącym odniesieniem. Możliwie najszybciej jak się da
  14. No jak nietrudno się domyślić zależy mi na zredukowaniu opóźnień do minimum. Może nieprecyzyjnie się wyraziłem, określenie "w czasie rzeczywistym" miało określać natychmiastową reakcje układu, z punktu widzenia człowieka, dla procesora to cała wieczność . Chodzi mi o takie zastosowania w robotyce mobilnej na przykład: roboty śledzące, sterowane wizyjnie manipulatory, wykrywanie kodów QR, wykrywanie obiektów (twarze, gesty, tablice rejestracyjne etc.) Mam wątpliwości szczególnie co do tego ostatniego. Spotkałem się z opiniami na zagranicznych forach jakoby Raspberry Pi jest za słabe do t
  15. Więc po prostu dedykowana kamerka ? Chodzi mi o zastosowania w robotyce mobilnej, żadne robienie zdjęć i kręcenie filmów. Tylko odbieranie obrazu i przetwarzanie go w czasie rzeczywistym.
×
×
  • Utwórz nowe...

Ważne informacje

Ta strona używa ciasteczek (cookies), dzięki którym może działać lepiej. Więcej na ten temat znajdziesz w Polityce Prywatności.