AI CORE X – szybkie sieci neuronowe dla każdego?

AI CORE X – szybkie sieci neuronowe dla każdego?

Nowa rodzina płytek, bazująca na Intel Movidius Myriad X, ma szansę zmienić aktualne podejście do SI w systemach wbudowanych.

AI CORE X to sprzętowa implementacja sieci neuronowych z wygodnym interfejsem.

Nie jest tajemnicą, że zaawansowane sieci neuronowe wymagają sprzętu o dużej wydajności, aby móc działać w rozsądnych ramach czasowych. Z tego powodu, powszechną techniką jest zbieranie danych i przesyłanie ich przez sieć na serwery, które dane te przetwarzają, a następnie zwracają instrukcje lub wymagane informacje.

Często systemy sztucznej inteligencji wymagają jednak błyskawicznej reakcji, co dyskwalifikuje rozwiązanie z przetwarzaniem w chmurze. Zwyczajnie nie ma na to czasu. Rozwiązaniem tego problemu są sprzętowe akceleratory sieci neuronowych.

Moduły AI CORE XM M.2 2230, M.2 2242, M.2 2280

Tego typu urządzenia wciąż są nowością na rynku dostępnym dla majsterkowiczów. Zwykle radzono sobie po prostu stosując wydajne komputery, które podłączone np. do kamer były w stanie na bieżąco analizować obraz, reagując z bardzo małymi opóźnieniami.

Problemem w tym przypadku jest cena, rozmiary komputera oraz, przede wszystkim, ogromny pobór prądu, dyskwalifikując takie rozwiązanie w wielu przypadkach. Rozwiązaniem tego problemu mają być moduły AI CORE X, których kampania trwa na CrowdSupply.

"Najmocniejszy" z modułów - Vision Plus X

W cenie ok. 350 zł ($94) można zamówić najtańszy moduł, który wykorzystuje możliwości procesora Intel Movidius Myriad X zdolnego do wykonywania ponad czterech trylionów operacji na sekundę (4 TOPS), pobierając zaledwie 3 waty energii na 1 TOPS. Dostępne złącza to MiniCard/mPCIe oraz M.2, z którymi większość z nas miała już styczność w nowoczesnych komputerach. Wymiary najmniejszego modułu to zaledwie 22x30 mm.

Sprzęt to tylko jedna strona produktu. Równie ważna, jeśli nie ważniejsza, jest część programowa. AI CORE X jest kompatybilne ze standardowymi narzędziami takimi, jak Caffe, OpenVINO Toolkit, czy popularnym ostatnio TensorFlow. Dzięki temu stworzenie aplikacji wykorzystującej pełne możliwości akceleratora będzie znacznie prostsze.

Za projekt odpowiedzialny jest zespół pracujący nad płytkami z serii UpBoard. Kampania potrwa jeszcze 18 dni, a do tej pory udało się zebrać już ponad 90% wymaganych funduszy. Wysyłka pierwszych sztuk planowana jest na styczeń 2019 roku. Więcej informacji znajduje się na stronie zbiórki.

Sortowanie LEGO dzięki Raspberry Pi i TensorFlow
Sortowanie LEGO dzięki Raspberry Pi i TensorFlow

Jednym z najpopularniejszych projektów, który pojawił się na Forbocie był… Czytaj dalej »

Źródło: [1]

ai, crowdsupply, Intel, SI, sieć neuronowa