NVIDIA Jetson AGX Thor – nowy mózg robotów 2025
Wprowadzenie
Data publikacji: 25 sierpnia 2025
NVIDIA Jetson AGX Thor to najnowsza platforma „robot brain” dla fizycznej sztucznej inteligencji (physical AI). Zbudowana na GPU Blackwell, ma dostarczyć robotom i inteligentnym maszynom mocy do uruchamiania modeli generatywnych, widzenia komputerowego i sterowania w czasie rzeczywistym – w fabrykach, logistyce, rolnictwie, dronach i humanoidach. Kluczowe liczby mówią same za siebie: do 2070 TFLOPS FP4 obliczeń AI, 128 GB LPDDR5X pamięci i budżet mocy konfigurowalny w zakresie 40–130 W.
Nowy moduł Jetson T5000 oferuje ponad 7,5× wyższą wydajność AI i 3,5× lepszą efektywność energetyczną względem AGX Orin – to przeskok, który pozwala przenieść złożone modele (LLM, multimodalne) z chmury bezpośrednio na krawędź.
Dla deweloperów przygotowano Jetson AGX Thor Developer Kit w cenie 3 499 USD, a dla produkcji – moduł Jetson Thor T5000 od 2 999 USD przy zamówieniach 1000 sztuk.
Czym są NVIDIA Jetson AGX Thor?
NVIDIA Jetson AGX Thor to kompletna platforma obliczeniowa dla robotyki i edge AI – następca popularnych modułów Orin. W jej centrum znajduje się GPU Blackwell (z obsługą najnowszych precyzji dla AI, w tym FP4 i sparsity), 14-rdzeniowy CPU Arm Neoverse V3AE, 128 GB pamięci oraz bogata łączność dla sensorów: 4× 25 GbE, szybkie interfejsy kamer (w tym „camera offload engine”) i mostek Holoscan do akwizycji danych. Celem jest spójny „mózg robota”, który łączy percepcję, planowanie i sterowanie w zintegrowanym stosie programowym Isaac/Metropolis/Holoscan.
W praktyce to komputer klasy „mini-serwera” do robotów i autonomicznych maszyn. Zgodnie z danymi producenta, system potrafi wykonywać obciążenia multi-model (np. wizja + język + sterowanie) przy niskich opóźnieniach, co jest kluczowe dla bezpieczeństwa i precyzji ruchu. W połączeniu z nowymi mechanizmami bezpieczeństwa (MIG, izolacja zadań) Jetson Thor ułatwia certyfikację i utrzymanie maszyn w środowiskach o krytycznych wymaganiach.
Przykłady: roboty pick-and-place o wysokiej gęstości linii produkcyjnych, autonomiczne wózki AMR w logistyce, rolnictwo precyzyjne (sprzęt rolniczy z wieloma kamerami i radarami), roboty inspekcyjne z multimodalnym rozumieniem kontekstu, a także humanoidy, gdzie jednocześnie potrzebne są: percepcja 3D, równowaga, chwyt i dialog z człowiekiem.
Główne korzyści z NVIDIA Jetson AGX Thor
- Oszczędność czasu – uruchamiasz na krawędzi te same modele, które dotąd wymagały chmury (LLM, modele wizualne, multimodalne). Mniej transmisji = mniejsze opóźnienia i natychmiastowe decyzje robota.
- Bezpieczeństwo – wydajność w czasie rzeczywistym zmniejsza ryzyko błędów percepcji i sterowania; MIG/izolacja zadań ułatwia podział krytycznych procesów (np. bezpieczeństwo vs. AI).
- Ekologia – 3,5× lepsza efektywność energetyczna niż w Orin oznacza mniejszy pobór mocy przy wyższej wydajności AI; lokalne przetwarzanie ogranicza ruch do chmury i ślad energetyczny transmisji.
- Personalizacja – skalowalny stos Isaac + narzędzia do symulacji i trenowania (np. GR00T, Omniverse) umożliwiają dopasowanie zachowań robotów do procesów konkretnej firmy, bez przebudowy hardware’u.
Jak to działa w praktyce?
System AI w urządzeniach robotycznych z Jetson AGX Thor łączy akwizycję danych z wielu sensorów (kamery, LiDAR, radar, IMU), inferencję multimodalną i sterowanie aktuatorami – wszystko lokalnie, w czasie rzeczywistym. W ten sposób robot interpretuje świat, uczy się kontekstu i koryguje działanie bez czekania na odpowiedź z chmury.
Krok po kroku:
- Połączenie urządzenia z aplikacją i siecią Wi-Fi/Ethernet – integrujesz moduł T5000 w robocie (40–130 W), podłączasz kamery i czujniki do wejść wysokoprzepustowych oraz 4×25 GbE; na deweloperkicie masz do dyspozycji HDMI/DP, USB i wbudowany SSD na dane.
- Nauka schematów i zachowań robota – wdrażasz percepcję (detekcja, segmentacja, pozycjonowanie), model planowania i polityki ruchu, a następnie trenujesz/podfinetunowujesz je w Isaac/Omniverse; MIG pozwala rozdzielić wątki czasu rzeczywistego (bezpieczeństwo) od zadań pobocznych (logi, telemetria).
- Automatyczne dostosowanie działania – optymalizacja i edge-deployment – kompilujesz modele do niskich precyzji (FP8/FP4 ze sparsity), dobierasz budżet mocy (np. 60/90/130 W) i prowadzisz aktualizacje OTA. Robot zyskuje predykcyjne harmonogramy, dynamicznie reaguje na kolizje i skraca cykl działania. Dzięki temu Jetson Thor staje się realnym „mózgiem” robota: łamie barierę opóźnień, łączy percepcję i sterowanie na jednym module, a jednocześnie – przez kompatybilność wsteczną ekosystemu Jetson – upraszcza migrację z Orin. W rezultacie szybciej przechodzisz z PoC do produkcji, ograniczając koszty i ryzyka wdrożeniowe.
Najczęstsze pytania (FAQ)
? Czym Jetson AGX Thor różni się od AGX Orin?
Thor wykorzystuje architekturę Blackwell i oferuje skokowo większą wydajność AI (do 2070 TFLOPS FP4) oraz 3,5× lepszą efektywność energetyczną. Dodatkowo zapewnia mocniejszy CPU, 128 GB RAM i rozbudowaną łączność 4×25 GbE – co ułatwia jednoczesną obsługę wielu kamer i czujników.
? Ile kosztuje Jetson Thor i kiedy jest dostępny?
Deweloperski Jetson AGX Thor Developer Kit wyceniono na 3 499 USD, a moduł produkcyjny Jetson T5000 – 2 999 USD przy zamówieniach 1000 sztuk. Dystrybutorzy rozpoczęli przyjmowanie zamówień, a pierwsze wysyłki developer kitów są anonsowane na drugą połowę 2025 roku.
? Do jakich zastosowań nadaje się Thor?
Do robotów przemysłowych (pick-and-place, inspekcja), logistycznych (AMR/AGV), rolniczych (sprzęt autonomiczny), dronów oraz humanoidów. Wszędzie tam, gdzie potrzebne są złożone modele AI i decyzje w milisekundach – lokalnie, bez round-trip do chmury.
? Czy Thor obsłuży generatywne modele i multimodalność?
Tak. Platforma jest projektowana pod LLM-y, modele wizualne i multimodalne działające równocześnie na krawędzi, z zachowaniem niskich opóźnień. To otwiera drogę do naturalnych interakcji człowiek–robot (np. instrukcje głosowe + kontekst wizyjny).
? Jak wygląda ekosystem oprogramowania i wsparcie?
Jetson Thor korzysta z pełnego stosu NVIDIA (Isaac/Metropolis/Holoscan) i forów Jetson. Dostępne są narzędzia do optymalizacji modeli (niska precyzja, sparsity), symulacji i testów przed wdrożeniem w realnym środowisku.