搭载 Jetson OrinNano 模组
67 TOPS 边缘计算能力
支持大模型私有化部署
最高支持 4K 视频解码
搭载 NVIDIA Jetson Orin Nano 边缘计算模组(8GB版),配置 6核 ARM CPU 和 32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU,能够运行多个并发的 AI 应用程序管道,提供更强大的 AI 性能
具备高达 67 TOPS 的算力,能够运行当前主流的 AI 模型,包括:Transformer 和 ROS 机器人模型。实现更大型、更复杂的深度神经网络,如运用 TensorFlow、OpenCV、JetPack 、MXNet、PyTorch 等,具有物体识别、目标检测追踪、语音识别、及其他视觉开发等功能,适配多种 AI 应用场景
支持现代主流 AI 模型私有化部署,如 LLaMa2、ChatGLM、Qwen 等大型语言模型、ViT、Grounding DINO、SAM 等视觉大模型、支持 AIGC 领域的 Stable Diffusion V1.5 图像生成模型等
最高可支持 11路 1080p30 视频解码或 1x4K60、2x4K30、5x1080p60视频解码,满足各类 AI 应用场景的需求
NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能
借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac 平台的支持下,使边缘 AI 和机器人开发实现大众化。 借助 NVIDIA JetPack、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,即可将先进的技术集成到产品中
广泛适用于企业安防、交通管理、公共安全、环境保护、智慧城市、家庭安防、家庭存储等类型产品和领域
AIO-OrinNano(8GB) | AIO-OrinNX(16GB) | ||
基本参数 |
模组 |
原装 NVIDIA Jetson OrinNano(8GB)模组 |
原装 NVIDIA Jetson OrinNX(16GB)模组 |
CPU |
六核64位 ARM Cortex-A78AE v8.2 处理器,最高1.7GHz |
八核64位 Arm Cortex-A78AE v8.2 处理器,最高2.0GHz |
|
AI性能 |
67 TOPS |
157 TOPS |
|
GPU |
32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU |
||
视频编码 |
:1080p30 |
:1×4K60、3×4K30、6×1080p60、12×1080p30 |
|
视频解码 |
:1×4K60、2×4K30、5×1080p60、11×1080p30 |
:1×8K30、2×4K60、4×4K30、9×1080p60、18×1080p30 |
|
内存(显存) |
8GB LPDDR5 |
16GB LPDDR5 |
|
存储 |
1 × M.2 M-KEY(可扩展 PCIe NVMe SSD,支持 2242/2260/2280 规格) |
||
电源 |
DC 12V(5.5 × 2.1mm,支持9V~24V宽电压输入) |
||
功耗 |
典型功耗:6W(12V/500mA),最大功耗:30W(12V/2500mA) |
典型功耗:7.2W(12V/600W),最大功耗:34.8W(12V/2900mA) |
|
尺寸 |
122.89mm × 85.04mm × 35.28mm |
||
重量 |
不带风扇:129g,带风扇:180g |
||
环境 |
工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露) |
||
软件支持 |
系统 |
基于Ubuntu 22.04的 Jetson 系统提供了完整的桌面Linux环境,具有图形加速,支持NVIDIA CUDA、TensorRT、CuDNN 等库 |
|
大模型 |
机器人模型:支持ROS机器人模型 语言大模型:支持Ollama本地大模型部署框架,可用于自然语言处理、代码生成与辅助等场景。 支持 Transformer 架构下超大规模参数模型, 如 Llama3、Phi-3 Mini大型语言模型的私有化部署 视觉大模型:支持 EfficientVIT、NanoOWL、NanoSAM、SAM、TAM 视觉大模型的私有化部署 AI 绘画:支持 ComfyUI 图形化部署框架,可用于图像修复、图像风格转换、图像合成等场景。 支持 AIGC 领域的 Flux、Stable Diffusion、 Stable Diffusion XL 图像生成模型的私有化部署 |
||
传统网络构架 |
支持多种由 cuDNN 加速支持的深度学习框架, 包括 PaddlePaddle、PyTorch、TensorFlow、MATLAB、MxNet、Caffe2、Chainer和Keras, 并支持自定义算子开发 Docker 容器化:支持 Docker 容器化管理技术,可方便的进行镜像部署 |
||
AI 软件堆栈 |
NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。 它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能 |
||
接口参数 |
网络 |
以太网:1 × 千兆以太网(RJ45) WiFi:通过 M.2 E-KEY(2230)扩展WiFi/蓝牙模块,支持 2.4GHz/5GHz 双频 WiFi6(802.11a/b/g/n/ac/ax)、蓝牙5.2 4G:通过 Mini PCIe 扩展 4G LTE 5G:通过 M.2 B-KEY 扩展 5G(与4G、USB3.0(1)复用,默认不贴) |
|
视频输入 |
2 × MIPI CSI DPHY(1 × 4 Lanes 或 2 × 2 Lanes)、Line in(通过双排排针引出) |
||
视频输出 |
1 × HDMI2.0(4K@30fps) |
1 × HDMI2.0(4K@60fps) |
|
音频 |
1 × 3.5mm音频接口(支持MIC录音,美标CTIA) |
||
USB |
2 × USB3.0(限流1A;上层:USB3.0(1),与5G复用;下层:USB3.0(2))、1 × Type-C(USB2.0 OTG/Debug) |
||
按键 |
1 × Reset、1 × Recovery、1 × 电源键 |
||
其他接口 |
1 × FAN(4Pin-1.25mm)、1 × SIM Card、1 × Debug(3Pin-2mm)、 1 × 双排排针(2×10-20PIN-2.0mm):USB2.0、SPI、2×I2C、Line in、Line out、GPIO 1 × 凤凰端子座(2×4Pin,3.5mm间距):1 × RS485、1 × RS232、1 × CAN 2.0 |