搭载 Jetson OrinNano 模组
67 TOPS 边缘计算能力
支持大模型私有化部署
最高支持 4K 视频解码
搭载 NVIDIA Jetson Orin Nano 边缘计算模组(8GB版),配置 6核 ARM CPU 和 32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU,能够运行多个并发的 AI 应用程序管道,提供更强大的 AI 性能
具备高达 67 TOPS 的算力,能够运行当前主流的 AI 模型,包括:Transformer 和 ROS 机器人模型。实现更大型、更复杂的深度神经网络,如运用 TensorFlow、OpenCV、JetPack 、MXNet、PyTorch 等,具有物体识别、目标检测追踪、语音识别、及其他视觉开发等功能,适配多种 AI 应用场景
支持现代主流 AI 模型私有化部署,如 LLaMa2、ChatGLM、Qwen 等大型语言模型、ViT、Grounding DINO、SAM 等视觉大模型、支持 AIGC 领域的 Stable Diffusion V1.5 图像生成模型等
最高可支持 11路 1080p30 H.265 视频解码或 1x4K60(H.265)、2x4K30(H.265)、5x1080p60(H.265)视频解码,满足各类 AI 应用场景的需求
NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能
借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac 平台的支持下,使边缘 AI 和机器人开发实现大众化。 借助 NVIDIA JetPack、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,即可将先进的技术集成到产品中
广泛适用于企业安防、交通管理、公共安全、环境保护、智慧城市、家庭安防、家庭存储等类型产品和领域
AIO-OrinNano(8GB) | AIO-OrinNX(16GB) | ||
基本参数 |
模组 |
原装 NVIDIA Jetson OrinNano(8GB)模组 |
原装 NVIDIA Jetson OrinNX(16GB)模组 |
CPU |
六核64位 ARM Cortex-A78AE v8.2 处理器,最高1.7GHz |
八核64位 Arm Cortex-A78AE v8.2 处理器,最高2.0GHz |
|
AI性能 |
67 TOPS |
157 TOPS |
|
GPU |
32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU |
||
视频编码 |
H.265:1080p30 |
H.265:1×4K60、3×4K30、6×1080p60、12×1080p30 |
|
视频解码 |
H.265:1×4K60、2×4K30、5×1080p60、11×1080p30 |
H.265:1×8K30、2×4K60、4×4K30、9×1080p60、18×1080p30 |
|
内存(显存) |
8GB LPDDR5 |
16GB LPDDR5 |
|
存储 |
1 × M.2 M-KEY(可扩展 PCIe NVMe SSD,支持 2242/2260/2280 规格) |
||
电源 |
DC 12V(5.5 × 2.1mm,支持9V~24V宽电压输入) |
||
功耗 |
典型功耗:6W(12V/500mA),最大功耗:30W(12V/2500mA) |
典型功耗:7.2W(12V/600W),最大功耗:34.8W(12V/2900mA) |
|
尺寸 |
122.89mm × 85.04mm × 35.28mm |
||
重量 |
不带风扇:129g,带风扇:180g |
||
环境 |
工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露) |
||
软件支持 |
系统 |
基于Ubuntu 22.04的 Jetson 系统提供了完整的桌面Linux环境,具有图形加速,支持NVIDIA CUDA、TensorRT、CuDNN 等库 |
|
大模型 |
机器人模型:支持ROS机器人模型 语言大模型:支持Ollama本地大模型部署框架,可用于自然语言处理、代码生成与辅助等场景。 支持 Transformer 架构下超大规模参数模型, 如 Llama3、Phi-3 Mini大型语言模型的私有化部署 视觉大模型:支持 EfficientVIT、NanoOWL、NanoSAM、SAM、TAM 视觉大模型的私有化部署 AI 绘画:支持 ComfyUI 图形化部署框架,可用于图像修复、图像风格转换、图像合成等场景。 支持 AIGC 领域的 Flux、Stable Diffusion、 Stable Diffusion XL 图像生成模型的私有化部署 |
||
传统网络构架 |
支持多种由 cuDNN 加速支持的深度学习框架, 包括 PaddlePaddle、PyTorch、TensorFlow、MATLAB、MxNet、Caffe2、Chainer和Keras, 并支持自定义算子开发 Docker 容器化:支持 Docker 容器化管理技术,可方便的进行镜像部署 |
||
AI 软件堆栈 |
NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。 它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能 |
||
接口参数 |
网络 |
以太网:1 × 千兆以太网(RJ45) WiFi:通过 M.2 E-KEY(2230)扩展WiFi/蓝牙模块,支持 2.4GHz/5GHz 双频 WiFi6(802.11a/b/g/n/ac/ax)、蓝牙5.2 4G:通过 Mini PCIe 扩展 4G LTE 5G:通过 M.2 B-KEY 扩展 5G(与4G、USB3.0(1)复用,默认不贴) |
|
视频输入 |
2 × MIPI CSI DPHY(1 × 4 Lanes 或 2 × 2 Lanes)、Line in(通过双排排针引出) |
||
视频输出 |
1 × HDMI2.0(4K@30fps) |
1 × HDMI2.0(4K@60fps) |
|
音频 |
1 × 3.5mm音频接口(支持MIC录音,美标CTIA) |
||
USB |
2 × USB3.0(限流1A;上层:USB3.0(1),与5G复用;下层:USB3.0(2))、1 × Type-C(USB2.0 OTG/Debug) |
||
按键 |
1 × Reset、1 × Recovery、1 × 电源键 |
||
其他接口 |
1 × FAN(4Pin-1.25mm)、1 × SIM Card、1 × Debug(3Pin-2mm)、 1 × 双排排针(2×10-20PIN-2.0mm):USB2.0、SPI、2×I2C、Line in、Line out、GPIO 1 × 凤凰端子座(2×4Pin,3.5mm间距):1 × RS485、1 × RS232、1 × CAN 2.0 |