选择您要了解的设备

AIBOX-OrinNano AIBOX-OrinNX
把大模型“装”进小盒子
—— AIBOX-OrinNX 旗舰级人工智能盒子
算力高达 100 TOPS!支持主流大模型私有化部署,
把 AI 的能力私有化,一个盒子就能满足个性化的 AI 部署!

高性能边缘计算模组

 所搭载的 NVIDIA Jetson OrinNX 边缘计算模组(16GB版),配置八核 ARM CPU 和 32 个 Tensor Core 的 1024 核 NVIDIA Ampere
架构 GPU,能够运行多个并发的 AI 应用程序管道,提供更强大的 AI 性能

算力高达 100 TOPS

AIBOX-OrinNX 具备高达 100 TOPS 的算力,可以运行几乎所有现代 AI 模型,包括:Transformer 和 ROS 机器人模型。
实现更大型、更复杂的深度神经网络,如运用 TensorFlow、OpenCV、JetPack 、MXNet、PyTorch 等,
实现物体识别、目标检测追踪、语音识别、及其他视觉开发等功能,适配多种 AI 应用场景

算法丰富,全面的人工智能私有化部署

边缘生成式 AI

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。
它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

AI 软件堆栈和生态系统

借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac™ 平台的支持下,使边缘 AI 和机器人开发实现
大众化。借助 NVIDIA JetPac、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,即可将先进的技术集成到产品中。
体验 AI 应用的端到端加速,并利用驱动数据中心和云部署的同等强大技术,缩短产品上市时间

支持 18 路 1080p30 H.265 视频解码

最高可支持 1x8K30(H.265)、2x4K60(H.265)、4x4K30(H.265)、9x1080p60(H.265)、18x1080p30(H.265)视频解码,
满足各类 AI 应用场景的需求

全铝合金外壳,高效散热

配置工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅设计,保证外部空气流通,高效散热,保障在高温运行状态下的
运算性能和稳定性。顶盖采用多孔六边形设计,简洁美观。整机小巧精致,运行稳定,满足各种工业级的应用需求

广泛的应用场景

广泛适用于:智能监控、AI教学、算力服务、边缘计算、大模型私有化部署、数据安全和隐私保护等场景

数据安全
边缘计算
大模型私有化部署
AI教学
算力服务
智能监控

产品参数

AIBOX-OrinNX ( 16 GB ) AIBOX-OrinNano ( 8 GB )
基本参数 模组

原装 NVIDIA Jetson OrinNX(16GB)模组

原装 NVIDIA Jetson OrinNano(8GB)模组

CPU

八核 64 位 ARM Cortex-A78AE v8.2 处理器,频率最高 2.0GHz

六核 64 位 ARM Cortex-A78AE v8.2 处理器,频率最高 1.5GHz

AI性能

100 TOPS

40 TOPS

GPU

32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU

视频编码

H.265:1x4K60、3x4K30、6x1080p60、12x1080p30

H.265:1080p30

视频解码

H.265:1x8K30、2x4K60、4x4K30、

9x1080p60、18x1080p30

H.265:1*4K60、2*4K30、5*1080p60、11*1080p30

内存(显存)

16GB LPDDR5

8GB LPDDR5

扩展存储

128GB PCIe NVMe SSD(主机内部已装配)

电源

DC 12V(DC 5.5 * 2.1mm)

功耗

典型功耗:7.2W(12V/600mA),

最大功耗:33.6W(12V/2800mA)

典型功耗:7.2W(12V/600mA),

最大功耗:18W(12V/1500mA)

尺寸

93.4mm * 93.4mm * 50mm

重量

≈ 500g

环境

工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露)

软件支持 系统

基于Ubuntu 22.04的 Jetson 系统提供了完整的桌面Linux环境,具有图形加速,

支持NVIDIA CUDA 11.4.19、TensorRT8.5.2 CuDNN 8.6.0等库

大模型

机器人模型:支持ROS机器人模型

语言大模型:支持 Transformer 架构下超大规模参数模型,如 LLaMa2、ChatGLM、Qwen 等大型语言模型的私有化部署

视觉大模型:支持 ViT、Grounding DINO、SAM 等视觉大模型的私有化部署

AI 绘画:支持 AIGC 领域的 Stable DiffusionV1.5 图像生成模型的私有化部署

传统网络构架

支持 CNN、RNN、LSTM 等传统网络架构深度学习框架:支持多种深度学习框架,包括 TensorFlow、

PyTorch、MXNet、PaddlePaddle、ONNX 和 Darknet,并支持自定义算子开发。Docker 容器化:支持 Docker 容器化管理技术,

可方便进行镜像部署

AI软件堆栈

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。

它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

接口参数 以太网

1 × 千兆以太网(1000Mbps / RJ45)

视频输出

1 xHDMI2.1(4K@60fps)

USB

2 × USB3.0(限流1A)

看门狗

支持外部看门狗

其他接口

1 × Type-C (USB2.0 OTG)、1 × Console (调试串口)、1 × Recovery、 1 × 电源键