所搭载的 NVIDIA Jetson OrinNX 边缘计算模组(16GB版),配置八核 ARM CPU 和 32 个 Tensor Core 的 1024 核 NVIDIA Ampere
架构 GPU,能够运行多个并发的 AI 应用程序管道,提供更强大的 AI 性能
AIBOX-OrinNX 具备高达 100 TOPS 的算力,可以运行几乎所有现代 AI 模型,包括:Transformer 和 ROS 机器人模型。
实现更大型、更复杂的深度神经网络,如运用 TensorFlow、OpenCV、JetPack 、MXNet、PyTorch 等,
实现物体识别、目标检测追踪、语音识别、及其他视觉开发等功能,适配多种 AI 应用场景
NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。
它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能
借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac™ 平台的支持下,使边缘 AI 和机器人开发实现
大众化。借助 NVIDIA JetPac、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,即可将先进的技术集成到产品中。
体验 AI 应用的端到端加速,并利用驱动数据中心和云部署的同等强大技术,缩短产品上市时间
最高可支持 1x8K30(H.265)、2x4K60(H.265)、4x4K30(H.265)、9x1080p60(H.265)、18x1080p30(H.265)视频解码,
满足各类 AI 应用场景的需求
配置工业级全金属外壳,铝合金结构导热,顶盖外壳侧面采用条幅格栅设计,保证外部空气流通,高效散热,保障在高温运行状态下的
运算性能和稳定性。顶盖采用多孔六边形设计,简洁美观。整机小巧精致,运行稳定,满足各种工业级的应用需求
广泛适用于:智能监控、AI教学、算力服务、边缘计算、大模型私有化部署、数据安全和隐私保护等场景
AIBOX-OrinNX ( 16 GB ) | AIBOX-OrinNano ( 8 GB ) | ||
基本参数 | 模组 |
原装 NVIDIA Jetson OrinNX(16GB)模组 |
原装 NVIDIA Jetson OrinNano(8GB)模组 |
CPU |
八核 64 位 ARM Cortex-A78AE v8.2 处理器,频率最高 2.0GHz |
六核 64 位 ARM Cortex-A78AE v8.2 处理器,频率最高 1.5GHz |
|
AI性能 |
100 TOPS |
40 TOPS |
|
GPU |
32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU |
||
视频编码 |
H.265:1x4K60、3x4K30、6x1080p60、12x1080p30 |
H.265:1080p30 |
|
视频解码 |
H.265:1x8K30、2x4K60、4x4K30、 9x1080p60、18x1080p30 |
H.265:1*4K60、2*4K30、5*1080p60、11*1080p30 |
|
内存(显存) |
16GB LPDDR5 |
8GB LPDDR5 |
|
扩展存储 |
128GB PCIe NVMe SSD(主机内部已装配) |
||
电源 |
DC 12V(DC 5.5 * 2.1mm) |
||
功耗 |
典型功耗:7.2W(12V/600mA), 最大功耗:33.6W(12V/2800mA) |
典型功耗:7.2W(12V/600mA), 最大功耗:18W(12V/1500mA) |
|
尺寸 |
93.4mm * 93.4mm * 50mm |
||
重量 |
≈ 500g |
||
环境 |
工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露) |
||
软件支持 | 系统 |
基于Ubuntu 22.04的 Jetson 系统提供了完整的桌面Linux环境,具有图形加速, 支持NVIDIA CUDA 11.4.19、TensorRT8.5.2 CuDNN 8.6.0等库 |
|
大模型 |
机器人模型:支持ROS机器人模型 语言大模型:支持 Transformer 架构下超大规模参数模型,如 LLaMa2、ChatGLM、Qwen 等大型语言模型的私有化部署 视觉大模型:支持 ViT、Grounding DINO、SAM 等视觉大模型的私有化部署 AI 绘画:支持 AIGC 领域的 Stable DiffusionV1.5 图像生成模型的私有化部署 |
||
传统网络构架 |
支持 CNN、RNN、LSTM 等传统网络架构深度学习框架:支持多种深度学习框架,包括 TensorFlow、 PyTorch、MXNet、PaddlePaddle、ONNX 和 Darknet,并支持自定义算子开发。Docker 容器化:支持 Docker 容器化管理技术, 可方便进行镜像部署 |
||
AI软件堆栈 |
NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。 它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能 |
||
接口参数 | 以太网 |
1 × 千兆以太网(1000Mbps / RJ45) |
|
视频输出 |
1 xHDMI2.1(4K@60fps) |
||
USB |
2 × USB3.0(限流1A) |
||
看门狗 |
支持外部看门狗 |
||
其他接口 |
1 × Type-C (USB2.0 OTG)、1 × Console (调试串口)、1 × Recovery、 1 × 电源键 |
欢迎反馈问题,您的意见与建议是我们的动力!
Copyright © 2014 - 2024 中山市天启智能科技有限公司 | 粤ICP备14022046号