天启集团
专注智能硬件研发创新,提供智慧场景解决方案
提供全面的服务器产品及高效的解决方案
思特森私有云电子消费类产品及服务

NVIDIA Jetson Orin 主板

搭载 Jetson Orin 核心模组,助力开发和部署复杂的边缘 AI 应用

AIO-OrinNano 大模型主板

搭载 Jetson OrinNano 模组

67 TOPS 边缘计算能力

支持大模型私有化部署

最高支持 4K 视频解码

高性能边缘计算模组

搭载 NVIDIA Jetson Orin Nano 边缘计算模组(8GB版),配置 6核 ARM CPU 和 32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU,能够运行多个并发的 AI 应用程序管道,提供更强大的 AI 性能

高达 67 TOPS 算力

具备高达 67 TOPS 的算力,能够运行当前主流的 AI 模型,包括:Transformer 和 ROS 机器人模型。实现更大型、更复杂的深度神经网络,如运用 TensorFlow、OpenCV、JetPack 、MXNet、PyTorch 等,具有物体识别、目标检测追踪、语音识别、及其他视觉开发等功能,适配多种 AI 应用场景

全面的大模型私有化部署

支持现代主流 AI 模型私有化部署,如 LLaMa2、ChatGLM、Qwen 等大型语言模型、ViT、Grounding DINO、SAM 等视觉大模型、支持 AIGC 领域的 Stable Diffusion V1.5 图像生成模型等

最高支持 4K 视频解码

最高可支持 11路 1080p30 H.265 视频解码或 1x4K60(H.265)、2x4K30(H.265)、5x1080p60(H.265)视频解码,满足各类 AI 应用场景的需求

边缘生成式 AI

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

AI 软件堆栈和生态系统

借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac 平台的支持下,使边缘 AI 和机器人开发实现大众化。 借助 NVIDIA JetPack、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,即可将先进的技术集成到产品中

丰富的拓展接口

广泛的应用场景

广泛适用于企业安防、交通管理、公共安全、环境保护、智慧城市、家庭安防、家庭存储等类型产品和领域

边缘计算
机器人
大模型本地化
智慧医疗
智慧城市
智慧工业

产品参数

AIO-OrinNano(8GB) AIO-OrinNX(16GB)

基本参数

模组

原装 NVIDIA Jetson OrinNano(8GB)模组

原装 NVIDIA Jetson OrinNX(16GB)模组

CPU

六核64位 ARM Cortex-A78AE v8.2 处理器,最高1.7GHz

八核64位 Arm Cortex-A78AE v8.2 处理器,最高2.0GHz

AI性能

67 TOPS

157 TOPS

GPU

32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU

视频编码

H.265:1080p30

H.265:1×4K60、3×4K30、6×1080p60、12×1080p30

视频解码

H.265:1×4K60、2×4K30、5×1080p60、11×1080p30

H.265:1×8K30、2×4K60、4×4K30、9×1080p60、18×1080p30

内存(显存)

8GB LPDDR5

16GB LPDDR5

存储

1 × M.2 M-KEY(可扩展 PCIe NVMe SSD,支持 2242/2260/2280 规格)

电源

DC 12V(5.5 × 2.1mm,支持9V~24V宽电压输入)

功耗

典型功耗:6W(12V/500mA),最大功耗:30W(12V/2500mA)

典型功耗:7.2W(12V/600W),最大功耗:34.8W(12V/2900mA)

尺寸

122.89mm × 85.04mm × 35.28mm

重量

不带风扇:129g,带风扇:180g

环境

工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露)

软件支持

系统

基于Ubuntu 22.04的 Jetson 系统提供了完整的桌面Linux环境,具有图形加速,支持NVIDIA CUDA、TensorRT、CuDNN 等库

大模型

机器人模型:支持ROS机器人模型 语言大模型:支持Ollama本地大模型部署框架,可用于自然语言处理、代码生成与辅助等场景。   支持 Transformer 架构下超大规模参数模型, 如 Llama3、Phi-3 Mini大型语言模型的私有化部署 视觉大模型:支持 EfficientVIT、NanoOWL、NanoSAM、SAM、TAM 视觉大模型的私有化部署 AI 绘画:支持 ComfyUI 图形化部署框架,可用于图像修复、图像风格转换、图像合成等场景。   支持 AIGC 领域的 Flux、Stable Diffusion、 Stable Diffusion XL 图像生成模型的私有化部署

传统网络构架

支持多种由 cuDNN 加速支持的深度学习框架,   包括 PaddlePaddle、PyTorch、TensorFlow、MATLAB、MxNet、Caffe2、Chainer和Keras, 并支持自定义算子开发 Docker 容器化:支持 Docker 容器化管理技术,可方便的进行镜像部署

AI 软件堆栈

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。 它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

接口参数

网络

以太网:1 × 千兆以太网(RJ45) WiFi:通过 M.2 E-KEY(2230)扩展WiFi/蓝牙模块,支持 2.4GHz/5GHz 双频 WiFi6(802.11a/b/g/n/ac/ax)、蓝牙5.2 4G:通过 Mini PCIe 扩展 4G LTE 5G:通过 M.2 B-KEY 扩展 5G(与4G、USB3.0(1)复用,默认不贴)

视频输入

2 × MIPI CSI DPHY(1 × 4 Lanes 或 2 × 2 Lanes)、Line in(通过双排排针引出)

视频输出

1 × HDMI2.0(4K@30fps)

1 × HDMI2.0(4K@60fps)

音频

1 × 3.5mm音频接口(支持MIC录音,美标CTIA)

USB

2 × USB3.0(限流1A;上层:USB3.0(1),与5G复用;下层:USB3.0(2))、1 × Type-C(USB2.0 OTG/Debug)

按键

1 × Reset、1 × Recovery、1 × 电源键

其他接口

1 × FAN(4Pin-1.25mm)、1 × SIM Card、1 × Debug(3Pin-2mm)、 1 × 双排排针(2×10-20PIN-2.0mm):USB2.0、SPI、2×I2C、Line in、Line out、GPIO 1 × 凤凰端子座(2×4Pin,3.5mm间距):1 × RS485、1 × RS232、1 × CAN 2.0