天启集团
专注智能硬件研发创新,提供智慧场景解决方案
提供全面的服务器产品及高效的解决方案
思特森私有云电子消费类产品及服务

NVIDIA Jetson Orin 主板

搭载 Jetson Orin 核心模组,助力开发和部署复杂的边缘 AI 应用

AIO-OrinNano 大模型主板

搭载 Jetson OrinNano 模组

67 TOPS 边缘计算能力

支持大模型私有化部署

最高支持 4K 视频解码

高性能边缘计算模组

搭载 NVIDIA Jetson Orin Nano 边缘计算模组(8GB版),配置 6核 ARM CPU 和 32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU,能够运行多个并发的 AI 应用程序管道,提供更强大的 AI 性能

高达 67 TOPS 算力

具备高达 67 TOPS 的算力,能够运行当前主流的 AI 模型,包括:Transformer 和 ROS 机器人模型。实现更大型、更复杂的深度神经网络,如运用 TensorFlow、OpenCV、JetPack 、MXNet、PyTorch 等,具有物体识别、目标检测追踪、语音识别、及其他视觉开发等功能,适配多种 AI 应用场景

全面的大模型私有化部署

支持现代主流 AI 模型私有化部署,如 LLaMa2、ChatGLM、Qwen 等大型语言模型、ViT、Grounding DINO、SAM 等视觉大模型、支持 AIGC 领域的 Stable Diffusion V1.5 图像生成模型等

最高支持 4K 视频解码

最高可支持 11路 1080p30 视频解码或 1x4K60、2x4K30、5x1080p60视频解码,满足各类 AI 应用场景的需求

边缘生成式 AI

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

AI 软件堆栈和生态系统

借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac 平台的支持下,使边缘 AI 和机器人开发实现大众化。 借助 NVIDIA JetPack、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,即可将先进的技术集成到产品中

丰富的拓展接口

广泛的应用场景

广泛适用于企业安防、交通管理、公共安全、环境保护、智慧城市、家庭安防、家庭存储等类型产品和领域

边缘计算
机器人
大模型本地化
智慧医疗
智慧城市
智慧工业

产品参数

AIO-OrinNano(8GB) AIO-OrinNX(16GB)

基本参数

模组

原装 NVIDIA Jetson OrinNano(8GB)模组

原装 NVIDIA Jetson OrinNX(16GB)模组

CPU

六核64位 ARM Cortex-A78AE v8.2 处理器,最高1.7GHz

八核64位 Arm Cortex-A78AE v8.2 处理器,最高2.0GHz

AI性能

67 TOPS

157 TOPS

GPU

32 个 Tensor Core 的 1024 核 NVIDIA Ampere 架构 GPU

视频编码

:1080p30

:1×4K60、3×4K30、6×1080p60、12×1080p30

视频解码

:1×4K60、2×4K30、5×1080p60、11×1080p30

:1×8K30、2×4K60、4×4K30、9×1080p60、18×1080p30

内存(显存)

8GB LPDDR5

16GB LPDDR5

存储

1 × M.2 M-KEY(可扩展 PCIe NVMe SSD,支持 2242/2260/2280 规格)

电源

DC 12V(5.5 × 2.1mm,支持9V~24V宽电压输入)

功耗

典型功耗:6W(12V/500mA),最大功耗:30W(12V/2500mA)

典型功耗:7.2W(12V/600W),最大功耗:34.8W(12V/2900mA)

尺寸

122.89mm × 85.04mm × 35.28mm

重量

不带风扇:129g,带风扇:180g

环境

工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露)

软件支持

系统

基于Ubuntu 22.04的 Jetson 系统提供了完整的桌面Linux环境,具有图形加速,支持NVIDIA CUDA、TensorRT、CuDNN 等库

大模型

机器人模型:支持ROS机器人模型 语言大模型:支持Ollama本地大模型部署框架,可用于自然语言处理、代码生成与辅助等场景。   支持 Transformer 架构下超大规模参数模型, 如 Llama3、Phi-3 Mini大型语言模型的私有化部署 视觉大模型:支持 EfficientVIT、NanoOWL、NanoSAM、SAM、TAM 视觉大模型的私有化部署 AI 绘画:支持 ComfyUI 图形化部署框架,可用于图像修复、图像风格转换、图像合成等场景。   支持 AIGC 领域的 Flux、Stable Diffusion、 Stable Diffusion XL 图像生成模型的私有化部署

传统网络构架

支持多种由 cuDNN 加速支持的深度学习框架,   包括 PaddlePaddle、PyTorch、TensorFlow、MATLAB、MxNet、Caffe2、Chainer和Keras, 并支持自定义算子开发 Docker 容器化:支持 Docker 容器化管理技术,可方便的进行镜像部署

AI 软件堆栈

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。 它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

接口参数

网络

以太网:1 × 千兆以太网(RJ45) WiFi:通过 M.2 E-KEY(2230)扩展WiFi/蓝牙模块,支持 2.4GHz/5GHz 双频 WiFi6(802.11a/b/g/n/ac/ax)、蓝牙5.2 4G:通过 Mini PCIe 扩展 4G LTE 5G:通过 M.2 B-KEY 扩展 5G(与4G、USB3.0(1)复用,默认不贴)

视频输入

2 × MIPI CSI DPHY(1 × 4 Lanes 或 2 × 2 Lanes)、Line in(通过双排排针引出)

视频输出

1 × HDMI2.0(4K@30fps)

1 × HDMI2.0(4K@60fps)

音频

1 × 3.5mm音频接口(支持MIC录音,美标CTIA)

USB

2 × USB3.0(限流1A;上层:USB3.0(1),与5G复用;下层:USB3.0(2))、1 × Type-C(USB2.0 OTG/Debug)

按键

1 × Reset、1 × Recovery、1 × 电源键

其他接口

1 × FAN(4Pin-1.25mm)、1 × SIM Card、1 × Debug(3Pin-2mm)、 1 × 双排排针(2×10-20PIN-2.0mm):USB2.0、SPI、2×I2C、Line in、Line out、GPIO 1 × 凤凰端子座(2×4Pin,3.5mm间距):1 × RS485、1 × RS232、1 × CAN 2.0