天启集团
专注智能硬件研发创新,提供智慧场景解决方案
提供全面的服务器产品及高效的解决方案
思特森私有云电子消费类产品及服务

EC-AGXOrin 边缘计算主机

275 TOPS 高算力 AI 性能

· 搭载 NVIDIA 高性能边缘计算模组

· 支持主流 AI 大模型私有化部署

· 支持多种深度学习框架

· AI 软件堆栈和生态系统

· 支持高带宽 LPDDR5 内存

· 最高 22 路 1080P 视频解码

· 具有强大的网络通讯能力

· 丰富的扩展接口,支持外设拓展

ROS

ChatGLM

Qwen

Stable Diffusion

EC-AGXOrin 边缘计算主机

采用 NVIDIA Jetson AGX Orin(64 GB)模组,算力可达 275 TOPS,支持多种 AI 大模型和深度学习框架。支持 22 路 1080P 视频解码、16 路 1080P 视频编码。配置工业级全铝合金外壳 + 两个散热风扇设计,7×24 小时稳定运行。广泛适用于边缘计算、机器人、大模型本地化、智慧城市、智慧医疗、智慧工业等行业领域

搭载 NVIDIA Jetson AGX Orin

搭载 NVIDIA Jetson AGX Orin(64 GB)模组,配备 12 核 CPU 与基于 NVIDIA Ampere 架构的 2048 核 GPU(含 64 个 Tensor Core),能够运行多个并发的 AI 应用程序管道,可提供高推理性能,为边缘 AI 计算、智能机器人等场景提供强劲算力支撑

主流 AI 大模型私有化部署

支持主流 AI 大模型私有化部署,如 ROS 机器人模型、Transformer 架构下大模型的 Gemma 系列、ChatGLM 系列、Qwen 系列、Phi 系列等大语言模型,EfficientVIT、NanoOWL、NanoSAM、SAM、TAM 等视觉大模型,以及 Flux、Stable Diffusion 系列的图像生成模型

支持多种深度学习框架

支持 Ollama 本地大模型部署框架、ComfyUI AI 绘画工作流框架,以及由 cuDNN 加速的 PaddlePaddle、PyTorch、TensorFlow、MATLAB、MxNet、Keras 等深度学习框架;同时支持自定义算子开发、Docker 容器化管理技术

AI 软件堆栈和生态系统

借助全面的 AI 软件堆栈和生态系统,在边缘生成式 AI 以及 NVIDIA Metropolis 和 Isaac 平台的支持下,使边缘 AI 和机器人开发实现大众化。借助 NVIDIA JetPack、Isaac ROS 和参考 AI 工作流程,无需依赖昂贵的内部 AI 资源,体验 AI 应用的端到端加速,将先进的技术集成到产品中

高带宽 LPDDR5 内存

相比 LPDDR4 实现了更大的内存容量、更高的带宽、 更快的数据传输速率、更低的功耗、更先进的错误纠正码(ECC)技术, 可以满足大模型私有化部署对内存空间和响应速度的需求, 充分发挥硬件的协同作用,使得模型能够更高效地运行, 提升整体系统的性能和能效比

多路视频 AI 处理性能

最高可支持 22 路 1080P@30fps 或 1 路 8K@30fps 视频解码,16 路 1080P@30fps 或 2 路 4K@60fps 视频编码,视频处理能力强劲,满足各类 AI 应用场景的需求

强大的网络通讯能力

配备 1 路万兆网、5 路千兆以太网、GPS 模块,同时支持双频 WiFi 6、5G、4G 功能扩展,满足多场景网络连接需求

丰富的扩展接口

拥有 GMSL2、HDMI、USB3.0、RS485、RS232、CAN、Type-C、IO 输入、IO 输出等接口,方便连接各类外设
275 TOPS 高算力,赋能 AI 应用

搭载的 Jetson AGX Orin(64 GB)模组可提供高达 275 TOPS 算力,不仅能流畅运行机器人模型、语言大模型、视觉大模型、AI 绘画模型等主流现代 AI 模型,更可支撑更大型、更复杂的深度神经网络部署,进而实现物体识别、目标检测追踪、语音识别及其他视觉开发功能,充分满足高要求 AI 应用场景的需求

应用场景

广泛适用于边缘计算、机器人、大模型本地化、智慧城市、智慧医疗、智慧工业等行业领域

边缘计算
边缘计算
大模型私有化部署
大模型私有化部署
机器人
机器人
智慧城市
智慧城市
智慧医疗
智慧医疗
智慧工业
智慧工业
接口图
规格参数

EC-AGXOrin

基本参数

模组

原装 NVIDIA Jetson AGX Orin(64GB)模组

CPU

12核64位 ARM Cortex-A78AE v8.2 处理器,主频最高2.2GHz

AI性能

275 TOPS

GPU

64个Tensor Core的2048核NVIDIA Ampere架构GPU

视频编码

2×4K60、4×4K30、8×1080p60、16×1080p30

视频解码

1×8K30、3×4K60、7×4K30、11×1080p60、22×1080p30

内存(显存)

64GB LPDDR5

存储

64GB eMMC

扩展存储

1 × M.2 M-KEY(可扩展 PCIe NVMe 2280 SSD,位于主机内部)、1 × TF Card

电源

DC 24V(5.5 × 2.1mm,支持9V~36V宽电压输入)

尺寸

277.95mm × 136.09mm × 88.0mm

环境

工作温度:-20℃~60℃,存储温度:-20℃~70℃,存储湿度:10%~90%RH(无凝露)

软件支持

系统

基于Ubuntu 22.04的 Jetson 系统,提供了完整的桌面Linux环境,具有图形加速,支持NVIDIA CUDA、TensorRT、CuDNN 等库

大模型

机器人模型:支持ROS机器人模型 语言大模型:支持Transformer架构下超大规模参数模型的私有化部署,如 Deepseek-R1系列、Gemma系列、Llama系列、ChatGLM系列、 Qwen系列、Phi系列等大型语言模型的私有化部署 视觉大模型:支持 EfficientVIT、NanoOWL、NanoSAM、SAM、TAM 视觉大模型的私有化部署 AI 绘画:支持 Flux、Stable Diffusion、Stable Diffusion XL 图像生成模型的私有化部署

深度学习

支持 Ollama 本地大模型部署框架,可用于自然语言处理、代码生成与辅助等场景 支持 ComfyUI 图形化部署框架,可用于图像修复、图像风格转换、图像合成等场景 支持多种由 cuDNN 加速支持的深度学习框架,包括 PaddlePaddle、PyTorch、TensorFlow、MATLAB、MxNet、Keras 支持自定义算子开发 支持 Docker 容器化管理技术,可方便的进行镜像部署

AI软件堆栈

NVIDIA Jetson Orin 系列可提供强大的 AI 计算能力、大容量统一内存和全面的软件堆栈,能够以超高能效驱动最新的生成式 AI 应用。它能够使任何由 Transformer 架构提供支持的生成式 AI 模型进行快速推理,在 MLPerf 上实现卓越的边缘性能

接口参数

网络

以太网:1 × 万兆网(RJ45)、5 × 千兆以太网(RJ45,其中GE2、GE3、GE4、GE5支持PSE) WiFi:通过 M.2 E-KEY(2230)扩展WiFi/蓝牙模块,支持 2.4GHz/5GHz 双频 WiFi6(802.11a/b/g/n/ac/ax)、蓝牙5.2 4G:通过 Mini PCIe 扩展 4G LTE 5G:通过 M.2 B-KEY 扩展 5G

GPS

支持GPS定位,各地的现场设备可实时定位、追踪、寻迹、时间校准(同步于全球协调时(UTC))

视频输入

8 × GMSL2(通过2个4Pin的Mini FAKRA接口输入)

视频输出

1 × HDMI2.0(4K@60Hz)

音频

1 × 3.5mm音频接口(支持MIC录音,美标CTIA)

USB

4 × USB3.0(限流1A)、1 × Type-C(USB3.2 OTG)、1 × Type-C(Debug)

天线

3 × 5G天线、1 × 4G/5G天线、1 × GPS天线、2 × WiFi天线

按键

1 × Reset、1 × Recovery、1 × 电源键

其他接口

1 × SIM Card、1 × 凤凰端子座(2×12Pin,3.5mm间距):1 × RS485、1 × RS232、2 × CAN 2.0、1 × UART、1 × IO输入、1 × IO输出

方案定制

Firefly 团队凭借二十余载的产品设计、研发和生产的经验,为您提供硬件定制、软件定制、整机定制、生产代工等服务