QNAP Edge AI 存储服务器

一站式 Edge AI 运算平台,整合存储、虚拟化与运算性能,协助企业更效率、安全、具成本效益地部署本地 AI 应用,加速企业智能转型。

AI 浪潮下,企业正面临多重挑战

随着 GenAI、LLM 部署与边缘运算需求快速成长,传统 IT 架构已面临以下瓶颈:

  • 云端资安风险高

    90% 以上的企业将数据安全视为 AI 部署的前提,数据上云存在外泄风险与合规疑虑。

  • 部署成本昂贵

    云端模型授权、Token 计费、GPU 使用费、存储空间或虚拟机平台授权等层层堆叠,总体拥有成本(TCO)不断攀升。

  • 传统架构分散

    存储与运算服务器独立部署,建置与整合费时又费力,维护不易。

  • 性能不稳

    共享基础架构下,AI 模型与虚拟化应用争抢系统资源,导致运算延迟、性能不稳。

  • 资料量飞速增长

    AI 与其他数据密集型应用产生庞大数据量,传统存储架构难以弹性扩充、且缺乏数据管理能力。

为什么选择 QNAP Edge AI 存储服务器

QNAP Edge AI 存储服务器提供一站式边缘运算平台,整合数据存储、虚拟化平台、GPU 与 I/O 加速技术,以及 CPU 资源管理等功能,协助企业快速部署本地 AI 应用与边缘设备。企业可按需求在 QAI 上安装 QNAP 的 Hypervisor 软件(Virtualization Station)容器管理平台(Container Station),灵活打造 AI 应用服务器与边缘存储服务器,实现更效率、更低延迟的本地 AI 解决方案。

支持多样化的边缘 AI 应用,包括:

  • ️小语言模型推论(SLM Inference)
  • 大型语言模型推论(LLM Inference)
  • 生成式 AI(Generative AI)
  • AI 模型推论与微调(AI Inference & Model Fine-tuning)
  • 智能制造与工业自动化(Smart Manufacturing & Industrial Automation)
  • 智慧零售与客群行为分析(Smart Retail & Customer Analytics)
  • 智能监控与影像识别分析(Smart Surveillance & Video Analytics)
支持多样化的边缘 AI 应用

强化资料掌控

所有存储数据与应用皆部署于本地,避免传输至公有云可能产生的隐私风险,强化安全性与合规性。

简化部署与管理

数据存储、虚拟机(VM)、GPU 资源及各种应用皆运行于同台 QAI,减少跨设备运维成本。

性能实时就绪

通过资源动态分配与硬件加速,优化 VM 执行效率与 AI 服务稳定性。

高成本效益

QNAP 提供免授权的虚拟化平台应用程序,长期有效降低 TCO。

超越传统架构的技术优势

QNAP Edge AI 存储服务器提供多种系统资源分配、硬件加速技术、数据保护与优化机制,为边缘运算场域提供理想的本地执行环境。

QuTS hero 操作系统

基于 ZFS 构建,具备高可靠性,支持自我修复的数据完整性、SSD 优化性能、在线重复数据删除、不可变 WORM 保护,以及 ZIL 断电保护。

增强型 Container Station

支持 AI,内置精选模板库。可一键启动常用 AI 工具和框架,无需复杂配置。

轻松实现 GPU 加速

通过下拉菜单选择 NVIDIA® GPU 或 AI 加速器即可启用 GPU 计算。单块 GPU 可被多个容器共享。

NVIDIA® 专业 GPU

NVIDIA RTX PRO™ Blackwell 提供高达 96 GB 显存,并通过 FP4 精度和 DLSS 4 实现 3 倍 AI 性能提升,适用于 LLM、大模型生成和 3D 工作负载。

>100 tokens/ 秒 LLM 推理

搭载 NVIDIA RTX PRO™ 6000 Blackwell Max-Q,QNAP 测试结果显示:

  • gpt-oss:20b (MXFP4):120+ tokens/ 秒
  • gpt-oss:120b (MXFP4):约 100 tokens/ 秒
  • deepseek-r1:70b (q4_K_M):约 24 tokens/ 秒

针对 RAG、聊天机器人和离线推理进行了优化。

高 PCIe 扩展性

支持 25GbE/100GbE、光纤通道、SAS 接口及 QNAP JBOD 扩展。部分型号支持 PCIe 直通,带来接近原生的虚拟机性能。

在 QNAP QAI 上,轻松部署本地 LLM 运行环境

一机整合虚拟化平台、大型语言模型(LLM)、与可视化用户接口。

  • 1部署应用程序容器

    通过 QNAP Container Station 容器管理平台可弹性选择不同类型的容器执行环境(如:Docker、Kata、LXD 等),灵活部署各类应用程序与服务。

  • 2GPU 加速运算

    设置容器环境中的 GPU 访问权限,让 container 可直接使用 QAI 上的 GPU 进行 AI 推论或图像处理加速。

  • 3支持部署多款 LLM

    通过 Ollama、vLLM、Llama.cpp 等可轻松部署多种开源大型语言模型(如:Llama、Gemma、gpt-oss、DeepSeek、Qwen),可按需求弹性切换或更新模型。

  • 4搭配 Web 操作接口

    可安装开源 Web 操作接口(如:Anything LLM、Open WebUI),让你不需要撰写程序即可快速串接语言模型,打造自己的 AI 助理、智慧客服或内部搜索工具。

可作为虚拟机环境或备份服务器运行

  • 1运行多个虚拟机(VM)

    Virtualization Station 是 QNAP QuTS hero 上的 Hypervisor 软件,可同时于一台 QAI 上部署多个 Windows® 或 Linux® 虚拟机。

  • 2支持 VM 备份

    将 Veeam® 备份软件安装于 QNAP QAI 上的独立虚拟机,并将 QAI 设置为备份目标,即可将各种工作负载(如虚拟机、实体主机、NAS、云端服务等)的备份数据集中存储与管理。

  • 3CPU 资源管理

    VM 备份过程需要大量 CPU 运算资源,通过 Virtualization Station 接口轻松分配 CPU 资源,确保备份过程稳定执行。

多元应用,满足各种业务需求

  • 企业 AI 搜索知识库

    企业 AI 搜索知识库

    结合 NAS、LLM 与 RAG 技术,打造专属的企业 AI 知识搜索系统,提升数据检索、分析与应用效率。

  • AI 智能客服系统

    AI 智能客服系统

    智能客服系统导入 LLM,强化聊天室自动问答能力,提升响应速度、准确度与用户互动体验。

  • 虚拟化应用服务器

    虚拟化应用服务器

    可部署虚拟机以运行多种企业内部环境,如 ERP 系统、CMS 平台和软件测试工作负载。

  • 虚拟机备份与数据保护

    虚拟机备份与数据保护

    整合 Veeam® 备份解决方案,强化 VM 数据安全性。

  • AI 数据存储与备份

    AI 数据存储与备份

    存储 AI 原始数据 (Raw Data),或作为 RAG 架构中频繁数据读写的高速存储服务器。

推荐机型

专为边缘 AI 部署打造的 QNAP AI 系列 NAS,搭配一张 NVIDIA 高階显卡,强劲驱动 AI 推论、高画质图像处理与虚拟化应用,加速边缘智能进化!

QAI-h1290FX

  • 12-bay U.2 NVMe / SATA 全快闪 NAS
  • 搭载 AMD EPYC™ 7302P 16 核心 / 32 线程处理器
  • 内置 128GB DDR4 ECC RDIMM 内存
  • 预载 NVIDIA RTX PRO™ 6000 Blackwell Max-Q Workstation 显卡
  • 提供 QAI 专属功能,包括 Container Station 内置精选开源 AI 应用程序模板,可快速部署
QAI-h1290FX

需要协助?

QNAP 专业团队随时提供协助,为您量身打造 Edge AI 存储服务器。

选择规格

      显示更多 隐藏更多
      open menu
      back to top