QNAP Edge AI 存储服务器

一站式 Edge AI 运算平台,整合存储、虚拟化与运算性能,协助企业更效率、安全、具成本效益地部署本地 AI 应用,加速企业智能转型。

AI 浪潮下,企业正面临多重挑战

随着 GenAI、LLM 部署与边缘运算需求快速成长,传统 IT 架构已面临以下瓶颈:

  • 云端资安风险高

    90% 以上的企业将数据安全视为 AI 部署的前提,数据上云存在外泄风险与合规疑虑。

  • 部署成本昂贵

    云端模型授权、Token 计费、GPU 使用费、存储空间或虚拟机平台授权等层层堆叠,总体拥有成本(TCO)不断攀升。

  • 传统架构分散

    存储与运算服务器独立部署,建置与整合费时又费力,维护不易。

  • 性能不稳

    共享基础架构下,AI 模型与虚拟化应用争抢系统资源,导致运算延迟、性能不稳。

  • 资料量飞速增长

    AI 与其他数据密集型应用产生庞大数据量,传统存储架构难以弹性扩充、且缺乏数据管理能力。

为什么选择 QNAP Edge AI 存储服务器

QNAP Edge AI 存储服务器提供一站式边缘运算平台,整合数据存储、虚拟化平台、GPU 与 I/O 加速技术,以及 CPU 资源管理等功能,协助企业快速部署本地 AI 应用与边缘设备。企业可按需求在 QAI 上安装 QNAP 的 Hypervisor 软件(Virtualization Station)容器管理平台(Container Station),灵活打造 AI 应用服务器与边缘存储服务器,实现更效率、更低延迟的本地 AI 解决方案。

支持多样化的边缘 AI 应用,包括:

  • ️小语言模型推论(SLM Inference)
  • 大型语言模型推论(LLM Inference)
  • 生成式 AI(Generative AI)
  • AI 模型推论与微调(AI Inference & Model Fine-tuning)
  • 智能制造与工业自动化(Smart Manufacturing & Industrial Automation)
  • 智慧零售与客群行为分析(Smart Retail & Customer Analytics)
  • 智能监控与影像识别分析(Smart Surveillance & Video Analytics)
支持多样化的边缘 AI 应用

强化资料掌控

所有存储数据与应用皆部署于本地,避免传输至公有云可能产生的隐私风险,强化安全性与合规性。

简化部署与管理

数据存储、虚拟机(VM)、GPU 资源及各种应用皆运行于同台 QAI,减少跨设备运维成本。

性能实时就绪

通过资源动态分配与硬件加速,优化 VM 执行效率与 AI 服务稳定性。

高成本效益

QNAP 提供免授权的虚拟化平台应用程序,长期有效降低 TCO。

超越传统架构的技术优势

QNAP Edge AI 存储服务器提供多种系统资源分配、硬件加速技术、数据保护与优化机制,为边缘运算场域提供理想的本地执行环境。

配置专属资源

通过 Virtualization Station 灵活配置 CPU、内存与网络资源给特定虚拟机,避免多个服务产生资源争夺,确保关键应用稳定运行。

GPU 加速 AI 运算

支持 GPU passthrough(GPU 直通),可将实体 GPU 指派给特定虚拟机,大幅提升 AI 模型推论或图形运算性能。

SR-IOV 提升网络性能

SR-IOV 优化虚拟机网络资源分配,减少带宽耗损,提供虚拟机直通网卡通道,降低网络等待时间。

PCIe 设备直通

支持 PCIe passthrough,将图形显示适配器、网卡或存储控制器等资源直通至特定虚拟机,避免虚拟化损耗,发挥近乎原生的硬件性能。

高扩充性

可扩充 SAS / FC 接口存储设备,灵活对应 AI 与虚拟化应用的存储需求。

企业级数据保护

高可靠 ZFS 存储,支持 RAID 硬盘阵列、快照、数据不可变性(WORM),以及数据重复删除与 SSD 优化技术。

精准资源分配,充分释放虚拟机性能

  • 完善的加速技术
    Passthrough Technology

    将实体 GPU、网络卡或其他 PCIe 设备资源直通至指定虚拟机 ,减少干扰,带来更稳定的运算性能与低延迟体验。

    • GPU passthrough
    • PCIe passthrough
  • 更好的资源分配
    CPU Resource Management

    通过CPU 资源管理功能(即将支持),可将专用的 CPU 线程分配给特定虚拟机执行(CPU Isolation),从而确保虚拟机稳定独立运行,同时显著减少虚拟机与其他应用程序间的资源争用与性能波动。

在 QNAP QAI 上,轻松部署本地 LLM 运行环境

一机整合虚拟化平台、大型语言模型(LLM)、与可视化用户接口。

  • 1部署应用程序容器

    通过 QNAP Container Station 容器管理平台可弹性选择不同类型的容器执行环境(如:Docker、Kata、LXD 等),灵活部署各类应用程序与服务。

  • 2GPU 加速运算

    设置容器环境中的 GPU 访问权限,让 container 可直接使用 QAI 上的 GPU 进行 AI 推论或图像处理加速。

  • 3支持部署多款 LLM

    通过 Ollama 可轻松部署多种开源大型语言模型(如:LLaMA、DeepSeek、Qwen、Gemma),可按需求弹性切换或更新模型。

  • 4搭配 Web 操作接口

    可安装开源 Web 操作接口(如:Anything LLM、Open WebUI),让你不需要撰写程序即可快速串接语言模型,打造自己的 AI 助理、智慧客服或内部搜索工具。

也可以,配置虚拟机备份服务器

QNAP QAI 一机即是虚拟化主机,也是备份服务器。

  • 1运行多个虚拟机(VM)

    Virtualization Station 是 QNAP QuTS hero 上的 Hypervisor 软件,可同时于一台 QAI 上部署多个 Windows® 或 Linux® 虚拟机。

  • 2支持 VM 备份

    将 Veeam® 备份软件安装于 QNAP QAI 上的独立虚拟机,并将 QAI 设置为备份目标,即可将各种工作负载(如虚拟机、实体主机、NAS、云端服务等)的备份数据集中存储与管理。

  • 3CPU 资源管理

    VM 备份过程需要大量 CPU 运算资源,通过 Virtualization Station 接口轻松分配 CPU 资源,确保备份过程稳定执行。

多元应用,满足各种业务需求

  • 企业 AI 搜索知识库

    企业 AI 搜索知识库

    结合 NAS、LLM 与 RAG 技术,打造专属的企业 AI 知识搜索系统,提升数据检索、分析与应用效率。

  • AI 智能客服系统

    AI 智能客服系统

    智能客服系统导入 LLM,强化聊天室自动问答能力,提升响应速度、准确度与用户互动体验。

  • 虚拟化应用服务器

    虚拟化应用服务器

    部署多台 VM,用于执行企业内部 AI 开发或测试环境。

  • 虚拟机备份与数据保护

    虚拟机备份与数据保护

    整合 Veeam® 备份解决方案,强化 VM 数据安全性。

  • AI 数据存储与备份

    AI 数据存储与备份

    存储 AI 原始数据 (Raw Data),或作为 RAG 架构中频繁数据读写的高速存储服务器。

推荐机型

专为边缘 AI 部署打造的 QNAP AI 系列 NAS,搭配一张 NVIDIA RTX 6000 或 RTX 4000 Ada Generation 显卡,强劲驱动 AI 推论、高画质图像处理与虚拟化应用,加速边缘智能进化!

QAI-h1290FX

  • 12-bay U.2 NVMe / SATA 全快闪 NAS
  • 搭载 AMD EPYC™ 7302P 16 核心 / 32 线程处理器
  • 内置 128GB DDR4 ECC RDIMM 内存
  • 预载 6 个 3.84TB U.2 NVMe SSD
  • 提供预载 NVIDIA RTX 6000 Ada 或 RTX 4000 Ada 显卡的选项
  • 提供 QAI 专属功能,包括 Container Station 内置精选开源 AI 应用程序模板,可快速部署
QAI-h1290FX

需要协助?

QNAP 专业团队随时提供协助,为您量身打造 Edge AI 存储服务器。

选择规格

      显示更多 隐藏更多
      open menu
      back to top