QNAP 新闻室

掌握 QNAP 最新的新闻信息、奖项并与我们团队联系

QNAP 推出 Edge AI 存储服务器,加速企业边缘 AI 部署与数字转型

协助企业以更低成本实现本地 AI 应用

QNAP 推出 Edge AI 存储服务器,加速企业边缘 AI 部署与数字转型

中国,上海,2025 年 6 月 11 日 — 面对多元 AI 应用快速落地所带来的性能挑战、数据主权与营运成本压力,企业正积极寻求更稳定、可控且具经济效益的本地部署方案。威联通科技 (QNAP® Systems, Inc.) 推出 Edge AI 存储服务器解决方案,打造一站式边缘运算平台,整合数据存储、虚拟化、GPU 加速与系统资源管理,协助企业构建支持 AI 数据存储、模型推论、智能制造与影像分析等多元应用场景的本地 AI 运算架构,同时降低传统云端部署常见的资安风险与授权成本。QNAP Edge AI 存储服务器可灵活运行于虚拟机与容器化应用,部署私有大型语言模型(LLM)与 AI 解决方案,广泛应用于智能办公、智能制造、零售与监控等场域。

QNAP 产品经理郑钦宗表示:「AI 发展的关键已从模型算法,转向对企业基础架构的全面考验。企业在导入 LLM、生成式 AI 或虚拟化应用时,真正需要的是一套能妥善管理大量数据、强化资安,并提供稳定性能的边缘运算平台。QNAP Edge AI 存储服务器不仅具备存储功能,更整合了 AI 推理或运算、虚拟化、备份等能力,协助企业灵活、安全地落实 AI 部署。」

QNAP Edge AI 存储服务器核心优势

  • 强化资安与合规性
    AI / LLM 模型与敏感数据存储并运行于本地 NAS 中,避免经由云端传输,协助企业提升资安并符合法规要求,特别适用于资料主权严格的产业如金融、医疗与制造。
  • 整合式架构,降低 TCO
    单一平台整合存储、虚拟化、GPU 资源与数据保护机制,简化建置流程,有效降低长期运维成本。
  • 掌控运算资源
    支持 GPU 与 PCIe passthrough 硬件加速、SR-IOV 网络资源优化及 CPU 核心隔离(即将支持)等技术,可精准配置系统资源,让虚拟机运行性能更接近原生水平,确保低延迟与高稳定性。
  • 虚拟化与容器弹性部署
    支持 QNAP 虚拟化平台(Virtualization Station)与容器管理平台(Container Station),快速建构多元 AI 执行环境,支持模型部署、智能应用开发或虚拟机备份服务器。
  • 快速部署开源 LLM
    搭配 Ollama 可轻松导入 LLaMA、DeepSeek、Qwen、Gemma 等开源语言模型,快速建立企业内部知识管理与搜索系统、智能客服或 AI 工具开发等用途,大幅降低 AI 导入门坎。

了解更多 QNAP Edge AI 存储服务器并取得企业部署咨询,请访问 https://www.qnap.com.cn/go/solution/edge-ai-storage-sever

关于 QNAP

QNAP 命名源自于高质量网络设备制造商(Quality Network Appliance Provider),我们致力研发软件应用,匠心优化硬件设计,并设立自有生产线以提供诸多且先进的科技解决方案。QNAP 专注于存储、网通及智能视讯产品创新,并提供 Cloud NAS 解决方案,通过软件订阅制及多元化服务管道建构崭新的科技生态圈。在 QNAP 的企业蓝图中,NAS 早已突破存储设备的框架,搭配云基础网络架构上的多项研发创新,协助客户高效率导入人工智能分析、边缘运算及信息整合应用,创造更大优势与价值。

媒体洽询

marketing@qnap.com

选择规格

      显示更多 隐藏更多
      open menu
      back to top