QNAP 新闻室
掌握 QNAP 最新的新闻信息、奖项并与我们团队联系
威联通科技推出 Mustang 系列运算加速卡,搭载 Intel VPU / FPGA 视觉加速解决方案,助力 AI 深度学习推论

中国,上海,2019 年 5 月 21 日 – 运算、网通及存储解决方案的领导厂商威联通®科技 (QNAP® Systems, Inc.) 针对 AI 深度学习推论推出两款运算加速卡,包含:Mustang-V100 VPU 加速卡及 Mustang-F100 FPGA 加速卡。使用者于 Intel® 服务器/PC 或 QNAP NAS 的 PCIe 扩展槽安装加速卡,可提升计算机视觉和 AI 应用深度学习推论的运算能力,在工业自动化、医疗诊断、智能零售和影像监控等领域皆可发挥应用潜能。
威联通产品经理林礼涵表示:「指令周期是提高 AI 人工智能应用效率的关键。QNAP Mustang-V100 与 Mustang-F100 加速卡专为 OpenVINO™ 架构设计,并搭配 Intel 硬件优化方案,以及 QNAP开发的 OpenVINO™ Workflow Consolidation Tool 应用程序,协助用户缩短时间达成复杂 AI 运算与深度学习推论的目标需求。」
Mustang-V100 与 Mustang-F100 加速卡,让使用者以经济、效率的方式为 Intel 服务器/PC 或 QNAP NAS 提供实时 AI 推论效能加速方案,并可搭配 OpenVINO 工具套件,优化处理影像分类及计算机视觉的推论工作负载。OpenVINO 为 Intel 深度学习开发工具包,提供模型优化器和推论引擎,可将预先训练的深度学习模型 (如Caffe、TensorFlow) 转换成 IR 文件格式,广泛支持 Intel 平台装置 (包含 CPU、GPU、FPGA 及 VPU 等硬件加速芯片) 来执行推论,可协助缩短开发时间,同时简化深度学习推论和计算机视觉解决方案的部署流程。
QNAP 的创新之路不断推动着 QNAP NAS 展现更多元、更广泛的用途,其大存储空间兼具 PCIe 弹性扩充的特性,在 AI 应用上亦能发挥相当优势。QNAP 所推出的 OpenVINO™ Workflow Consolidation Tool (简称 OWCT) 采用了 Intel OpenVINO 开发工具包技术;藉由安装 OWTC,搭载 Intel 处理器的 QNAP NAS 即成为理想的推论服务器,协助企业组织快速发展自己的推论系统。AI 开发者可将训练好的模型部署于一台 QNAP NAS 上进行推论,并安装 Mustang-V100 或 Mustang-F100 加速卡让推论效能更上一层。
特定 QNAP NAS 安装 QTS 4.4.0 操作系统新版本即可支持 Mustang-V100 及 Mustang-F100 加速卡。关于特定 QNAP NAS 型号,请参阅 QNAP 网站。OWCT 应用程序请至 QTS App Center 下载安装。
新产品主要规格
- Mustang-V100-MX8-R10
半高式,采用 8 颗 Intel® Movidius™ Myriad™ X MA2485 VPU 芯片,PCI Express Gen2 x4 接口,耗电量 < 30 瓦 - Mustang-F100-A10-R10
半高式,采用 Intel® Arria® 10 GX1150 FPGA 芯片,PCI Express Gen3 x8 接口,耗电量 < 60 瓦
关于 QNAP
QNAP 命名源自于高质量网络设备制造商(Quality Network Appliance Provider),我们致力研发软件应用,匠心优化硬件设计,并设立自有生产线以提供诸多且先进的科技解决方案。QNAP 专注于存储、网通及智能视讯产品创新,并提供 Cloud NAS 解决方案,通过软件订阅制及多元化服务管道建构崭新的科技生态圈。在 QNAP 的企业蓝图中,NAS 早已突破存储设备的框架,搭配云基础网络架构上的多项研发创新,协助客户高效率导入人工智能分析、边缘运算及信息整合应用,创造更大优势与价值。