使用FastDeploy在英特尔CPU和独立显卡上端到端高效部署AI模型

作者:王一凡 英特尔物联网创新大使 1.1 产业实践中部署AI模型的痛点1.1.1 部署AI模型的典型流程对于来自于千行百业,打算将AI模型集成到自己的主线产品中,解决本行痛点的AI开发者来说,部署AI模型,或者说将AI模型集成到自己产品中去的典型步骤(以计算机视觉应用为例)有:a. 采集图像&图像解码b. 数据预处理c. 执行AI推理计算d. 推理结果后处理e. 将后处理结果集成到业务流

openlab_4276841a 2年前
12128 0 0

在英特尔独立显卡上训练TensorFlow模型

作者:武卓,张晶 本文将基于蝰蛇峡谷(Serpent Canyon) 详细介绍如何在英特尔独立显卡上训练TensorFlow模型的全流程。1.1 英特尔锐炫™独立显卡简介英特尔锐炫™ 显卡基于Xe-HPG 微架构,Xe HPG GPU 中的每个 Xe 内核都配置了一组 256 位矢量引擎,旨在加速传统图形和计算工作负载,以及新的 1024 位矩阵引擎或 Xe 矩阵扩展,旨在加速人工智能工作负载。

openlab_4276841a 2年前
14240 0 0

在Windows中基于Visual Studio配置OpenVINO C++开发环境

作者:王一凡 英特尔物联网行业创新大使 本文主要介绍在Windows中基于Visual Studio配置OpenVINO C++开发环境,主要步骤有:1. 下载并安装Visual Studio Community版2. 下载并解压OpenVINO Runtime3. 下载并解压OpenCV4. 在Visual Studio中配置项目属性5. 运行OpenVINO C++范例程序,测试开发环境下面

openlab_4276841a 2年前
13792 0 0

用 AI 及OpenVINO™ 寻找失落的侏罗纪

作者: 武卓 在世界各地,当你走进博物馆,看到巨大的恐龙标本展示,你有没有想过古生物学家是如何发现它们的?有趣的是,我们的一位好朋友兼同事,英特尔的技术布道师Bob Chesebrough,在闲暇时间和他的儿子们一起出去寻找尚未被发现的恐龙化石。他向我们展示了如何做到这一点,以及我们如何使用AI和OpenVINO™ 来明显简化这一过程。鲍勃向我们解释说,古生物学家和考古学家必须首先找到这些地点,其

openlab_4276841a 2年前
10568 0 0

使用AsyncInferQueue进一步提升AI推理程序的吞吐量

作者: 战鹏州 英特尔物联网行业创新大使 本文将介绍基于OpenVINO的异步推理队列类AyncInferQueue,启动多个(>2)推理请求(infer request),帮助读者在硬件投入不变的情况下,进一步提升AI推理程序的吞吐量(Throughput)。 在阅读本文前,请读者先了解使用start_async()和wait()方法实现基于2个推理请求的异步推理实现方式。该异步推理实现方式相对

openlab_4276841a 2年前
11132 0 0