logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI PC“加菜”了,双十一最值得关注的10款酷睿Ultra 200V AI PC

地大模型开发者套件(CodeGeeX)以英特尔最新XPU架构为硬件平台,不仅通过英特尔OpenVION,IPEX等AI框架对国内大模型的本地运行以及应用开发进行硬件加速,并且深度集成了基于智谱华章CodeGeeX大模型的全能智能编程助手,从而为初学大模型的应用开发者以及计算机相关专业的高校,职校学生提供了“装, 学, 练,用”的四个实际使用场景。

文章图片
#人工智能
英特尔® Extension for Transformers 一石双鸟:让 LLM CPU 推理加速达 40x + 攻克聊天场景应用难题!

英特尔® Extension for Transformers 创新工具包中的 LLM Runtime 是一种轻量级的高效 LLM 推理运行时。在搭载英特尔® 至强® 铂金 8480+ 的系统上的测试结果显示,LLM Runtime 可为 GPT-J-6B、LLAMA2-7B-Chat、MPT-7B、ChatGLM-6B、ChatGLM2-6B、Mistral-7B、Dolly-v2-3b 和 B

文章图片
#人工智能
BigDL-LLM:在英特尔® 平台上加速大语言模型的便捷新利器

英特尔最近推出的 BigDL-LLM 库,可助力应用开发者和研究人员在英特尔® 平台上加速优化大语言模型,解决他们在使用大语言模型开发应用时因模型的超大规模参数导致的高时延困扰。BigDL-LLM 提供了各种低精度优化,并可利用现代硬件加速技术和全新的软件优化,从而赋能大语言模型在英特尔® 平台上实现高效优化和快速运行。

文章图片
#语言模型#人工智能#自然语言处理
只改一行代码,在第四代至强® 可扩展平台上高效微调优化 ChatGLM-6B

开源预训练大模型 ChatGLM-6B 通过以下三个方面可实现基于第四代英特尔® 至强® 可扩展处理器的高效微调优化:一是借助英特尔® 高级矩阵扩展,大幅提升模型微调计算速度;二是结合英特尔® MPI 库充分利用处理器架构特点和多核配置,发挥 CPU 的整体效率;三是利用英特尔® 至强® CPU Max 系列处理器集成的 HBM 满足大模型微调所需的大内存带宽。

文章图片
使用Intel AI PC为YOLO模型训练加速

本文围绕深度学习模型训练效率提升与硬件资源优化利用这一核心主题,聚焦于英特尔AI PC系列平台,深入阐述了从传统 CPU 训练模式向 XPU 赋能训练模式的转型历程,尤其以 YOLO 模型训练作为典型范例展开剖析。

文章图片
#人工智能
【哪吒开发板试用】基于哪吒开发套件开发ROS应用

本文中我们将验证了ROS环境的正确配置和功能,包括节点管理、主题通信、服务调用以及动作服务器的测试。

文章图片
#单片机#stm32#嵌入式硬件
最新端侧小钢炮!利用OpenVINO部署GLM-Edge全家桶

本文将分享如何利用 OpenVINO™ 在本地部署最新 glm-edge-chat 与 glm-edge-v 模型。

文章图片
#edge#前端
Developer Cloud - Jupyter* UI环境

1. 概述介绍Intel® DevCloud 提供了两种集成开发环境:裸机部署的开发环境为Jupyter*。它有两个版本:Jupyter Lab和Jupyter Notebook,默认情况下启动Jupyter Lab,开发者也可以切换到Jupyter Notebook。基于裸机开发环境开发者可以用命令行的方式在它们上面提交任务,编译代码,执行代码等。Jupyter Lab:打开Build,选择Co

文章图片
#idea#vim#docker +1
用英特尔CPU及GPU运行OpenAI-whisper模型语音识别

在本教程中,我们将详细介绍如何配置OpenVINO环境,如何将OpenAI Whisper模型转换为OpenVINO支持的格式,以及如何在Intel的CPU和GPU上运行该模型进行语音识别。

文章图片
#语音识别#人工智能
OpenVINO™ 2024.5 新发布 | 使用流水线简易部署多模态 AI

为了满足多模态 AI 的需求,OpenVINO™2024.5 引入了新的流水线,使开发者能够轻松部署处理语音、图像和视频以及文本的解决方案。让我们探讨一下这些新功能是如何工作的,以及如何从今天开始使用它们。

文章图片
#人工智能#openvino
    共 268 条
  • 1
  • 2
  • 3
  • 27
  • 请选择