logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Kimi 生成 PPT 完整流程:从长文本需求到多页 PPT 导出的实操指南

输入长文本需求:准备并提交内容给 Kimi。Kimi 处理并生成结构化输出:Kimi 分析文本,输出 PPT 大纲和内容。创建 PPT 文件:使用工具将 Kimi 的输出转换为 PPT 幻灯片。导出 PPT:保存并导出为可编辑的.pptx文件。下面我将逐步拆解每个步骤,并提供实操示例。完整流程回顾输入长文本 → 2. Kimi 生成大纲 → 3. 用代码创建 PPT → 4. 导出文件。所需工具K

#microsoft#c#
Flutter 跨平台工程落地:混合开发项目的集成实践

混合开发是大型项目中逐步迁移到 Flutter 的常见方案,核心是在现有原生工程(Android/iOS)中嵌入 Flutter Module。实践案例:某电商 App 在保留原生支付/地图模块的同时,将商品详情页迁移至 Flutter,页面加载速度提升 40%,双端代码复用率达 89%。

#flutter#cocoa#macos
昇腾 NPU 实测指南:Llama 3.2 1B 英文原版推理 vs3B 中文微调

本指南将帮助您在昇腾 NPU 上实测 Llama 模型的推理性能,包括 10 亿参数(1B)英文原版模型和 30 亿参数(3B)中文微调模型的比较。实测重点涵盖推理速度、内存占用和精度等指标。指南基于通用 AI 框架(如 MindSpore 或 PyTorch with CANN)实现,确保可复现性。在昇腾 NPU 上,Llama 1B 英文原版推理速度更快、资源消耗低,适合实时应用;而 3B 中

机器翻译场景测评:Llama-2-7b 昇腾 NPU 多语言性能基准

测试数据表明,昇腾 NPU 在 7B 参数量级模型上可实现 1.5倍于同代 GPU 的能效比,尤其适合边缘部署场景。实际应用需根据目标语言对调整量化策略。昇腾 NPU 针对大模型推理进行了特定优化,通过 AscendCL 框架支持 Llama-2-7b 的异构计算。

#机器翻译#人工智能
昇腾 NPU 实测指南:Llama 3.2 1B 英文原版推理 vs3B 中文微调

本指南将帮助您在昇腾 NPU 上实测 Llama 模型的推理性能,包括 10 亿参数(1B)英文原版模型和 30 亿参数(3B)中文微调模型的比较。实测重点涵盖推理速度、内存占用和精度等指标。指南基于通用 AI 框架(如 MindSpore 或 PyTorch with CANN)实现,确保可复现性。在昇腾 NPU 上,Llama 1B 英文原版推理速度更快、资源消耗低,适合实时应用;而 3B 中

STM32F407 ADC_DMA3 通道采集:中断回调函数轻量化优化

注:测试条件为3通道×100kHz采样率,STM32F407@168MHz,ADC时钟配置为21MHz(预分频4)此方案已在实际项目中验证,可稳定支持3通道×200kHz采样率,中断占用率低于2%。

#stm32#嵌入式硬件#单片机
分步骤拆解:ControlNet 高可控生成完整流程

它通过引入可训练的网络分支,将输入条件(如边缘图、深度图、人体姿态等)与原始扩散模型结合,实现高精度的图像生成控制。核心思想是保持原始模型权重不变,仅训练控制分支,避免破坏预训练模型的生成能力。加载 Stable Diffusion 和 ControlNet 模型,将条件图作为控制输入。需指定提示词(prompt)和负向提示词(negative prompt)引导生成方向。生成结果可通过超分辨率模

#计算机视觉#人工智能
图数据库索引技术:DASFAA 2026 投稿的效率优化与创新

针对大规模图数据查询中的邻接遍历延迟问题,本文提出动态自适应索引框架DAIF通过引入多粒度拓扑感知分区算法,实现查询复杂度从$O(n^2)$到$O(n\log n)$的优化,实验证明在10亿级边数据集上查询响应提升47.8%。

《提示工程架构师手册》前沿视角:Agentic AI 引领 NLP 少样本学习创新

在数学上,Agentic AI 的决策过程可建模为一个马尔可夫决策过程(MDP),其中状态$s_t$表示当前环境,行动$a_t$由策略函数$\pi(a_t|s_t)$生成,目标是最小化累积损失函数: $$ L = \sum_{t=0}^{T} \gamma^t r(s_t, a_t) $$ 其中,$\gamma$是折扣因子,$r$是即时奖励。例如,在情感分析任务中,给定少量样本如“这部电影很精彩”

到底了