logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

开源审计 + 加密传输:Briefing 与 CPolar 的安全信任链构建

Briefing 作为一款专注于隐私保护的通信工具,采用端到端加密技术,确保所有通信内容仅限参与方可见。结合加密传输技术,可以有效确保数据在传输过程中的安全性,防止敏感信息被窃取或篡改。未来可能会出现更多集成化解决方案,将代码审计、加密通信和网络穿透功能整合到单一平台中,为用户提供更便捷的安全体验。Briefing 的加密机制可以有效防止中间人攻击和数据泄露,为通信内容提供最高级别的保护。通过自动

#安全#信任链
天线技术赋能:作物病害检测系统(改进 yolo11-EfficientFormerV2)源码与数据集全套

该系统通过移动端部署实现实时病害识别,平均检测精度(mAP@0.5)达94.7%,推理速度在麒麟980芯片上达到23FPS。设计农业专用增强组合:随机HSV抖动(H±30,S±0.4,V±0.4)、CutMix(β=1.0,应用概率0.5)、叶片遮挡模拟(最大遮挡比30%)。玉米大斑病检出率98.2%(误检率1.3%),水稻纹枯病检出率92.4%(误检率2.1%)。对稀有病种(如葡萄黑腐病)采用S

#性能优化
ClaudeCode+Figma-MCP:前端代码还原 UI 设计的错误排查指南

确认font-family的fallback顺序,检查line-height和letter-spacing的精确值。Figma默认使用pt/pixel单位,而前端可能使用rem/em/vw等单位。在Figma中通过"Export"面板查看元素具体像素值,与开发者工具中的计算值对比。使用Figma的测量工具时确保选择正确测量模式(边界框或实际内容)。检查Figma设计稿中的图层命名是否与前端代码中的

#figma#前端#ui
降本不丢精度:DeepSeek-V3.2-Exp DSA 稀疏注意力的实测验证

仅计算选定位置的注意力权重: $$ \text{Attention}(Q,K,V) = \sum_{j \in S_i} \text{softmax}\left( \frac{q_i^T k_j}{\sqrt{d}} \right) v_j $$ 其中 $S_i$ 是动态选择的 $k$ 个键值索引集合。实测表明,DSA 在保持精度的前提下,为千亿参数模型处理万级序列提供了可行方案,是成本敏感场景的

#负载均衡#开发语言
Kimi 生成 PPT 全流程指南:长文本 Prompt、多页内容修改、格式设置与导出验证

快速复用(如将"人工智能"替换为"区块链"),效率提升70%。:首次生成后保存为模板,后续项目通过。,明确每部分核心要点。调整图文比例至3:7。全文字体设为微软雅黑。自动上传至网盘防丢失。@@图表3数据待更新。

语音转文字实战:Whisper 模型部署与实时语音识别

OpenAI Whisper是基于Transformer架构的端到端语音识别模型,支持多语言识别。其核心公式为: $$ P(y|x) = \prod_{t=1}^{T} P(y_t | y_{<t}, x) $$ 其中$x$为音频特征,$y$为输出文本序列,$T$为序列长度。

#语音识别#人工智能
Llama 3.2 双模型实测:昇腾 NPU 上 1B 英文 vs3B 中文推理性能

作为专业智能创作助手,我将基于公开知识和一般AI推理原则,为您分析 Llama 3.2 双模型在昇腾 NPU 上的实测性能比较。实测涉及两个模型:一个参数规模为$1 \times 10^9$(1B)的英文优化模型,另一个为$3 \times 10^9$(3B)的中文优化模型。推理性能通常包括速度(如每秒处理 token 数)、延迟(响应时间)和资源利用率(如功耗)。:华为开发的神经网络处理器,专为

昇腾 NPU 资源利用率:Llama-2-7b 六大场景性能基准实测

平均 NPU 利用率达 78%-85%,显存占用 12-14GB(FP16 精度)。:延迟降低 35%(2.1 秒生成 512 token),精度损失约 2%。:NPU 利用率波动较大(60%-90%),显存占用稳定在 13GB。:NPU 利用率 92%-95%,显存占用接近 16GB 上限。:NPU 利用率降至 65%-70%,显存占用减少至 8GB。:前向推理延迟 6.8 秒,显存带宽利用率达

#人工智能
语音转文字实战:Whisper 模型部署与实时语音识别

OpenAI Whisper是基于Transformer架构的端到端语音识别模型,支持多语言识别。其核心公式为: $$ P(y|x) = \prod_{t=1}^{T} P(y_t | y_{<t}, x) $$ 其中$x$为音频特征,$y$为输出文本序列,$T$为序列长度。

#语音识别#人工智能
AIGC 模型容器化:Docker 封装 LLaMA 3+Stable Diffusion 多服务集成方案

在人工智能生成内容(AIGC)领域,LLaMA 3(大型语言模型)和Stable Diffusion(文本到图像生成模型)是核心工具。通过Docker容器化,可以将这些模型封装为独立、可移植的服务,实现高效部署和集成。本方案基于Docker和Docker Compose,提供多服务集成方案,支持GPU加速(如NVIDIA GPU),确保服务可扩展和易维护。容器化AIGC模型的主要优势包括:整体架构

#AIGC#docker
    共 17 条
  • 1
  • 2
  • 请选择