logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

必看!DeepSeek + 飞书多维表格,打造 AI 知识库(保姆级教程)

DeepSeek,作为一款功能强大的AI工具,在信息检索与处理方面有着独特优势。而飞书多维表格凭借其灵活的数据管理和协作能力,为构建个性化知识库提供了绝佳平台。飞书多维表格自接入了deepseek之后,二者的强强联手,极大提高了工作效率。这个选题是我一直都想做还没开始做的,今天我就为大家带来一个超实用的教程 —— 使用 DeepSeek 结合飞书多维表格,打造属于你的 AI 知识库,让工作和学习效

文章图片
#人工智能#DeepSeek
小白也能懂的大模型炼成记:从底层原理到越狱机制全解析,看到就是赚到,建议收藏!!

文章详解了大语言模型(LLM)的底层原理与训练过程,包括基础设施建设、数据预处理、预训练、有监督微调和人类反馈强化学习三大阶段。揭示了模型的概率本质、幻觉现象和上下文窗口限制等特性,解释了越狱机制和提示词工程的重要性。理解这些原理有助于用户更有效地使用大语言模型,充分发挥其潜力。

#人工智能
Agent架构新方向? Claude Skills详解:为LLM添加轻量级workflow的完整指南,建议收藏!

Claude Skills是Anthropic推出的可扩展机制,通过封装元数据、说明和代码,让Claude具备特定领域专业知识并动态加载。它采用渐进式披露方式,只在需要时加载相关信息,避免上下文窗口超载。Skills不同于Function Calling和MCP,更关注内部流程指导而非简单工具调用,适用于文档自动化、品牌规范、数据分析等多种场景,为AI Agent上下文工程提供了新方向。

文章图片
#人工智能
【AI大模型】GRPO+LoRA:大模型训练极简方案!收藏这篇就够了!!

随着DeepSeek爆火,面试中也越来越高频出现,因此训练营也更新了DeepSeek系列技术的深入拆解。包括MLA、MTP、专家负载均衡、FP8混合精度训练,Dual-Pipe等关键技术,力求做到全网最硬核的解析~在进行实践 GRPO 的时候,发现现存占用过大,deepseed 一键 VLLM 安装常常与 cuda 不适配,因此尝试一直采样 lora 小参数微调,环境要求更低的方式进行 GRPO

文章图片
#人工智能#语言模型#LoRA
LangGraph全生态工具实战:从零到1部署AI智能体应用,小白也能轻松上手!

文章介绍了LangGraph全生态开发工具,包括LangSmith监控框架、LangGraph Studio可视化IDE和LangGraph Cli部署工具等,详细展示了从零开始创建、调试和部署智能体项目的完整流程。通过实战操作,读者可学习构建天气助手智能体,利用这些工具进行可视化调试和性能监控,最终实现智能体应用的本地部署。

文章图片
#人工智能#数据库#mysql +1
什么是向量数据库,终于有人一次性说清楚了!

首先,我们必须注意到矢量数据库并不是新鲜事物。事实上,向量数据库已经存在了相当长一段时间。甚至在它最近变得广泛流行之前,我们几乎每天都在间接地与它们互动。例如,推荐系统和搜索引擎等应用程序。简单来说,向量数据库以向量嵌入(Vector Embedding)的形式存储非结构化数据(文本、图像、音频、视频等)。

文章图片
#数据库#人工智能
Dify实战:手把手教你用RSS聚合8大平台实时热点,AI自动摘要,新闻效率飙升,建议收藏!

在当今信息化浪潮席卷的时代,海量媒体资讯如潮水般每日涌来。然而,受制于有限的时间与精力,人们往往更倾向于聚焦两类信息:一类是与自身兴趣深度契合的个性化新闻,另一类则是当下全网热议的焦点事件。在此背景下,能否快速、精准地捕捉实时热点资讯,成为现代人高效获取信息、把握时代脉搏的关键所在。不过之前的案例是通过爬虫方式实现最新的新闻获取,时效性不够,另外新闻覆盖的内容也不全面。今天给大家介绍使用RSS多平

文章图片
#人工智能#数据库
【AI大模型】一文详解模型训练中的梯度到底是什么(没有数学公式),零基础小白收藏这一篇就够了!!

在人工智能的世界里,有一个词低调但无处不在,那就是 梯度。不懂数学,可以搞得懂梯度么?肯定搞的明白,梯度说白了就是模型训练中的一个指南牌,用来指示后续的训练过程。无论是几十个参数的小模型,还是动辄千亿参数的大模型,梯度都是它们成长路上不可或缺的“导航员。只有依赖梯度,才能找到最终目的。很多人觉得梯度听起来很数学,其实它和我们下山找路、老师批改作业,没什么本质区别。今天,就带你用最直观的方式理解:梯

文章图片
#人工智能
【必藏】小白到精通:Transformer内部工作原理全解析,大模型核心架构一文搞定

本文深入剖析Transformer内部工作原理,详细介绍了嵌入层、位置编码层、编码器和解码器堆栈结构,以及多头注意力机制和注意力掩码的作用。通过具体示例展示了数据流动过程和各阶段计算,帮助理解Transformer设计理念,并解释了输出生成和训练中的损失函数,为理解大模型核心架构提供全面指导。

文章图片
#transformer#深度学习#人工智能 +1
视觉大模型(VLM)入门指南:你需要了解的关键内容

为什么需要了解VLM?据不完全统计,截止到2025年10月份VLM的论文在持续上升,应用也更广泛,而传统CV模型热点下降许多。主要原因在于:这些基于卷积神经网络 (CNN) 的 CV 模型针对一组有界类上的特定任务进行了训练。如:       1、识别图像是否包含猫或狗的分类模型       2、种光学字符检测和识别 CV 模型,可读取图像中的文本,但不解释文档中的格式或任何视觉数据。

文章图片
#人工智能#AI
    共 977 条
  • 1
  • 2
  • 3
  • 98
  • 请选择