logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【LangChain框架组成】 LangChain 技术栈的模块化架构解析

 LangChain 技术栈的模块化架构,核心围绕 LangChain 框架展开,通过分层设计支持多语言、多场景的 AI 应用开发。模块分为功能层、工具层、核心层和扩展层,强调模块化、可扩展性和跨平台兼容性。

文章图片
#人工智能
【机器学习&深度学习】LLaMAFactory中的精度训练选择——bf16、fp16、fp32与pure_bf16深度解析

bf16 已成为LLM训练社区的事实标准。而 pure_bf16 作为进一步突破显存极限的利器,在千亿级模型训练和QLoRA等高效微调技术中扮演着越来越重要的角色。随着硬件(如H100对fp8的支持)和软件(更鲁棒的pure_bf16训练策略)的持续演进,精度优化的艺术将不断精进。精度的选择,绝非简单的配置项,而是资源约束下模型性能与训练成功的战略决策。 理解 bf16、fp16、fp32 和 p

文章图片
#机器学习#深度学习#人工智能
【机器学习&深度学习】模型微调:多久才算微调完成?——如何判断微调收敛,何时终止训练

微调的时间并没有固定标准,它取决于多个因素:数据量的大小:大数据集需要更多的训练时间。模型的大小:更大的模型(如LLaMA 13B、GPT-3)训练时间会更长。硬件配置:训练设备的性能(如GPU型号、数量、显存等)直接影响训练速度。任务的复杂性:如果是高复杂度的任务,如深度推理或跨领域知识迁移,训练可能需要更多时间。

文章图片
#机器学习#深度学习#人工智能
【机器学习&深度学习】三大微调策略:全量微调、局部微调与增量微调的全方位解析

微调不是“一把尺子量到底”的工具,而是需要结合算力、任务、时间、产品目标做出的策略选择。大模型时代,更灵活、更可控的增量微调正在成为现实世界落地的关键。学会选择适合自己的微调方式,才能让大模型真正为你所用!全量微调像“让一个人从头开始训练”,局部微调是“只改一部分”,增量微调则是“加外挂”。

文章图片
#机器学习#深度学习#人工智能
【向量模型 + HNSW 参数如何选择】

本文介绍了向量模型(embedding_function)和HNSW参数的选择与配置。向量模型可选方式包括本地默认模型(DefaultEmbeddingFunction)、云端OpenAI模型(OpenAIEmbeddingFunction)和自定义HuggingFace模型,分别适用于原型测试、生产环境和行业定制需求。HNSW参数配置影响搜索速度与准确率,核心参数包括向量相似度度量方式(spac

#java#人工智能#算法
《Python调用DeepSeek API详细教程:从流式传输到实战技巧——附代码示例》

各大平台的AI模型的步骤都会有所不同,如百度文心一言,ChatGPT等,但是调用的流程都是一样的。在其官网上都会有相应的API调用代码示例,可通过参考代码示例进行测试,并扩展,以下是演示查找步骤。API 会**逐片段(chunk)**返回响应,像流水一样逐步生成。需要等待模型完全处理完成后,才能拿到全部结果。客户端可以实时收到部分结果,无需等待全部生成。响应内容较长(如文章生成、代码编写)。完整可

文章图片
#python#人工智能
【机器学习&深度学习】NLP评价指标 BLEU 和 ROUGE

BLEU:如果你和别人玩“找出相同的单词”游戏,你找到的相同单词越多,得分越高。ROUGE:如果你和别人玩“找出包含相似意思的单词”游戏,你找到的相似意思单词越多,得分越高。

文章图片
#机器学习#深度学习#自然语言处理
【dify—3】拉取镜像、本地访问dify

本文主要介绍如何通过docker拉去镜像,实现dify的本地登录。

文章图片
#云原生#docker
【机器学习&深度学习】Embedding 模型详解:从基础原理到实际应用场景

Embedding 是将文本等信息转化为向量,并通过相似度计算实现语义理解与应用的核心技术。

文章图片
#机器学习#深度学习
【Git】2025全图文详解安装教程

有Git BashGit CMDGit FAQsGit GUI面我们就分别介绍一下这几个。

文章图片
#git
    共 157 条
  • 1
  • 2
  • 3
  • 16
  • 请选择