logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【AI应用开发设计指南】基于163邮箱SMTP服务实现验证登录

在开发我的法律智能管理助手时,我遇到了一个经典问题:如何为用户提供安全、便捷且成本可控的注册登录方式?短信验证码需要企业资质,第三方OAuth又过于复杂。最终,我选择了国内邮箱验证这条路径——利用最常见、最易得的个人邮箱(如163网易邮箱),通过SMTP协议发送验证码,完美解决了身份验证需求。本文将完整记录从原理认知、环境准备、代码实现到集成到LangGraph智能体架构的全过程。无论你是独立开发

文章图片
#人工智能
【多智能体系统组织方式解析】五大架构赋能智能协作

多智能体系统的组织方式,本质是权力、效率与灵活性的三角博弈。未来的MAS或将融合多种模式——平时以单元结构运行,遇到突发任务动态切换为联盟,而关键任务时升级为团队。当智能体不仅能自主行动,还能自主“选择如何协作”,我们便真正迈向了自组织智能的新纪元。讨论话题:如果你要设计一个外卖配送MAS,你会选择哪种组织方式?为什么?欢迎分享你的设计思路!

文章图片
#架构#python#人工智能
【Function Calling】​工具集成的核心流程​——附实例代码

​​组件​​​​对应字段​​​​作用​​​​示例​​签名nameparametersreturns定义函数调用规则和结构强制调用时必须传参类型type约束参数和返回值的数据类型限定参数为字符串文档解释功能和参数语义"description": "获取指定地区的当前天气信息"说明函数用途。

文章图片
#windows
【机器学习&深度学习】OpenCompass 评测指标全解析:让大模型评估更科学

▲应用开发优先:准确率、生成质量、ROUGE/LCS;▲研究诊断参考:困惑度、条件对数概率;

文章图片
#机器学习#深度学习#人工智能
【机器学习&深度学习】Ollama vs vLLM vs LMDeploy:三大本地部署框架深度对比解析

大模型部署没有「一招鲜吃遍天」的通用方案。不同场景下需要权衡性能、资源、并发、易用性等因素。🧑‍💻 如果你是开发者,想快速在本地试用模型,Ollama 是最简单的选择;🏢 如果你是企业技术负责人,希望构建一个高效的推理服务平台,vLLM 是最佳选择;🏭 如果你专注于国产模型部署和优化,LMDeploy 提供了全链路加速能力。选择适合自己的部署工具,是让大模型真正为你所用的第一步。

文章图片
#深度学习#人工智能
构建RAG模型的核心基石:知识库搭建与数据清洗指南

知识库的构建与数据清洗是RAG模型成功的“隐形支柱”。通过本文的系统梳理,希望读者能掌握从数据筛选到高效检索的全链路关键技术。

文章图片
#python#语言模型
【机器学习&深度学习】模型微调时的4大基础评估指标

快速记忆口诀“均衡看准率,误伤看精确;漏检看召回,两难看 F1。”只要先搞清“正类是谁、错误代价怎么量化”,再对号入座,你就能选对评估指标,给微调找准方向。

文章图片
#人工智能#大数据#机器学习
【机器学习&深度学习】模型微调训练时的评估指标(详细版)

模型微调训练的评估指标是 “模型效果的刻度表”,从基础指标到多分类策略,再到混淆矩阵与综合报告,每个工具都有其独特价值。关键在于 结合任务场景 ,选择最能反映模型核心能力的指标,并通过多维度分析(如指标关系图、混淆矩阵细节)定位优化方向。只有科学评估,才能让模型微调真正 “调得准、效果好”!

文章图片
#机器学习#深度学习#人工智能
【向量维度如何选择?】

在选择embedding向量的维度时,企业需根据应用场景、性能需求和成本进行权衡。高维度(如1024、1536)在语义精度上表现更佳,但内存占用和计算成本较高;低维度(如128、256)则更适合需要快速响应的场景,如推荐系统。实际应用中,企业如百度文心和阿里达摩院会根据具体需求调整维度,例如在文档推荐系统中,初始训练使用768维,生产环境则压缩至256维以提高效率。推荐策略包括开发初期使用默认高维

微调大模型:什么时候该做,什么时候不该做?

微调(Fine-tuning)是在预训练模型的基础上,用自己的一小批任务/领域数据,继续训练模型,让它对特定任务表现更好。它不是从零训练,也不是提示工程,而是**“在通用模型基础上的定制升级”**。但微调不是银弹。很多人听说“微调能变得更强”,就一股脑想上,却忽视了它的成本、风险、收益比。微调的利微调的弊精准定制行为数据/训练成本高控制输出结构更新不灵活降低 API 成本模型部署维护重模仿风格语气

文章图片
#人工智能#深度学习#机器学习
    共 182 条
  • 1
  • 2
  • 3
  • 19
  • 请选择