logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

如何成为一名成功的AI产品经理:从传统产品到AI产品的转型之路

定期总结学习成果,撰写博客、发表文章或分享经验,不仅可以加深对知识的理解,还能提升个人的行业影响力。通过不断输出高质量的内容,你可以在AI领域建立起自己的品牌,吸引更多机会。

文章图片
#人工智能#产品经理#大数据 +1
顺丰科技AI产品经理面经

并要求简单介绍了一下实习经历,因为我的实习经历大多是to c的,所以他也没太自习挖掘实习经历,问的比较多的是如何处理后台数据,在实习中学到了什么。然后就问了一些基本问题,

文章图片
#科技#人工智能#产品经理 +1
向量数据库+上下文检索:提升RAG等AI应用的精准性与效率

无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。在 RAG 任务中,传统的检索方式

文章图片
#数据库#人工智能#RAG +1
AI大模型的使用能力也分段位,你是青铜还是星耀

从“玄铁”到“王者”,每个段位都对应了大模型用户能力的显著跃迁。对于科技行业的用户而言,掌握从Prompt优化到复杂工作流设计,再到模型微调的技能,不仅是提升工作效率的关键,更是拓展职业发展的核心能力。未来,大模型的潜力远不止文案创作或数据分析。作为AI科技的用户,我们需要不断攀登段位,不断发掘技术的更多可能性。

文章图片
#人工智能#AI
图解 LangChain Agents,熬了三天三夜只为你实现AI自动化工作流

LangChain Agents 就像是一个智能助手团队,可以帮你把大型语言模型变成能自动完成复杂任务的工作流程。2. 工作流程2. 自定义工具3. 记忆功能2. 集成外部APILangChain Agents库是构建智能工作流的强大工具,可以帮你:掌握了这套框架,你就能构建真正实用的AI应用了!跟传统脚本比起来简直是降维打击,我熬夜写这篇文章就是希望你少走弯路。快去试试吧!大模型时代,火爆出圈的

文章图片
#人工智能#自动化#AI
2025大模型100个AI岗位,00后就业首选AI赛道,应届大学生找工作收藏!转型者精选!

自从2022年11月30日Gatchap发布,AI如同一股强劲的浪潮,带着危机席卷了各行各业,不仅重塑了商业模式和工作流程,更是颠覆了传统就业思维,同时带来了前所未有的就业新机遇。麦肯锡全球研究院发布的《工作的新未来》报告显示:“在2030年至2060年间,将会有50%的现有职业被AI取代。”算一下就5年时间了,取中是2045年,也只是20年后。AI市场规模持续扩大是必然趋势,这直接带动了AI人才

#人工智能#AI
我不信看完这篇你还不懂RAG:RAG技术概述

框架名称核心特点优势劣势/局限适用场景UltraRAG动态记忆管理、多模态支持、自适应优化(DDR)、端到端训练支持- 支持多模态数据(文本、图像、空间数据) - 动态更新知识库,响应实时性强 - 性能优化(如DDR策略) - 开源灵活- 需较高计算资源(GPU) - 配置复杂度较高复杂问答、多模态分析、企业知识库(如医疗、金融)中文友好、可视化界面、流式输出、支持离线部署- 中文场景优化 - 开

文章图片
#人工智能#深度学习#RAG
RAG 入门指南:从零开始构建一个 RAG 系统

在开始之前,我还是打算再次简要的介绍一下 RAG。在 Meta 的官方 Blog 上有这样一段话:这段话主要讲述了一个新的模型架构,也就是RAG (检索增强生成)的重要性和优势。\1. 构建一个能够进行研究和上下文分析的模型虽然更具挑战性,但对未来的技术进步非常关键;\2. 通过在知识密集的下游任务上微调,RAG 可以实现最先进的结果,比现有的最大的预训练序列到序列语言模型还要好;\3. 与传统的

文章图片
#人工智能#AI#RAG
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、等]

由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。当我们想在用特定领域的数据微调模型时,如果想要full-tuning所有模型参数,看着是不太实际,一来需要相当多的硬件设备(GPU),二来需要相当长的训练时间。因此,我们可以选择一条捷径,不需要微调LLM的全量参数,而只需要新增少量的参数,通过固定原始模型参数,而只需要微调新增的少量参数,从而达到接近使用全参数full-tuning的效果。本

文章图片
制造一只电子喵 (qwen2.5:0.5b 微调 LoRA 使用 llama-factory)

使用 llama-factory 工具可以对 AI 语言模型 (LLM) 进行微调 (LoRA SFT), 只需准备数据集即可.可以看到, AI 具有一定的泛化能力, 也就是训练数据集中没有的问题, 模型也可以给出比较合理的回答.此处使用的丹炉不好, 炼不了上品仙丹, 只能用个小模型意思意思. 但原理和操作步骤都是一样的, 只要换上更好的硬件, 准备更多数据, 就能炼制更好更大的仙丹啦 ~AI 并

文章图片
#android#人工智能
    共 580 条
  • 1
  • 2
  • 3
  • 58
  • 请选择