
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
继OpenAI和Google的产品发布会之后,大模型的能力进化速度之快令人惊叹,然而,对于很多个人和企业而言,为了数据安全不得不考虑私有化部署方案,从GPT-4发布以来,国内外的大模型就拉开了很明显的差距,能够实现的此路径无非就只剩下国内的开源大模型可以选择了。而现阶段切入大模型应用落地最合适的方案依然是结合大模型基于RAG检索增强来实现知识库的检索和生存。从而构建个人或者企业私有化的本地知识库。

在大模型微调领域,存在多种框架,每个框架都有其独特的优势和局限性。下面介绍几种常见的微调框架,包括示例代码和适用模型,帮助你根据任务需求选择最合适的框架。

大家在开发一款AI应用时,模型微调并不应该是最先要考虑的事情,目前细分的垂类模型生态已经非常丰富,微调也仅仅能解决对特定任务下大模型的泛化推理能力,而针对需要解决问题的信息实时性、准确性也是通过RAG等方案来解决,有时候对提示词的优化也能起到比较好的效果,所以建议大家在AI应用开发流程上,切勿上来就开始进行模型微调,微调的数据集比例选择(通用/专业)、微调参数选择的不准确,都可能使得基准的大模型失

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。,既发挥了 DeepSeek 强大的模型推理能力,又利用了 Doris 高效的存储与检索优势,大幅提升回答准确度,有效避免AI幻觉,为个人/企业带来高质量的本地知识库。大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高

由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。当我们想在用特定领域的数据微调模型时,如果想要full-tuning所有模型参数,看着是不太实际,一来需要相当多的硬件设备(GPU),二来需要相当长的训练时间。因此,我们可以选择一条捷径,不需要微调LLM的全量参数,而只需要新增少量的参数,通过固定原始模型参数,而只需要微调新增的少量参数,从而达到接近使用全参数full-tuning的效果。本

最近我一直在关注和优化RAG(Retrieval-Augmented Generation)相关的内容,总结了一下RAG的痛点和最佳实践,然后重点会介绍如何评估RAG。

自从2022年11月30日Gatchap发布,AI如同一股强劲的浪潮,带着危机席卷了各行各业,不仅重塑了商业模式和工作流程,更是颠覆了传统就业思维,同时带来了前所未有的就业新机遇。麦肯锡全球研究院发布的《工作的新未来》报告显示:“在2030年至2060年间,将会有50%的现有职业被AI取代。”算一下就5年时间了,取中是2045年,也只是20年后。AI市场规模持续扩大是必然趋势,这直接带动了AI人才
2025 年 3 月 6 日,全球首个通用 AI 智能体正式发布,一经推出便引爆科技圈。有人称它为,也有人认为它是人类生产力的终极外挂——只需用自然语言描述需求,Manus 便能,完成复杂任务,交付专业级结果。但它究竟意味着什么?比起 ChatGPT,Manus 真正的突破在哪?而更重要的是,?一文带你看懂,并告诉你。

作者在搭建私有知识库部署ragflow过程中踩了很多坑,在此分享一下本地安装部署经验。话不多说,本文全程干货。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。老铁们,就说最近deepseek真的是火到天际,我上一篇写的关于deepseek+小红书的操作方法,不小心就爆了起来,看到很多小伙伴还是无从下手,所以今天还是拆解一下一些赛道的玩法。顾名思义就是将视频素材上传到电脑,为了方便起
