
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
大模型正在重塑我们的学习和工作方式,不管你是选择使用 DeepSeek 还是自己部署大模型,最重要的是。近年来,大模型技术突飞猛进,全球各大科技公司纷纷投入研发,形成了一系列成熟的主流大模型。以下是目前国内外最具代表性的大模型:

正值年后跳槽高峰期,近期大火的国产AI大模型——DeepSeek发布的一系列高薪招聘信息在各大平台刷屏,阅读量上亿。微博热搜看来,今年春节期间DeepSeek的横空出世,不仅点燃了资本市场,更是引爆了AI人才市场。阿里的钉钉软件、华为的AI平台接连官宣全面接入DeepSeek系列模型,更有业内人士预测,未来五年,AI人才缺口将高达400万!互联网红利逐渐消退,AI领域立刻接棒,开启新一轮“造富神话

《DeepSeek行业应用案例集:解锁智能变革密码》由浙江大学信息技术中心发布,全面展示了DeepSeek人工智能技术在农业、制造业、金融、医疗、教育等领域的创新实践。本案例集通过40多个行业应用实例,揭示了DeepSeek如何以数据驱动和智能化解决方案推动行业转型升级,为从业者提供前沿技术落地的参考范本。

一直在想如何让AI 帮我写FPGA 的代码,分析代码,分析资料,不想一直重复造轮子。自从openAI 火爆之后,就一直在探索这条路,以至于求着给它送了不少银子。这是openAI 刚推出GPT Store功能的时候,我就做了一个AI 智能助手,上传自己的私有代码。但是效果一般。后来字节的 coze 出来了,我又用coze做了一个 FPGA 智能体。采用多个大模型进行需求重审,代码重审,最后总结输出。

deepseek+dify零成本部署本地知识库保姆级教程

经过一段使用DeepSeek后,感觉使用体验和ChatGPT基本差不多,回答问题的质量略有提升,因DeepSeek已开源,它的模型、模型参数权重从网上都可以下载到,所以可以基于开源的模型,在本地构建一个自己的知识库,小编这里使用的是蒸馏后的模型参数权重RAG (Retrieval-Augmented Generation)检索增强生成,是一种通过整合外部知识库来增强大模型(LLM)回答问题质量的模

拥有一个好的RAG应用程序需要一个由优秀的软件工程师组成的团队来开发前端和可扩展的后端,优秀的数据工程师来处理用于开发RAG的数据管道和多个数据库,一些优秀的机器学习工程师+数据科学家开发模型并对文本块、Embedding性能、良好的数据检索方法进行实验,然后合成数据、路由器、代理等。如前所述,微调不仅可以提高基本模型的性能,而且较小(微调)的模型通常可以在训练它的任务集上胜过较大(更昂贵)的模型

本文主要分享如何使用 LLaMAFactory 实现大模型微调,基于 Qwen1.5-1.8B-Chat 模型进行 LoRA 微调,修改模型自我认知。本文的一个目的:基于模型进行微调,修改模型自我认证。修改前对于模型,用户问你是谁?时模型一般会回答我们希望在微调之后,对于同样的问题,模型能回答。

在如今的大模型微调领域,数据集的获取常常是技术人员面临的一个重大挑战。尽管微调工具和软件越来越容易获得,但数据集的收集工作却常常让人头疼,尤其是对那些缺乏时间和资源的团队而言。今天,我们要分享一个极具价值的中文大模型微调数据集,来自DeepSeek的蒸馏版本,经过精心筛选和清洗,现已开源,供大家直接下载使用。

DeepSeek作为可以私有化本地部署的大模型,加上Dify这个组合,我们还可以有很多其他应用场景,比如:智能客服,智能题库。也可以把自己的个人资料,过往输出文章,日记等所有个人信息上传到本地知识库,打造自己的私人助理。Dify还有很多其他功能,有了deepseek这样的优秀国产AI大模型加持,我们可以做更多智能体应用。当然,Dify也可以像coze一样,发布为对外服务的api,这样,它就可以结合
