
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
2025.6.6,通义千问团队发布了 Qwen3-Embedding 和 Qwen3-Reranker 系列。两组模型一块训练发布,本文侧重于前者进行分析和测试。

以下推荐全部基于 2024-2025 年最新公开信息,按“工业、医疗、金融、农业、政务、教育、能源、交通、司法、传媒”十个垂直领域,每领域精选 5 个可商用或开源大模型,并给出一句核心功能概括

本文详细介绍了Qwen3-0.6B模型的微调教程,包括环境配置、数据集准备、LoRA微调实现及推理应用。通过PEFT技术实现低资源设备上的模型训练,使用8-bit量化降低显存需求,提供完整代码实现,适合初学者学习大模型微调技术。

本文我们谈下火爆的大模型背后,有哪些的核心技术!前排提示,文末有大模型AGI-CSDN独家资料包哦!

在AI训练领域,尤其是LORA 图像等细分模型的训练,对高质量、结构化的图片标签数据有极高要求。车型 LORA 的打标标签,有独立的要求:每一个图片的标签结果需要有一个与图片名称一致的 txt 文档。

虽然ChatGPT能理解和创建一般文本,但它可能没有针对复杂的医学术语和特定医疗术语进行优化,这时医院可以用包含医疗报告和患者笔记的数据集上对ChatGPT进行微调,这样模型变得更加熟悉医学术语、临床语言的微妙之处和典型的报告结构,微调后的ChatGPT才有可能成为医生的好助手,要不然医生们肯定会嫌弃它很傻。例如,LoRA和QLoRA是目前主流的大模型微调方法之一,它们通过冻结预训练模型的大部分参

大模型支持多模态以后,带来了更多的应用场景,今天我们以图片识别为例,给大家介绍五个日常用例,目的是扩展思路,提高效率。我是基于Qwen3.0模型,它是上个月发布的多模态大模型,之前的文章里介绍了它的生图功能,实际上它的图片识别能力更强一点。文章最后也会列出来国内目前可用的各种多模态大模型。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!😝有需要的小伙伴,可以保存图片到。

今天要分享的内容,是关于“个人知识库”,这个选题是粉丝小伙伴强烈“催更”来的,感谢她,让我复盘了自己搭建知识库的过程,借写文章的契机,也更新了我的知识库框架。近一年的实践,我最大的体验是,一个well-organized的知识库,不仅能帮我们管理知识,还能高效支撑工作、学习、生活。

现在的ai很多,让我看得有些眼花缭乱,随着ai的发展,现在已经有很多ai的大模型已经支持开源,所以现在支持部署一个大模型在自己电脑上,数据私人化。







