
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
微调(Fine-tuning): 让大模型“学专业课”,比如给它喂医疗数据,让它从“通用聊天员”变成“医疗助手”。
微调(Fine-tuning): 让大模型“学专业课”,比如给它喂医疗数据,让它从“通用聊天员”变成“医疗助手”。
Model I/O 模块是与语言模型(LLMs)进行交互的核心组件,在整个框架中有着很重要的地位。

LangChain是 2022年10月 ,由哈佛大学的 Harrison Chase (哈里森·蔡斯)发起研发的一个开源框架,用于开发由大语言模型(LLMs)驱动的应用程序。

这篇文章不太适合已经有基础的小伙伴查看,因为极其基础,如果你已经入门,其实就不用往下看了。如果你是新手,完全不知道怎么用,也不会用,那其实建议你看一下,看看是否对你有所帮助。
开源仅一周,《Happy-LLM》从零开始的大语言模型原理与实践教程 GitHub star数量已经突破2.3k,成为大模型学习圈的“顶流教程”!

开源仅一周,《Happy-LLM》从零开始的大语言模型原理与实践教程 GitHub star数量已经突破2.3k,成为大模型学习圈的“顶流教程”!

本文绍了如何将领域内零散的知识文档用于微调大语言模型。首先,通过MinerU等工具将PDF、DOCX等文件统一转换为Markdown格式。

本文绍了如何将领域内零散的知识文档用于微调大语言模型。首先,通过MinerU等工具将PDF、DOCX等文件统一转换为Markdown格式。

这篇推文,就带你用 Ollama + 本地/云端 API + + LLM封装打通这条链路,做一套「自己的 AI 工作流」。








