logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

记一次 Qwen3-0.6B 微调 内容提取

基于@不要葱姜蒜 的self-llm项目点击可访问源文章地址。

#python#nlp
记一次 Qwen3-0.6B 微调 内容提取

基于@不要葱姜蒜 的self-llm项目点击可访问源文章地址。

#python#nlp
大模型理论调研

为了解决这个问题,在算法中引入加法平滑方法,对于分类算法的计算公式的分母加上取值范围的大小,在分子加1.平滑的目的也是正则化的目的之一:它可以令w的任何一个分量相比较于剩余分量变化程度保持一致,不至于出现变化特别明显的分量。(减少模型出现“幻觉”的可能性)LLaMA系列模型是Meta开源的一组参数规模从7B到70B的基础语言模型,使用了大规模的数据过滤和清理技术,以提高数据指令和多样性,减少噪声和

#人工智能#语言模型
DW FastAPI Task01

本文介绍了如何使用FastAPI框架进行异步编程,并详细讲解了路径参数的使用。首先,确保Python版本为3.10+,并安装FastAPI和Uvicorn库。通过async和await关键字,可以实现非阻塞的异步操作。文章展示了如何创建第一个FastAPI程序,并返回简单的JSON响应。接着,介绍了路径参数的基本用法,包括如何定义和获取路径参数,以及如何使用枚举类预设有效参数。此外,还讲解了如何处

文章图片
#fastapi#python#人工智能
大模型评估

但是,由于我们使用了 Prompt Template 来填充用户问题,用户问题中存在的格式要求往往会被忽略,针对该问题,一个存在的解决方案是,在我们的检索 LLM 之前,增加一层 LLM 来实现指令的解析,将用户问题的格式要求和问题内容拆分开来。针对用户输入的一个 query,系统会将其转化为向量并在向量数据库中匹配最相关的文本段,然后根据我们的设定选择 3~5 个文本段落和用户的 query 一

文章图片
#人工智能
大模型开发流程

question向量化,将用户知识库内容向量化存入数据库,并且,用户每次提问也会经过Embedding,然后利用向量相关性算法(例如余弦算法)找到最匹配的几个知识库片段,将这些知识库片段作为上下文,与用户问题一起作为 Prompt 提交给 LLM 回答。这一步需要认真考虑好,这个模型应用的目标群体是谁,需求方的具体应用场景是什么,不一定每次都要一个大模型为底座。文本分割,受限与大模型使用的toke

文章图片
#语言模型
Ollama部署本地模型

首先,把启动着的ollama关闭,然后在用户环境变量中点击新建环境变量OLLAMA_MODELS的值为你希望模型所在的地址。设置后需要ollama版本需要>0.2.0你可以通过在终端中输入ollama -v来检查你的版本启动ollama服务再打开一个新的终端,在终端输入在本地模式中配置接口地址在插件的配置页配置模型地址codegeex4。

文章图片
#语言模型
Kafka

到底是什么?它在系统中充当什么角色?它主要应用哪些领域呢?Kafka 允许发布和订阅数据,从这点来看,它类似于 ActiveMQ、RabbitMQ 等框架,那有什么不同呢?可以存储和持续处理大型数据流,并保持持续性的低延迟。在这一点上,可以将其看成一个实时版的。其实是一个面向实时数据的流平台,也就是它不仅可以将现有的应用程序和数据系统连接起来,它还能用于加强这些触发相同数据流的应用。将上述三个领域

文章图片
#kafka#分布式
到底了