logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Windows Server性能优化

在Windows Server上进行性能优化,可以通过调整系统参数和配置来提升服务器的响应速度和稳定性。

#windows#性能优化
使用 Python 微调大模型,实现特定领域模型

数据集准备:清洗数据,使用 JSON/JSONL 格式微调方法:推荐 LoRA(低成本)、全量微调(高精度)训练环境:至少 16GB GPU,建议使用 A100 进行大模型训练训练步骤加载预训练模型(LLaMA、DeepSeek 等)使用 LoRA 适配器进行参数高效训练格式化数据集训练模型并保存使用训练后的模型加载 fine-tuned 模型进行推理如果是商业应用量化模型(4-bit、8-bit

文章图片
#python#人工智能
完整的大模型微调代码(LLaMA 7B + LoRA)

这样你就可以成功微调 LLaMA 7B 并应用到特定领域了!以下是完整的 Python 代码,包括。如果有多个 GPU,可使用。

#python
Python开发:AI大模型对接开发离不开的利器

python开发,AI时代必须掌握的利器

#python
Python 实现大模型 Function Calling 示例

本示例展示了如何让大模型在接收用户请求后,智能调用自定义 API,获取接口返回数据,并生成最终回复。如果使用 OpenAI,你需要 API Key,可以从。

文章图片
#人工智能#python
大模型研究:DeepSeek三个版本(初级中级高级)资源要求说明

以下是DeepSeek - LLM 7B Chat、DeepSeek - V3、DeepSeek - LLM 6.7B 三个版本模型所需硬件资源的介绍:

#人工智能#语言模型
使用 Python 微调大模型,实现特定领域模型

数据集准备:清洗数据,使用 JSON/JSONL 格式微调方法:推荐 LoRA(低成本)、全量微调(高精度)训练环境:至少 16GB GPU,建议使用 A100 进行大模型训练训练步骤加载预训练模型(LLaMA、DeepSeek 等)使用 LoRA 适配器进行参数高效训练格式化数据集训练模型并保存使用训练后的模型加载 fine-tuned 模型进行推理如果是商业应用量化模型(4-bit、8-bit

文章图片
#python#人工智能
完整的大模型微调代码(LLaMA 7B + LoRA)

这样你就可以成功微调 LLaMA 7B 并应用到特定领域了!以下是完整的 Python 代码,包括。如果有多个 GPU,可使用。

#python
解决Max retries exceeded with url的问题

解决Max retries exceeded with url的问题requests.exceptions.ConnectionError: HTTPSConnectionPool(host='www.baidu.com', port=443): Max retries exceeded with url:(Caused by <class 'socket.gaierror'>:pyt

#python
高性能架构-数据库分库分表-mycat与shardingsphere比较

mycat与shardingsphere比较文章目录mycat与shardingsphere比较前言一、mycat优缺点1.优点2.缺点二、shardingshpere优缺点1.优点2.缺点总结前言数据库分库分表中间件,常用的就是mycat和shardingsphere了。前面分别介绍了shardingsphere和mycat的用法和特性,今天来比较一下两个中间件,方便我们在项目中决策使用哪一个。

#数据库#架构
    共 18 条
  • 1
  • 2
  • 请选择