logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

SpringBoot + MinIO 轻松构建对象存储服务,支持私有化部署!

在实际的软件系统开发过程中,经常避免不了需要用到文件存储服务。例如,对于小型的网站系统,通常会将文件存储服务和网站系统部署在一台服务器中,以实现低成本的资源投入,如果访问量不大,基本上没什么问题。当访问量逐渐升高,此时网站的文件资源读取越来越频繁,单台服务器可能难以承载较大的请求量,这个时候网站可能会出现打不开,甚至系统异常等问题。当出现这个场景,很容易第一时间想到将文件采用云存储服务来解决。

文章图片
#spring boot#人工智能#自然语言处理
10 个令人惊叹的 Python 自动化脚本

将你的代码与编码标准进行比较,并找出逻辑错误。Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。这个自动化脚本可以监控你复制的所有内容,将复制的每个文本无缝地存储在一个时尚的图形界面中,这样你就不必在无尽的标签页中搜索,也不会丢失一些有价值的信息。这个脚本最棒的地方在于它是一个网络

文章图片
#python#开发语言#数据分析
AI落地好项目,一张照片秒生成个人写真

只需要输入1张照片,无需训练,就能秒级生成个人写真?你没听错,就是这个神奇的AI工具–InstantID。众所周知,AI图生图面临的挑战之一是无法保持较高的角色一致性,尤其是人脸保真度。InstantID通过强语义和弱空间条件设计了一个新颖的身份识别网络,将面部和地标图像与文本提示相结合,引导图像生成。在只有一张参考 ID 图像的情况下,InstantID 的目标是在确保高保真的前提下,从一张参考

文章图片
#人工智能#科技
简单几步微调Llama 3大模型,小白轻松上手

这是面向小白用户的一个超级简单的微调大模型示例,通过这个例子将得到一个速度翻倍,并可以包含自己业务知识数据的微调后llama3模型,可用于本地部署构建私有化的AI智能体。very 的 nice首先请准备好google账号和网络环境,这个示例基于goolge colab的免费算力完成。使用浏览器打开上方链接将点击copy to Drive复制笔记到自己账号下的网盘,点击之后弹出新窗口我们就在这个弹出

文章图片
#人工智能
LLaMA-7B微调记录

5.梯度更新:在微调过程中,计算损失函数关于映射矩阵A和逆映射矩阵B的梯度,并使⽤优化算法,如Adam、SGD对A和B进⾏更新,注意,在更新过程中,原始参数矩阵W保持不变,即训练的时候固定原始LLM的参数,只训练A和B;Step1:通过模型生成新的指令,根据人工设计的175个任务,每个任务都有对应的(指令,输入,输出)或(指令,输出);使用模型生成新的指令;1.选择目标层:首先,在预训练神经网络模

文章图片
#人工智能#语言模型#自然语言处理 +1
大模型应用:一文搞懂Fine-tuning,模型微调有啥好处,从理论到实操

我们前面几篇博文中出现的大模型,都是通用的大模型。但在更专业的领域,需要更专业的模型,这就需要用到模型微调的能力。从NLP范式发展的趋势来看,prompt+模型的方式已经成为主流,已经很成熟了,在进行模型微调之前最好确信自己需要这样做。

文章图片
#人工智能
微调神器LLaMA-Factory官方保姆级教程来了,从环境搭建到模型训练评估全覆盖

数据集的格式要求在不同的阶段是不同的,本教程以sft阶段的数据集需求,将以系统自带的identity数据集和将自定义的一个商品文案生成数据集为例,介绍数据集的使用。更多详情可以在https://github.com/hiyouga/LLaMA-Factory/blob/main/data/README_zh.md 中找到相关解释。系统目前支持 alpaca 和sharegpt两种数据格式,以alp

文章图片
#人工智能
使用 HuggingFace 中的 Trainer 进行 BERT 模型微调,太方便了!!!

本文介绍了如何使用HuggingFace中的Trainer对BERT模型微调。可以看到,使用Trainer进行模型微调,代码较为简洁,且支持功能丰富,是理想的模型训练方式。​。

#bert#人工智能#自然语言处理
RAG实操教程langchain+Milvus向量数据库创建你的本地知识库(二)

本文主要是 Milvus 向量数据实战总结。• LLM 痛点以及解决方案• RAG 是什么,为什么选用RAG。•langchain文档加载器,chat model• 文档拆分的注意点,chat model区别。• chat 示例代码。​。

文章图片
#milvus#数据库#人工智能
将 Vision Transformer 用于医学图像的语义分割

我在我的分割系统中使用了Hugging Face的Swin Transformer V2作为编码器。Swin Transformer(分层视觉Transformer,使用偏移窗口)包含4个阶段的编码器处理嵌入补丁。最初,补丁大小为4x4像素。在每个编码器阶段,通过合并来自前一个阶段较小补丁的嵌入,补丁分辨率会增加两倍。这意味着图像的空间分辨率,以补丁表示,每个后续阶段会减少两倍。

文章图片
#transformer#深度学习#人工智能 +1
    共 15 条
  • 1
  • 2
  • 请选择