logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

opencv 图像噪点消除 图像梯度处理

首先,噪点是图像中随机出现的亮度或颜色异常像素(如“雪花点”“颗粒感”),主要由传感器噪声、低光照、压缩失真等引起,表现为图像中随机的亮度,也可以理解为有那么一些点的像素值与周围的像素值格格不入,常见的噪声类型包括高斯噪声和椒盐噪声。这里强调一下,滤波并不代表模糊噪点,滤波是一种技术,不同的滤波会产生不同的效果,比如低通滤波器是模糊,高通滤波器是锐化,所以模糊只是滤波技术产生的一种效果。前面两种滤

文章图片
#计算机视觉#人工智能#图像处理 +1
图片镜像旋转、图像缩放、图像矫正

与图像旋转里的缩放的原理一样,图像缩放的原理也是根据需要将原图像的像素数量增加或减少,并通过插值算法来计算新像素的像素值,图像缩放提供了五种插值方法,分别是最近邻插值、双线性插值、像素区域插值、立方插值、Lanczos插值,与图像旋转实验中的五个插值方法相同,这里就不再过多介绍,详细可看我之前写的插值方法。在OpenCV中,图片的镜像旋转是以图像的中心为原点进行镜像翻转的,也就是说,水平翻转时,图

文章图片
#opencv#计算机视觉#人工智能
大模型 langchain-组件学习(中)

这是最简单直接的记忆方式,也是最传统的,它将所有过去的对话消息原封不动地保存在一个缓冲区(Buffer)里,优点是信息完整,不会丢失任何细节;Langchain 中,Index 检索是从“聊天”迈向“知识系统/RAG/Agent”的分水岭,它是将非结构化文档转化为可检索知识的组件体系,它的目标是解决一个问题:如何让大模型“查资料”,而不是“瞎编”,Index 组件就通过向量化+相似度检索,让 LL

文章图片
#人工智能#学习
大模型 langchain-组件学习(上)

LangChain 是一个用于开发由大型语言模型 (LLM) 驱动的应用程序的。它并非一个单独的软件或服务,而是一个开源 Python(和 JavaScript)库,其核心价值在于简化构建复杂 LLM 应用的过程,让开发者能够将 LLM 与外部数据源和计算工具连接起来,创造出功能强大、可交互的智能应用。而在langchain中,组件是关键功能,在构建大模型时会运用各种功能(比如调用模型、管理提示、

文章图片
#学习#人工智能
deepseek1.5B-模型训练(矩池云)

我一般是配置的这个环境加上开启 VNC(首先要下载 VNC软件),然后通过给出的 VNC 的账号密码打开VNC后进行连接,这时候点开桌面的终端Terminal,因为矩池云的网盘默认根目录是 /mnt,所以首先要 cd /mnt 到根目录下,然后可以 ls,查看是否显示刚刚上传的 deepseek_train 文件夹,有的话就 cd 进入,没有那就要排查一下原因了。顺便说一下,在终端的时候如果文件有

文章图片
#人工智能
Langchain+Neo4j+Agent 的结合案例-电商销售

苯人这次的项目如标题所示,是将 Langchain+Neo4j+Agent 结合的案例,关于电商销售的。随着电商行业的不断发展,平台积累了庞大的用户、商品与交易数据。如何从这些复杂数据中快速挖掘有价值的信息,满足用户个性化的消费需求,已经成为一个重要课题。传统的数据库查询方式操作复杂,用户往往需要专业知识才能获取所需信息,缺乏灵活性与智能化。本项目基于,结合大语言模型的自然语言处理能力,构建了一个

文章图片
#neo4j#人工智能
大模型 Transformer模型(下)

六、Encoder 编码器编码器模块是 Transformer 的输入处理核心,它由词嵌入层、位置编码层以及多个相同结构的编码器子层组成,其作用是词嵌入层负责将离散的 token 映射为连续的向量表示;位置编码用于引入位置信息,使得模型在没有循环结构的前提下仍然能捕捉序列顺序。每个编码器子层内部包括一个多头自注意力机制(用于提取序列中不同位置之间的依赖关系)和一个前馈神经网络(用于增强每个位置的表

文章图片
#transformer#人工智能
大模型 Transformer模型(上)

这篇主要讲一下Transformer 框架搭建流程,苯人总结了一套:Dataprocess 数据处理 --》Position位置编码 --》Mask掩码 --》MHA多头注意力机制 --》FFN前馈神经网络 --》Encoder编码器 --》Decoder解码器 --》Transformer 模型构建 --》模型训练 --》模型预测。

文章图片
#transformer#深度学习#人工智能
到底了