logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图像相似性搜索算法比较 ——对比EfficientNet、 ViT、 VINO 、 CLIP 、 BLIP2算法优劣与场景测试

EfficientNet(CNN 架构):不擅长捕捉超出像素信息的语义。:比 CNN 更好,但仍然专注于像素信息而不是图像的含义。DINO-v2:可以捕捉图像的语义,并且倾向于专注于前景物体。CLIP:可以捕捉语义,但有时可能会受到可以从图像中读取的语言信息的强烈影响。BLIP-2:可以捕捉语义,是其他模型中最优越的结果。综上所述,在进行图像相似性搜索时,应该优先选择 DINO-v2 或 BLIP

文章图片
#计算机视觉#深度学习
MARKLLM——LLM 水印开源工具包

在本文中,我们讨论了 MarkLLM,这是一个开源的水印工具包,它提供了一个可扩展且统一的框架来实现 LLM 水印算法,同时提供了用户友好的界面以确保易于使用和访问。此外,MarkLLM 框架支持这些框架机制的自动可视化,从而增强了这些模型的可理解性。MarkLLM 框架提供了一套全面的 12 种工具,涵盖三个视角,以及两个用于评估其性能的自动评估流程。

文章图片
#transformer#人工智能#语言模型
DeepSeek-R1私有化部署——基于FastApi实现DeepSeek-R1-Distill-Qwen服务器部署与流式输出

上个实现了在命令行终端下DeepSeek-R1-Distill-Qwen的模型部署与流式输出,但在日常的生产环境中,基本上是会把模型推理部署在一个服务器上,然后使用客户端调用api接口实现对话。API 是软件间相互传输数据的接口。它在生活中十分常见,比如博物馆订票系统中就使用了 API. 当你在手机应用上订票时,手机实际上发送了一个 HTTP 请求给远程服务器。远程服务器解析该请求。当确认所有字段

文章图片
#深度学习#fastapi#服务器 +1
Gradio详细文档——快速部署可视化人工智能应用

Gradio是一个开源的Python库,用于快速构建机器学习和数据科学演示的应用。它可以帮助你快速创建一个简单漂亮的用户界面,以便向客户、合作者、用户或学生展示你的机器学习模型。

文章图片
#python#深度学习
计算机视觉——基于 Yolov8 目标检测与 OpenCV 光流实现目标追踪

目标检测(Object Detection)和目标追踪(Object Tracking)是计算机视觉中的两个关键技术,它们在多种实际应用场景中发挥着重要作用。指的是在静态图像或视频帧中识别出特定类别的目标对象,并通常以矩形框(bounding box)的形式标出其位置。目标检测算法通常只处理单个图像帧,其任务是检测出该帧中所有感兴趣的对象。则涉及对视频中连续帧里的目标对象进行识别和跟踪。

文章图片
#计算机视觉#深度学习#目标检测
计算机视觉——深入理解卷积神经网络与使用卷积神经网络创建图像分类算法

卷积神经网络(Convolutional Neural Networks,简称 CNNs)是一种深度学习架构,专门用于处理具有网格结构的数据,如图像、视频等。它们在计算机视觉领域取得了巨大成功,成为图像分类、目标检测、图像分割等任务的核心技术。CNNs 的核心思想是利用卷积操作(convolution)来提取数据中的局部特征,并通过层次化的结构逐步学习更复杂的模式。

文章图片
#深度学习#计算机视觉#神经网络
计算机视觉——为什么 mAP 是目标检测的黄金标准

在目标检测领域,有一个指标被广泛认为是衡量模型性能的“黄金标准”,它就是。如果你曾经接触过目标检测模型(如 YOLO、Faster R-CNN 或 SSD),那么你一定听说过 mAP。但你是否真正理解 mAP 背后的含义?为什么研究人员如此信赖它?mAP@0.5 和 mAP@0.95 又有什么区别?本文将为你揭开 mAP 的神秘面纱。

文章图片
#计算机视觉#目标检测#深度学习 +2
计算机视觉——传统数字图像处理中图像去噪原理与代码实现细节

在现实世界中捕获的图像常常受到噪声的影响,这些噪声可能来源于环境因素、信号不稳定、相机传感器问题、照明条件差、电损失等多种因素。为了进一步处理这些图像并对结果进行准确解释,拥有尽可能低噪声的图像至关重要。图像去噪是数字图像处理中的一个关键过程,其目标是通过减少噪声来提高图像的视觉质量。这一领域具有挑战性,因为它不仅需要理解图像中的噪声类型,还需要应用能够有效减少噪声并提供更准确原始图像表示的去噪方

文章图片
#计算机视觉#opencv#图像处理
DeepSeek-R1私有化部署——DeepSeek-R1模型微调原理与代码实现

在微调大语言模型(LLM)的过程中,开发者常常会面临一系列技术挑战。显存不足?如果显存资源有限,可以采用 LoRA(低秩适配)技术结合 4-bit 量化,显著降低显存占用,同时保持模型性能。此外,云端训练也是一个不错的选择,借助强大的云服务资源,可以轻松应对大规模模型的训练需求。数据集太小?当数据集规模较小时,模型容易出现过拟合现象,导致无法泛化到新的数据。此时,可以运用数据增强技术,如同义词替换

文章图片
#深度学习#LoRA#RAG
DeepSeek-R1私有化部署——基于 DeepSeek R1 和 Ollama 构建本地知识库(RAG)系统

随着人工智能(AI)、自然语言处理(NLP)、大语言模型(LLM)技术的不断进步,传统的 LLM 虽然强大,但存在知识有限、准确性不足等问题。而检索增强生成(RAG)的出现,大大弥补了 LLM 的不足,有效克服了这些缺点。

文章图片
#深度学习#RAG#人工智能
    共 21 条
  • 1
  • 2
  • 3
  • 请选择