logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习工业应用: 缺陷检测

点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达本文转自|AI算法与图像处理1.应用背景随着机器视觉,工业自动化的快速发展,工业4.0的概念已经被提上...

#算法#大数据#编程语言 +2
目标检测和感受野的总结和想法

点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达本文转自|AI算法与图像处理1.概念经典的目标检测如Faster R-CNN, YOLOv3等都用到了Ancho...

#算法#大数据#编程语言 +2
腾讯 AI IDE 来了!从想法干到上线,全程0拉扯

这个 case 是做一个宝可梦图鉴,只输入了一句话:“做个 pokedex”,直接给出了可交互原型图、实时预览,甚至部署上线也一口气完成,从一个想法直接干到上线,太丝滑了!文字描述的再详细,需求评审会开的再久,到了设计师和开发眼里,可能变成完全不同的东西。CodeBuddy IDE不是给某一个岗位用的工具,做产品、设计、研发,测试的都能用,再准确点讲,是利好独立开发者的一个产品。今天下午,我坐在鹅

#人工智能
手把手教你驯服DeepSeek-R1!部署+测试+性能优化万字全攻略

点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达作者丨Mr.Felix编辑丨极市平台极市导读本文详细介绍了如何部署和测试DeepSeek-R1模型,涵盖了从Ollama到vLLM的多种推理框架的安装与配置,并提供了性能测试结果和优化建议,帮助用户在多机多卡环境下高效运行大模型。一、Ollama1、直接运行:curl -fsSL https://ollama.com/ins..

为什么大模型要用GPU训练?CPU不行吗?

所以GPU擅长的是:简单任务,大规模并行执行。假设 A 和 B 都是 1000 × 1000 的矩阵,用CPU(8核)需要计算10亿次乘法,8个核心并行,每个核心算1.25亿次,假设每核心每秒算1亿次,需要1.25秒。但用GPU(6912核)的话,同样10亿次乘法,6912个核心并行,每个核心算14万次,假设每核心每秒算1000万次,只需要0.014秒。比如一个简单的全连接层,计算公式是 Y =

一文了解傅立叶变换在机器学习的应用

它在各种ML应用中分析和提取频率信息的能力是无价的,包括时间序列分析、自然语言处理、特征工程以及增强深度学习模型。随着机器学习继续发展和扩展其视野,傅里叶变换仍然是一个强大的工具,使研究人员和从业者能够解锁更深层次的洞察力并开发更有效的算法。例如,在音频处理中,傅里叶变换帮助识别音频信号中存在各种频率,使得可以进行语音识别、音乐分类和降噪等任务。在图像处理中,可以通过改变图像的频率成分来使用傅里叶

#机器学习#人工智能
OpenCV与机器视觉

我一般喜欢称之为阈值分割,这是一个很常用的处理方式,大致思路是比如8U类型的图像,大于某个阈值T我就设定为0,小于T的保持不变,这样很亮的地方就被黑色遮盖住了,稍微灰暗的地方就会凸显出来,所以对于图像的二值化处理可以不仅限于单通道的灰度图像,多通道的图像也同样可以,得到的效果也显然不一样。这里得先引入一个概念就是图像直方图,比如8U的图像,矩阵中所有值的范围都在[0,255],然后将0~255当作

#opencv#人工智能#计算机视觉
前沿论文 Arxiv'24 | AMI-Net: 用于异常检测与定位的自适应掩码修复网络

点击下方“PaperEveryday”,每天获得顶刊论文解读点击加入论文投稿、写作、阅读分享交流群完整版论文中文解读PDF请加入知识星球获取论文信息题目:AMI-Net: Adaptive Mask Inpainting Network for Industrial Anomaly Detection and LocalizationAMI-Net: 工业异常检测与定位的自适应掩码修复网络作者:W

#网络
DeepSeek装进VSCode,编程非常丝滑!

点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达话说,如果把最近爆火的 DeepSeek 装进 VSCode,帮我们写代码,会有多爽?VSCode 里的插件千千万,只需要找到 Roo Code 就能实现。作为一款强大的 AI 编程助手,Roo Code 通过其全面的功能和灵活的定制能力,为开发者提供了全新的开发体验,可以轻松接入各大 AI 巨头的 API,无论是 OpenAI

#vscode#ide#编辑器
大模型架构变天!Mamba架构实现推理性能超Gemma3-27B!推理模型开始迈入「无注意力」时代

换言之,现有 dLLM 尚未摆脱注意力机制的束缚。然而,这也与 Transformer 架构天然矛盾:随着生成长度的增长,Attention 模块需要不断堆积 Key-Value Cache,带来线性增长的显存消耗与二次方增长的计算复杂度,直接限制了推理深度、解码速度与部署成本。PromptCoT 的第一版在 DeepSeek-R1-Distill-Qwen-1.5B, DeepSeek-R1-D

    共 974 条
  • 1
  • 2
  • 3
  • 98
  • 请选择