简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
linux 杀死所有 python进程的命令
本以为这是个非常简单的问题,没想到也会出错。如果我们想实现: [1,2,3]+[4,5,6]=[5,7,9]该怎么做呢?我自然想到直接相加,但这样是错误的:print([1,2,3]+[4,5,6])# [1, 2, 3, 4, 5, 6]可以发现,两个列表直接相加相当于 append,而不是我们想要的对应位置元素相加。要想实现对应位置元素相加,应该这样写:a = [1, 2, 3]b = [4,
Pytorch DataLoader 函数,提高模型训练时的 GPU利用率 Volatile Gpu-Util
这里所指的训练集是指保存了每一帧的跟踪结果的训练集,也就是说,每一次进行model update的时候,要用在这一帧之前所有跟踪到的样本。那么随着视频越来越长,这个训练集就会越来越大。因为当目标被遮挡或者丢失的时候,比较新的这些样本本身就是错的,那么模型很容易有model drift,就是被背景或者错误的目标污染,导致跟踪结果出错。如下图所示,Baseline是传统的训练集,每更新一帧就加一个进来
Chain of Thought (CoT) 系列论文:大模型思维链,提升 LLM 的推理能力
介绍 CPU 和 GPU 的架构的联系和区别,CUDA 并行计算的简单介绍
Paddle OCR 论文《PP-OCR: A Practical Ultra Lightweight OCR System》
关于 python 迭代器的基本介绍和使用可以看我之前写的博客:Python迭代器的创建和使用:iter()和next()方法,迭代器长度的获取一、从一个简单的列表引入迭代器将一个列表转换为迭代器(用 iter 方法),并逐个元素打印。print(list(range(5)))# [0, 1, 2, 3, 4]myiter = iter(list(range(5)))# 用iter方法将list转
FusionDiff:第一个基于扩散模型实现的多聚焦图像融合的论文。FusionDiff: Multi-focus image fusion using denoising diffusion probabilistic models
LLM推理入门实践:基于 Hugging Face Transformers 和 Qwen2模型 进行文本问答