logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

理解CNN、DNN、RNN(递归神经网络以及循环神经网络)以及LSTM网络结构笔记

一文理解CNN、DNN、RNN 内部网络结构区别:http://www.36dsj.com/archives/65643理解 LSTM 网络:http://www.jianshu.com/p/9dc9f41f0b29RNN以及LSTM的介绍和公式梳理:http://blog.csdn.net/Dark_Scope/article/details/47056361深度学习解决局部极值和梯

#神经网络#cnn#dnn +1
docker部署,启动失败 OCI runtime create failed: container_linux.go:348:

docker run hello-world出现一下问题,docker: Error response from daemon: OCI runtime create failed: container_linux.go:348:starting container process caused "process_linux.go:297:copying bootstrap data to pip

#docker#linux
基于人类反馈的强化学习(RLHF)

例如,在InstructGPT项目中,使用PPO算法训练LM时,会计算LM当前输出与初始输出之间的KL散度作为惩罚项。例如,InstructGPT项目中,标注人员会创造性地编写输入提示(比如,“给出五个重燃职业激情的建议”)和对应的输出,覆盖了开放式问答、创意思考、对话和文本重写等多种创造性任务。值得注意的是,在某些情况下,这一步骤可能不是必需的。以InstructGPT为例,标注人员会将模型生成

文章图片
#人工智能
强化学习的优化策略PPO和DPO详解并分析异同

总结来说,PPO和DPO在算法框架和目标函数上有共同之处,但在实现方式、并行化程度以及适用的计算环境上存在差异,DPO特别适用于需要大规模并行处理的场景。总结来说,PPO专注于通过剪切概率比率来稳定策略更新,而DPO在此基础上引入分布式计算,以提高数据收集和处理的效率,加快学习速度。

文章图片
#人工智能
退火在模型训练中的意义

在深度学习中,学习率退火是比较常见的,它涉及到在训练过程中逐渐减少学习率。在模型训练中,逐渐减少学习率可以帮助模型在训练早期快速收敛,在训练后期通过更小的步长精细调整,避免过度拟合,从而找到损失函数的全局最优或较好的局部最优解。这可能是因为在退火阶段,模型的学习率较低,能够更精细地适应高质量数据的特点,而且避免了小数据集在长期预训练中的过度使用。通过在退火阶段混合使用高质量数据和通用数据,可以有效

#pytorch#人工智能
nvidia-smi 可以显示gpu占用量和使用率,但不显示PID等详细进程信息的解决方法

使用fuser命令可以查看哪些进程正在使用指定的文件或目录。在Linux系统中,GPU设备通常被映射到/dev/nvidia*文件中,因此可以使用fuser命令来查看哪些进程正在使用GPU设备。在上述示例中,可以看到/dev/nvidia0设备正在被PID为1234的python进程使用,/dev/nvidia1设备正在被PID为5678的tensorflow进程使用。执行上述命令后,会列出所有正

文章图片
#linux#运维#服务器
OpenClaw 记忆系统设计学习笔记

OpenClaw记忆系统采用本地优先的双层存储架构,以Markdown文件为原始真相层,SQLite为派生索引层。系统分为短期记忆(内存缓存)和长期记忆(Markdown持久化),遵循本地优先原则,不上传云端。社区优化后采用分层架构,包括身份层、活动上下文和档案层,显著降低Token消耗。支持多种向量数据库后端,并提供插件优化记忆管理。核心设计强调透明可编辑,实现从prompt到workspace

#人工智能
qwen3-vl中的架构层面三个创新点:MRoPE-interleave/deepstack/文本时间戳对齐

Qwen3-VL是阿里推出的多模态大模型,通过三大创新优化视觉-文本融合:1)MRoPE-Interleave采用交替编码解决频率分布问题;2)DeepStack机制分阶段多层插入视觉token,避免信息丢失;3)T-RoPE实现帧级时间对齐。这些技术使视觉信息能持续参与深度推理,显著提升多模态理解能力,同时保持参数高效性。相关原理详见《DeepStack》论文及官方技术文档。

文章图片
多模态大模型intern-vl 1.5 论文解读:How Far Are We to GPT-4V?

大语言模型(LLMs)在推动通用人工智能(AGI)系统方面发挥了重要作用,展现了在处理开放世界语言任务中的非凡能力。借助LLMs的进步,多模态大语言模型(MLLMs)[5, 18, 23, 62, 63, 84, 92, 116, 142]取得了显著进展,促进了复杂的视觉语言对话和交互,弥合了文本信息和视觉信息之间的差距。尽管取得了这些成就,开源模型与专有商业模型之间仍然存在明显的能力差距,例如G

文章图片
#人工智能
多语言多模态(融合图像和文本)大模型-mPLUG-Owl论文解读

论文名称:mPLUG-Owl: Modularization Empowers Large Language Models with Multimodalitygithub地址:https://github.com/X-PLUG/mPLUG-Owl。

文章图片
#tensorflow
    共 95 条
  • 1
  • 2
  • 3
  • 10
  • 请选择