logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

将conda环境打包成docker步骤

4步解决将conda环境打包成一个docker镜像

文章图片
#conda#docker#容器
CUDA各版本与驱动的对应关系以及tensorflow 各个版本与python\CUDA\cudnn版本对应关系

下表来源地址:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html#title-new-cuda-tools下表来源地址:https://tensorflow.google.cn/install/source

使用json.dump()与json.dumps()避免一行显示!

json.dump() 与 json.dumps()使用方法如下:# -*- coding:utf-8 -*-# ! ./usr/bin/env pythonimport jsonjsonpath = 'test.json'data = {"carDark": {"name": "CarDark","image_files": ["0001...

#json
tensorflow中的ops(或者说op)的理解

转自:https://www.cnblogs.com/tsiangleo/p/6145112.html本文是在阅读官方文档后的一些个人理解。官方文档地址:https://www.tensorflow.org/versions/r0.12/get_started/basic_usage.html#basic-usage关于tensor和op的理解Nodes in the ...

#tensorflow
【基础知识】DPO(Direct Preference Optimization)的原理以及公式是怎样的?

DPO方法的关键在于直接利用人类偏好数据来优化语言模型,从而避免了RLHF流程中奖励模型拟合和RL优化的复杂性和不稳定性。这种方法简化了偏好学习的过程,降低了实现的复杂性,并有可能提高模型根据人类偏好生成输出的效率和准确性。

【基础知识】DPO(Direct Preference Optimization)的原理以及公式是怎样的?

DPO方法的关键在于直接利用人类偏好数据来优化语言模型,从而避免了RLHF流程中奖励模型拟合和RL优化的复杂性和不稳定性。这种方法简化了偏好学习的过程,降低了实现的复杂性,并有可能提高模型根据人类偏好生成输出的效率和准确性。

github 使用教程-入门+图解github

github 安装以及几个常用的命令图解github使用原理,错误操作怎么办?如何建立分支,如何管理,等等基本的答疑

#git#github
【Paper Reading】6.RLHF-V 提出用RLHF的1.4k的数据微调显著降低MLLM的虚幻问题

论文提出了RLHF-V,一种旨在通过细粒度人类反馈对多模态大型语言模型(MLLMs)行为进行校准的框架,以解决模型产生的幻觉问题,即生成的文本与关联图片不符。通过从细粒度的人类反馈中学习,显著减少基础MLLM的幻觉率,提高了模型的可信度和实用性。RLHF-V提供了一种有效的方法来解决MLLMs中的幻觉问题,通过精细的人类反馈和新颖的优化技术,提高了模型在多模态任务中的可信度和实用性。RLHF-V通

文章图片
#虚幻#人工智能
最大堆(创建、删除、插入和堆排序)图文详解

原文地址我有一个不成熟的建议:老老实实花2个小时把这篇文章仔细看完,关于堆的各种操作一目了然了。关于最大堆什么是最大堆和最小堆?最大(小)堆是指在树中,存在一个结点而且该结点有儿子结点,该结点的data域值都不小于(大于)其儿子结点的data域值,并且它是一个完全二叉树(不是满二叉树)。注意区分选择树,因为选择树(selection tree)概念和最小堆有些类似,他们都有一个特点是“树中的根结点

【论文翻译】Combining information from multi-stream features using deep neural network in speech recogniti

父条目:Combining information from multi-stream features using deep neural network in speech recognition基于深度神经网络的多流特征信息融合技术在语音识别中的应用摘要:本文的主题是在混合人工神经网络(ANN) -隐马尔可夫模型(HMM)框架下集成多流特征。研究了多流组合中对数滤波器组和...

    共 13 条
  • 1
  • 2
  • 请选择