logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大模型技术发展概述 -(四)

6. 使用方法6.1 上下文学习6.1.1 提示形式6.1.2 示范设计6.1.3 潜在机制6.2 CoT提示6.2.1 CoT下的上下文学习6.2.2 CoT进一步讨论7. 性能评估7.1 基本评估任务7.1.1 语言生成7.1.2 知识利用7.1.3 复杂推理7.2 先进能力的评估7.3 公共基准和实证分析。

文章图片
#transformer
flask部署深度学习api接口

flask部署深度学习api接口1. flask框架中request请求1.1 GET和POST区别2. flask request 属性2.1 常用方法使用2.1.1 method:请求方法2.1.2 form:返回form的内容2.1.3 args和values:args返回请求中的参数,values返回请求中的参数和form2.1.4 cookies:cookies信息2.1.5 url、p

#flask#python
Opencv与python实现多目标跟踪 (二)- 目标跟踪

paddle onnx模型如何使用简单的逻辑目标跟踪

#目标跟踪#opencv#python
Wav2Vec 2.0:语音表示自监督学习框架

Wav2Vec 2.0是目前自动语音识别的模型之一。Wav2Vec 2.0 代表了无监督预训练技术在语音识别领域的重大进步。这些方法通过直接从原始音频中学习,无需人工标记,因此可以有效利用大量未标记的语音数据集。相比于传统的监督学习数据集通常只有大约几百小时的标记数据,这些新方法已经能够扩展到使用多达 1,000,000 小时的未标记语音进行训练。在标准基准测试上进行微调后,这种方法在低数据环境中

文章图片
python opencv图像处理(一)

图像处理入门图像都是由像素(pixel)构成的,每个像素对应一个颜色值,如下图这些小方格每一个都有自己明确的位置和被分配的色彩值,而这些小方格的颜色和位置就决定了这个图像所呈现出来的样子。像素是图像中最小的单位,每一个点阵图像包含了一定量的像素,这些像素决定图像在屏幕上所呈现的大小。图像通常包括有 二值图像 、 灰度图像 和 彩色图像二值图像二值图像就是在图像中,任何一个点非黑即白,像素要么为 2

#计算机视觉
无 sudo 权限下 Conda 安装 GCC 全攻略:虚拟环境适配、版本冲突解决与实战指南

七、进阶:GCC 与 CUDA 版本冲突解决(以 CUDA 11.2 为例)原因:conda-forge 默认版本受 Python 版本限制。场景 1:PyTorch 自定义算子编译(GCC 9 + 需求)问题:默认频道与 conda-forge 的 GCC 版本冲突。原因:未正确添加 conda-forge 频道或网络限制。方案 2:升级 CUDA 至 11.8+(需硬件支持)问题 3:GCC

#conda
python pandas时间操作函数

代码数据集:通过上图数据集,使用如下三个时间操作函数进行演示。to_datetime()DateOffset()Datetimeindex()1 pd.to_datetime()功能:将str和unicode转化为指定时间戳格式time=pd.to_datetime('2021-06-10 12:00:00',format='%Y/%m/%d %H:%M:%S')time:2021/06/10 1

#python
python opencv 图像处理进阶篇(二)

边缘检测普通边缘检测opencv提供许多边缘检测滤波函数,这些函数都会将非边缘区域转为黑色,将边缘区域转为白色或其他饱和颜色,但是这些函数容易将噪声错误识别为边缘。缓解这个问题首先对图像进行模糊处理。python实现方法如下:import cv2def edges(src,blurKsize=7,edgeKsize=5):if blurKsize >=3:src=cv2.imread(src

#计算机视觉
机器学习面试题 (一)

机器学习面试题1.机器学习项目流程详细1.1定位数学问题1.2获取数据1.3特征预处理与特征选择1.4训练模型与调优1.5模型判定1.6模型集成1.7上线测试2.有监督学习和无监督学习的区别2.1监督学习2.2无监督学习2.3常用算法3.数据归一化处理的作用4.不需要做归一化处理的算法有哪些5.介绍一下逻辑回归LR6.逻辑回归与线性回归的区别与联系7.正则化的含义7.1线性回归拟合问题7.2逻辑回

#机器学习
机器学习可解释性

在这个阶段,我们使用一些解释技术,如局部模型解释、特征重要性分析、影响力分析等,来帮助我们理解模型是如何做出预测的,哪些特征对预测结果产生了重要影响,以及模型的决策是否合理和可信。事后可解释性的优点是,即使我们在构建模型时没有考虑可解释性,通过后续的解释分析,仍然可以获得对模型的解释,从而增强对模型的理解和信任。可解释性的重要性包括满足人类的好奇心和学习需求,协调知识结构中元素之间的矛盾,检测模型

文章图片
#机器学习#人工智能
    共 178 条
  • 1
  • 2
  • 3
  • 18
  • 请选择