logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLM:LLaMA模型和微调的Alpaca模型

模型就是用的transformer的decoder,模型设计的不同点在于

文章图片
概率论:假设检验

http://blog.csdn.net/pipisorry/article/details/51182843假设检验假设检验问题分为两类,一类是参数的假设检验,一类是分布的假设检验! 设总体X的分布未知,或 X的某个分布参数 theta未知,对总体分布或分布参数 theta 提出一个假设 "H0" ,然后根据样本所提供的信息,运用统计分析的方法进行判断,从而作出是接受还是拒绝 "H0"

LLM:LLaMA模型和微调的Alpaca模型

模型就是用的transformer的decoder,模型设计的不同点在于

文章图片
GPT的前世今生:从gpt1到chatgpt的能力提升

从2017年google brain提出transformer模型,到2018年基于transformer模型open ai推出了gpt1模型以及google推出了bert模型,到2019-2021年open ai陆续推出gpt2和gpt3,再到2022-2023年推出chat-gpt和gpt4,大语言模型已经发展成了一个具有3个大分支的参天大树[在这里主要写写关于gpt的那些事。

文章图片
#人工智能
hive:创建自定义python UDF

也可以自己构建py环境:然后通过using 'python.zip/bin/python employees.py'来使用指定py环境。构建python包的方式可能有:1 如果平台支持,直接写requirement文件自动安装并构建包2 本地打包成zip再上传。Note: 打包也许可以参考一下[打包运行环境conda-pack建议重新配置一个py环境,看哪些包是必须的,减小上传py环境大小。

文章图片
#hive
PyTorch:模型推理加速之onnx

Open Neural Network Exchange(ONNX,开放神经网络交换)格式,是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移。ONNX是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型。它使得不同的人工智能框架(如Pytorch, MXNet)可以采用相同格式存储模型数据并交互。ONNX的规范及代码主要由微软,亚马逊 ,Facebook 和 IBM 等

文章图片
PyTorch:数据读取1 - Datasets和TensorDataset

PyTorch提供了一个工具函数。通过这个类,我们可以让数据变成mini-batch,且在准备mini-batch的时候可以多线程并行处理,这样可以加快准备数据的速度。Datasets就是构建这个类的实例的参数之一。DataLoader的使用参考[PyTorch:数据读取2 - Dataloaderdataset必须继承自内部要实现两个函数:一个是__lent__用来获取整个数据集的大小,一个是用

文章图片
#pytorch
深度学习:胶囊网络capsule net

这里计算有点不同,pytorch代码的实现里只有这个双线性变换参数大小,没有“还需要1152个b参数矩阵和1152个c参数矩阵”。上述函数可以直接通过probs = torch.softmax(logits, dim=2)替换,效果是一样的。torch.softmax归一化]2 priors的计算也可以替代。两部分损失函数加权和。

文章图片
集成方法:渐进梯度回归树GBRT(迭代决策树)

http://blog.csdn.net/pipisorry/article/details/60776803单决策树C4.5由于功能太简单,并且非常容易出现过拟合的现象,于是引申出了许多变种决策树,就是将单决策树进行模型组合,形成多决策树,比较典型的就是迭代决策树GBRT和随机森林RF。在最近几年的paper上,如iccv这种重量级会议,iccv 09年的里面有不少文章都是与Boosting和随

pandas小记:pandas数据输入输出

http://blog.csdn.net/pipisorry/article/details/52208727输出格式控制pandas dataframe数据全部输出,数据太多也不用省略号表示。pd.set_option('display.max_columns',None)或者with option_context('display.max_rows', 10, 'dis...

#pandas
    共 190 条
  • 1
  • 2
  • 3
  • 19
  • 请选择