
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
LLaMA 是一种用于自然语言处理的深度学习模型,它的全称是anguagedaptiveulti-task它的主要特点是能够根据不同的任务自适应地调整模型结构和参数,从而提高模型的泛化能力和效率。

1、留出法(hold out):将数据集 D 划分为训练集 S 和测试集 T2、留一法:留一法是留出法的特例,即每次测试集 T 只留一个数据,剩下的作为训练集 S备注:在分类任务中,在划分数据集时,训练集 S 和测试集 T 中的类别比例要跟数据集 D 中的类别比例相似。备注的疑问:那么在划分样本类别不均衡的样本时,是否仍要遵守这样的准则??3、K折交叉验证(k-fold cross validat
旋转位置编码(RoPE)是从Sinusoidal(正弦曲线)位置编码改进而来的,有助于理解RoPE
代码来源:【机器学习实验】scikit-learn的主要模块和基本使用# coding:utf-8# creat_time = "2016-05-26"# 加载数据(Data Loading)import numpy as npimport urllib# 从 UCI 机器学习数据仓库中下载数据url = "http://archive.ics.uci.edu/ml/machi
1、朴素贝叶斯分类算法思路:通过计算在已知样本特征 X 下,该样本被分类为 CiC_i 类的概率,并取取得最大的概率的类为该样本所属分类假设:假设每个特征相互独立公式:P(Ci|X)=P(Ci)∏nk=1P(xk|Ci)∑ni=1P(Ci)P(X|Ci)(1) P(Ci|X) = \frac{P(C_i)\prod_{k=1}^{n}P(x_k|C_i) }{\sum_{i=1}^{n}P(C_i
以下内容主要来自:数据挖掘工程师笔试及答案整理1、欠拟合和过拟合的原因有哪些?如何避免?2、决策树的父节点和子节点的熵的大小?请解释原因?3、衡量分类算法的准确率、召回率、F1 值(写公式)4、给你两个向量 a, ba)计算两者的欧氏距离b) 计算两者的曼哈顿距离参考资料:距离计算方法总结
1、百度无人驾驶汽车:http://roadhackers.baidu.com/
代码部分参考:2-linear-regression# coding:utf-8__author__ = "LCG22_2016_05_30"import matplotlib.pyplot as pltfrom matplotlib.font_manager import FontProperties# font = FontProperties(fname=r"C:\Users
在我看来,只有数据量很大且数据维度全的数据才能够称得上是大数据。 为什么数据量必须得要大? 这是因为如果我们使用局部样本来代替整体的时候,可能会由于局部样本不能够完全反映整体,从而导致我们对整体的真实情况的认知造成偏差。例如当我们以贴吧和网易的用户素质来作为全体网民的整体素质,显然会造成我们对整体网民素质的认知要远比真实的素质要低,而如果用知乎来代替整体,则也会
代码:#! /usr/bin/env python# coding: utf-8from math import logimport operatordef calcShannonEnt(dataSet):numEntries = len(dataSet)labelCounts = {}for featVec in dataSet:currentLabel = f







