logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Linux---网络传输命令(ping、wget、curl)

执行 ping 指令会使用 ICMP 传输协议,发出要求回应的信息,若远端主机的网络功能没有问题,就会回应该信息,因而得知该主机运作正常。语法:ping [参数] IP名或主机名。

文章图片
#网络#linux#服务器
python---pyecharts绘制地图

【代码】python---pyecharts绘制地图。

文章图片
#python#信息可视化#pycharm +2
机器学习---无偏估计

假设这个是⼀些样本的集合X = x1, x2, x3, ..., xn,我们根据样本估计整体的数学期望(平均值)。所以无偏估计,所估计的别⼈口袋每张钱的数学期望(平均值)= 10 ∗ 1/2 + 100 ∗ 1/2。⼀张100 元,然后你想估计下他口袋里的剩下的钱平均下来每张多少钱(估计平均值)。哪怕拿到了两张十块钱,我还是认为十块钱出现的概率和100元的概率⼀样。每个样本出现概率不⼀样,概率大的

文章图片
#机器学习#人工智能#概率论
机器学习---随机森林宫颈癌分类

ss.fit_transform(x_train, y_train):对训练数据进行归一化。pca.fit_transform(x_train):对训练数据进行 PCA 降维。",np.NaN):将 "?降维(PCA):pca = PCA(n_components=2):创建 PCA 实例,设置为 2 维。模型评估:score = forest.score(x_test, y_test):在测试集

文章图片
#机器学习#随机森林#分类
机器学习---降维与度量学习

通过某种映射到欧氏空间的一个点,并利用欧氏空间的良好性质在其中进行学习器的训练。支,通过有标记样本或结合未标记样本,寻找一个能够在给定指标下最恰当刻画样本相似度的距离。量学习的主要思想是,利用标注数据学习一个度量矩阵,对样本进行映射变换,使得在变换后的度。量空间中,同类样本之间的距离变小,异类样本之间的距离变大,或使得相似的样本距离变小,不。利用携带标注信息的训练数据进行距离度量学习,能更好的降低

文章图片
#机器学习#学习#人工智能
python---字典定义、常用方法、特点;数据容器的对比;数据容器的通用操作;字符串大小比较

python---字典定义、常用方法、特点;数据容器的对比;数据容器的通用操作;字符串大小比较

文章图片
#python#pycharm#开发语言
知识存储概述

从存储结构划分,知识存储分为基于表结构的存储和基于图结构的存储,如下图所示。知识存储方式。

文章图片
#知识图谱#语言模型#机器学习 +2
Python---pyspark的安装,执行入口,编程模型、RDD对象、数据输入

迭代计算)后续对数据进行各类计算,都是基于RDD。7. 数据输入:通过PySpark代码加载数据。数据输入:通过SparkContext。或使用国内代理镜像网站(清华大学源)的数据输出相关成员方法,将结果输出到。的parallelize成员方法,将。数据计算:读取到的数据转换为RDD。数据计算的方法,返回值依旧是RDD。、元组、字典、文本文件、数据库等。对象称之为分布式弹性数据集,是。通过Spar

文章图片
#python#开发语言#pycharm +1
LLM面试12

本文整理了AI算法岗位面试中的核心知识点,涵盖机器学习、深度学习框架、模型优化和编程算法等内容。关键技术点包括:SVM核函数特性(高斯核可映射无穷维)、XGBoost原理(GBDT优化版,二阶泰勒展开)、CNN与Transformer架构差异(局部特征vs全局注意力)、TensorFlow与PyTorch对比(静态图vs动态图)、模型压缩方法(知识蒸馏、量化、剪枝)以及评估指标(PR AUC与RO

文章图片
#面试#职场和发展
知识建模概述

知识建模核心解决了采用什么样的形式高效组织和表达知识的问题,偏向于知识建模的方法论,在未来的发展趋势中,将会解决知识建模的规范化和标准化。自底向上的方法则多用于开放域知识图普的本体构建,因为开放的世界太过复杂,用自顶向下的方法无法考虑周全,且随着世界变化,对应的概念还在增长,自底向上的方法则可满足概念不断增长的需要。知识建模的过程是知识图谱构建的基础,高质量的数据模型能避免许多不必要、重复性的知识

文章图片
#语言模型#自然语言处理#机器学习 +2
    共 22 条
  • 1
  • 2
  • 3
  • 请选择