logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

数据结构笔记:MX四叉树 VS PR 四叉树

个人理解,不一定对,还望批评指教!有数据的区域划分到一样的划分方式。比如我们分别建一个数。有节点的区域同步区划。有节点的区域同步区划。

文章图片
知识图谱笔记:TransH

同一个实体在不同关系中的意义不同,同时不同实体,在同一关系中的意义,也可以相同。

文章图片
#知识图谱#人工智能
数据集笔记:上海摩拜共享单车

017年8月上海地区摩拜单车的数据,已脱敏处理。

文章图片
数据集笔记:旧金山共享单车OD数据

数据地址:System Data | Bay Wheels | Lyft

文章图片
论文目录3:大模型时代(2023+)

早期做instruction tuning的workin-context learning都是没有finetune过程,这里相当于finetune了一下在in-context learning的时候,故意给一些错误的例子、其他领域的返利,看看大模型的效果——>这篇论文的结论是,in-context learning只起到“唤醒”的作用,LLM本身就具备了所需要的功能。这里给LLM范例的作用只是提示

文章图片
#人工智能
数学知识整理:布朗运动与伊藤引理 (Ito‘s lemma)

这个我记得是初中物理的知识。这里截取一段百度百科的说法,帮大家回顾一下: 用公式表示,布朗运动可以表示成 当X服从布朗运动的时候,求函数G(X,t)的全微分此时X和t是两个独立的变量,那么函数G(X,t)的全微分如下:.........

#数学
数学笔记/scipy 笔记:豪斯多夫距离(Hausdorff )

一个点集中的点到另一个点集的最短距离的最大值。

文章图片
#scipy#python#numpy
python 笔记:cls VS self

【代码】python 笔记:cls VS self。

机器学习笔记:并行计算 (基础介绍)

本篇用并行梯度下降作为引子,使用MapReduce框架,简单介绍一下并行计算。1 并行梯度下降1.1 最小二乘回归我们记训练数据为最小二乘回归定义为:最小二乘回归的目标是寻找向量,使得对于所有的j,都接近于yj。同样地,我们可以用梯度下降解这个问题1.2 并行梯度下降由于 xj 和 w 都是 d 维向量,因此计算一个 g(xj , yj ; w) 的时间复杂度是 O(d)。【d次乘法】计算梯度需要

    共 415 条
  • 1
  • 2
  • 3
  • 42
  • 请选择