logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

因果论 —— 模型、推理和推断(概率、图及因果模型)②

《因果论——模型、推理和推断》图与概率知识点总结

#算法
因果论 —— 模型、推理和推断(概率、图及因果模型)①

《因果论 —— 模型、推理和推断》阅读笔记,提取主要知识点

#概率论
算法训练营 训练 并行处理(关联容器multiset)

关联容器:multisetmultiset是有序多重集合,允许多个值的键相同;使用时需要引入头文件#include <set>。multiset的迭代器为双向访问,不支持随机访问。执行一次++和–操作的时间复杂度均为O(logn)O(logn)O(logn)。size/empty/clear:元素个数、判空、清空。begin/end:开始位置和结束位置。insert(x):将元素x插入

#算法#容器#运维
使用LoRA和QLoRA微调LLMs:数百次实验的见解

使用LoRA和QLoRA微调LLMs模型的最佳实践,以及调参建议

文章图片
#LoRA#自然语言处理
数据分析实战(基础篇):从数据探索到模型解释

本文着重介绍数据分析实战的基础知识和技巧,探索从数据探索到建模再到模型解释的完整过程。内容包含数据探索、模型建立、调参技巧、SHAP模型解释

文章图片
#数据分析#数据挖掘#机器学习
大语言模型的简易可扩展增量预训练策略

大语言模型(LLMs)通常需要在数十亿个tokens上进行预训练,一旦有了新数据,又要重新开始训练。更有效的解决方案是增量预训练(Continue PreTraining)这些模型,这与重新训练相比可以节省大量的计算资源。然而,新数据带来的分布偏移通常会导致在旧数据上的性能下降或者对新数据的适应性不佳。

文章图片
#语言模型#人工智能#自然语言处理 +1
广度优先搜索(模板使用)

广度优先搜索(模板使用)模板出处关于模板出处,来自这里本文仅通过例题对模板的使用进行说明。#include<cstdio>#include<cstring>#include<queue>#include<algorithm>using namespace std;const int maxn=100;bool vst[maxn][maxn]; //

#广度优先#算法#图搜索算法 +1
在DARTS空间中进行神经架构搜索(NAS)

在DARTS空间中进行神经网络架构搜索,

文章图片
#pytorch
    共 65 条
  • 1
  • 2
  • 3
  • 7
  • 请选择