logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

复杂结构数据挖掘(六)Mining Graph Data 图数据挖掘

图数据作为表示实体间复杂关系的天然模型,其相似性度量是图聚类、分类与检索等任务的核心基础。本文系统综述了图距离计算的关键方法。主要路径分为两类:其一为基于结构的精确匹配,包括子图同构算法(如Ullmann)以及衍生的最大公共子图和图编辑距离,该方法精确但计算复杂度高;其二为基于特征的近似度量,通过提取图拓扑指数或利用图核函数,将图结构转化为数值特征进行高效比较。本文分析了各类方法的优劣与适用场景,

#数据挖掘#人工智能
李沐深度学习论文精读(二)Transformer + GAN

这篇博客精解了两大深度学习里程碑:Transformer与GAN。Transformer凭借自注意力机制,取代RNN/CNN,解决了长程依赖与并行化的核心难题,成为当今大模型的基础。GAN开创了生成器与判别器对抗的训练范式,无需复杂概率计算,直接生成高质量样本,定义了生成模型的新方向。文章对比了二者的核心创新、优势(并行/高质生成)与缺陷(自回归瓶颈/训练不稳定),并概述了其深远影响。

#深度学习#人工智能#机器学习
verl 大模型强化学习后训练入门:Qwen2.5-0.5B - GSM8K

本文深度解析了大模型强化学习框架 verl 的使用细节,以 Qwen2.5-0.5B 模型和 GSM8K 数学推理数据集为例,提供了一份完整的 Post-Training(后训练)实战教程,分为五个部分:1. 环境配置,详细记录了 FlashAttention 和 vLLM 的手动安装避坑指南。2. 数据和模型下载准备3. 训练命令参数解析4. verl_demo.log 训练日志解析5. Che

verl 大模型强化学习后训练入门:Qwen2.5-0.5B - GSM8K

本文深度解析了大模型强化学习框架 verl 的使用细节,以 Qwen2.5-0.5B 模型和 GSM8K 数学推理数据集为例,提供了一份完整的 Post-Training(后训练)实战教程,分为五个部分:1. 环境配置,详细记录了 FlashAttention 和 vLLM 的手动安装避坑指南。2. 数据和模型下载准备3. 训练命令参数解析4. verl_demo.log 训练日志解析5. Che

PPO(Proximal Policy Optimization) 近端策略优化

本文深入解析近端策略优化(PPO)算法的核心原理与工程实现:从背景出发,对比策略梯度、TRPO 的局限性,阐明 PPO 通过带概率比截断的代理目标函数,在样本效率、实现复杂度与计算耗时间实现平衡;拆解 GAE 优势估计等关键模块,并给出 agent 代码架构。并以 Walker2d-v5 连续动作环境为例,提供基于 Stable Baselines3 的完整实现。

#人工智能
拿AI下围棋 -- 开源项目leela-zero

本文介绍了如何使用Leela Zero开源项目实现AI围棋对弈。通过下载Leela Zero引擎、权重文件和Lizzie图形界面,用户可以在命令行和GUI中运行AI围棋程序。文章详细说明了配置步骤,包括权重文件处理、OpenCL性能调优等,并展示了Lizzie界面的实时胜率分析和推荐落子功能。最后提供了命令行调试方法和GUI配置参数,帮助用户快速体验AI围棋对弈功能。

#人工智能
南京大学计算机学院 智能软件工程导论 + Luciano Baresi 教授讲座

本文探讨AI时代软件工程(SE)与AI的协同发展(SE4AI与AI4SE),分析传统软件开发与AI系统的差异。重点包括:1)AI系统质量的多维评估(准确性、公平性、鲁棒性等);2)归纳思维与演绎思维的对比;3)领域自适应与扩散模型在自动驾驶测试中的应用;4)LLM生成用户故事的质量评估;5)安全设计原则(如非ML代码约束AI输出)。强调人机协作与系统化风险控制,提出通过分层保障机制(如物理熔断器)

#软件工程#人工智能#自动驾驶
大模型写唐诗微调--LoRA + 唐诗数据集

本文介绍了如何微调大型语言模型(LLM)使其能够创作唐诗。作者使用MediaTek的Breeze-7B-Instruct模型,通过4-bit量化技术降低内存消耗,并采用LoRA方法进行高效微调。关键步骤包括:1)准备包含1040首唐诗的训练数据;2)设置特定格式的prompt模板;3)训练模型理解并续写唐诗。结果显示,微调后的模型能生成连贯的唐诗,相比微调前仅重复输入词汇的表现有明显提升。这种方法

#人工智能#机器学习
机器学习 - Kaggle项目实践(8)Spooky Author Identification 作者识别

本文介绍了在Kaggle上解决文本作者分类任务的完整流程。首先对数据进行预处理,使用TF-IDF和Count两种向量化方法,并尝试逻辑回归、朴素贝叶斯和SVM等传统机器学习模型。随后通过网格搜索进行参数调优,并引入GloVe词向量结合XGBoost的方法。最后展示了深度学习解决方案,包括构建嵌入矩阵、使用LSTM/GRU等循环神经网络结构,以及模型训练和预测提交过程。整个流程涵盖了从基础特征工程到

#机器学习#人工智能#深度学习
复杂结构数据挖掘(六)Mining Graph Data 图数据挖掘

图数据作为表示实体间复杂关系的天然模型,其相似性度量是图聚类、分类与检索等任务的核心基础。本文系统综述了图距离计算的关键方法。主要路径分为两类:其一为基于结构的精确匹配,包括子图同构算法(如Ullmann)以及衍生的最大公共子图和图编辑距离,该方法精确但计算复杂度高;其二为基于特征的近似度量,通过提取图拓扑指数或利用图核函数,将图结构转化为数值特征进行高效比较。本文分析了各类方法的优劣与适用场景,

#数据挖掘#人工智能
    共 39 条
  • 1
  • 2
  • 3
  • 4
  • 请选择