logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【AI医疗】大模型在医疗健康领域的应用实践:OpenAI与Anthropic的技术路径解析!

文章分析了AI在医疗健康领域的应用现状和发展趋势,重点关注OpenAI和Anthropic的布局。内容涵盖AI医疗与AI健康的场景差异、国内外商业模式对比、数据治理与政策影响、医院采购偏好及2026年展望。AI医疗发展需与行业生态、政策环境深度适配,健康管理将成为未来重点增量方向。

文章图片
#人工智能#开发语言#知识图谱 +1
PPO过时了?GRPO/DAPO/GSPO/SAPO四大算法全面对比,揭秘最新强化学习技术趋势!

本文面向已了解强化学习中策略梯度(policy gradient)、优势函数(advantage)、重要性采样(importance sampling)等概念的读者,重点对大模型强化学习主流算法做一条线的梳理与比较。

文章图片
#算法#深度学习#机器学习 +2
揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷

尽管以 MLP 和 Transformer 为代表的基础模型已经取得了显著的成功,但是它们却在周期性建模方面存在潜在的缺陷。即使面对简单的正弦函数,现有基础模型也难以理解其中的周期性规律,在外推时表现出完全失控的状态,未能有效捕捉到周期性现象的本质。

文章图片
#transformer#傅立叶分析#神经网络 +2
【深度学习】PyTorch 图片识别分类器

因为这个行业不同于其他行业,知识体系实在是过于庞大,知识更新也非常快。作为一个普通人,无法全部学完,所以我们在提升技术的时候,首先需要明确一个目标,然后制定好完整的计划,同时找到好的学习方法,这样才能更快的提升自己。这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费。

文章图片
#深度学习#pytorch#人工智能 +2
解决Android Studio不能创建aidl文件问题

仔细看其实就是配置文件的问题,在build.gradle(:app)下的配置添加。如图,在准备创建aidl文件时选项置灰。

文章图片
#android
深度学习编译器后端和运行时

编译器前端将用户代码解析得到计算图 IR,并且做了一些和计算设备无关的通用优化。编译器后端做的优化就和具体的设备有关了(不同设备有不同的 allocator,不同的编程模型,比如英伟达的 CUDA),后端优化更加贴合硬件,会针对硬件特点为 IR 中的计算节点选择在硬件上的算子,然后为每个算子的输入输出分配硬件内存,最终生成一个可以在硬件上执行的任务序列。

文章图片
#深度学习#人工智能#语言模型 +1
从零开始学图RAG:用LangChain+Neo4j构建智能知识图谱系统,零基础小白收藏这一篇就够了!!

本文详细介绍了RAG的两种实现方式,重点解析了基于图的RAG在处理关系和上下文方面的优势。通过LangChain框架与Neo4j图数据库的集成,演示了如何将文本转换为知识图谱并实现智能问答。文章提供了完整的代码示例,帮助开发者掌握构建基于图RAG应用的核心技术和方法,特别适合需要处理复杂关系数据的场景。

文章图片
#neo4j#知识图谱#人工智能
(2万字硬核长文)大模型强化学习完全指南:从基础到Agentic RL实战技术解析!

本文系统介绍强化学习在大模型中的应用,从基础理论到核心算法(Q-learning、PPO、DPO等),重点解析Agentic RL与LLM-RL的本质区别。强调Agentic RL在多步决策、工具调用中的必要性,并详述Hugging Face TRL、ms-swift等主流框架及业界实践。文章指出,Agentic RL已成为智能体时代的标配技术,能赋予模型自主执行与持续进化能力,是构建复杂AI系统

文章图片
#人工智能#github#产品经理
大模型后训练核心技术解析:强化学习(RL)全流程,小白也能看懂的收藏级教程

大模型训练正从预训练转向后训练阶段,强化学习(RL)成为关键。文章详细介绍了RLHF(基于人类反馈)和RLVR(可验证奖励)两种强化学习方法,对比了PPO和GRPO等算法。针对RL训练中推理与训练系统耦合的复杂工程挑战,verl框架提供了有效解决方案,并提出了投机式Rollout等性能优化技术,显著提升大模型在复杂任务中的推理与决策能力。

文章图片
#人工智能#算法#开发语言
大模型训练核心:SFT与RLHF区别详解,告别面试“卡壳“!

文章揭示SFT与RLHF在大模型训练中的本质区别:SFT是Token级优化,类似"背题库",易短视且饱和;RLHF是序列级优化,实现"探索+利用",能突破数据天花板。SFT负责提升模型能力,RLHF负责价值对齐。许多求职者虽在简历上堆砌PPO、GRPO等术语,却不理解其应用本质,面试时难以回答基础问题。

文章图片
#系统架构#transformer#深度学习
    共 1503 条
  • 1
  • 2
  • 3
  • 151
  • 请选择