logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

具身智能1.3:闭环系统

系统的输出仅取决于预先的设定或当前的输入,而不依赖于系统的反馈结果。

#人工智能#深度学习#机器学习 +2
具身智能1.3:闭环系统

系统的输出仅取决于预先的设定或当前的输入,而不依赖于系统的反馈结果。

#人工智能#深度学习#机器学习 +2
大模型推理基石:如何用 C++ 封装 CUDA API?(含源码与原理解析)

在大模型时代,算法与系统的边界日益模糊。想要复现 DeepMind 或 OpenAI 的工作,光会设计 Loss Function 已经不够了,必须深入理解底层的算力调度。本文开始从零手写 CUDA Runtime API 的过程。要求在不依赖高级框架的前提下,直接通过 C++ 和 CUDA Driver API 实现设备管理、内存分配(Pinned Memory)以及异步流(Stream)调度。

#java#开发语言
随笔:当我的 Tokenizer 架构设计与 Google “撞车”之后

把这样一个“死”的模块,挂在一个完全可微的、拥有万亿参数的神经网络(法拉利)前面,像极了在法拉利前面套了一辆马车。但是,当我们回过头看模型的第一步——Tokenizer(分词器)时,却发现它像是一个来自上个世纪的遗留物。虽然去掉了 Tokenizer,但它为了处理字符级输入,Transformer 的 Encoder 变得极其沉重,推理速度慢得让人心碎,根本无法在大规模 LLM 上落地。现有的模型

#人工智能#算法#深度学习 +1
现代大模型(LLM)到底长什么样:架构详解

Pre-Norm(为了稳) +RMSNorm(为了快)。SwiGLU。ROPE(旋转位置编码)。(约 2.67倍)。使用GQA(分组查询) 来加速推理。多语言模型选100k+。用QK Norm或。不要加输入 (Input): "The cat sat on the"v[ 1. Tokenizer (分词器) ]| 操作:查表| 输出:Token IDs [101, 856, 221, ...]v[

#人工智能#深度学习#语言模型 +3
从零开始构建大模型第二步:优化版transformer架构搭建

这一章节会非常长,我们不仅要会写代码,还要把所有知识点吃透,不满足简单的定理,以及我会问一些及其深刻的问题,作为一个小点收尾,我敢打包票的事,你用一周或者两周时间吃透这篇博客,你的能力会有质的飞跃。

文章图片
#transformer#深度学习#人工智能 +4
从零开始构建我们自己的AI大模型第一步:构建BPE分词器。

这周开始,我将会开始一场苏格拉底式的大模型(LLM)构建教学,教大家学会如何构建GPT,Deepseek这样的大模型(当然是缩水版)

#人工智能#深度学习#语言模型 +3
算法基础教学第一步:数据结构

有很多小伙伴在后台私信我说对于代码很模糊,看不懂我发的博客代码,一些大模型功能的实现觉得很困难,代码能力的薄弱确实让我们在热爱的领域进步举步维艰,所以我准备出几期基础的算法教学,帮助大家学习。当然如果你的目标是去大厂工作,这个可能只能做个基础,最重要还是得刷刷力扣,虽然算法在AI时代弱化了很多,但是我们也要有个基本的概念。如果你的目标和我一样,不是为了工作,单纯对这个方向感兴趣,作为一个爱好,那么

文章图片
#数据结构#算法#python
具身智能1.1:什么是具身?为什么大模型没有身体就无法拥有完整的智能?

当我们谈论人工智能时,我们往往过度沉迷于“大脑”的算力与参数,却忽略了容纳这个大脑的“容器”。在这一节,我们要明白:仅凭语言模型(LLM),哪怕参数量再大,也无法触及“完整的智能”。

文章图片
#人工智能#深度学习#机器学习 +1
    共 37 条
  • 1
  • 2
  • 3
  • 4
  • 请选择