
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
KV Cache:大模型推理加速的关键技术
所以Prefill 阶段完全无法享受 KV Cache 的提速收益,因为它的核心任务之一就是从零初始化、构建 KV Cache,无任何历史缓存可复用,必须全量计算所有 prompt token 的 K/V;KV Cache 的所有提速价值,都体现在后续的 Decode 生成阶段。

做 LLM 必懂的两大核心数据集:ShareGPT 微调 + 微软 LLM Trace 推理全拆解
这个数据集主要来源就是用户真实对话,大家把自己和模型的对话分享出来,就形成了这个数据集。ShareGPT 是目前大模型对话微调(SFT)、多轮对话能力评估、对齐研究最主流的开源数据集,没有之一。从最初的 5.2 万条对话,扩展到目前主流的约 9 万条高质量对话,还有开源的中英文双语平行版 ShareGPT-90k,覆盖中文场景。"id": "唯一对话ID",{"from": "human", "

数据结构算法系列----广度优先搜索(bfs)
BFS(广度优先搜索)是一种图搜索算法,用于在图或树数据结构中进行遍历。BFS从根节点开始,沿着图的宽度遍历图的顶点,直到找到目标顶点或遍历完所有顶点。在BFS中,首先访问根节点,然后依次访问与根节点相邻的节点,再依次访问这些相邻节点的邻居节点,以此类推。BFS通常使用队列数据结构来实现。BFS的基本思想是将当前节点的所有邻居节点都加入到队列中,然后逐个访问队列中的节点,并将它们的邻居节点加入队列

到底了







