logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

MCP Server 官网例子

【代码】MCP Server 官网例子。

文章图片
#人工智能#uv#python
LLMs-from-scratch:(第5章:在无标签数据上进行预训练)

参见脚本,一个用于训练的独立脚本脚本从OpenAI加载预训练权重并基于提示生成文本您可以在中找到练习解答。

#人工智能
Autogen_core源码:_cancellation_token.py

类提供了一种机制,允许用户在需要时取消挂起的异步调用。通过添加回调函数和关联Future对象,当调用cancel方法时,所有与该取消令牌关联的操作都将被取消。同时,使用线程锁确保了在多线程环境下的线程安全。

文章图片
#人工智能
LFM2 模型介绍

LFM2 是 Liquid AI 推出的新一代混合模型,专为边缘 AI 和端侧部署而设计,在质量、速度和内存效率方面树立了全新标准。此次开源了四个经过后训练(post-trained)的模型权重,参数量分别为 3.5 亿(350M)、7 亿(700M)、12 亿(1.2B)和 26 亿(2.6B)。训练与推理更快速:LFM2 的训练速度相比上一代模型提升 3 倍;在 CPU 上的解码(decode

#人工智能
Qwen3 中旋转位置编码

【代码】Qwen3 中旋转位置编码。

#深度学习
介绍GSPO:一种革命性的语言模型强化学习算法

GSPO不仅是一种更加稳定和高效的RL算法,更是推动语言模型智能进一步发展的关键技术。其序列级别的优化理念与奖励机制的自然对齐,为未来RL训练提供了新的理论基础和实践路径。阿里巴巴Qwen团队已将GSP成功应用于Qwen3系列的训练中,取得了显著性能提升,并将继续推动RL技术在大模型训练中的规模化应用。

#语言模型#算法#人工智能
吴恩达MCP课程(2):research_server

PAPER_DIR = "papers" # 定义存储论文信息的目录装饰器将此函数注册为MCP服务的工具参数topic: 要搜索的主题: 最大结果数量(默认5个)返回值:找到的论文ID列表功能流程创建arXiv客户端按相关性搜索主题相关论文为该主题创建目录(如尝试加载已有的论文信息(如果存在)处理每篇论文,提取标题、作者、摘要等信息将论文信息保存到JSON文件中返回论文ID列表搜索arXiv上的论

LiveCodeBench:一个动态、全面的代码大模型竞技场,揭示谁才是真正的编程高手

正如其论文中所揭示的,当使用 LiveCodeBench 进行时间分段评测时,一些在传统基准上表现优异的模型(如早期的 DeepSeek 和 GPT-4-O)在面对其“截止日期”之后的新题时,性能出现了显著下降。它们的题目可能早已被“投喂”进模型的训练数据中,导致评测结果失真——模型不是靠“真才实学”,而是靠“死记硬背”取得了高分。研究发现,虽然模型在不同任务上的排名大致相关,但相对差距会变化。这

#深度学习
Ragflow源码:launch_backend_service.sh

启动RAGFlow服务器。设置Python路径和库。RAGFlow服务器。取消HTTP代理设置。

Muon is Scalable for LLM Training 论文简介

Muon通过矩阵正交化和分布式优化设计,为LLM训练提供了高效、稳定的新选择。其开源实现和实验数据不仅验证了技术可行性,更为后续研究提供了宝贵资源。在AI模型规模持续膨胀的今天,此类工作对降低训练成本、加速AGI发展具有重要意义。

文章图片
#人工智能
    共 224 条
  • 1
  • 2
  • 3
  • 23
  • 请选择