
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
他有 5 种钩子类型: Shell 命令 / LLM 评估(用 Haiku)/ 子代理 / HTTP 请求 / 内部回调,24 种事件点:包括 PreToolUse、PostToolUse、UserPromptSubmit、SessionStart、TeammateIdle、TaskCreated、FileChanged、Cwd、Changed、WorktreeCreate 等等。在你不用的时候,
编|泽南源|机器之心性能和效率都超越英伟达 A100,这样的超算我有不止十台。我们还没有看到能与 ChatGPT 相匹敌的 AI 大模型,但在算力基础上,领先的可能并不是微软和 OpenAI。本周二,谷歌公布了其训练语言大模型的超级计算机的细节,基于 TPU 的超算系统已经可以比英伟达的同类更加快速、节能。谷歌张量处理器(tensor processing unit,TPU)是该公司为机器学习定.
据我们所知,AMD就是这样让一个70亿参数的模型以大约每秒20个token的速度运行的。AMD预测未来的AI PC将以每秒100个token的速度运行300亿参数模型,首个token的延迟达到100毫秒,而现在的技术只能做到70亿参数、每秒20个token,首个token的延迟为1至4秒。AI PC就是内嵌个人大模型的电脑,具备更强的算力、更大的存储空间和更顺畅的自然语言交互功能,其核心特征包括C

文 | 炼丹学徒编 | 小轶从前车马很慢,显卡跑的也慢,一生只够爱一个RNN。后来时代进步了,数据量和计算力阔绰了,堆叠起来的Transformer能够在更深更宽的模型结构里吃下去更多的数...
大模型凭借着强算法、多数据、大算力的结合带来的智能体现和泛化性,引爆了各行各业的变革。其落地第一步就是要构建可以提供大规模的 AI 算力基础设施,然而,这一步充满了挑战。浪潮信息作为领先的AI算力基础设施提供商,提供的AIStation解决方案有效地解决了大规模算力的高效使用和调度问题,并提供了易用稳健的支撑软件平台,从此,AI行业的新老玩家终于可以将精力聚焦在其关键的业务问题上了,不用再被算力基

文|王思若前言从20年开始,“最大语言模型”的桂冠被各大研究机构和科技公司竞相追逐,堆砌参数,猛上算力,开启了“大炼丹”时代,模型参数量仿佛越大越好,甚至GPT-4模型参数量将超过100万亿的传闻甚嚣尘上。当把视角落在今年下半年,大模型的“军备竞赛”似乎戛然而止,22年4月,Google发布了5400亿参数的PaLM荣登“大模型”榜首,然而到现在,似乎也没有出现更大规模的模型。在所有人热情和兴奋消
源|机器之心本文将为大家盘点一下 ChatGPT 的开源平替项目。距离 ChatGPT 的最初发布,过去差不多四个月的时间了。在这期间,ChatGPT 的惊艳表现,让人直呼 AIGC 是不是要提前实现了。不过众所周知的一个秘密是,ChatGPT 不大可能开源,加上巨大的算力投入以及海量的训练数据等,都为研究界复制其实现过程设下重重关卡。面对 ChatGPT 的来势汹汹,开源平替是一个不错的选择,它
源 | 新智元在通往AGI的路上我们还有多远?微软豪华作者团队发布的154页论文指出,GPT-4已经初具通用人工智能的雏形。GPT-4会演变为通用人工智能吗?Meta首席人工智能科学家、图灵奖得主Yann LeCun对此表示质疑。在他看来,大模型对于数据和算力的需求实在太大,学习效率却不高,因此学习「世界模型」才能通往AGI之路。不过,微软最近发表的154页论文,似乎就很打脸。在这篇名为「Spar
最近,黄仁勋发了一篇万字长文,题目叫《AI Is a 5-Layer Cake》。黄仁勋是 NVIDIA 的 CEO,全球 AI 算力市场占有率超过 80% 的公司。AI 这条产业链上的每一层,他都在正中间。整篇文章他表达了一个观点:大多数人都把 AI 看窄了,后面还有万亿级的建设量。这篇文章描述的图景确实宏大,但对大多数普通人来说,真实的体感可能恰好相反。一个来自 ndeed 2026 年初的调
在大模型混战的当下,去繁就简,最核心的目标或者使命始终是通用人工智能AGI,但目前而言,也只有OpenAI和Google可能会在这个需要海量算力支撑和资金支持的方向上构建出完整的技术路线。然而,遗憾的是OpenAI选择了闭源并构筑了坚实的护城河,所有人都试图从其内部员工的发言中了解关于GPT-4的任何模型细节,甚至分析GPT-4不同时间节点的性能表现来推理其模型改进,但无疑都只是隔靴搔痒,一个核心








