
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
最近和很多研一、研二的同学聊,发现大家自学大模型时普遍会走一些弯路。我把通往大模型工程师的技术栈整理成了清晰的三步,希望能帮大校准方向,看清自己的位置:

该PPT系统展示了华为在AI大模型领域的**全栈布局与技术能力**,以“昇腾+MindSpore+ModelArts+盘古大模型”为核心,构建从底层算力到行业应用的完整闭环。盘古大模型凭借其**大参数、强泛化、行业适配性强**的优势,已在多个关键行业实现落地,展现出强大的**通用性与商业化潜力**。未来,华为将继续推动AI大模型向**多模态、科学计算、行业智能化**方向演进,助力中国AI产业实现“

传统的视觉材料感知方法在视觉受损条件下常出现显著性能下降,这促使研究转向非视觉多模态材料感知。然而,现有方法通常采用简单的模态融合策略,忽视了三个关键挑战:模态特异性噪声、频繁的模态缺失问题,以及不同任务中模态重要性的动态变化。这些局限导致其在多个基准任务中表现欠佳。本文提出鲁棒多模态融合框架TouchFormer,通过模态自适应门控机制(MAG)与模态内外注意力机制实现跨模态特征的自适应集成,增

本文详细介绍了如何利用字节跳动的AI编程工具Trae Solo构建多模态RAG系统的前端界面,并分享了"三步走"的Vibe Coding最佳实践:构建结构化提示词、提示词优化和精准问题定位。通过实际案例演示了使用Trae Solo快速开发前端应用的全过程,包括模块化架构设计、流式对话交互实现和PDF引用溯源功能等,为AI辅助编程提供了实用方法论。

时隔 6 年,OpenAI 再次推出GPT-oss-120b 和 GPT-oss-20b 两款模型引发行业关注。总参数量为 1170 亿,采用 MoE(专家混合)架构,每个 token 仅激活 51 亿参数,在保证一定性能的同时,降低了运行时的资源消耗。在 Codeforces 竞赛编程、MMLU 通用知识测试中,其表现优于 o3-mini;在医疗健康(HealthBench)和竞赛数学(AIME

在迅速发展的AI领域中,高效部署大型语言模型(LLM)对于许多应用程序至关重要。对于希望利用LLM力量的开发人员和组织来说,vLLM提供了一种简单、快速且经济高效的解决方案,用于在GPU上运行模型。本文将指导您完成vLLM的安装、在服务器上运行它以及将其集成到应用程序中的步骤。vLLM专为希望在其GPU上托管大型语言模型的人设计,这对于高吞吐量、并行处理和流式输出至关重要。无论您是在计算机上本地部

今天想聊一个"用过的人都懂"的事:AI 编程工具好不好用,最后看的是一件事:你能不能把它从"写得快"变成"交付稳"。

同样是ChatGPT,有人用它写出爆款文章,有人用它问出“今天天气怎么样”——你和AI高手的差距,只在5%的技巧

之前我写过一个 Coze 插件,专门用来把**自然语言转换成 Mermaid ****业务****图**。没想到这个插件后面热度还挺高,用的人不少,也让我更确定了一件事:大家对`“一句话生成流程图、时序图、甘特图这类业务图”`这件事,确实有真实需求。

最近在看 Mintlify 的技术博客时,被一个标题吸引住了:"We replaced RAG with a virtual filesystem"。第一反应是:这不是在开玩笑吧?RAG 不是 AI 文档助手的标准答案吗?但看完他们的实现细节后,我觉得这个思路值得认真想想。








