
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
当前业界很多训练脚本是基于TensorFlow的Python API进行开发的,默认运行在CPU/GPU/TPU上,为了使这些脚本能够利用昇腾AI处理器的强大算力执行训练,需要对TensorFlow的训练脚本进行迁移。

在本地大模型的日常使用中,我一直使用 Qwen3.5-27B ,它的表现始终稳扎稳打、中规中矩,能覆盖绝大多数代码生成、内容创作需求。
本文就是这次"从零手写"的完整记录。我会把每一行关键代码的设计动机讲清楚,把每一个被自媒体吹上天的概念拉回地面。你不需要是机器学习专家,只要会写 Python、能调 API,就能跟上。

作为深耕技术转型领域多年的“过来人”,我可以明确地说:完全不必焦虑,大模型赛道的包容性,远超你的想象,无论是小白还是资深开发者,都能找到适合自己的入门路径。
预训练技术彻底改变了自然语言处理(NLP)乃至整个AI领域。

很多AI任务(翻译、问答、总结)都需要共同基础能力:理解语言结构、掌握常识、进行逻辑推理。为每个任务从头训练,每个模型都得从零学起,浪费且效果差。

一句话概括,业界普遍以为对小规模私有数据进行大模型微调只能靠盲目炼丹,但这篇论文不仅用“专业化预训练”推翻了纯微调的绝对统治,还顺手推导出了精准的“过拟合缩放定律”。

今天,我们就来聊聊如何用Python搭建真正的智能Web AI Agent,它不仅能理解你的意图,还能调用工具、执行任务,就像一个真正的数字助手!

如果你也有这些烦恼,那么今天这篇文章就是为你准备的!我们将基于LangGraph,为智能体添加两大核心能力:检索增强生成(RAG)和 长期记忆。
今天,我们就来聊聊如何用Python搭建真正的智能Web AI Agent,它不仅能理解你的意图,还能调用工具、执行任务,就像一个真正的数字助手!








