简介

GLM-4.6模型评测显示其上下文窗口从128K扩展至200K,Code、推理和Agent工具调用能力显著提高,写作风格更拟人。测试发现其长文总结效果优秀但有小瑕疵,生成游戏智能性提升。对比DeepSeek-V3.2等模型,GLM-4.6在真实任务中表现超预期,效果接近国际顶级模型Claude。作者认为GLM-4.6是国内大模型的标杆,值得开发者收藏使用。


DeepSeek-V3.2也上了,Claude 4.5也更新了,昨天晚上Sora2也出了,那么十一卷起来吧!

体验了一下Sora2有点牛逼,但我华为手机,没法创建Cameo,我太难受了。

Sam Altman真是被玩爆了,哈哈哈哈!!!

书归正传,昨天写汇总的时候,GLM-4.6还是coming soon,然后昨天晚上model也是放了出了!

官方文档上说,GLM-4.6相较于GLM-4.5,上下文窗口更长,从128K扩展到200K,Code、推理、Agent工具调用能力均有提高,同时写作风格更拟人。

我们来看看怎么回事儿~

先来一个长文总结功能,让模型直接读PDF然后生成HTML界面,这里考验的是模型对内容的解读,以及效果展示。

就拿DeepSeek-V3.2技术报告来测试,主要是我刚解读完,内容我熟悉,哈哈哈哈~

GLM-4.6模型效果,整体风格遵循比较好,同时内容展现很好,公式都展示出来

但内容上稍微有点瑕疵,一个是图画的跟原文有点区别,第二个是训练的内容还有后面Post-Training没有写。

再看DeepSeek-V3.2的效果,风格一致,不过整个排版一般,没有图,同时对公式没有渲染出来,训练部分的内容存在出入,写了Post-Training,但只有专家蒸馏,没有RL部分内容,就很奇怪。

我还测试了Qwen3-Max,我发现对于图的内容展示,确实存在问题,这个应该是本身模型是LLM模型,VL部分是其他方式进行理解的,所以会不太好。

再来一个One Prompt生成小游戏,也是之前经常测试例子,我发现GLM-4.6的智能性提高人多。

在生成五子棋游戏的时候,之前人机对战,都是呆呆地,很少会进行堵截,导致AI像个傻子,GLM-4.6直接生成内容,竟然还可以玩上一会儿。

然后我还想说,DeepSeek-V3.2这波是变快了,结构上极度稀疏,很牛逼,推理成本降了很多,虽然论文里很多榜单是持平地,但是体感下降不少。

这个游戏之前基本上不会出什么问题,然后现在当前版本问题有点大。

我还发现一个问题,就是GLM-4.6开了深度思考之后,可能对一些逻辑思考问题会过度思考,导致错误,

这是非推理状态下地回答结构,

深度思考之后,由于深度思考类了,导致思考内容是藏语和普通话了,开始了battle。

然后我们再来看一下,GLM-4.6在整个项目中的效果,直接Cluade Code写代码,

昨天cc也是更新到2.0了,增加了个恢复机制,当你觉得cc修改的这个版本代码不行,可以运行 /rewind 进行代码撤销,恢复原来版本。

有个der的地方,就是配置url的时候,不显示url链接的,我一度以为没配成功,反过来一想,我都没冲钱,claude也不会白给我用,哈哈哈哈!

操作就是,在开放平台获取智谱 API Key:https://open.bigmodel.cn/usercenter/proj-mgmt/apikeys

然后运行:

# 你是linux或者mac运行
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"
export ANTHROPIC_AUTH_TOKEN="your bigmodel API keys"

# 你是windows运行
$env: ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"
$env: ANTHROPIC_AUTH_TOKEN="your bigmodel API keys"

输入 Claude,即可启动。

测试之前获取36kr里AI部分内容,然后实时了解AI相关文章,当然后面可以做很多,比如给领导汇报,定时推送等等,当然信息源可以是多种,我只是选了这个,因为之前测试过这个例子,方便比较。

我现在有一个爬虫需求,目标是爬取某个网站的内容,使用 Python 实现。

## 基本要求
- 目标网页:https://36kr.com/information/AI/
- 技术栈:
 - Python 3.11
 - 使用 uv 管理项目
 - 爬虫部分使用 异步编程(asyncio),要支持并发抓取

## 网页元素获取方式
- 你可以使用 playwright-mcp 这个mcp进行页面加载和元素获取
- 或者直接访问网页内容
- 元素选择方式可以使用 Xpath 或 CSS Selector

## 数据提取
- 使用 parsel 库来进行解析与提取

## 功能目标
- 定时任务:定时爬取目标网页
- 数据提取:提取 最新的 Top 30 新闻,包括:标题、链接、发布时间、摘要
- 数据展示:提供一个简单的前端页面展示结果

## 注意事项
- 爬虫代码必须使用 异步 + 并发 模式实现
- 要有清晰的模块划分,例如: fetcher.py:页面获取, parser.py:解析逻辑, scheduler.py:定时调度,webapp.py:前端展示
- 前端页面需实现的比较美观,能够展示爬取到的Top30新闻,同时支持手动更新

PS:这是个例子哈,仅供学习,请注意!!

整体感觉GLM-4.6比之前用起来更丝滑,之前还要交互很多次,现在我写好一个提示词,然后就自己交互了,很舒服。

生成的东西效果也很不错,最新的内容也都爬取到了,有点强

数据也在后台json存储~

最后想说,

智谱这波开源GLM-4.6,在真实任务还是超预期的,效果很棒,

对比之前有提高,对比国内模型也是top的存在了,

直追Claude模型,反正我是真退订了,

最近一直在用国内模型,虽然还是有点差距,但是也还能用的

不知道GLM5啥时候出,期望一波遥遥领先~

写完这篇去玩sora2了,OpenAI还是那个OpenAI,这波sora2舒适很真实!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

在这里插入图片描述

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

在这里插入图片描述

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

更多推荐