Claude走了,别慌!智谱+LongCat无缝切换来了
这边Claude刚收紧,那边智谱AI立马推出了「Claude API用户特别搬家计划」。LongCat API开放平台也同步上线了,直接支持从Claude无缝切换至LongCat-Flash-Chat模型。
大家好,我是小悟。
美国AI公司Anthropic突然宣布,不再向中资背景的企业(包括海外注册的壳公司)提供Claude服务。
这事对不少开发者来说挺突然的,尤其是那些习惯了用Claude写代码、做开发的朋友,手里的工具突然被掐断,肯定有点懵。
不过,技术圈的应变速度从来没让人失望过。这边Claude刚收紧,那边智谱AI立马推出了「Claude API用户特别搬家计划」。
LongCat API开放平台也同步上线了,直接支持从Claude无缝切换至LongCat-Flash-Chat模型。
Claude停服,开发者为啥慌?Claude在AI圈一直口碑不错,尤其是它的编程能力,被不少开发者奉为“生产力工具”。
它对复杂指令的理解、代码生成的准确性,还有长文本处理能力,都是实打实的硬实力。现在突然不能用,最直接的影响就是:项目进度不能停,但趁手的工具没了。
更麻烦的是,很多团队可能已经深度集成了Claude的API,代码里调用的接口、数据格式都是按Claude的规则来的。
换模型不是点个按钮就能搞定的事,兼容性、成本、效果,哪一样都得重新评估。
智谱直接推出了针对Claude用户的“搬家计划”。他们的核心思路就一条:用GLM模型直接兼容Claude的API协议,让用户连代码都不用改,换个URL就能继续用。
具体来说,开发者只需要做两件事:
1、替换API地址:把原来调用Claude的接口地址改成智谱的。
# 原来的 Claude 代码
import anthropic
client = anthropic.Anthropic(
base_url="your-base-url",
api_key="your-api-key",
)
# 迁移到智谱AI,只需要修改三个地方
client = anthropic.Anthropic(
api_key="your-zhipuai-api-key", # 替换为智谱AI API Key
base_url="https://open.bigmodel.cn/api/anthropic" # 配置智谱AI base_url
)
# 模型编码使用 智谱AI 模型,其他代码保持不变
message = client.messages.create(
model="glm-4.5", # 使用智谱AI 模型
max_tokens=1024,
messages=[{"role": "user", "content": "Hello!"}]
)
2、选套餐:新用户送2000万Tokens免费试用,老开发者可以选GLM-4.5的编码专属包,价格是Claude的1/7,但速度更快(55 Tokens/s),而且生成量直接翻3倍。
智谱的底气来自他们的GLM-4.5模型。根据SWE-bench榜单,这款模型在编程能力上排全球第四、国内第一,和Claude Sonnet 4的差距只有4.4%。
换句话说,换模型不是降级体验,而是换了个更划算的方案。
LongCat API开放平台上线,并且直接支持从Claude无缝切换。简单来说,如果你之前用的是Claude的API,现在可以直接迁移到LongCat-Flash-Chat模型,不用改代码。
LongCat-Flash-Chat是基于MoE(混合专家)架构的模型,主打高效和低成本。
它的特点是用更少的计算资源实现接近顶尖模型的效果,对资源有限的团队或者个人开发者来说,是个性价比很高的选择。
LongCat API开放平台的迁移流程和智谱类似:
1、直接替换API端点:把Claude的接口地址换成LongCat的。
import anthropic
client = anthropic.Anthropic(
base_url="https://api.longcat.chat/anthropic/",
api_key="Bearer your-api-key",
# 重写 header
default_headers={
"Content-Type": "application/json",
"Authorization": "Bearer your-api-key",
}
)
message = client.messages.create(
model="LongCat-Flash-Chat",
max_tokens=1000,
system="You are a helpful assistant.",
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "Hello, LongCat!"
}
]
}
]
)
print(message.content[0].text)
2、即开即用:不需要重新训练或微调,直接就能体验LongCat-Flash-Chat的能力。
更重要的是,LongCat团队显然也考虑到了开发者的实际需求,提供了和Claude相似的响应格式和功能支持,比如代码生成、逻辑推理等,确保切换后不会出现“水土不服”的情况。
Claude停服对部分开发者来说确实是个麻烦,但换个角度看,这也激励了国内AI生态的加速进化。
智谱的快速响应、LongCat API开放平台的无缝切换,甚至其他国产模型的跟进,都在证明一件事:技术封锁或许能卡一时,但挡不住市场的真实需求。
说到底,技术的本质是解决问题。工具换了,方法论还在,开发者的创造力才是真正的核心竞争力。与其纠结“不能用”,不如早点动手“换得更顺手”。
如果你也在迁移模型,或者试过智谱或LongCat,欢迎留言聊聊体验。
谢谢你看我的文章,既然看到这里了,如果觉得不错,随手点个赞、转发、在看三连吧,感谢感谢。那我们,下次再见。
您的一键三连,是我更新的最大动力,谢谢
山水有相逢,来日皆可期,谢谢阅读,我们再会
我手中的金箍棒,上能通天,下能探海
更多推荐
所有评论(0)