登录社区云,与社区用户共同成长
邀请您加入社区
Claude Opus 4.6 是 Anthropic 于 2026 年 2 月 5 日发布的旗舰模型重大升级,核心定位为,同时强化了办公协作与长文本处理能力。整体评价:它标志着 Claude 从 "对话助手" 向 "数字员工 / 智能代理 (Agent)" 的进化,在企业级复杂任务处理上达到新高度,但也存在部分场景权衡与定价调整。以下是核心亮点与全面评价。
本文对比了两种AI调用外部工具的主流方案:Function Calling和MCP(Model Context Protocol)。Function Calling是OpenAI提供的集成方案,特点为内嵌式、零配置,适合快速开发;MCP则是Anthropic推出的开放协议,采用客户端-服务器架构,支持复杂交互。通过天气查询场景的代码示例,展示了两种方案的具体实现:Function Calling通
Inworld 的商业模式采取订阅制,服务小型游戏工作室和个人开发者。合作,推出基于 AI 的角色引擎和 Copilot 助理,旨在提升游戏中 NPC 的交互力和生命力,提升游戏体验。Inworld 致力于打造拥有灵魂的 NPC,通过生成式 AI 驱动 NPC 行为,使其动态响应玩家操作,并降低开发成本。Inworld 的创始人具有丰富的 AI 领域经验,他们的目标是填补生成式 AI 领域的空白。
摘要: InstructGPT通过三阶段训练实现语言模型与人类偏好对齐:1)监督微调(SFT)使模型初步遵循指令;2)奖励模型(RM)学习人类偏好排序;3)强化学习(RLHF)结合PPO算法优化输出,通过KL散度约束平衡创新与稳定性。该方法解决了模型幻觉问题,奠定ChatGPT等技术基础,并推动DPO等后续优化方案的发展。核心创新在于“生成-评价-优化”闭环,首次系统性融合人类反馈,成为大模型对齐
DeepSeek大模型自2025年初发布R1-7B版本以来,凭借97.3%的行业场景覆盖率和中英双语TOP1的实测表现(权威机构评测),已成为AI领域的现象级工具。本文耗时72小时整理的100个行业级提示词模板,涵盖10大应用场景,配合文末独家资源大礼包,助你快速掌握核心玩法!
https://gitee.com/xu-hao-1234/langchain4j-kf
摘要:本文探讨利用AI技术开发专业DWG快速看图软件的必要性。传统看图软件功能有限且收费较高,而AI大模型的发展为此提供了技术便利。作者通过对比腾讯元宝和阿里通义千问的技术方案,最终选择更适合处理大型图纸的方案。同时介绍了基于ACadSharp和WPF的简易开发方案,作为理解DWG原理的入门途径,该方案开发简单但仅适用于中小型图纸。文章展示了AI技术如何降低专业CAD工具开发门槛,为工程领域提供更
对于不少想制作视频却受限于技术或设备的人来说,便捷的AI工具正在降低创作门槛。国产海螺AI模型便是其中之一,由上海人工智能企业MiniMax研发,自推出后受到行业关注。该模型通过Web端、APP及开放平台提供服务,核心目标是帮助不同层次的创作者简化视频制作流程,实现创意落地。
摘要: Anthropic推出的Claude大模型具备多模态理解、代码执行等能力,但限制中国用户访问。通过Poe平台可稳定使用Claude系列模型,包括高性能的Claude-Opus、中等的Claude-Sonnet和轻量级的Claude-Haiku。用户注册Poe后,可选择模型并通过网页或API调用,需替换生成的API密钥。平台支持订阅积分和客户端下载,便于国内用户使用。
在技术演示场景中,该模型可完成浏览器端酒店预订流程的自动操作,也能识别购物小票信息并生成Excel表格,这种从信息“理解”到实际“操作”的突破,为AI智能体(Agent)的场景化落地提供了技术支撑。作为国内大模型领域的重要参与者,豆包大模型通过技术迭代、场景适配与生态协同,构建起连接技术研发与产业应用的桥梁。在产业应用层面,豆包大模型已逐步渗透到多个行业领域,包括手机制造、汽车、金融、高等教育等,
本文介绍了一个基于LangChain构建的时间感知智能客服系统。该系统通过多阶段实现:首先搭建基础对话链(Prompt→LLM→OutputParser),然后集成时间推理能力,使用户提到"昨天"等时间概念时能结合当前时间精确响应。系统包含对话记忆管理、时间上下文提取和自定义输出解析器等功能模块,支持多轮对话并保持10轮历史记录。代码示例展示了系统如何解析用户关于订单时间的查询
✅ 多模态 AI 计算平台:支持文本、代码、图像、音频多模态 AI 任务,集成 DeepSeek-R1、Qwen2.5-72B、Llama-3.3-70B 等全球顶级 LLM,提供 Stable Diffusion 3-5 large turbo、FLUX.1-pro 等高性能 AIGC 解决方案。在这一背景下,硅基风暴(SiliconStorm) 以“全模态 AI 计算平台”的角色切入,聚焦 A
它的“读心术”也进阶了。”还顺口提我上周吐槽“对账差一分钱纠缠三小时”,立刻补刀:“这次用 decimal,少和 Excel 搏斗。现在我随手画个歪歪扭扭的架构图,再补一句“要像短视频一样丝滑”,回来的方案不只分布式怎么拆、缓存怎么配,还贴心附赠“避开高峰卡顿的小技巧”。我随口说了句“Claude写文档不错”,它立刻打印一份《GPT5.1 vs 其他AI》对比表,幽默度给自己打满分,给对面备注“像
《手机端运行3B参数大模型的实践》摘要:通过结构化剪枝、3bit量化和系统优化,将7B模型压缩至2.6B(0.95GB),实现在8GB内存手机上运行。采用Fisher信息矩阵剪枝、分段量化等技术,保持61.9%的C-Eval性能。部署时结合NPU加速,实现260ms首token延迟,128mWh/轮的低功耗。已应用于离线英语外教场景,全链路延迟800ms。云边协同拐点已至,3B级模型可提供类GPT
Python深度学习环境搭建: Anaconda/Miniconda、虚拟环境管理、Jupyter Notebook/Lab使用、GPU驱动安装(CUDA/cuDNN)
GPT-3 不需要对每个任务训练专门模型,不做微调,不改模型结构,只靠提示(in-context learning)就能完成各种任务,比如翻译、问答、总结等。在 few-shot 设置下,GPT-3 像是在“看几个例题再做一道新题”,它能在上下文里“学会任务该怎么做”。训练语料中包含了海量的“任务实例” —— 这正是 GPT-3 能理解提示词(prompt)的原因!GPT-3 在多个任务上表现惊艳
摘要:本文介绍了一个由AI专家姚瑞南开发的"国际翻译小组"Agent,该虚拟团队擅长中、英、法、德四语种翻译,由四位专业成员组成。通过多轮推理与风格识别,该小组不仅能准确翻译提示词(prompt),还能根据语境进行语义润色,确保跨语言表达的自然流畅性。文章展示了该Agent在多语言环境中的专业翻译能力,包括直译/意译转换、文化背景理解及风格调整等,并提供了标准工作流程,以帮助用户实现全球化场景下的
深夜,一位从事传统软件开发的工程师小李,在调试完最后一个API接口后,习惯性地点开了GitHub Trending。排行榜前列,与大模型相关的开源项目几乎占据了半壁江山。他想起白天公司会议上的决定:“接下来所有产品线,都要探索AI赋能的可能性。” 一种强烈的危机感与机遇感同时涌上心头。
10月1日,Google DeepMind发布了一篇关于Veo3评测的论文,结论表明,Veo3视频模型具备显著的零样本学习与推理能力,且可以解决62个定性任务和7个定量任务(涵盖感知、建模、操纵、推理四大视觉层级,如边缘监测、物理属性建模、图像编辑、迷宫求解),并提出“帧链(CoF)”视觉推理概念(类似于LLM的“CoT”);见证了自然语言处理(NLP)近期从特定任务模型向通用模型的转变,所以有理
在提出需求时加入“以html的格式输出,html要可以直接运行,页面要提供可以直接下载word和excel的功能,”,在回答里的html代码上点击运行就可以生成报告页面,并下载文档。
【代码】GTP3 大模型。
《基于GPT-3、ChatGPT、GPT-4等Transformer架构的自然语言处理》由清华大学出版社出版,全面介绍了Transformer架构及其在自然语言处理(NLP)中的应用,特别是GPT系列模型的实践与实现。书中详细讲解了Transformer的原理,并提供了使用HuggingFace预训练RoBERTa模型的实用指南,涵盖数据集构建、数据整理器定义及模型训练等步骤。此外,书中还探讨了机
本文深入解析RAG系统中五种文本分块策略:1)固定尺寸分块简单高效但易破坏语义;2)语义分块基于内容相似度保持语义连贯;3)递归分块结合分层处理平衡效率与完整性;4)文档结构分块利用格式特征但依赖文档规范;5)LLM智能分块效果最优但计算成本高。文章通过对比矩阵指出语义分块的综合优势,强调应根据文档特性、资源条件选择合适策略,并提供了各策略的代码实现示例。技术文档可帮助开发者深入理解RAG系统的分
1.1 Transformer 的生态系统1.2 使用Transformer 优化NLP模型1.3 我们应该使用哪些资源1.4 本章小结1.5 练习题。
本文介绍了MCP与FunctionCall的本质差异及MCP协议的跨工具会话优势,重点讲解了MCP服务的环境配置、问题解决方案和开发实践。内容包括:MCP协议的JSON-RPC实现、UV工具替代pip的安装方案、IP查询服务开发示例、AI协作提示词工程模板,以及从本地开发到生产部署的全流程指南。文章还提供了企业级应用场景和性能优化建议,强调MCP在提升开发效率方面的重要价值,如将传统客服系统开发从
在人工智能领域,尤其是大型语言模型(LLM)的应用中,幻觉(Hallucination)现象一直是影响模型可靠性和准确性的关键问题。幻觉指的是LLM生成的文本要么毫无意义,要么与输入数据相矛盾。这不仅降低了用户体验,还可能导致严重的误解和错误决策。为了应对这一挑战,研究者们提出了多种策略,其中Agentic方法以其独特的逻辑链条和验证机制,在减少LLM幻觉方面展现出了显著的效果。在深入讨论Agen
最后如果你下载的deepseek-r1-abliterated自由未删减版本,你将会发现新大陆,恭喜你获得一只风骚又能怼的AI。2 月 9 日,人工智能企业最想要的域名ai.com 变更了跳转页面,该域名目前已跳转至。第3步. 下载并完成安装后,在Ollama官网搜索框中搜索deepseek。但是我们老是会遇到服务器繁忙,请稍后再试的情况,很是恼火。第5步:win+r输入cmd进入命令行,直接粘贴
变成数字[h, u, g]->get_stats:用zip错位技术,发现(104, 117)出现了。决策:决定把(104, 117)变成256。merge:用while循环和i指针,扫描整个列表:遇到104, 117-> 写入256,跳过两步。遇到其他 -> 照抄,跳过一步。结果:列表变短了[256, 103]。
这场“双王之战”没有绝对的赢家。选 GPT-5.2:如果你需要一个严谨的“德国工程师”,处理复杂的代码、逻辑和表格。选 Gemini 3 Pro:如果你需要一个充满灵感的“艺术家”,处理视频、创意写作和多模态内容。AI 的进化速度已经超过了人类的学习速度。现在的关键是:动手,让代码跑起来。
核心要求:GPU 计算能力(Compute Capability)需 ≥ 5.0,可通过验证显卡兼容性。nvidia-smi。
Zero-shot的概念很诱人,但是别说人工智能了,哪怕是我们人,去学习一个任务也是需要样本的,只不过人看两三个例子就可以学会一件事了,而机器却往往需要大量的标注样本去fine-tune。GPT模型指出,如果用Transformer的解码器和大量的无标签样本去预训练一个语言模型,然后在子任务上提供少量的标注样本做微调,就可以很大的提高模型的性能。GPT2则是更往前走了一步,说在子任务上不去提供任何
对于不同模态的数据,先使用特定模型进行编码 然后使用交叉注意力模块将不同模态的数据映射到一个空间中,然后再使用transformer进行计算PCME的核心思想是将不同模态的数据表示为概率分布,通过均值和方差来捕捉数据的不确定性和多样性。通过局部注意力机制和特定的损失函数,PCME能够有效地处理图像和文本之间的一对多对应关系,并提供更可解释的嵌入表示。
gpt-3
——gpt-3
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net