登录社区云,与社区用户共同成长
邀请您加入社区
一种以结构为运算核心、自上而下的智能生成机制:将输入信息压缩映射为抽象结构,根据目标建立顶层逻辑骨架,经稀疏扩张与双向校验后,再填充自然语言完成表达。功能:把文字 / 问题 / 知识 → 抽象成结构,丢掉无关细节接收自然语言输入全局语义压缩、去冗余映射为高层逻辑结构(无文字、无 token)原始约束结构GSE 模型与 FHSR 架构是新一代 AI 生成范式中两个不同方向的原创性探索GSE 模型是
语义回归;大语言模型;CALM;通用人工智能
现在要选出"最佳歌手",你会怎么比?直接把分数相加?A=175分,B=175分,打平了!但直觉告诉你,A和B的风格不同,不能简单相加。这时候,你可能会想:“如果能把分数转换成’夺冠概率’就好了——谁的概率最高,谁就是最佳。,让AI能清晰地判断"哪个选项最可能是正确答案"。
Moltbook被渗透、OpenClaw被利用、以及Rent-A-Human的兴起,都在提示着我们,在忙于构建AI智能体的未来时,不应忘记有关信任、验证和控制等基本的安全问题。最近,人们在AI智能体的内部环境中进行了一项特殊的实验。但实验结果造成了相当大的混乱。该实验的目标是一个名为Moltbook的、仅限机器人间通信的社交平台。它类似一个数字化的生态系统,AI智能体可以在其中进行交互、共享信息,
今天,谷歌DeepMind「AI数学家」Aletheia彻底杀疯了,攻克数学猜想,独立写论文。更令人震惊的是,拿下金牌的Gemini一举横扫18大核心科研难题。下一个诺奖得主,Gemini提前预定了!谷歌DeepMind再次向全球科研圈扔出炸弹,一口气放出两篇重磅论文——Gemini Deep Think成为「科研合伙人」,连破数学、物理和计算机科学领域研究级难题。以前,AI可以拿下IMO、ICP
本文系统梳理了GPT系列模型的技术演进历程,从GPT-1的自回归预训练范式确立,到GPT-2展现规模效应,再到GPT-3实现千亿参数突破与涌现能力革命。重点分析了InstructGPT/ChatGPT通过RLHF实现价值对齐,以及GPT-4系列在多模态和推理能力的跃升。文章揭示了GPT成功背后的三大核心坚持:自回归生成、规模法则和通用基座路线,指出GPT不仅是一系列模型,更开创了从任务专用到通用智
for batch_x, batch_y in train_loader:# 遍历每个batch。optimizer.zero_grad()# 重要!train_bat_loss.backward()# 自动计算梯度。with torch.no_grad():# 关闭梯度计算,节省内存和计算。# feature_data: 特征数据(比如表格的X部分)model.train()# 设置模型为训练模
基于以上分析,我开发了 agent-notifier[3] 这个 SKILL,用 Hooks 实现确定性通知。Hooks > 提示词。凡是需要确定性执行的操作,都不应该用提示词去"请求"LLM 来做,而是应该用平台提供的 Hook 机制来保证。提示词适合控制生成内容的风格和方向,但不适合控制"是否执行某个操作"这类二元决策。另外,对话式开发的体验依然很好。从最初的想法到最终可用的 SKILL,整个
近期,一个来自加州大学旧金山分校的神经科学团队提出了一种新的机器学习算法——CellTransformer,仅花费几个小时就完成了对5只小鼠大脑图谱的分类和绘制工作。好消息,AI也可以帮科学家画脑图了!近期,一个来自加州大学旧金山分校的神经科学团队提出了一种新的机器学习算法——,仅就完成了对5只小鼠大脑图谱的分类和绘制工作。这五只小鼠大脑的基因数据中包含1040万个细胞,每个细胞包含数百个基因。但
币圈狠人Kris Marszalek,5亿买下AI.com,为自己抢下一张通往AGI的入场券。5个亿,买一张AGI的入场券?就在刚刚,Crypto.com创始人Kris Marszalek,豪掷7000万美元(约折合人民币5个亿)天价购入AI.com域名,整个硅谷科技圈炸了。Crypto.com联合创始人兼CEO Kris Marszalek,他在2016 年创立该公司,并表示其年收入已增长至15
我不知道 Vibe Coding 是谁发明的,不过在我经历了一些事情之后,我大概是这么理解它的: 就是用 AI 进行小作坊式的编程。最近换了新的工作,在做 AI 相关的产品,算是稳定下来了。那么就来聊聊这两年的一些想法吧。
漂移模型解决了生成式 AI 中质量与效率之间的基本权衡问题。传统的优质模型,如扩散模型,取得了优异的结果,但在推理过程中计算成本高昂。这项工作表明,在大幅降低计算需求的情况下,可以达到相似的质量,有可能使以前受推理速度限制的实时应用成为可能。该方法还强调了生成建模中鲁棒特征表示的重要性。预训练特征提取器的关键作用表明,自监督学习的进步直接有益于这一范式,在表示学习和生成之间建立了协同效应。
中国AI重大突破:Emu3多模态大模型登上《自然》封面 北京智源人工智能研究院在《自然》期刊发表重大研究成果——基于"预测下一个词元"的多模态大模型Emu3。这是中国科研机构主导的大模型成果首次登上Nature封面,标志着我国在AI基础研究领域实现从跟随到引领的跨越。 技术突破: 首次通过单一自回归目标统一文本、图像、视频三种模态学习 创新视觉分词器技术,将不同模态映射到统一离
传统RAG(Standard RAG)是一种通过检索外部知识库来增强大语言模型(LLM)能力的架构。它并非单纯的“检索+生成”,而是一个包含、**检索(Retrieval)生成(Generation)**三个核心阶段的闭环系统。
【硬核实战】一个人如何抵得上一支量化私募团队?本文打破传统工作流,实战演示了“AI 量化指挥官”架构:利用 Kimi K2.5 Agent 集群进行因子逻辑挖掘,引入岭回归 (Ridge Regression) 的 L2 正则化进行数学去伪,最后通过 Claude Code 原生实时调试功能实现工程落地。内含完整架构源码与可视化图表资源。
图注意力网络(Graph Attention Network, GAT)将注意力机制引入图结构数据,解决了传统图卷积网络(GCN)无法处理动态图和依赖特定图结构的局限性。在多智能体通信中,GAT 允许智能体 i根据自身状态与邻居智能体 j 的特征差异,计算出通过边j→i传递的信息的重要性。eijLeakyReLUaTWhi∥Whj其中,h代表智能体的特征向量,W是共享的线性变换矩阵,⋅∥⋅表
《落叶归根:专注焦虑的数字解药》 这是一款基于OpenHarmony的极简正念应用,用78行代码创造了一片对抗数字时代专注焦虑的"精神净土"。应用摒弃了传统专注工具的计时统计和成就系统,通过落叶飘散的交互设计实现"去目标化"体验:用户轻触生叶、滑动调节风向、静观落叶归根,整个过程不超过12秒。其设计哲学强调"当下主权"的回归,融合秋日色系
本文系统介绍了机器学习中不同任务的评估指标。分类任务使用准确率、精确率、召回率、F1值和ROC-AUC等指标;回归任务采用均方误差(MSE)、平均绝对误差(MAE)和决定系数(R²);聚类任务则使用轮廓系数、归一化互信息(NMI)和调整兰德指数(ARI)。通过实例分析,详细展示了这些指标的计算方法和适用场景。合理选择评估指标能全面反映模型性能,为模型优化提供依据。
GLM-Image是由智谱AI研发并开源的图像生成基础模型,采用"自回归生成器+扩散解码器"的混合架构设计。该模型以GLM-4-9B-0414为初始化基础构建90亿参数的自回归模块,配合70亿参数的扩散解码器,总计160亿参数规模。GLM-Image不仅在一般图像生成质量上对标主流潜在扩散模型,更在复杂文本渲染、知识密集型内容生成、多主体一致性保持等场景下展现出显著优势,同时支持文生图、图像编辑、
LangChain 是一个用于构建基于大语言模型(LLM)的应用程序与智能体(Agent)的开源框架。它通过标准化接口整合了模型、嵌入、向量存储、工具等组件,提供模块化的架构设计,帮助开发者快速构建具备复杂逻辑、实时数据交互和工具调用能力的 AI 应用。连接 LLM 与外部资源的“桥梁”,解决纯 LLM 存在的知识时效性差、缺乏工具调用能力、无长期记忆等问题。本文档详细介绍了 LangChain
摘要:移动应用兼容性测试面临设备碎片化等挑战,传统人工测试效率低。Appium框架通过跨平台支持实现基础测试,但存在脚本维护难问题。大模型技术(如GPT-4)为测试带来革新,可智能生成用例、转换脚本并预测缺陷。通过构建"三层验证体系"(智能规划、动态执行、智能分析),实现Appium与大模型的协同,显著提升测试效率。实战案例显示,该方案可使测试周期缩短72%,缺陷检出率提升40
这是 LLM 理解该工具的窗口。通常使用 JSON Schema 或 Pydantic 定义。// 示例:定义一个发邮件的 Skill 接口"description": "向指定收件人发送电子邮件,用于发送报告或通知。","recipient": {"type": "string", "description": "收件人邮箱地址"},"subject": {"type": "string", "
从智能助手自动订机票、写方案,到AI Agent 化身 “数字员工” 完成报告撰写、数据分析全流程,掌握大模型技能的人,正在拉开和同龄人的效率鸿沟。,不仅讲解理论知识,更结合 2025 年最火的 AI Agent、多模态应用等热点,带你掌握最新技术趋势,学的每一招都是职场刚需。从硬件选型到云端部署,从开源模型微调到手写神经网络,老师全程实操演示,让你拥有自己的专属大模型,真正把技术握在手里。因此,
【摘要】计算机视觉作为AI领域竞争最激烈的方向,企业高薪争抢人才,招聘月薪高达60K-150K。为帮助求职者快速掌握核心技术,唐宇迪团队推出《人工智能深度学习涨薪就业班》(14期),课程对标大厂P7+要求,涵盖计算机视觉、NLP、大模型等六大方向,包含450+课时、200+实战案例及30+应用场景。课程新增AR美瞳试戴、企业级RAG系统等前沿项目,提供一对一辅导、大厂内推等服务,助力学员实现40W
大模型的能力评估需覆盖知识广度、推理深度、任务适配性评测集全称核心能力维度数据规模适用场景MMLU通用知识、学科能力(57个科目)14k+选择题基础能力摸底、跨学科知识评估BBH复杂推理、逻辑思维、任务拆解200+子任务高阶推理能力、复杂任务处理评估TruthfulQA事实准确性、反幻觉能力817个问题幻觉初步筛查FactScore生成内容事实一致性自定义文本幻觉定量评估掌握了大模型多维度能力评测
Hbuilderx;Flask 是一个轻量级的 Web 框架,使用 Python 语言编写,较其他同类型框架更为灵活、轻便且容易上手,小型团队在短时间内就可以完成功能丰富的中小型网站或 Web 服务的实现。8、AI续写、AI优化、AI校对、AI翻译:新增AI接口,编辑器接入AI,可以实现AI续写、AI优化、AI校对、AI翻译,可以帮你实现自动化,ai帮你完成文档。对于本系统,我们提供全方位的支持,
大模型(如 7B/14B/70B)在实际生产环境的部署中,面临着从硬件资源到用户体验的多重挑战。这些痛点主要源于 Transformer 架构在大规模参数下的计算特性的瓶颈。KV Cache是无精度损失的基础加速技术,优先在所有场景启用量化技术是显存优化的首选,INT8平衡精度与速度,INT4适合极致轻量化模型蒸馏是边缘部署的核心方案,结合量化可实现10倍以上加速组合优化是生产环境的最佳实践:KV
Sam Altman 承认「搞砸了」,阿里芯片对标英伟达,国产三巨头 DeepSeek、Kimi、Qwen 同周炸场!| AI Weekly 1.26-2.1
02|上线 48 小时,15 万 AI 建宗教、争王位、还写了「人类灭绝宣言」
本文介绍了在Colab平台上实现线性回归模型的完整流程。主要内容包括:1) 参数优化与训练数据量的关系,讨论了batch size、更新次数等关键概念;2) 线性回归类的实现细节,涵盖初始化、参数更新和预测方法;3) 数据预处理与模型训练过程,包括数据读取、划分和可视化;4) 现代开发模式建议,强调理论创新与AI辅助编码的结合。文章通过Python代码示例展示了从数据准备到模型评估的全流程,并提供
如果输出维度大于1,去除多余的维度(例如从(batch_size, 1)变为(batch_size,))"D:\深度学习\第三节,回归实战代码\regression\covid\covid.train.csv""D:\深度学习\第三节,回归实战代码\regression\covid\covid.test.csv"# 跳过第一行(表头)和第一列(ID),转换为numpy数组并转为浮点型。# 训练集:
在AI持续迭代的推动下,**金融、医疗、制造、法律、媒体创意、物流运输和教育七大行业将被深度颠覆**,核心是自动化替代标准化劳动、AI辅助复杂决策、人机协作重构岗位。到2030年,AI将取代约9200万个传统岗位,同时催生1.7亿个新岗位,净增超过7800万。以下是基于2025-2026年最新趋势的深度分析
就此,智源提出了Emu3,基于“预测下一个词元”的全新多模态模型,将图像、文本和视频统一离散化到同一个表示空间中,并从零开始,在多模态序列混合数据上联合训练一个单一的 Transformer。在此研究基础上,悟界·Emu3.5进一步通过大规模长时序视频训练,学习时空与因果关系,展现出随模型与数据规模增长而提升的物理世界建模能力,并观察到多模态能力随规模扩展而涌现的趋势,实现了“预测下一个状态”的范
好写作AI的经济学实证辅助,其最终目标不是生产复杂的“计量炫技”,而是。
对于个人开发者:从应用一 (视觉 RPA)入手。利用 Kimi 看图的能力,写一个自动化抢票、自动化填表的脚本,成本最低,效果最惊艳。对于企业应用二 (金融/文档分析)是刚需。结合 Kimi 的长上下文和私有化部署 (vLLM),可以构建极其安全的企业知识库。技术门槛:以上应用都需要API 化部署Kimi-K2.5。你需要一台显存约 48G-80G 的服务器(或使用量化版 + KTransform
传统测试方法难以应对设备多样性、硬件依赖性和漏洞隐蔽性,而Firmadyne作为开源自动化工具,通过固件仿真与动态分析,为测试人员提供了高效解决方案。随着IoT安全威胁升级,Firmadyne的演进方向包括:多架构支持(如RISC-V)、AI驱动的漏洞预测模型。:集成Metasploit框架,支持60+已知漏洞检测(如SNMP协议暴露、后门程序),并可通过脚本扩展自定义规则。访问模拟的Web接口(
摘要:Appium框架为移动应用输入安全测试提供了高效解决方案,支持跨平台自动化验证SQL注入、XSS等安全漏洞。通过WebDriver协议实现真实操作模拟,结合PageObject模式封装测试逻辑,可执行边界值测试、协议漏洞检测等场景。实践表明,该方法能提升65%测试效率,未来将通过AI技术进一步增强测试智能化。文章详细阐述了环境配置、元素定位、用例设计等关键技术,为构建自动化安全测试体系提供实
是 翻译官与礼仪老师:确保用户的话被翻译成模型能理解的“任务指令格式”。是 建筑图纸:决定了模型有多大、多深、能记多少东西。是 职业技能:存储了“如何拆解任务”和“如何写代码”的实际经验。是 交通指挥灯:关键时刻喊停,防止模型自嗨,确保“人机(模型与代码)协作”的节奏。这套文件系统使得 AgentCPM-Explore 不仅仅是一个生成文字的机器,而是一个能够操作计算机接口的智能中枢。这三大创新点
一、核心升级:TCN-BiLSTM 的优势与适配场景1.1 为什么用 BiLSTM 替代 LSTM?普通 LSTM 仅能单向捕捉时序依赖(从过去到现在),而 BiLSTM 通过前向 LSTM(捕捉过去→现在)和后向 LSTM(捕捉现在→过去)的双向融合,能:•更全面提取时序特征(比如机器人运动的 “历史惯性”+“未来趋势预判”);•缓解长序列依赖的信息衰减(尤其时间窗长度>30 时效果更明显);•
一、引言:时序多输出预测的痛点与破局方案1.1 多输出时序预测的核心困境在 SLAM、光伏功率、风电预测等场景中,我们常需要同时预测多个相关输出(比如机器人同时输出位姿 (x,y,θ) 和运动状态 (v,ω)、光伏同时输出功率 + 辐照度预测),传统方案存在 3 大痛点:模型割裂:用多个单输出模型分别预测,忽略输出间的相关性(比如 x 位置与线速度 v 强相关);时序建模弱:单一 LSTM 难以捕
水稻叶部病害的早期准确检测对于精准农业至关重要,然而在资源受限的移动设备上部署高性能目标检测模型仍然是一个重大挑战。在本工作中,我们提出了N−EIoU−YOLOv9N−EIoU−YOLOv9,一个轻量化检测框架,其核心是一种源自非单调梯度聚焦和几何解耦原理的信号感知边界框回归损失,称为N−EIoUN-EIoUN−EIoU(非单调高效交并比)。
是五官:负责听和看。mem_cube是血液细胞:包裹着氧气(数据)在全身流动。是心脏:控制血液流动的节奏(快慢车道)。mem_infra是大脑皮层:负责物理存储记忆。是睡眠机制:在休息中整理记忆,遗忘琐事。这套系统让 MemOS 不仅仅是一个“存东西的地方”,而是一个活的、会呼吸、会遗忘的操作系统。解决了“多源异构数据难以索引”的工程难题。在没有 MemCube 之前,想要把“一张图片”、“一段聊
是施工蓝图:它规定了模型有两只眼睛(理解/生成),虽然共用一个大脑。是全能大脑:它存储了逻辑推理、视觉审美和语言常识的所有经验。是翻译官:它确保外部输入的图片和文字能被转化为大脑理解的标准格式。tokenizer和是外周神经:负责最初的信号采集和最后的信号还原。它可以直接根据当前的对话上下文(文本)和环境观察(图像),在同一个潜空间内做出决策并直接生成视觉反馈,极大提高了多模态 Agent 的响应
回归
——回归
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net