登录社区云,与社区用户共同成长
邀请您加入社区
生成式AI进入工业化落地阶段,云智融合成为关键趋势。云计算通过弹性算力、分布式存储和云原生架构三大核心能力,支撑大模型全生命周期需求;同时大模型推动云计算向"智能即服务"升级。云智融合架构针对训练和推理场景分别设计:训练阶段侧重分布式高吞吐架构,推理阶段采用弹性轻量化部署。大模型原生应用开发需遵循可扩展、高可用、低成本、云智协同准则,通过需求拆解、模型选型、资源匹配等全流程实践
文章系统梳理了AI Agent生态系统,从基础模型(GPT、Claude、Deepseek等)和应用场景(企业决策、内容生成、编程辅助、构建平台)两大维度展开。文章提供了基于问题定位、使用者和数据隐私需求的选型指南,并展望了多智能体协同、专业化模型和边缘化部署的未来趋势。
OwlerLite是一款解决传统RAG架构痛点的浏览器插件,通过引入用户自定义范围功能和语义级新鲜度检测,实现了"范围可控+信息新鲜"的检索体验。它采用SimHash+嵌入两级比对技术识别页面实质变化,为文本块添加范围、版本等元数据,并设计了SF@k、SL@k、R(q,t)三个指标量化范围忠诚度和信息新鲜度。实验证明该方案能提升范围忠诚度30%,减少越界泄露50%,为需要可控溯源的企业场景提供了低
AI Agent记忆系统分为短期记忆(会话级)和长期记忆(跨会话级)。短期记忆处理单次对话上下文,面临token限制,需通过上下文缩减、卸载和隔离等策略优化;长期记忆通过Record(记录)和Retrieve(检索)机制,实现跨会话信息存储和提取。各Agent框架如Google ADK、LangChain和AgentScope提供了不同的实现方案,而Mem0等开源产品已成为行业标杆。未来记忆系统将
北京大学等联合团队深入剖析了多模态大模型Token压缩技术的全貌,从视觉编码器、投影器到语言模型的全链路优化策略,并揭示高效多模态智能的未来演进路径。给多模态大模型瘦身已成为解决算力瓶颈的关键。Token压缩技术通过剔除视觉冗余,在保留核心语义的同时实现了训练与推理效率的指数级提升。北京大学等联合团队深入剖析了多模态大模型Token压缩技术的全貌,从视觉编码器、投影器到语言模型的全链路优化策略,并
摘要:本文提出了一种基于RAG(检索增强生成)和代码分析的旧系统现代化解决方案,针对企业遗留系统存在的代码规模大、文档缺失、维护困难等问题。方案采用结构化解析、语义拆分、向量化等技术路径,将系统理解转化为可检索、可复用的工程过程。通过五步标准架构(代码解析→语义拆分→向量化→RAG查询→生成工件),可自动生成规格文档、测试用例等成果物。该方案强调元数据管理、合理分块和精准查询设计,避免了传统AI方
Moltbot(原Clawdbot)作为一款开源AI个人助手,凭借其强大的任务自动化能力与多平台兼容性,已成为个人开发者、企业团队构建智能化应用的热门选择。为了方便大家快速部署,阿里云上线了Moltbot一键部署方案,无需复杂配置即可快速启用Moltbot,并实现与钉钉、QQ等消息通道的无缝对接,快速拥有专属AI助手!
文章是LangChain创始人Harrison Chase关于长任务Agent的访谈,探讨了AI从简单聊天向长时间执行任务的Agent演变。长任务Agent系统行为由代码和模型共同决定,引入了非确定性挑战。关键技术包括模型、框架和运行框架三大组件,上下文工程成为核心。2026年被视为"长任务Agent元年",传统软件公司面临范式转型,数据资产仍具价值但需全新工程方法。编程Agent可能成为通用AI
函数计算AgentRun的凭证管理系统解决了AI应用中入站(用户访问Agent)和出站(Agent访问外部服务)的凭证安全问题。通过动态更新机制和定时查询缓存,实现了凭证的安全存储、灵活配置和自动更新,无需重启服务。开发者只需在配置中引用凭证名称,系统自动处理敏感信息,大幅降低泄露风险,让开发者专注业务逻辑,提升AI应用的安全性和可用性。
AI手机在2026年迎来爆发元年,从APP时代向智能体(AI Agent)时代转变,手机将不再是APP容器而是超级智能体。这一转变带来摄影真实性争议、数据隐私挑战和监管难题。手机厂商需重视OS层面AI重构,否则可能面临淘汰。AI手机不仅是技术革新,更是推动人工智能普惠、拓展人类认知边界的重要途径。
本文将带你深入了解并亲手部署 Moltbot——一款具有高度“代理(Agentic)”能力的开源个人 AI 助理。不同于传统的对话机器人,Moltbot 能够接管操作系统、主动响应并跨平台执行任务。我们将利用 Amazon Bedrock 的强大模型能力和 AWS Systems Manager (SSM) 的安全通道,构建一套既私密又经济高效的 AI 架构。
尤其是在数据和算法应用日益广泛的情况下,立足法制,规范数据治理,为企业合规经营提供强有力的支撑,显得尤为重要。企业还需要对算法的实施效果进行持续的监控和评估,对存在的问题进行及时的修正和优化。例如,企业需要建立完整的数据安全管理体系,制定严格的数据使用政策,保证数据收集、存储、处理、使用、分享等过程的合规性。企业需要制定清晰的数据合规政策,明确数据合规的责任主体,实施严格的数据合规培训,保证全员参
这是我使用 aio-usb-drive 一段时间后的明显变化:🟢 一只 U 盘解决 90% 维护问题🟢 出现场不再慌🟢 装机和救援效率大幅提升🟢 工具不再散落🟢 运维准备更有底气系统维护是否有体系。
上海交通大学、新加坡国立大学、同济大学、伊利诺伊大学的联合研究团队提出了一种全新的轻量级奖励模型SWIFT(Simple Weighted Intrinsic Feedback Technique)。增强大模型能力,无需庞大外部奖励模型作为裁判了!上海交通大学、新加坡国立大学、同济大学、伊利诺伊大学的联合研究团队提出了一种全新的轻量级奖励模型SWIFT(Simple Weighted Intrin
本文展示vivo GPU平台的总体架构,介绍容器平台在大规模GPU容器集群稳定性建设措施,以及探索多种GPU容器降本提效的解决方案。分享AI工程训练平台大规模训练稳定性建设,及GPU利用率提升实践经验。
地域就近原则:选离目标用户 / 企业办公地最近的地域节点,降低网络延迟(比如北方用户选阿里云北京节点、腾讯云天津节点;华南用户选腾讯云广州节点、华为云深圳节点);生态配套:如果企业已有固定的开发框架、第三方工具,优先选能无缝对接的厂商(比如用飞桨框架做 AI,选百度智能云;用微信开放平台,选腾讯云)。只看价格,不看适配:部分小厂商价格比四大厂商低,但稳定性、售后服务和生态配套差,核心业务选小厂商,
A: 云上CPU&GPU资源弹性伸缩,本地资源不足时,自动快速溢出云上HPC及AI算力并且支持不同云厂商的CPU以及GPU资源,同时支持混合或多云模式。在绝大部分场景下,用户无需关注资源本身,只需要提交作业,平台会自动根据作业申请的资源数量自动弹性申请云上资源,并在作业结束后5分钟自动释放资源。北鲲云药物发现Cloud-HPC&AI解决方案,依托于强大的云端高性能计算技术,助力科研机构的研发工作提
近日,全国智能计算标准化工作组算力互联互通研究组启动会在北京正式召开,来自中国工程院、工业和信息化部、中国信息通信研究院、全国智能计算标准化工作组的领导及智算行业知名企业代表和业内专家共襄盛举,围绕推进算力互联互通展开交流碰撞,凝智聚力,共话行业生态,共谋算力发展。会上成立算力互联互通国家标准研究组,旨在联合各专家共同完善算力互联互通标准体系,推动算力互联互通发展,为数字经济高质量发展奠定坚实的基
openEuler@2024成功推出多个LTS版本,包括AI原生版本,展示了在智能技术领域的实力和全球影响力。该项目不仅在国内取得显著成就,还与多个国际开源组织合作,推动全球开源生态发展。openEuler 24.03 LTS作为首个AI原生版本,在基础设施、智能解决方案、全场景体验及核心组件等方面实现了显著升级,尤其是全新内核带来的性能提升和社区深度协同。该系统支持多样化场景和主流云平台,提供高
移动云《“东视西渲”算力服务》案例与《算网端到端质量感知保障方案》案例成功入选中国信通院“算力云服务领航者计划”2022年度优秀算力云服务案例名单,并荣获优秀案例奖牌!移动云作为数字经济国家队、主力军,正加速跨越式升级“算力网络”布局,并打造“一点接入、即取即用”的算力服务,为数字中国构建强大“算力底座”。《算网端到端质量感知保障方案》是移动云面向算网质量感知保障,首创覆盖入算、算间、算内全场景的
在AI大模型训练、影视特效渲染、金融高频交易等场景中,算力卡租赁已成为企业降本增效的核心工具。然而,面对A100、H100、4090等数十种型号,如何选择最适合的算力卡?本文结合行业趋势与算力租赁平台优势,为您拆解选型逻辑。
随着参数规模和网络结构复杂性的不断提升,大模型开发、训练和推理部署所面临的挑战愈发严峻,其研发依赖算法、算力和数据的综合支撑。**深度学习框架及配套工具为大模型的生产和应用提供了基础支撑,涉及开发、训练、压缩、推理和服务等多个环节。**此外,通过深度学习框架还可以实现与硬件的适配和协同优化,进一步提升硬件的计算和推理性能,降低大模型开发和应用的成本。由于大模型参数规模大,计算和存储的需求显著增加,
神鸟云自主研发调度系统,集智能引擎,数据分析,精准分发为一体的流量算力汇聚系统平台,一方面对接8大算力枢纽和10个集群一体化算力网络。另一方面整合个人和企业的闲置带宽、IDC、大数据存储设备资源接入调度平台,精准分发到各大云厂商,构建的CDN边缘微型节点,达到用户提高下载、视频观看的体验满意度。让企业降低成本,降低网络拥塞、实现绿色节能,资源提供方、合作客户、平台方多方共赢,为提升互联网用户体验贡
现场体验:开发者可亲临北方算网展位,体验北电云平台的实时模型训练与推理演示,感受秒级算力调度与成本优化效果。限时优惠:展会期间注册北电云平台的新用户,可获赠66免费算力额度及专属技术咨询服务。内置 PyTorch、TensorFlow 等主流框架,秒起环境、秒部署模型。通过云原生架构优化,AI训练效率提升40%,助力开发者快速迭代游戏AI功能。6万PFlops算力资源池随调随用,低延迟、高效率,拒
微软租用Nscale葡萄牙AI数据中心扩增算力
天翼云推出“一云多芯”一体化解决方案,不仅攻克了国产化适配难题,更通过通算智算融合架构,为政务、金融等关键行业提供了安全可信、弹性高效的算力基础设施,引领云服务进入“算力融合”新时代。未来,天翼云将持续夯实“一云多芯”技术体系,推动通算智算在政务、金融、工业等领域的规模化应用,为数字经济发展贡献更大力量。面对复杂的国产化算力生态,天翼云在通算领域展开深度技术攻坚。在网络架构层面,天翼云创新设计了“
基因大数据,一面是科技,一面是责任。以基因科技为核心,为行业提供“存、传、算、用”全栈式解决方案,用数据智慧为精准医疗保驾护航。客户故事人和未来从创业初期到现在,阿里云一直伴随其成长,人和借助阿里云FPGA云服务器算力更高、成本更低的优势,实现了将海量历史数据迁移上云,大大降低了本地高性能NAS的容量和性能压力。基因数据从测序仪下机后,样本数据通过闪电立方或专线上传到云端的OSS对象存储中,再通过
作为星汉未来云原生基础引擎系列的数据物流引擎 DTExpress 内测申请仍在持续开放中,并新增阿里云和华为云跨云异地传输功能以及算力市场功能。
2022 年 9 月 2 日,在世界人工智能大会“区块新生 数字宇宙——元宇宙技术与生态合作”分论坛上,阿里云弹性计算产品专家张新涛带来了题为《澎湃算力,同频沉浸》的主题演讲,本文为精华演讲内容。
近日,浪潮集团总工程师,浪潮云党委书记、董事长肖雪做客《人民邮电》报访谈间及中国算力大会“说了算”栏目,畅谈算力时代的机遇、挑战及发展趋势,分享浪潮在企业数字化转型上的创新实践。以下为第一期访谈内容:问:如何看待算力时代机遇和挑战?肖雪:算力是数字经济的核心生产力。未来的体系当中,数据、算力和算法将成为推动数字经济发展的一个体系,算力将会成为关键“底座”。截至2021年底,我国的数据中心机架规模已
进入项目后,选择“开发”,然后选择显存大于9G的配置,我选的是B1.large(B1.medium运存稍微有点不够),将最长运行时间选为“不限制”(这样你就可以手动开关项目啦~),最后点“确定”,等待开发环境运行即可!因为趋动云送的算力点很多,所以就准备在这个平台上试试ChatGLM-6B-int8。会弹出来两个网址,但可惜的是这两个网址我都没能打开,不知道github上网页版demo是如何打开的
作为云计算领域的创新先锋,共享云桌面以其高效、安全、灵活的特性,为企业和个人用户带来了前所未有的便捷与高效。采用先进的智能化云共享管理技术,把服务器集群算力、软件和数据等资源,通过企业内网或外网,智能共享给终端所有用户。这种模式,企业所有IT资源,可以集中存放到机房服务器集群上,实现集中管控和智能化共享,员工利用服务器资源,进行各种电脑设计办公业务。3.数据安全保障:企业云盘图纸数据上传、下载、浏
90%的AI团队转向算力租赁的真正原因:1.企业初期省下百万“入场费”2.闲置即亏损,用多少付多少3.节省算法团队重复造轮子时间4.零弹性成本,让企业永远站在算力浪潮之巅5.轻资产运营不是选项,而是生存许可证
原文地址 在科幻巨作《三体》里,刘慈欣有这么一段描述: 每秒500万亿次浮点运算的计算机,出现在“面壁计划”里。这是第二位面壁者雷迪亚兹看到的人类最强的计算力,用于顶尖的核爆模拟。 简单科普一下:浮点运算大概可以理解成对小数进行计算,是非常精细的运算模式。一般的应用场景例如
云手机可便捷连接至各类在线教育平台,涵盖从 K12 基础学科到高等教育专业课程,再到职业技能培训等丰富资源,学生不受地域和学校资源限制,获取全球优质教育内容,如身处教育资源相对匮乏地区的学生,借助云手机能学习国外顶尖大学的公开课,接触前沿学术知识,拓宽视野。云手机采用加密技术保障学生和教学数据安全。传统学习设备可能因配置有限,无法安装或流畅运行一些大型学习软件、在线课程平台等,云手机基于云端强大算
随着终端算力上移、云端算力下沉,在边缘形成算力融合,边缘计算逐渐深入多种应用场景,成为不可或缺的网络基础设施与支撑数字经济高质量发展的重要驱动力量。
我国现有云计算相关从业人员超过400万人。随着算力应用从信息通信领域向科技、工业、交通、医疗等领域加速拓展,云计算工程技术人员正在迎来更广阔的发展前景。
大模型后续投入需要更大的算力支出,更低的模型价格,更高的技术门槛。这意味着,淘汰赛已经开始了大模型竞争正在加剧。2023年之前,1万枚AI(人工智能)芯片的数据中心是基础大模型的入场券。2024年以后,基础大模型有朝着10万枚AI芯片为基础的方向演进的趋势。在这一背景下,微软、亚马逊、谷歌、阿里等拥有云计算业务的科技公司都在加大投入力度。大模型是“吞金兽”。硬件层面,它需要巨额资本支出用于采购芯片
这就是分布式云。
本文将以nanochat 模型的开发流程为例,演示如何在GPU平台上,借助弹性算力与共享存储机制,高效完成从原型实验到大规模分布式训练的全过程:
出品|网易科技《智见访谈》作者|赵芙瑶编辑|丁广胜云计算时代以来,云数据库以高可靠、高可用、高性能,高弹性、自动化智能部署与运维等优势,对传统数据库市场发起冲击。云原生数据库作为一种新型数据库技术,逐渐在国内外市场崛起,引领了行业的发展趋势。当前,云原生数据库已成为越来越多企业和开发者的首选。与此同时,人工智能、5G技术、ChatGPT的发展也为云原生数据库带来了新的机遇。越来越多的数据库厂商开始
杭州AI卧龙图》的发布,不仅是一次对杭州AI产业现状的全面梳理,更是对未来发展方向的一次清晰展望。通过精心挑选的108家代表性企业,展现了杭州在人工智能领域的深厚积累和广阔前景。这些企业覆盖了AI基础层、AI技术层和AI应用层三个层次,形成了一个完整的产业链条,为各行业的智能化升级提供了强有力的支持。会上,杭州市创业投资协会联合微链共同发布《杭州AI卧龙图》,慧星云荣登2025杭州AI卧龙图!慧星
云计算
——云计算
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net