logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

央视再度聚焦|OpenCSG用先进混合远程办公支持生育友好

上海试点"生育友好岗"应对人口挑战,OpenCSG获央视关注。作为首批试点企业,OpenCSG设立弹性工作岗位,让员工实现工作育儿两不误。AI工程师沈佳璐等职场父母通过灵活办公机制,既保障工作效率又兼顾家庭责任。公司创始人陈冉倡导"以人为本"管理理念,认为家庭责任能激发创新动力。目前上海已有500多家企业参与该试点,惠及6000余人。OpenCSG作为全球领先的开源大模型平台,不仅推动技术创新,更

文章图片
#人工智能
又获奖项| OpenCSG于2025 AI生态创新大会投融资路演专场获奖

2025AI生态创新大会在上海成功举办,聚焦人工智能技术与产业融合。大会围绕大模型生态、AI应用等核心议题展开讨论,OpenCSG凭借"AI原生"方法论和产品实践获投融资专场二等奖。其提出的AgenticOps框架打通模型全生命周期管理,展示的CSGHub和CSGShip平台实现"模型-数据-算力-应用"闭环。作为全球第二大开源大模型社区,OpenCSG将持

文章图片
#开源#人工智能
又获奖项| OpenCSG于2025 AI生态创新大会投融资路演专场获奖

2025AI生态创新大会在上海成功举办,聚焦人工智能技术与产业融合。大会围绕大模型生态、AI应用等核心议题展开讨论,OpenCSG凭借"AI原生"方法论和产品实践获投融资专场二等奖。其提出的AgenticOps框架打通模型全生命周期管理,展示的CSGHub和CSGShip平台实现"模型-数据-算力-应用"闭环。作为全球第二大开源大模型社区,OpenCSG将持

文章图片
#开源#人工智能
自主金融的未来蓝图:构建下一个全球经济的操作系统

我们正处在一场深刻的结构性变革的黎明,其意义将超越以往任何一次技术革命。人工智能(AI)的预测与决策能力,正与Web3提供的无需信任的、可编程的价值网络进行历史性的融合。这并非简单的技术叠加,而是在为全球经济创造一个全新的、自主运行的底层操作系统(Operating System)。在这个新范式中,金融服务将不再是由人类机构在封闭系统中手动执行的流程,而是由自主的AI代理(AI Agents)在开

文章图片
#金融
1.5B小模型逆袭!DeepScaleR如何用强化学习颠覆AI数学竞赛规则

然而,近期,加州大学伯克利分校的研究团队通过开发一款1.5B参数的DeepScaleR模型,并通过强化学习(RL)微调,成功超越了OpenAI的o1-preview。通过精巧的训练方法和高质量的数学数据集,他们在1.5B参数的小模型上成功应用了强化学习,提升了推理能力,并超越了OpenAI的o1-preview。例如,在使用大量参数和上下文的传统大模型训练时,训练成本通常会达到数百万美元,甚至更多

文章图片
#人工智能#算法
英伟达推出Nemotron-70B:强大开源语言模型,基准测试中全面领先!

此外,Nemotron在处理复杂问题时展现出惊人的推理能力,能够在没有特别提示的情况下,轻松回答如「草莓有几个r」这类经典难题。在多项基准测试中,这一基于Llama 3.1的模型表现卓越,分别在Arena Hard、AlpacaEval 2 LC和MT Bench中夺得第一名,标志着开源模型性能的重大突破。Nemotron-70B不仅提升了自然语言生成的质量,还在推动开源模型的发展方面树立了新的标

文章图片
#语言模型#人工智能#自然语言处理
强大的8B 视觉语言模型|Idefics2介绍

强大的8B 视觉语言模型|Idefics2介绍

文章图片
#人工智能
传神社区|数据集合集第1期|中文NLP数据集合集

传神社区|数据集合集第1期|中文NLP数据集合集

文章图片
#人工智能
Moonlight-16B-A3B: 变革性的高效大语言模型,凭借Muon优化器打破训练效率极限

这款全新的Mixture-of-Experts (MoE)架构的大型语言模型,凭借其创新的训练优化技术,特别是Muon优化器的使用,成功突破了训练效率的极限,展现出强大的性能表现。Moonshot AI团队发现,当模型的参数规模增加时,优化过程中的一些“偏向性”问题可能导致训练过程不稳定,进而影响最终模型的表现。分布式训练是大规模模型训练不可避免的挑战,如何在多个计算节点之间高效传输数据,避免计算

文章图片
#语言模型#人工智能#自然语言处理
DeepSeek 开源狂欢周(一)FlashMLA:高效推理加速新时代

这周一,DeepSeek的“狂欢周”第一个开源项目FlashMLA如期而至,OpenCSG社区为您带来了FlashMLA项目的介绍,并将其第一时间上架,让我们共同探索这一高效推理加速的新时代!无论是大型企业的推理任务,还是开发者面临的资源瓶颈,推理的速度与成本都直接影响着AI技术的广泛应用。在千亿模型推理场景下,FlashMLA将单次推理能耗降低至0.02 kWh,相比传统方案(约0.05 kWh

文章图片
#开源#人工智能
    共 172 条
  • 1
  • 2
  • 3
  • 18
  • 请选择