登录社区云,与社区用户共同成长
邀请您加入社区
PaddleX 3.0 是基于飞桨框架构建的低代码开发工具,它集成了众多开箱即用的预训练模型,可以实现模型从训练到推理的全流程开发,支持国内外多款主流硬件,助力AI 开发者进行产业实践。下面主要是官方文档,源地址:PaddleX 文档官方文档:开始使用_飞桨-源于产业实践的开源深度学习平台PaddlePaddle3.3安装,cuda12.6二、PaddleX安装注意:若您使用PaddleX的应用场
AI技术深度赋能行业应用 2024年全球AI市场规模突破1.8万亿美元,金融、医疗、教育、制造四大领域成为核心应用场景。 金融领域:AI信贷风控系统通过机器学习模型(如XGBoost)将审批效率提升80%,坏账率降低30%-40%;智能投顾结合Markowitz模型与算法优化,管理资产规模达1.2万亿美元。 医疗健康:AI辅助诊断系统在肺结节检测中敏感性达96.8%;药物研发周期缩短50%,成本降
摘要: 2024年全球AI市场规模突破1.8万亿美元,大模型应用占比37%。企业落地大模型需解决技术选型、性能优化和成本控制三大挑战。本文系统拆解四大核心模块: 微调技术:对比全参数微调、LoRA、PrefixTuning等策略,提供医疗领域LoRA微调实战案例,显存需求降低至8GB,精确匹配率提升35.8%。 提示词工程:提出金字塔设计方法论,提供客服分类、代码审查等企业级模板,结合少样本学习和
《大模型落地全景指南》系统阐述了从技术到业务的大模型应用路径。文章聚焦四大核心支柱:微调技术(含LoRA高效微调方法)、提示词工程、多模态融合及企业级解决方案,通过技术原理、代码实现和行业案例,详细解析各环节实施要点。特别强调企业落地需构建数据治理-模型训练-应用开发-安全审计全流程体系,并针对数据质量、计算成本等挑战提出应对策略。指出大模型落地的本质是技术适配业务,建议企业提前布局数据治理和人才
从高价值痛点切入:优先解决“客户投诉多、返工成本高”的环节(如终检、关键装配点);人机协同而非替代:AI做“重复性判断”,人做“异常决策”;数据闭环是关键:建立“检测→反馈→标注→再训练”机制,模型越用越准;标准化接口先行:提前规划与 MES/PLC/SCADA 的数据对接协议。在整机装配行业,飞桨不仅是算法框架,更是连接“物理产线”与“数字智能”的桥梁。它让每一颗螺丝的安装、每一条线缆的插接、每
将AI从“实验室演示”转化为“产线生产力”。结合数字孪生,构建“虚拟调试-物理执行”闭环;利用大模型(如文心4.5)实现跨工厂知识迁移;探索强化学习优化机器人抓取与装配路径。
跨框架部署实战:CANN 如何高效运行 PaddlePaddle 与 TensorFlow 模型?
本文介绍了在百度云平台Aistido上使用Paddledetection进行模型训练的完整流程。主要包括:1)Miniconda的安装与配置;2)创建conda环境并安装PaddlePaddle框架及相关依赖库;3)下载PaddleDetection源码;4)处理数据目录权限问题;5)修改配置文件启动训练;6)显存监控与优化;7)持久化安装与磁盘空间管理。文章详细记录了从环境搭建到模型训练的全过程
中心如何赋能百度飞桨(张江)人工智能产业赋能中心是浦东“大企业开放创新中心计划”首批企业代表,百度和张江集团将联合为入驻初创企业及生态合作伙伴提供以下服务:降低AI使用门槛通过“百度飞桨人工智能公共技术平台”,向上海地区导入飞桨和文心大模型的领先技术,降低企业与个人开发者使用门槛,将最先进的人工智能技术和计算资源,与企业的场景和需求深入对接,赋能上海企业打造属于自己的AI应用解决方案。加速企业孵化
2026年1月29日,“AI4Science 前沿:材料研发计算新范式——国产算力×深度学习框架技术沙龙·上海站”在张江百度飞桨人工智能产业赋能中心举办。本次活动由百度飞桨与沐曦联合主办,聚焦 AI for Science(AI4S)在材料科学领域的最新应用。来自高校、科研院所及企业的数十位开发者与技术专家齐聚一堂,共同探讨国产算力与深度学习框架如何协同推动材料研发的创新。
企业级AI助手系统方案摘要 本方案基于ModelEngine智能体平台构建全栈企业级AI助手系统,采用分层架构设计: 前端交互层:支持Web/移动端及企业IM集成 智能体层:包含问答处理、办公自动化、数据分析等模块化智能体 后端服务层:集成向量数据库、关系型数据库等基础设施 数据源层:对接各类业务系统 核心功能包括: 智能问答:支持意图识别、语义检索和多轮对话管理 办公自动化:实现文档处理、会议管
PaddlePaddle v3.3版本实现四大突破性升级:框架性能提升25%-35%,显存占用减少30%-40%,端侧推理延迟降低10%-25%;开发易用性优化,API学习成本降低40%;强化端边云协同部署与隐私计算能力;完善大模型生态和工业、医疗等专用领域套件。该版本通过架构重构和工具链升级,显著降低深度学习技术从实验室到产业现场的应用门槛,同时构建自主可控的国产化技术生态,为实体经济数字化转型
数据为王:高质量标注数据是工业AI成败关键,建议初期投入资源做样本清洗与增强。小模型优先:工业场景更看重稳定性与实时性,而非一味追求SOTA精度。闭环迭代:建立“部署→反馈→再训练”机制,持续优化模型。人机协同:AI辅助决策,而非完全替代人工(如可疑样本交由专家复核)。飞桨通过“算法+工具+生态”三位一体,真正实现了 AI 在工厂车间的规模化落地。它不仅是技术框架,更是推动制造业智能化升级的工程化
AI视频生成技术正引领"文本即视频"的创作革命。Wan2.2-T2V-A5B模型通过融合扩散架构与多模态理解,能将文字描述直接转化为专业级视频(1024×768分辨率/24fps)。本指南详解其技术原理,并展示三大核心应用场景:1)广告创意领域可快速生成多版本视觉方案;2)教育视频实现抽象概念动态可视化;3)短视频创作实现"创意-生成-发布"全流程加速。文章
量化优先:必须用4-bit量化(INT4),16GB GPU才能承载;内存扩容:CPU内存需≥32GB,否则无法加载量化模型;混合框架:无需将模型转换为飞桨格式,直接在飞桨环境中调用PyTorch加载(AI Studio支持双框架);控制长度:上下文窗口与生成长度不宜过长(建议≤2048+512),避免显存/内存溢出。若需长期使用,建议升级AI Studio付费版(A100 40GB显存),可直接
飞桨(PaddlePaddle)作为国产深度学习框架的代表,不仅技术成熟、生态完善,而且在中文社区支持、产业落地方面具有显著优势。无论你是AI初学者,还是希望将AI集成到实际业务中的开发者,飞桨都值得你深入了解和尝试。“始于易用,成于产业”——飞桨,让每个人都能拥抱AI。
本文提出了一种改进的AC-BIT模型用于遥感影像变化检测。针对样本不平衡问题,采用重采样和加权损失函数优化处理;通过对比实验选择ResNet34作为骨干网络,并引入空洞空间卷积模块(ASPP)和双注意力机制(CBAM)增强多尺度特征提取能力。实验结果表明,该模型在Liver-CD数据集上性能优于其他对比模型。论文系统阐述了从数据预处理、模型优化到实验验证的全过程,为遥感影像变化检测提供了有效解决方
调参是个玄学,但把握住前馈增益80%、PD参数先调D后调P的秘诀,基本能快速收敛。摘要:本文的研究对象为EEZYbotARM MK2三自由度机械臂,分析了其机械结构,建立D-H参数表,同时在MATLAB中建立该机械臂正逆运动学模型,对该机械臂进行高阶多项式插值法轨迹规划,写出复杂字。但实际调试时发现末端轨迹有抖动,果断在Simulink里加入加速度限制模块,效果立竿见影。针对系统设计了前馈控制、前
未来,赋能中心将持续深耕产业场景,与更多制造企业、生态伙伴携手同行,共同推动人工智能技术与实体经济深度融合,开创智能制造创新应用的新篇章。CTO高振宇将视角延伸至环保水务领域,分享了大模型技术在这一重大民生场景中的落地实践,进一步印证了“AI+行业”的跨界融合潜力。“人工智能+”产业发展行动这一国家战略在厦门地区的具体落地,通过技术赋能、场景创新与生态共建,汇聚政、产、学、研各方力量。案例中,传统
**摘要:**字节跳动推出的HunyuanVideo-Foley模型通过AI技术重构音效制作流程,将传统Foley制作从高成本专业团队协作(800-1500元/分钟)转变为智能化解决方案。该模型采用视觉-语义-声学三模态架构,实现视频内容到音效的精准匹配,支持12个行业场景定制化应用。核心创新包括事件理解技术(区分"玻璃破碎(意外/故意)"等细微差异)、物理模拟引擎及情感映射系
Llama 4是Meta于2025年4月发布的新一代开源多模态大语言模型(LLM)系列,包含ScoutMaverick和仍在训练中的Behemoth三个版本。混合专家(MoE)架构:首次在Llama系列中引入MoE架构,通过激活部分参数提升训练和推理效率。例如,Maverick总参数4000亿,但每次推理仅激活170亿参数。原生多模态融合:采用早期融合技术,将文本、图像、视频等数据统一处理,支持联
要么转static缺少.pdmodel文件,要么和cudnn、cuda版本各种不兼容。paddlepaddle和paddlenlp各种版本不兼容问题。paddlepaddle要升级到比较新版本。最后发现这两个版本搭配问题最少。paddlenlp千万升3.0。
近期,百度飞桨(南京)人工智能产业赋能中心正式揭牌,并启动公开试运营。据记者了解,百度飞桨与文心大模型在南京已有一定合作基础,目前累计服务4515家企业,重点赋能263家企业应用 AI。
PaddlePaddle(飞桨)是百度2016年开源的国产深度学习框架,提供从模型开发到部署的全流程支持。其核心优势包括:产业级模型库(如ERNIE系列在中文NLP领先)、动静统一开发模式、全流程部署工具链(支持多端部署)和高效分布式训练能力。特别在中文处理领域具有原生优化优势,广泛应用于NLP、CV、推荐系统等场景。作为平台级产品,PaddlePaddle凭借完整工具链、产业实践基础和中文本土化
帮了大忙,它让没有团队支持的我,也能有机会学习先进的人工智能知识。这次宝贵的开源经历不仅让我对大模型有了更深入的认识,也极大地提升了我的技术信心——只要热爱,肯钻研,不断寻找解决方法,就能完成任务!这是一次非常宝贵的实践经历,在这个过程里我逐步熟悉了企业中项目开发的版本控制、代码与文档的开发规范、PR 提交与审核及 CI 流程,并在 mentor 的指导下完成了相应任务。这段经历不仅让我熟悉了。
随着人工智能技术的迅猛发展,轻量级语言模型成为边缘设备和资源受限场景中的热门选择。百度近期推出的 **ERNIE-4.5-0.3B** 模型,在保持良好性能的同时,将参数规模控制在仅 0.36B,适用于对话、创作、问答等典型NLP任务。本篇博客将以实战为主线,介绍如何基于 **PaddlePaddle 框架** 快速安装和部署该模型,并配合 **FastDeploy** 工具,完成本地推理 API
本文介绍了基于百度飞桨平台开发中文文本分类模型的完整实战流程。首先详细说明了飞桨平台的安装配置和环境验证步骤,推荐使用GPU加速训练。接着展示了THUCNews中文新闻数据集的预处理过程,包括数据加载、标签编码、分词处理等关键环节。文章重点讲解了如何利用PaddleNLP工具高效完成文本数据的分词、编码和批量处理,并构建数据加载器。最后介绍了基于飞桨预训练模型的微调方法,为后续模型训练打下基础。整
| 分布式训练配置复杂度 | 极简 API(如 `fleet.distributed_runner`) | 需手动管理进程组、DDP/FSDP || 国产芯片支持 | 原生优化支持昆仑芯、昇腾 | 依赖社区或厂商适配 || 自动并行支持 | 内置完整 AutoParallel 框架 | 依赖 DeepSpeed / FSDP 插件 || 动静切换体验 | 动静统一,一键转换 | 动态为主,静态需额
paddlepaddle
——paddlepaddle
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net