logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Claude Code 完整学习手册:安装配置、CCR、MCP、插件与 Superpowers开发框架

本文介绍了2026年前沿的AI驱动开发范式,重点讲解Claude Code的安装配置与使用。主要内容包括:1)通过Claude Code Router(CCR)接入智谱、Kimi、ModelScope等国产大模型;2)使用CCSwitch工具一键切换模型配置;3)利用Superpowers工具解决AI编程代码混乱问题,实现TDD模式与子智能体分工;4)以Next.js 16、Supabase等技术

文章图片
#学习
Vibe Coding范式实战:用AI工具链(Stitch+Figma+ai studio+Trae)快速开发全栈APP

AI驱动的Vibe Coding开发范式实践 本文介绍了一种基于AI技术的"氛围编程"工作流: 设计阶段:使用Google Stitch通过自然语言生成响应式UI原型,导入Figma进行精细化调整 开发阶段:AI Studio将设计稿转为可交互的React/TypeScript应用,Trae生成Supabase后端代码 部署阶段:通过GitHub管理代码,Vercel实现自动化

文章图片
#人工智能#figma#github +2
【NeurIPS 2024】MDAgents:用于医疗决策的自适应大型语言模型协作

参考论文:MDAgents: An Adaptive Collaboration of LLMs for Medical Decision-Making医疗决策(MDM) 是一个复杂且多维度的过程,需要解读复杂的多模态数据,包括影响,电子健康记录(EHR),生理信息和遗传信息,同时还要快速将新的医学研究整合到临床实践中。已知LLM能够处理和综合大量医学文献与临床信息,并支持概率与因果推理,但是它们

文章图片
#语言模型#人工智能#自然语言处理
基于大型语言模型的多智能体制造系统用于智能车间

参考论文:A Large language model-based multi-agent manufacturing system for intelligent shopfloors这项研究介绍了一种基于大语言模型(LLM)的多智能体制造系统,旨在解决智能车间在面对多品种、小批量生产时的动态调度难题。该系统通过构建包含决策、思维、谈判及物理资源层的层级架构,赋予制造单元自主推理与协同作业的能力

文章图片
#语言模型#制造#人工智能 +1
【neurocomputing 2024】通过约束多目标强化学习实现个性化机器人控制

参考论文:Personalized robotic control via constrained multi-objective reinforcement learning。许多现实世界的控制任务需要在多个相互冲突的目标之间进行平衡,并同时确保所学策略符合约束条件。此外,个别用户通常希望通过特定的偏好来探索个性化和多样化的机器人控制模式。提出了一种新的约束多目标强化学习算法,用于具有连续动作的

文章图片
#机器人#机器学习#人工智能
【neurocomputing 2024】通过约束多目标强化学习实现个性化机器人控制

参考论文:Personalized robotic control via constrained multi-objective reinforcement learning。许多现实世界的控制任务需要在多个相互冲突的目标之间进行平衡,并同时确保所学策略符合约束条件。此外,个别用户通常希望通过特定的偏好来探索个性化和多样化的机器人控制模式。提出了一种新的约束多目标强化学习算法,用于具有连续动作的

文章图片
#机器人#机器学习#人工智能
【NeurIPS 2023】多目标强化学习算法工具库-MORL-Baselines

参考论文:A Toolkit for Reliable Benchmarking and Research in Multi-Objective Reinforcement Learning。人工智能研究中普遍存在着“复现性危机”。这并非源于学术不端,而是由多种复杂因素共同造成的。例如,许多AI模型的训练时间极其漫长,导致研究者难以进行严格、充分的统计分析;同时,论文中常常缺少关键信息,比如精确的

文章图片
#算法#人工智能#机器学习
【ICRA 2025】面向杂技机器人的分阶段奖励塑形:一种约束多目标强化学习方法

这项研究提出了一种分阶段奖励塑型方法,旨在简化机器人学习复杂特技动作的训练过程。研究人员利用受限多目标强化学习框架,将翻转、倒立行走等任务拆解为多个逻辑阶段,并为每个阶段独立定义奖励与成本函数。为了优化策略,该团队开发了名为 CoMOPPO 的新算法,能够同时兼顾多个动作目标并严格遵守安全约束。

文章图片
#机器人#人工智能#深度学习 +1
【NeurIPS 2019】一种多目标强化学习和策略自适应的通用算法

参考论文:A Generalized Algorithm for Multi-Objective Reinforcement Learning and Policy Adaptation。提出了一种适用于 带线性偏好的多目标强化学习(MORL)的新算法,目标是实现对新任务的少样本适配。在 MORL 中,核心目标是学习针对多个竞争目标的策略,而这些目标的相对重要性(偏好)对智能体而言是未知的。

文章图片
#算法#人工智能#深度学习 +1
到底了