logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

TTS:F5-TTS,MegaTTS3,fish-speech,Spark-TTS

F5-TTS是一款在英文生成领域表现卓越的文本转语音(TTS)工具,其发音标准程度在评测中名列前茅。该工具支持多角色生成模式,能够一次性为多个角色和情绪生成对话式语音,功能独特。F5-TTS的最低配置要求低,无需显卡,仅需CPU即可推理生成,且生成速度在所有TTS工具中耗时最低。项目启动方式包括傻瓜式启动和部署式启动,用户可以通过简单的命令行操作快速启动服务。F5-TTS支持流式匹配,能够模仿流利

文章图片
#人工智能
DeepSeek:OCR 上下文光学压缩

我们提出了 DeepSeek-OCR 并初步验证了通过该模型实现上下文光学压缩的可行性。实验表明,该模型能够有效解码的文本 token 数量超过少量视觉 token 的十倍以上。我们认为,这一发现将有助于未来 视觉-语言模型(VLMs) 和 大语言模型(LLMs) 的发展。此外,DeepSeek-OCR 是一个高度实用的模型,能够生成大规模的预训练数据,是 LLMs 训练过程中不可或缺的助手。

文章图片
#人工智能
LLM:RAG,设计模式,Agent,MCP

检索增强生成(Retrieval-Augmented Generation, RAG) 是指在使用大语言模型回答问题之前,从外部知识库中检索相关信息的技术。RAG 已被证明能显著提升回答的准确性,减少模型幻觉,尤其是在依赖知识的任务中表现尤为出色。尽管可以通过神经网络微调,但它需要消耗大量计算资源,成本高昂,且需要专业技术知识,因此难以适应不断变化的信息环境。

文章图片
#设计模式#人工智能#机器学习
Claude Code:Claude Skills,SpecKit,OpenSpec

LangChain 是一个基于大型语言模型(LLM)开发应用程序的框架,简化了LLM应用程序的开发、生产和部署过程。

文章图片
#人工智能
多智能体通信:基于通信的多智能体强化学习研究综述

题目:A Survey of Multi-Agent Reinforcement Learning with Communication出处:arXiv 2022摘要:通信是协调多个智能体行为的有效机制。在多智能体强化学习领域,智能体可以通过通信来提高整体学习性能并实现其目标。此外,智能体可以通过特定渠道向所有智能体或特定智能体组传递各种类型的消息。随着越来越多的通讯研究工作(Comm MARL)

#学习
多智能体强化学习:深度强化学习的多样性驱动探索策略

题目:Diversity-Driven Exploration Strategy for Deep Reinforcement Learning出处:NeurIPS 2018,人工智能的顶级会议。摘要:在强化学习中,有效探索仍然是一个具有挑战性的研究问题,特别是当环境包含大的状态空间、欺骗性或稀疏的奖励时。为了解决这个问题,我们提出了一种多样性驱动的探索方法,该方法可以很容易地与非策略和非策略强化

#人工智能
LLM:vLLM,MoE,Qwen,DeepSeek

【vLLM】适合大批量 Prompt、对推理速度要求高的场景。核心是 Continuous Batching(iteration 级动态调度)和 PagedAttention(类虚拟内存分页),在高并发下仍保持高吞吐。优点:生成速度快;高吞吐,支持多种解码算法;兼容 OpenAI API。缺点:自定义模型困难;不支持 LoRA / QLoRA 等适配器。

文章图片
#人工智能
LLM:vLLM,MoE,Qwen,DeepSeek

【vLLM】适合大批量 Prompt、对推理速度要求高的场景。核心是 Continuous Batching(iteration 级动态调度)和 PagedAttention(类虚拟内存分页),在高并发下仍保持高吞吐。优点:生成速度快;高吞吐,支持多种解码算法;兼容 OpenAI API。缺点:自定义模型困难;不支持 LoRA / QLoRA 等适配器。

文章图片
#人工智能
ChatBI:Agentar-Scale-SQL 通过编排式测试时扩展推进 Text-to-SQL

当前最先进(SOTA)的 Text-to-SQL 方法在 BIRD 等高难度基准上仍显著落后于人工专家。现有探索测试时扩展(test-time scaling)的方法缺乏统一的编排策略,也忽视了模型的内部推理过程。为弥合这一差距,我们提出 Agentar-Scale-SQL,一种利用可扩展计算能力提升表现的新框架。Agentar-Scale-SQL 实现了一种 编排式测试时扩展策略(Orchest

文章图片
#人工智能
强化学习:蒙特卡罗,时序差分,多步时序差分

动态规划是基于模型的强化学习方法,但在实际情况下,环境的状态转移概率及回报往往很难得知,此种情况下,动态规划就不再适用了。这时候可考虑采用无模型方法通过采样的方式替代策略评估,蒙特卡罗方法就是基于这个思想。 

文章图片
#机器学习
    共 102 条
  • 1
  • 2
  • 3
  • 11
  • 请选择