logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RWKV-7 G1e模型发布,全面增强,下载量持续增加,用户好评

最近30天在HF和ollama有2190次模型下载,4月发布G1f

文章图片
#rnn#开源#语言模型 +2
RWKV-6-World 14B正式开源发布,迄今最强的稠密纯RNN大语言模型

2024年7月19日,RWKV 开源基金会宣布正式向全球开源 RWKV-6-World-14B 模型。RWKV-6-World-14B 是迄今最强的稠密纯 RNN 大语言模型。

文章图片
#rnn#语言模型#人工智能
Ollama 已支持 RWKV-7 模型,可灵活开关思考模式

Ollama现已支持RWKV7-G1和RWKV-7-World模型系列,用户可通过简单命令安装并运行这些模型。操作步骤包括下载Ollama、安装后运行指定模型命令,支持对话模式切换和上下文管理。推荐使用RWKV7-G1系列模型,还提供了RWKV Chat应用作为替代选择。用户可访问RWKV中文官网和社区获取更多资源与支持。

文章图片
#开源#人工智能#深度学习 +1
国产大模型 RWKV 发布新架构论文:基于矩阵值状态和动态递归的改进

RWKV 新架构:Eagle (RWKV-5) 和 Finch (RWKV-6),在 RWKV-4 架构的基础上进行了改进

文章图片
#语言模型#人工智能
RWKV开发者大会2025:全球数万开发者探讨RWKV-7超越Transformer

2025年2月22日,RWKV在上海漕河泾举办了主题为《RWKV-7与未来趋势》的开发者大会。来自全国各地的开发者、行业专家和技术创新者齐聚一堂——从知名高校实验室到前沿创业团队,现场涌动的创新能量印证了RWKV-7的优秀性能和深远意义。在RWKV开发者大会期间,有多位来自学界、企业及RWKV开源社区的嘉宾为开发者带来深度分享,现场观众与嘉宾热烈互动。

文章图片
#深度学习#人工智能#自然语言处理 +3
Stanford 团队展现 RWKV 多智能体优势,UVa 团队突破 RWKV 端侧性能

近日 RWKV 生态新增来自海外名校的两项工作:Stanford(斯坦福大学)团队的 RWKV 多智能体研究,和 UVa(弗吉尼亚大学) 团队的 RWKV 端侧优化研究。

文章图片
#人工智能#语言模型#自然语言处理 +2
Ollama 已支持 RWKV-7 模型,可灵活开关思考模式

Ollama现已支持RWKV7-G1和RWKV-7-World模型系列,用户可通过简单命令安装并运行这些模型。操作步骤包括下载Ollama、安装后运行指定模型命令,支持对话模式切换和上下文管理。推荐使用RWKV7-G1系列模型,还提供了RWKV Chat应用作为替代选择。用户可访问RWKV中文官网和社区获取更多资源与支持。

文章图片
#开源#人工智能#深度学习 +1
RWKV社区十一月动态:10篇新论文,G0a3 13.3B发布

PENG Bo发表关于大模型的认知的观点,同月发布RWKV7+ROSA完成数字颠倒任务Demo

文章图片
#深度学习#人工智能#rnn +4
RWKV7-G0b 13.3B 发布:RNN 的新一步

在 Uncheatable Eval 超越 Qwen3 14B。近期也更新了 1B 和 3B 模型。

文章图片
#rnn#人工智能#深度学习
RWKV 社区八月动态:RWKV7s 0.1B 发布,G0 13B 训练中,6 篇论文

2025年8月,RWKV社区迎来多项重要进展:模型方面,开源发布RWKV-7s 0.1B版本,并启动了13.3B大模型的训练,在三分之一进度时MMLU测试已达63.21%。学术研究取得突破,5篇新论文发表于IEEE TCCN、Interspeech等顶级期刊会议,涵盖4G/5G服务预测、语音识别、骨签匹配、图像超分辨率等多个领域。社区还参与了全球互联网大会,展示了RWKV技术的最新应用成果。这些进

文章图片
#深度学习#人工智能#rnn +2
    共 21 条
  • 1
  • 2
  • 3
  • 请选择