
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
DeepCoder-14B-Preview 是一种专为代码推理设计的大型语言模型,它基于 DeepSeek-R1-Distilled-Qwen-14B 进行了微调,并利用分布式强化学习(RL)扩展到长上下文长度。该模型在 LiveCodeBench v5(2024 年 8 月 1 日至 2025 年 2 月 1 日)上实现了 60.6% 的 Pass@1 准确率,相较于基础模型(53%)提高了 8

对比一下RNN/LSTM/GRU的区别。

SGD是最基础的优化算法,每次迭代仅使用或计算梯度并更新参数。其中η是学习率,∇θ J是损失函数对参数的梯度。

NovelAI发布动漫风格图像生成模型NAID V2,基于Stable Diffusion框架进行多项升级。主要改进包括:训练分辨率提升至1024×1024;引入UC Strength参数独立调节负向提示词权重;重构提示词体系,新增质量、美学和年代标签。对比V1版本,V2在图像细节、色彩表现和构图合理性方面均有提升。团队已启动V3研发,并举办万圣节主题生成比赛。该模型为动漫风格图像生成提供了更高质

论文总结了 MiMo-7B 的研究工作,表明该模型通过优化的预训练和微调过程,释放了高级推理能力。MiMo-7B-Base 在预训练中展现出卓越的推理潜力,而 MiMo-7B-RL 在数学、代码和通用任务上展现出了卓越的推理能力。技术点章节说明多标记预测(MTP)第二章通过预测多个标记来加速推理过程数据预处理优化第二章提高数据质量和推理模式密度三阶段数据混合策略第二章提升模型在不同任务和领域的推理

目前最强大的开源具身智能模型速览:RoboBrain2.0-7B

通义万象1.3B测试(文生视频)

nanoVLM 是一个极简的视觉语言模型(VLM)训练和微调代码库,采用纯 PyTorch 实现,代码简洁易读,强调教育价值而非追求最新性能。模型结构包括视觉骨干网络、语言解码器、模态投影和 VLM 本身,总代码量约 750 行。使用 SigLIP-B/16-224 和 SmolLM2-135M 构建的 222M 参数模型在 MMStar 数据集上达到 35.3% 的准确率。项目提供了快速入门指南

Llama-3.1-Nemotron-Nano-VL-8B-V1

《Fast Text-to-Audio Generation with Adversarial Post-Training》论文提出了一种新的文本到音频生成加速方法,旨在解决现有系统推理速度慢的问题。该方法通过对抗相对论-对比后训练(ARC)替代传统的蒸馏方法,避免了高成本和性能损失。ARC结合了对抗相对论损失和对比损失,提升了生成多样性和文本遵循性。实验表明,ARC在保持音频质量的同时,显著提升









