
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
DeepSeek-R1-0528-Qwen3-8B 参数量为 80 亿,通过将 DeepSeek-R1-0528 的复杂推理能力蒸馏到较小的 Qwen3-8B 基座模型上,融合了 Qwen3 的多语言能力和 DeepSeek-R1 的推理优化,性能媲美 GPT-4,支持单卡高效部署,是学术与企业应用的理想选择。Nanonets-OCR-s 能识别文档中的多种元素,比如数学公式、图片、签名、水印、复

绑定到数据目录,可以理解为是一种数据的快捷方式,不需要任何的数据拷贝,在绑定数据之后就可以直接访问,无需额外拷贝时间。绑定到工作目录,是将指定的数据拷贝到工作目录里边,数据拷贝的速度和数据本身的规模有关且拷贝之后会占用额外的储存空间。可以看到我们默认的工作目录,也是 /openbayes/home 目录,输入命令「ls」就可以看到我们刚提到的工作目录中拷贝的数据。容器创建成功后,点击「打开工作空间

问题涵盖了历史、体育、科学、动物、健康等多个主题,并且每个问题都标有推理类型,如数值、表格、多重约束、时间性和后处理。该模型为 Llama 3.2-Vision 的 11B 参数大小的指令微调模型,针对视觉识别、图像推理、字幕和回答有关图像的一般问题进行了优化,支持英语、德语、法语等 8 种语言。该数据集包含了约 255 亿个 tokens 的医疗预料数据,涵盖了 6 种主要语言:英语、中文、日语

「使用 LlamaEdge 运行 Yi-34B-Chat 的量化模型」已上线至 OpenBayes 公共资源

可以看到,我们以只读绑定的形式将刚才的模型文件绑定到了我们的数据目录里边。这种方式不会占用我们自己的储存空间,但需要注意的是:绑定到 OpenBayes Home 目录里的文件将会占用一定的存储空间。因为 OpenBayes 的教程已经将所使用的依赖安装到了工作目录,因此这里我们只需要运行 web_ui 的这个文件就能将 Demo 跑起来。我们点击「启动页」,创建一个新的终端。首先,登录到 Ope

每周一小贝会在这里分享OpenBayes 平台的最新动态,包含过去一周上新的公共资源(模型、数据集、教程)以及功能更新等动态

经过无数次的试验和调试中,他们关注到了操作系统中经典的虚拟内存和分页技术,并基于此在 2023 年提出了开创性注意力算法 PagedAttention,其可以有效地管理注意力键和值,进而构建了高吞吐量的分布式 LLM 服务引擎 vLLM,实现了 KV 缓存内存几乎零浪费,具体来讲,vLLM 不再立即处理输出,而是延迟处理,在执行第 n+1 步的同时处理第 n 步的输出。该教程详细展示了如何对一个

GPT-OSS-20b 参数约为 210 亿,运行时仅需 16GB 内存,在常见基准测试里,其表现与 o3-mini 相当,这种轻量化设计使得它在边缘设备上也能轻松部署,无论是在本地推理,还是在对基础设施要求严苛的快速迭代场景中,都能发挥出色的效能。Neta Lumina 基于上海人工智能实验室 Alpha-VLLM 团队开源的 Lumina-Image-2.0,利用海量、高质量的二次元风格图像及

GPT-OSS-20b 参数约为 210 亿,运行时仅需 16GB 内存,在常见基准测试里,其表现与 o3-mini 相当,这种轻量化设计使得它在边缘设备上也能轻松部署,无论是在本地推理,还是在对基础设施要求严苛的快速迭代场景中,都能发挥出色的效能。Neta Lumina 基于上海人工智能实验室 Alpha-VLLM 团队开源的 Lumina-Image-2.0,利用海量、高质量的二次元风格图像及
