logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

大语言模型llm学习路线电子书 PDF、开源项目、数据集、视频课程、面试题、工具镜像汇总成一张「一键下载清单」

PDF 直链(main 分支):https://github.com/ZJU-LLMs/Foundations-of-LLMs/blob/main/books/Foundations_of_LLMs.pdf。直链:https://github.com/LLMBook-zh/LLMBook-zh.github.io/blob/main/LLMBook.pdf。PDF 直链:https://intro

#语言模型#学习
openrouter.ai 同时使用 Grok 4.1 Fast (free)KAT-Code XQwen3 kimi 预测kimi居然比grok-4.1-fast:free牛逼

摘要:本文介绍了在OpenRouter平台同时打开多个免费AI模型的方法。通过使用逗号分隔模型ID的URL参数格式,可以同时加载Grok 4.1 Fast、KAT-Coder-Pro、XQwen3 Coder和Kimi K2等模型。文章提供了详细的步骤指南,包括如何获取精确模型ID、构造URL以及调试技巧。若遇到模型加载失败问题,建议检查模型ID准确性,并通过浏览器控制台查看错误信息。最后给出了示

#人工智能#java#前端
百度免费大模型API深度解析 大厂llm大模型市场国产大模型API免费全平台对比指南,薅羊毛指南与实战建议 政策深度解析与

免费模型性能不缩水,ERNIE-3.5 已超越 GPT-3.5 Turbo支持 OpenAI SDK文档齐全,CSDN/知乎教程丰富国内备案合规,商用无风险阿里通义:免费额度少,QPS限制严智谱ChatGLM:需申请内测,流程繁琐讯飞星火:免费版模型能力较弱腾讯混元:企业用户优先,个人门槛高百度的方案在额度、速度、模型质量学生党做毕业设计独立开发者验证MVP中小企业降本增效现在就去开通吧,早点上车

#百度#dubbo#人工智能
类似OpenRouter大模型的聚合 / 中转 / 网关平台介绍 支持 kimi k2 gpt5 grok glm gemini minmax deepseek claoud等

如果你说一下自己是「要接到现有应用里做什么(聊天、图像、视频、RAG 还是纯科研)+ 部署环境(国内/国外)」以及「预算/支付方式」,我可以帮你直接给出 2–3 个最优组合和一个简单对比表。小结:如果你已经习惯 OpenRouter 的 OpenAI 格式接口和“一个 key 用一堆模型”,国外这几个里。下面按你要的「国内 / 国外」来列,主要挑和 OpenRouter 气质比较像的。这一块现在竞

#人工智能
SXM2版V100显卡很麻烦但很香:14B大模型速度超50!附折腾攻略RoverTangRoverTang希望能成为布道师和生活家

上面对比过了,单张32G的SXM2版V100,要价4K,而PCIe版的32G V100直接要价15K,这不抢钱嘛,而我组的16G版SXM2 V100,全部组好都不超过1.5K,双卡组成32G也比单卡便宜,更是PCIe版的零头都不到。不得不承认,速度也真的真的很重要,而对于速度,最为关键的,除了需要显卡,同样也需要足够的显存啊。另外,这年头显存贵,表示理解,结果连周边都变贵了,比如上文所述官方散热器

#生活#人工智能
SGLang:面向大模型服务化的高吞吐推理框架综述Structured Generation Language)

随着 Llama-3-405B、DeepSeek-V3、Kimi-K2 等千亿级模型密集开源,推理端“高并发、低延迟、低成本”成为新的技术瓶颈。在稀疏化、长序列、结构化生成三大趋势下,它已成为业界少有的“全栈、跨硬件、零门槛”开源基座。请求 → Pre-Schedule(Radix 前缀匹配、内存预算)→ Compute Batch(Prefill/Decode 分离)→ Sample(GPU)→

#sglang#人工智能
SGLang:面向大模型服务化的高吞吐推理框架综述Structured Generation Language)

随着 Llama-3-405B、DeepSeek-V3、Kimi-K2 等千亿级模型密集开源,推理端“高并发、低延迟、低成本”成为新的技术瓶颈。在稀疏化、长序列、结构化生成三大趋势下,它已成为业界少有的“全栈、跨硬件、零门槛”开源基座。请求 → Pre-Schedule(Radix 前缀匹配、内存预算)→ Compute Batch(Prefill/Decode 分离)→ Sample(GPU)→

#sglang#人工智能
大语言模型llm微调 Alpaca 微调范式、AdaLoRA、QLoRA 技术定位-核心原理-优势-局限与 PEFT 框架场景选型

PEFT 不是某一种算法,而是“大模型外挂式微调”的全家桶——冻结主干、只训插件,算法任你换,显存省 4–10×,存储省 100×,性能却与全量微调打平,已成为 Hugging Face 生态的默认微调方案。一句话总结:Alpaca 是“懒人流程”,AdaLoRA 是“会动脑子的 LoRA”,QLoRA 是“省到极限的 LoRA”,三者都落在 PEFT 的大伞下,按硬件和任务复杂度“点菜”即可。

#语言模型#人工智能#自然语言处理
分析BVH文件中来判断 崴脚等异常步态识别方法 人工智能机器人

在BVH文件中判断行动异常(如崴脚)与正常步态的差异,主要通过分析骨骼关节的运动数据(旋转角度、位置变化、时序特征等)。,辅以支撑期缩短、左右不对称等指标。建议结合临床步态分析工具(如OpenSim)进行生物力学验证。(示意图:正常踝轨迹 vs 崴脚内翻轨迹)使用Python库(如。:崴脚的BVH特征核心是。

#人工智能#机器人
    共 258 条
  • 1
  • 2
  • 3
  • 26
  • 请选择