logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

实验室配置openclaw(免费token版)

如果实验室有一台大家一起用服务器,能跑大模型,那么OpenClaw的token费用不用愁了,免费免费!这里详细介绍一下配置步骤。

#人工智能
0基础小白简单安装使用OpenClaw教程极简版

Ollama 会自动检查并通过 npm 安装 OpenClaw,弹出模型选择器,选我们刚刚在步骤3下的模型即可,启动 TUI,直接在终端聊天即可。如果想用更厉害更大的云上模型,在ollama处登录账号写入API就可以啦,这里就不赘述,这部分要付费。可以本地安装OpenClaw,用付费的模型API,然后按照token付费。你只需要一台windows电脑,我看了安装OpenClaw的方法还集思广益了别

文章图片
#人工智能
我断言OpenClaw发展走不远

那就是覆盖各种生活场景的APP账号没法都连到OpenClaw的,美团、抖音、淘宝、支付宝等等这些用户信息是很宝贵的,但是对我来说我很多生活场景是想只有一个输入的接口,然后拿到最实惠最高效的方法买到东西,找到最好的资料,现在情况是背靠不同的大公司大集团,这些生活场景依托的APP信息是不连通的。所以我觉得最根本的利益立场出发,OpenClaw很难走很远,但是每个集团有自己的小龙虾,像千问一样只调用自己

#人工智能#算法#学习
结合猛猿博客阅读VLLM代码5: 离线和在线推理

六.倒回去看llm.py llm类看函数 generate函数和chat函数 这个放在下面异步和同步的内容offline看benchmarks\benchmark_throughput.pymain函数入手backend 为vllm ,async_engine==False为default(1)进入run_vllm函数 定义LLM 到vllm\entrypoints\llm.pyLLM 定义LLE

#python#人工智能#算法
AI Agent学习:MetaGPT项目之RAG

examples文件夹下分析rag_pipeline.py用到的类RAGExample。

#学习#人工智能#算法 +1
Deepseek系列从v3到R易背面经版

训练时:1. 把前一个block中input tokens经过embedding layer和transformer block的输出,进入output head之前的内容记为h,与下一个block的input tokens经过embedding layer输出的内容都经过rmsnorm后concat 再送入projection和block。这是causal chain的连接关系,在embeddi

文章图片
#开发语言#人工智能
AI Agent学习:MetaGPT之我的工作

对于llm 如果max_model_len不能承受更多的话,需要修改metagpt\provider\openrouter_reasoning.py对于rag案例:需要修改metagpt\rag\schema.py。

#人工智能#学习#flask
国产化AI推理部署系统集成工作的经验心得

一般来说,很多厂商的给的SDK demo都名目繁多,比如华为的昇腾推理的示例超级多,并且超级乱,cann samples还有mindx,谁看谁迷糊,有机会一定要问,提issue或者观察一下人家写的和自己内部要兼并的SDK有无共同之处。如果有一些对齐变量的需求,比如格式转换,图片格式,变量格式等等,一般厂商提供的某个相关的库里会有用到的函数,注意版本如果不是最新,翻看最新的版本文档。比如python

文章图片
#人工智能
结合猛猿博客阅读VLLM代码4: KV Cache Manager

已计算3token] [缓存4token] [新6token] [块1:3token] [块2:4token] [块3:4token] [块4:2token][已计算8token] [新3token] [预分配] [块1:4token] [块2:4token] [块3:3token] [块4:空][已计算6token] [新5token] [块1:4token] [块2:4token] [块3:3

#spring#java#前端
    共 16 条
  • 1
  • 2
  • 请选择