
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
后续RAG公司没有从根本上去解决这个问题,而是不断的在其上打补丁比如,加入实体图搜索,在数据预处理上进行大量场景定制,在召回策略上也要进行场景定制。这代其实RAG受限于当时的技术条件而诞生的一个技术,那个时候大模型窗口普遍4-8k,并发少,速度慢,模型效果也一般,所以只能采用传统技术来做召回,并且采用小模型(rerank)来做排序。随着大模型技术的发展,我们推出了第二代 RAG , 该RAG核心是
InfiniSynapse 的团队因为非常懂 Agentic (早期auto-coder的作者),可以做到数据领域最好的 Agent, 并且底层集成了InfiniSQL, 一个非常适合AI使用的SQL语言(经过几年的大模型适配),并且拥有全球最好的的知识库的支撑,让 Data Agent 拥有最好的工具和知识,从而获得最好的效果。2025年实际上Data Agent 是大模型刚出来,大家去做的第一
而 Agents 则是根据当前项目状态,选择合适的agent 完成工作,然后只做review ,比如如果需要修改文件,他会调用 /coding 工具,并且用文字,二次阐述要做什么,/coding Agent 会根据他的描述,实现具体的需求。可以看到,基本调用一次工具,就是发起一次新的请求,再流式解析和调用,这样相当于把当前的现状(修改结果),大模型重新进行了获取,从而能够指导接下来如何做决策。我们
今天一大早就看到了一篇文章,叫【大数据对于运维的意义】。该文章基本上是从三个层面阐述的:工程数据,譬如工单数量,SLA可用性,基础资源,故障率,报警统计业务数据,譬如业务DashBoard,Trace调用链,业务拓扑切换,业务指标,业务基准数据,业务日志挖掘数据可视化当然,这篇文章谈的是运维都有哪些数据,哪些指标,以及数据呈现。并没有谈及如何和...
如果以大模型为Kernel, 形成一个新的操作系统,那么:1. byzer-llm 是这个大模型操作系统的编程接口,有点类似Linux操作系统的C ABI。2. byzer-retrieval 也被集成进 byzer- llm 接口里,算是大模型操作系统的文件系统,应用可以通过python API 使用这个文件系统。3. byzer-agent 算是应用开发框架,并且支持分布式,跨多机。3. a.
运维同学很多工作其实就是在命令行里操作服务器,尽管目前有很多可视化的工具,但是命令行(ssh 登录)依然不可或缺,甚至依然还占据着主要工作。这意味着运维同学需要掌握大量和服务器操作系统以及shell相关的知识,记住大量的命令。现在,我们希望,通过自然语言,配置和操作我们的服务器,并且最好还是以 terminal的方式支持。auto-coder.chat 是一个基于命令行AI辅助编程工具(也支持 W
大家都在积极的开发基于大模型的应用, 尽管大模型在前端,传统web,APP ,小程序等开发上展现了其高超的能力,但是如果我们是在开发基于大模型的应用的时候,我们还都使用基于传统,一点都不智能的方式(比如使用workflow 亦或者基于langchain/llama_index各种库在手写代码),这里,如何根据功能需求手写Prompt,以及prompt的工程化以及管理,同时涉及到底层向量数据存储等的
背景auto-coder 系列是全球第一款以 Deepseek 系列模型为核心AI 辅助编程工具,全球第一款内置 Deepseek R1 + V3 组合的AI辅助编程工具来了。它的第一个版本是分布式的,pro 版本,对普通 toC 用户并不友好,于是我们推出了 lite 版本:auto-coder.chat Lite 版本来啦 但实际上 lite 对很多用户来,他们都有定制的需求,而lite...
运维同学很多工作其实就是在命令行里操作服务器,尽管目前有很多可视化的工具,但是命令行(ssh 登录)依然不可或缺,甚至依然还占据着主要工作。这意味着运维同学需要掌握大量和服务器操作系统以及shell相关的知识,记住大量的命令。现在,我们希望,通过自然语言,配置和操作我们的服务器,并且最好还是以 terminal的方式支持。auto-coder.chat 是一个基于命令行AI辅助编程工具(也支持 W
背景我现在有两类内容,一个是大量的 auto-coder 示例配置,每次我用的时候都需要去找示例,然后复制黏贴。第二类是各种启动模型的脚本:需要关闭或者开启一个模型,都需要查找然后复制黏贴,比较麻烦。这个时候,我就在想如何把这些内容构建成知识库,让问答小助手帮到自己,甚至小助手还可以直接帮我执行一些脚本。于是有了 AutoCoder 的文档功能。安装conda create --name auto







