
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
查询(Querying)是 LLM 应用中最重要的部分。在llamaindex中,当完成:数据加载,构建索引、索引存储后,就可以进行LLM 应用程序最重要的部分:查询。简单的查询只是对大语言模型的提示调用:它可以是一个问题并获得答案,或者是一个总结请求,或者是一个更复杂的指令。复杂的查询可能涉及重复/链接提示+ LLM 调用,甚至跨多个组件的推理循环。

本文总体介绍llamaindex框架,包括:llmaindex的功能,组成,说明等。LlamaIndex 是一个开源的LLM应用开发框架,基于大模型(包括代理(Agent)和工作流(Workflow))构建上下文增强的生成式 AI 应用程序。

本文介绍llamaindex的工作流的使用。这是一个简单的例子,可以在这个例子的基础上进行修改和创建自己的工作流。

使用该配置,再回到cody界面进行配置时,就会发现多了ollama的选项。此时就可以通过ollama来使用本地大模型了。

因为等待事件是一种常见的模式,上下文Context对象有一个方便的函数,collect_events()。它将捕获事件并存储它们,返回 None 直到收集到它需要的所有事件。这些事件将按照指定的顺序附加到collect_events 的输出中。

使用cursor等软件总是遇到调用次数限制的问题,用一阵就不能再使用了。于是,就希望能够通过Ollama来使用本地部署的代码大模型。然后就找到了twinny这个vscode的插件。twinny插件配置简单,使用方式简介,一安装就知道如何使用了,很是方便。
Aardvark 是一个自主 AI 智能体,其功能是像人类安全研究员一样思考,并能大规模运作。连续分析源代码仓库,尤其是对提交(Commit)级别的代码变更进行扫描。评估所发现漏洞的实际可利用程度,并根据严重性进行优先级排序。对发现的漏洞进行分步解释,并对代码进行注释,方便人工审查。集成,为每个漏洞提供一个经过 Aardvark 扫描的、可供人工一键审查和应用的补丁。除了安全漏洞,在测试中发现 A
Aardvark 是一个自主 AI 智能体,其功能是像人类安全研究员一样思考,并能大规模运作。连续分析源代码仓库,尤其是对提交(Commit)级别的代码变更进行扫描。评估所发现漏洞的实际可利用程度,并根据严重性进行优先级排序。对发现的漏洞进行分步解释,并对代码进行注释,方便人工审查。集成,为每个漏洞提供一个经过 Aardvark 扫描的、可供人工一键审查和应用的补丁。除了安全漏洞,在测试中发现 A
本文探讨了AI Agent开发从提示词工程向上下文工程的演进。Anthropic团队提出LLM存在"注意力预算有限"和"上下文衰减"的核心约束,强调上下文是珍贵资源。高效上下文工程需聚焦三个要素:精简的系统提示词、功能明晰的工具集和规范化的few-shot示例。文章建议采用"即时探索"策略替代传统RAG,并提出三种长周期任务处理技术(压缩
本文探讨了AI Agent开发从提示词工程向上下文工程的演进。Anthropic团队提出LLM存在"注意力预算有限"和"上下文衰减"的核心约束,强调上下文是珍贵资源。高效上下文工程需聚焦三个要素:精简的系统提示词、功能明晰的工具集和规范化的few-shot示例。文章建议采用"即时探索"策略替代传统RAG,并提出三种长周期任务处理技术(压缩

 
 





