logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

什么是Agentic AI?(Doubao-1.5-pro-32k 大模型开启联网回答)

火山引擎 Doubao-1.5-pro-32k 大模型开启联网回答提问,“什么是Agentic AI?”

文章图片
#人工智能
从人类到AI再到可验证奖励:RLHF、RLAIF与RLVR的演进与未来(Grok3 回答)

强化学习与人类反馈的结合催生了RLHF,并在此基础上进一步演化出了RLAIF和RLVR。本文将以叙事的方式,详细探讨这三种方法提出的背景、发展路线、业界使用情况、适用场景以及未来方向,带领读者走进这一技术领域的精彩演进。

文章图片
#人工智能
如何让本地GGUF模型通过Ollama进行管理和推理

并在其中添加FROM指令,用于指定要导入的模型的本地文件路径(下面的例子用的是相对路径),其他内容可参考ollama library已有模型的modelfile。Ollama 除了通过从支持模型列表中 pull 的下载模型方式,也支持手动导入GGUF模型。文件,和将项目打包成docker image的过程有点类似。的Modelfile中的内容如下。内容的创建可以参考通过。命令拉取的模型对应的。

#人工智能
如何快速搭建基于 Ollama 的 MCP 客户端(Grok3 回答)

Model Context Protocol (MCP) 是一种标准化协议,用于连接大型语言模型(LLM)与外部工具和数据源,帮助开发者构建智能、交互式的 AI 应用。Ollama 是一个开源工具,允许在本地运行 LLM,具有隐私性强、易于部署的特点。本文将指导你使用 Ollama 作为 LLM 服务提供者,快速搭建一个 MCP 客户端,并与 pip 和 conda 的环境管理方式进行对比。

文章图片
#人工智能#python
来自28亿美元估值的超级独角兽Groq的AI芯片,让LLM推理快到飞起

成立于2016年,以快著称的美国人工智能芯片独角兽Groq,2024年8月5日官宣融资6.4亿美元(截止到当前最新一轮融资)。Groq的语言处理单元(LPU, Language Processing Unit)专为AI推理和语言处理而设计,是应时而生、实现AI超快推理的核心技术。

文章图片
#人工智能
在Ubuntu 22.04上安装Ollama的两种方式

官方 Ollama Docker 镜像可以直接在Docker Hub上进行拉取。

文章图片
#ubuntu#linux#运维
什么是Agentic AI?(Doubao-1.5-pro-32k 大模型开启联网回答)

火山引擎 Doubao-1.5-pro-32k 大模型开启联网回答提问,“什么是Agentic AI?”

文章图片
#人工智能
MeiliSearch:一款轻量级开源搜索引擎

Meilisearch 是由 Meili (一家总部位于法国的软件开发公司)创建的搜索引擎,目前在上有 47.9k stars。

文章图片
#搜索引擎
如何让 LLM 使用外部函数 or 工具?Llama-3-Groq-8B-Tool-Use 模型使用详解

定义两个非常基础的有关于数学运算的函数(这里我让 ChatGPT 生成了),一个是两个数的加法函数,另一个是计算数字阶乘的函数,都是数学里面比较基础的运算。# 加法函数:计算两个数的和# 阶乘函数:计算给定数字的阶乘return 1else:result = 1类似于 OpenAI 在 llm进行函数调用时定义的规范,我们按照Groq 在 huggingface model card中的promp

文章图片
Cursor 运行python项目如何选用已有的conda环境

便可看到所有已创建的conda环境列表,根据项目运行所需的环境进行选择即可。(Windows);这个时候会弹出一个检索框,输入。打开 cursor,按下快捷键。

文章图片
#python#conda#开发语言
    共 19 条
  • 1
  • 2
  • 请选择