logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

云端模型和本地模型的介绍以及通过ollama接入本地模型

摘要: 云端大模型(如ChatGPT、DeepSeek)具有算力强、即开即用等优势,但存在隐私风险、网络依赖和高成本问题。本地部署大模型(通过Ollama等工具)可保护隐私、降低成本并支持离线使用,但硬件要求高且效果受限。Ollama作为开源工具,简化了本地模型的运行与管理,支持多平台和丰富模型,适合企业及敏感场景。本地接入需手动安装并配置模型,通过API实现全量或流式返回,兼顾灵活性与安全性。云

云端模型和本地模型的介绍以及通过ollama接入本地模型

摘要: 云端大模型(如ChatGPT、DeepSeek)具有算力强、即开即用等优势,但存在隐私风险、网络依赖和高成本问题。本地部署大模型(通过Ollama等工具)可保护隐私、降低成本并支持离线使用,但硬件要求高且效果受限。Ollama作为开源工具,简化了本地模型的运行与管理,支持多平台和丰富模型,适合企业及敏感场景。本地接入需手动安装并配置模型,通过API实现全量或流式返回,兼顾灵活性与安全性。云

ChatGPT和Gemini的接入和封装

本文详细介绍了如何封装和接入ChatGPT与Gemini大模型API。主要内容包括:1) ChatGPT接入部分,详细讲解了头文件编写、API调用方式、全量返回和流式返回的实现逻辑,重点分析了响应数据解析方法;2) Gemini接入部分,展示了与DeepSeek相似的实现流程,包括请求参数构造、消息体构建和响应处理;3) 针对两种模型的不同响应格式(ChatGPT的事件流和Gemini的SSE协议

#人工智能#ios
Provider的介绍和引入,deepseek的接入实现

主要内容包括: LLMProvider设计 采用策略模式封装不同大模型调用方式 定义抽象基类LLMProvider,包含初始化、消息发送等纯虚函数 通过多态机制实现不同模型提供者的灵活切换 DeepSeek模型接入 实现API调用封装,支持全量返回和流式返回两种模式 流式返回采用SSE协议实现实时响应 详细处理HTTP请求参数、响应解析和错误处理 通过回调函数处理增量返回的数据块 关键技术点 使用

#java#javascript#开发语言
基本数据结构的编写和日志库的认识和封装

本文介绍了AI项目开发中的关键步骤:1) 项目初始化与目录结构搭建,包括创建项目目录、Git仓库管理;2) 核心数据结构的实现,包含消息结构体、模型配置、会话信息等关键类的设计;3) 日志系统的封装,详细说明了日志级别分类、存储管理策略,并基于spdlog库实现了线程安全的单例日志工具。文章重点突出了代码组织规范(头/源文件分离)、命名注意事项以及日志系统在多线程环境下的安全处理机制,为AI项目开

#数据结构#c++#开发语言 +1
到底了