logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

(2025亲测可用)AI大模型,解锁高效编程新姿势:Cursor 详细配置指南

同时,在快捷键设置方面,默认为 VS Code 快捷键,如果熟悉其他编辑器的快捷键,也可以根据自身需求更改。你可以选择将 VS Code 的扩展、设置和快捷键绑定等内容直接导入到 Cursor 中,这样能减少重新配置的麻烦,让你更快适应 Cursor 的开发环境。例如,若你使用的是 MAC 系统,页面会显示 “下载 MACOS” 按钮,点击即可下载。#####1. 找到配置路径:打开 Cursor

文章图片
#语言模型
(纯干货,纯图教学)Trae CN 安装插件Cline 配置OpenAI 调用大模型

核心配置 API Provider:选择 OpenAI CompatibleBase URL:填写 https://yizhanapi.com/v1API Key:填入在 一站 API 官网 创建的自定义令牌。API key的获取和使用Model ID:没错 我们网站已经支持 claude-4了。支持的模型与在线查询 下一步开始验证是否配置成功

文章图片
#AI#oneapi
ProxyAI 插件使用指南:JetBrains 全家桶接入大模型的高效方式​

点击插件界面中的 “ProxyAI settings” 进入设置页面。在设置页面中选择 “Providers” - “Custom OpenAI”。填写数据模型名称:根据你使用的模型,自定义一个便于识别的名称,例如 “Claude Custom Model”。填写 API key:为了保障安全,强烈建议将 API key 存储在系统的 Keychain 或 Keepa 中。如果直接填写,务必确保系

#语言模型
一文全面了解 DeepSeek

尽管在某些复杂的数学题目上,模型的表现可能不尽如人意,但整体上,其生成的内容质量和速度都是值得肯定的。DeepSeek团队主要由刚毕业不久的本土培养的学生组成,这些年轻人通过自身的努力和创新,实现了从0到1的突破。开源社区的蓬勃发展,不仅加速了技术的迭代和优化,还有助于培养更多的技术人才,推动整个行业的进步。DeepSeek团队的创新精神是其成功的关键。DeepSeek的V3版本不仅开源了R1模型

#语言模型#人工智能#DeepSeek
开源工具自建AI大模型底座:打造你的专属智能助理

通过使用开源工具,我们可以快速搭建一个AI大模型底座,让智能体成为你的专属助理。这些工具包括Langchain、Flowise、LocalAI、Llama系列模型和AutoGPT等。通过这些工具,我们可以实现复杂的互动、快速搭建应用、构建领域知识库、提升智能体水平以及建立智能体大军。希望这篇文章能帮助你更好地理解和使用这些开源工具,打造属于你的AI大模型底座。如果你对这些工具感兴趣,或者有其他好的

文章图片
#人工智能
(2025亲测可用)AI大模型,解锁高效编程新姿势:Cursor 详细配置指南

同时,在快捷键设置方面,默认为 VS Code 快捷键,如果熟悉其他编辑器的快捷键,也可以根据自身需求更改。你可以选择将 VS Code 的扩展、设置和快捷键绑定等内容直接导入到 Cursor 中,这样能减少重新配置的麻烦,让你更快适应 Cursor 的开发环境。例如,若你使用的是 MAC 系统,页面会显示 “下载 MACOS” 按钮,点击即可下载。#####1. 找到配置路径:打开 Cursor

文章图片
#语言模型
一文全面了解 DeepSeek

尽管在某些复杂的数学题目上,模型的表现可能不尽如人意,但整体上,其生成的内容质量和速度都是值得肯定的。DeepSeek团队主要由刚毕业不久的本土培养的学生组成,这些年轻人通过自身的努力和创新,实现了从0到1的突破。开源社区的蓬勃发展,不仅加速了技术的迭代和优化,还有助于培养更多的技术人才,推动整个行业的进步。DeepSeek团队的创新精神是其成功的关键。DeepSeek的V3版本不仅开源了R1模型

#语言模型#人工智能#DeepSeek
ProxyAI 插件使用指南:JetBrains 全家桶接入大模型的高效方式​

点击插件界面中的 “ProxyAI settings” 进入设置页面。在设置页面中选择 “Providers” - “Custom OpenAI”。填写数据模型名称:根据你使用的模型,自定义一个便于识别的名称,例如 “Claude Custom Model”。填写 API key:为了保障安全,强烈建议将 API key 存储在系统的 Keychain 或 Keepa 中。如果直接填写,务必确保系

#语言模型
DeepSeek部署:LobeChat+AI 网关+Ollama(一)

首先来了解一下 Ollama。这一开源框架堪称本地部署大型语言模型(LLM)的 “瑞士军刀”—— 无需复杂配置,仅通过简单命令行,就能将 DeepSeek、Qwen、Llama3 等热门模型快速 “搬” 到本地设备上运行。无论是开发者调试模型,还是企业搭建私有化 AI 服务,Ollama 都能大幅降低部署门槛。Ollama 的 “黑科技” 在于其底层优化技术。权重量化、分块加载与缓存机制、GPU/

文章图片
#人工智能
到底了