logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Ollama 本地部署:零成本跑通本地大模型

本文介绍了如何在本地使用Ollama运行大模型。Ollama是一个免费工具,支持Llama、Qwen等开源模型,无需GPU服务器或API Key。文章对比了本地与云端模型的优缺点,详细说明了安装步骤、模型下载方法及性能调优建议。通过简单的命令行操作,开发者可以快速部署并测试模型,还提供了API调用示例和常见问题解决方案。最后介绍了如何将Ollama集成到ChatCrystal项目中,实现完整的本地

Ollama 本地部署:零成本跑通本地大模型

本文介绍了如何在本地使用Ollama运行大模型。Ollama是一个免费工具,支持Llama、Qwen等开源模型,无需GPU服务器或API Key。文章对比了本地与云端模型的优缺点,详细说明了安装步骤、模型下载方法及性能调优建议。通过简单的命令行操作,开发者可以快速部署并测试模型,还提供了API调用示例和常见问题解决方案。最后介绍了如何将Ollama集成到ChatCrystal项目中,实现完整的本地

Ollama 本地部署:零成本跑通本地大模型

本文介绍了如何在本地使用Ollama运行大模型。Ollama是一个免费工具,支持Llama、Qwen等开源模型,无需GPU服务器或API Key。文章对比了本地与云端模型的优缺点,详细说明了安装步骤、模型下载方法及性能调优建议。通过简单的命令行操作,开发者可以快速部署并测试模型,还提供了API调用示例和常见问题解决方案。最后介绍了如何将Ollama集成到ChatCrystal项目中,实现完整的本地

ChatCrystal 零基础搭建:从安装到第一条笔记

本文介绍如何快速搭建本地AI编程知识库ChatCrystal。通过npm安装后,配置Ollama本地模型或云端API,启动服务并自动导入Claude Code等工具的对话记录。系统会将对话提炼为结构化笔记,支持语义搜索功能。整个过程3分钟内可完成,确保数据私密性,并提供桌面应用选项。适合使用过AI编程工具的开发者快速构建个人知识管理系统。

文章图片
你和 AI 聊了上千轮,这些知识都去哪了?

摘要: 《ChatCrystal》是一款桌面工具,旨在解决AI编程对话记录散落丢失的问题。它自动采集Claude Code、Cursor等工具的对话,通过LLM提炼为结构化笔记(标题、代码片段、标签等),支持语义搜索和知识图谱可视化。技术实现采用Electron+Fastify+React架构,支持多数据源插件化适配,利用vectra实现本地向量搜索,并通过Vercel AI SDK兼容主流LLM

文章图片
#知识图谱
你和 AI 聊了上千轮,这些知识都去哪了?

摘要: 《ChatCrystal》是一款桌面工具,旨在解决AI编程对话记录散落丢失的问题。它自动采集Claude Code、Cursor等工具的对话,通过LLM提炼为结构化笔记(标题、代码片段、标签等),支持语义搜索和知识图谱可视化。技术实现采用Electron+Fastify+React架构,支持多数据源插件化适配,利用vectra实现本地向量搜索,并通过Vercel AI SDK兼容主流LLM

文章图片
#知识图谱
从文章到脚本:把 Git Tag + Semver + CI/CD 收敛成一个 `release.mjs`

本文介绍了一个自动化Git发布流程的实现方案,通过release.mjs脚本将Git Tag、Semver版本管理和CI/CD流程整合为一条命令。该方案解决了手动发布常见的分支错误、工作区污染、版本不一致等问题,通过7个关键步骤确保发布安全:限定发布类型、强制main分支、检查工作区状态、同步远程代码、避免tag重复、预检查构建结果,最终自动完成版本提交、打tag和推送。配套GitHub Acti

#github
到底了