
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
Ollama 是一个由 AI 研究实验室开发的开源人工智能模型,专注于为用户提供高效、灵活的自然语言处理能力。它基于先进的大规模语言模型架构,能够执行多种任务,包括文本生成、对话交互、问答系统等。Ollama 的设计旨在简化模型的使用和部署,支持多种语言和领域特定的应用场景。目前macOS和Windows都可直接通过页面下载,Linux需要通过命令下载。
摘要:本文介绍了如何通过Nginx的auth_request模块解决Dify应用嵌入网站后的安全认证问题。主要内容包括:1)问题背景:直接访问iframe URL会绕过网站登录;2)解决方案:利用Nginx配置认证代理,通过访问系统首页验证登录状态;3)具体步骤:Nginx安装配置、代理设置、路径重写规则及错误处理;4)操作要点:修改iframe请求地址匹配认证路径,保持Dify原有地址不变。该方
模型所在的服务器地址为:192.168.0.197:11434,模型名称为:deepseek-r1:14b。比如要连接的模型为:192.168.0.197:11434 deepseek-r1:14b。在命令行窗口 ,执行脚本,就可以把对应的模型,下载到本地电脑。在Cherry Studio顶部选中模型,然后就可以使用了。在Cherry Studio顶部选中模型,然后就可以使用了。打开开关,然后在管
我用的是docker方式安装。
(float, 可选): 控制生成文本的随机性。值越低,生成的文本越确定。(array of strings, 可选): 指定停止生成的条件。(array of integers, 可选): 上下文 token 列表,用于保持对话或生成的一致性。(integer, 可选): 限制采样时考虑的 top-k 词汇数量。(integer, 可选): 生成文本的最大长度(以 token 为单位)。(int
BiliNote是一款AI视频笔记工具,支持哔哩哔哩、YouTube等平台,可一键转写和提炼视频内容。官网为https://docs.bilinote.app/。部署方法:使用docker创建/opt/bilinote目录,克隆部署仓库后配置.env文件,运行docker-compose up -d启动容器,最后通过浏览器访问ip:3015即可使用。
easy-llm-cli是基于谷歌GeminiCli二次开发的开源命令行工具,支持多种大语言模型接入。该项目允许用户配置自定义模型(包括本地模型和第三方API),通过简单的环境变量设置即可调用不同提供商的服务。安装需Node.js 20+环境,使用npm全局安装后,通过设置USE_CUSTOM_LLM等参数配置模型API密钥、端点及名称。工具提供温度参数、最大token数等可调选项,支持Windo
高德官方MCP Server教程:快速接入-MCP Server | 高德地图API
摘要:本文介绍了如何在Linux服务器上安装Conda和LLaMAFactory。首先下载安装Conda,创建名为"lf"的Python3.10虚拟环境,可更换清华镜像源加速。然后下载LLaMAFactory源码,在虚拟环境中用pip安装依赖包,同样建议使用国内源。安装完成后,通过llamafactory-cli webui命令启动Web界面,推荐使用nohup保持后台运行。最
CursorRules是AI编码助手Cursor的自定义规则系统,用于约束AI生成的代码符合项目或公司规范。规则分为全局强制规范(Always)、文件类型触发(AutoAttached)、AI判断触发(AgentRequested)和手动触发(Manual)四种类型。用户可在设置中配置通用规则(如SpringBoot/Vue等框架规范)或自定义项目专属规则(如统一返回值结构)。规则文件存储在项目r







