
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
在一台装有 CentOS6.10 操作系统的主机上安装 ClickHouse。最后选择离线安装低版本 ClickHouse19.9.5.36 ;此外,系统还挂载了一个600G的数据盘,就修改 ClickHouse 的默认数据存储目录,将数据和日志放到数据盘中;配置了远程访问与密码,通过命令行客户端建立连接,最后建库建表。ClickHouse 服务成功启动后,后续就可以把我们关系型数据库中的大量数据

以前在写 SpringBoot 全栈开发的系列文章中全栈开发之后端脚手架:SpringBoot集成MybatisPlus代码生成,分页,雪花算法,统一响应,异常拦截,Swagger3接口文档,有提到对后端接口的响应数据进行统一的封装,方便前端或者第三方进行数据获取与对接工作;统一响应一般包含状态码、消息内容、数据内容等。这里对 2017 年写的一个基于 Node.js 的 Express.js 框

一个内部使用的系统,要求实现功能:管理员后台一键操作,不定期(举办活动时)批量更新并导出所有普通用户的用户与密码信息为 Excel 表格文件。目的是防止时间长了,如果密码不变的话,容易被别人冒用,所以每次不定期的活动开始前,要求重新生成密码。但是整个过程导致了前端导出接口超时。最终采用 Spring 自带的 ApplicationEventPublisher 异步方案解决因用户量增大导致生成密码、

没有度量就没有改进,实际上,监控系统有以下两个客户:技术,业务。上述内容即是对技术组件的监控,方便技术方面的改进与优化。本文记录了在Docker环境下通过Prometheus和Grafana实现对Nginx和Nacos服务的监控。具体步骤包括在服务节点上使用docker-compose安装nginx-prometheus-exporter,配置Prometheus抓取Nginx和Nacos的监控数

背景从2015年开始,一直在 GitHub 上通过 GitHub Pages 发布文章,然后再同步到其他博客平台上。不过,最近发现 GitHub Pages 上发布文章后,https://heartsuit.github.io/网页上的内容却不更新了,刚开始以为是有延迟。后来过了两天,最新发布的几篇文章还是没有渲染出来。一开始玩博客平台,我都是在本地搭建基于 Ruby 实现的 Jekyll 环境,

在备份的过程中每次只取一行数据,而不是把所有行都缓存到内存里,这主要考虑了服务器内存限制,以防备份失败。这在生产环境下是不可接受的,而且这才20+G,后续数据库Size会越来越大,备份的时间必然也越长。直接使用上述语句备份数据库,存在的问题是:备份完成之前,会把所有的表锁住,导致无法写入。这样,在备份时并不会对数据表加锁,线上业务完全不受影响,经测试,备份耗时基本不变。那么,有没有一种方法在完成备
介绍了如何使用Ollama和Dify搭建个人AI助手。首先通过Ollama私有化部署了Qwen2.5(7B)模型,然后使用Docker Compose一键部署了Dify社区版平台。在Dify平台上,创建了基于Qwen2.5模型的聊天助手,并添加了个人知识库作为上下文,实现了真正的个人助手功能。文章最后还介绍了离线部署方案,包括如何导出/导入Docker镜像和迁移模型文件,方便在无互联网环境下部署使

本文通过组合 Dify 的工作流编排、 Tavily Search 搜索引擎工具以及 Qwen2.5 模型,成功实现了一个能够回答实时问题的 AI 搜索引擎,步骤详细,极具可操作性。后续想办法解决模型对相对时间(今天、昨天、去年等)的理解存在局限性。这个 AI 搜索引擎能够回答一些实时新闻和事件相关的问题,展示了 Dify 工作流编排功能的便捷性、实用性。

本地部署时,要求:此外,使用时还遇到了页面上验证码不显示的问题。官方下载:https://downloads.mysql.com/archives/community/查看系统隔离级别:select @@global.tx_isolation;查看会话隔离级别(5.0以上版本):select @@tx_isolation;查看会话隔离级别(8.0以上版本):select @@transaction

今天来实践一下MQTT数据发送/EMQ数据发送组件。先借助 ETLCloud 的库表输入组件获取 ClickHouse 的数据,然后将数据流以 MQTT 协议直接发送到指定 topic 中,实现发送指令或数据到物联网设备(EMQ兼容);在实际的物联网场景中,我们有时会向部分客户端设备批量发送消息或指令,实现远程配置与控制操作。主流的 MQTT Broker 有: Mosquitto , EMQ ,
