
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
前言承接上一篇 Springboot 整合 阿里云消息队列RabbitMQ版服务,本篇实现对于 RocketMq版消息队列服务,至于为什么不继续使用阿里云服务,懂的都懂,rocketMq版消息队列在阿里云需要付费购买,而腾讯云 rocketMq版消息队列完全免费(看过上一篇自然明白),这次我想说腾讯云真香。准备工作首先的先注册腾讯云账户,并进入首页->搜索->并选择点击。2. 点击立即

序因为公司的需要服务都是用的阿里云相关的产品,最近自己工作中也涉及到了消息队列这一块的业务,索性自己也来从零开始对接阿里云的消息队列服务。准备本着学习的前提,寻找是否免费的或者做活动的服务,能白嫖的就白嫖,果然被我找到了。进入阿里云官方首页,找到精选活动->阿里云使用中心 点击进入2.进入页面搜索消息队列3. 具体队列的相关配置步骤可参考官方文档:快速入门概述 - 消息队列RabbitMQ版

本文详细介绍了通过Docker在Linux服务器上部署ClickHouse数据库的完整流程。首先说明了选择ClickHouse而非Elasticsearch处理埋点数据的优势,然后逐步讲解了镜像下载、容器配置、数据映射等具体操作步骤,包括使用DockerTarBuilder下载镜像、配置用户权限、构建容器等关键环节。最后介绍了使用DBeaver工具连接ClickHouse的配置方法,并指出需要熟悉

本文介绍了在本地部署开源AI大模型的完整方案。通过Ollama框架运行Qwen3:0.6b轻量级模型,结合SpringAI实现基础对话功能。同时采用RAG技术,使用nomic-embed-text模型和pgvector数据库构建知识库增强系统。文章详细说明了Docker环境部署、模型安装、向量数据库配置等步骤,并提供了对话接口实现和知识库上传功能的代码示例。该方案既能节省API调用费用,又能保证数

本文介绍了在本地部署开源AI大模型的完整方案。通过Ollama框架运行Qwen3:0.6b轻量级模型,结合SpringAI实现基础对话功能。同时采用RAG技术,使用nomic-embed-text模型和pgvector数据库构建知识库增强系统。文章详细说明了Docker环境部署、模型安装、向量数据库配置等步骤,并提供了对话接口实现和知识库上传功能的代码示例。该方案既能节省API调用费用,又能保证数

本文介绍了在本地部署开源AI大模型的完整方案。通过Ollama框架运行Qwen3:0.6b轻量级模型,结合SpringAI实现基础对话功能。同时采用RAG技术,使用nomic-embed-text模型和pgvector数据库构建知识库增强系统。文章详细说明了Docker环境部署、模型安装、向量数据库配置等步骤,并提供了对话接口实现和知识库上传功能的代码示例。该方案既能节省API调用费用,又能保证数

说到底其实腾讯的coding底层使用的也是jenkins进行集成部署的,只是coding进行了更多元化的实现,新增了许多其他功能。创建一个文件夹jenkins(文件位置自己任意,博主放在了/usr/local下),用于将jenkins安装文件映射到宿主机上,方便后续操作。这里使用docker安装jenkins,方便又快捷,首先服务器中已经安装docker环境。注博主已经安装了所有在已安装中,未安装

Nginx[engine x]是一个免费开源Web服务器,是一个HTTP和反向代理服务器,邮件代理服务器, 和一个通用的 TCP/UDP 代理服务器,最初由俄罗斯软件工程师Igor Sysoev撰写。nginx专注于高性能、高并发性和低内存使用率。能够在高并发下给网站提供稳定的服务。

在java_docker中执行命令进行镜像构建(前提服务器已安装docker环境)使用工具上传jar和dockerfile到java_docker文件夹中。打包完成后,项目中会生成一个target文件夹,打开找到生成的jar包。进入远程服务器,创建一个文件夹java_docker用于存放上传的文件。如果进入服务器是/结尾,则需要切换到root用户模式~现在再来试试不依赖第三方框架,手动发布dock

至此rocketMQ的基本概念大致清楚了,但是想要生产运用不仅仅止步于表面,自己更需要去深耕框架底层的逻辑实现,才能真正掌握并达到事半功倍的效果。行动起来。








