
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
前面我们介绍了Cerebro,我们这里就来部署和使用他。

如果要提供自动部署脚本,我们首先就是要分析我们的安装过程都做了什么,然后根据部署过程的动作才能把部署内容封装到一起。

前面我们用了2个小节ES利用到2个技术:倒排索引和分词,但是我们开发软件是不是要直接基于这2个技术直接来实现细节么,当然是不用的,今天我们就来介绍一个框架或者库:Lucene。

今天我们来介绍一种特殊后端服务WebSocket,他的配置和普通网站代理很不一样。WebSocket 是一种在单个TCP连接上进行全双工通信的协议。它使得客户端和服务器之间的数据交换变得更加简单,允许服务器主动向客户端推送数据。正常我们请求普通网页,只有我们主动向服务器发起请求,服务端不能主动向我们推送请求。

我们在前面介绍索引时候,直接向不存在的索引写入数据,会自动创建索引,这个创建的索引可能并不能满足需求,而且分片又无法调整。比如我们有的索引需要3分片2副本,有的索引需要5分片1副本。这个时候我们就可以通过定义不同的模板(Templates)来满足我们的需求。

Elasticsearch 的运维命令主要集中在使用其 RESTful API 上。这些命令可以通过任何 HTTP 客户端(如 curl、Kibana Dev Tools、Postman 等)来执行。

上个小节我们通过生产者代码,向RabbitMQ的交换机发送消息,本小节我们就通过消费者代码去读取队列里面数据,以下代码基于DeepSeek生成。我们可以和生产者的RabbitMQ配置对比下,看下有什么差距。

Cerebro 的核心价值在于它将许多需要通过 Elasticsearch REST API 执行的复杂命令,转化为了简单易用的图形化操作

前面我们已经完成了Elasticsearch(ES)的部署,无论是单机还是集群,最终都要向里面写入数据,写入数据就需要先对下面2个概念有一定的理解,他们分别是:索引 (Index) 和 文档 (Document)。

虽然vLLM比较复杂,但是他具有组成集群跑更大模型的能力,所以我这里先用单机版来让搭建对这个vLLM有一个的理解,后期再深入。








