一、K8s 部署 elasticsearch-7.14.0 集群
安装规划
| 组件 | replicas | 类型 |
|---|---|---|
| es | 3 | StatefulSet |
| kibana | 1 | Deployment |
使用 k8s 版本为:v1.18.0 。
本次使用 OpenEBS 来作为存储引擎,OpenEBS 是一个开源的、可扩展的存储平台,它提供了一种简单的方式来创建和管理持久化存储卷。它支持各种存储后端,包括但不限于 ZFS、Btrfs、XFS 等。同时,OpenEBS 具有高度的可扩展性和可配置性,可以满足不同的存储需求。
安装 OpenEBS :
kubectl apply -f https://openebs.github.io/charts/openebs-operator.yaml
验证OpenEBS是否正确安装:
kubectl get pods -n openebs

所有的 OpenEBS pods 都处于Running状态表示正常。
1. 创建命名空间
vi es-ns.yml
apiVersion: v1
kind: Namespace
metadata:
name: es
labels:
name: es
kubectl apply -f es-ns.yml
查看命名空间:
kubectl get ns

2. 创建存储卷
使用 OpenEBS 本地存储模式:
vi es-local-storage.yml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: es-local-storage
annotations:
openebs.io/cas-type: local
cas.openebs.io/config: |
- name: StorageType
value: hostpath
- name: BasePath
value: /data/openebs/es
provisioner: openebs.io/local
reclaimPolicy: Delete
volumeBindingMode: WaitForFirstConsumer
kubectl apply -f es-local-storage.yml
查看存储卷:
kubectl get sc

3. 创建 ConfigMap 配置
主要声明 elasticsearch.yml 配置文件:
vi es-config.yml
apiVersion: v1
kind: ConfigMap
metadata:
name: es-config
namespace: es
labels:
app: es-config
data:
elasticsearch.yml: |+
#集群名称
cluster.name: cluster-es
#节点名称,每个节点的名称不能重复,这里不指定,使用当前主机的名称
# node.name:
#ip 地址,每个节点的地址不能重复
network.host: 0.0.0.0
#是不是有资格主节点
node.master: true
node.data: true
http.port: 9200
# head 插件需要这打开这两个配置,解决跨域问题
http.cors.allow-origin: "*"
http.cors.enabled: true
http.max_content_length: 200mb
#es7.x 之后新增的配置,初始化一个新的集群时需要此配置来选举 master
cluster.initial_master_nodes: ["es-0"]
#es7.x 之后新增的配置,节点发现
discovery.seed_hosts: ["es-0.es-svc.es.svc.cluster.local:9300","es-1.es-svc.es.svc.cluster.local:9300","es-2.es-svc.es.svc.cluster.local:9300"]
gateway.recover_after_nodes: 2
network.tcp.keep_alive: true
network.tcp.no_delay: true
transport.tcp.compress: true
#集群内同时启动的数据任务个数,默认是 2 个
cluster.routing.allocation.cluster_concurrent_rebalance: 16
#添加或删除节点及负载均衡时并发恢复的线程个数,默认 4 个
cluster.routing.allocation.node_concurrent_recoveries: 16
#初始化数据恢复时,并发恢复线程的个数,默认 4 个
cluster.routing.allocation.node_initial_primaries_recoveries: 16
注意这里的集群间的访问使用域名:es-X.es-svc.es.svc.cluster.local ,格式为:
(podname).(headless server name).(namespace).svc.cluster.local
所以注意下面创建 Headless Service 服务名字需要为 es-svc ,StatefulSet 中Pod 的名字需要为 es 。
kubectl apply -f es-config.yml
查看 ConfigMap:
kubectl get cm -n es

4. 创建 Service 服务
这里需要创建两个,一个用于集群建访问的 Headless Service ,一个用于外部访问的 NodePort Service :
vi es-svc.yml
# headless service
apiVersion: v1
kind: Service
metadata:
name: es-svc
namespace: es
labels:
app: es-svc
spec:
clusterIP: None
ports:
- name: rest-port
port: 9200
- name: cluster-port
port: 9300
selector:
app: es
---
# NodePort service
apiVersion: v1
kind: Service
metadata:
name: es-svc-nodeport
namespace: es
labels:
app: es-svc
spec:
clusterIP:
ports:
- name: rest-port
port: 9200
nodePort: 31920
targetPort: 9200
selector:
app: es
type: NodePort
target-port:
externalTrafficPolicy: Cluster # Local 只有所在node可以访问,Cluster 公平转发
kubectl apply -f es-svc.yml
查看创建的 Service :
kubectl get svc -n es

5. 创建 StatefulSet 应用
vi es-sfe.yml
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: es
namespace: es
spec:
serviceName: "es-svc" #填写无头服务的名称
replicas: 3
selector:
matchLabels:
app: es
template:
metadata:
labels:
app: es
spec:
containers:
- name: es
image: elasticsearch:7.14.0
ports:
- containerPort: 9200
name: es-rest-port
- containerPort: 9200
name: es-cluster-port
env:
- name: ES_JAVA_OPTS
value: "-Xms1g -Xmx1g"
volumeMounts:
- name: es-config #挂载配置
mountPath: /usr/share/elasticsearch/config/elasticsearch.yml
subPath: elasticsearch.yml
- name: es-data #挂载数据
mountPath: /usr/share/elasticsearch/data
volumes:
- name: es-config
configMap:
name: es-config
volumeClaimTemplates:
- metadata:
name: es-data
spec:
accessModes: ["ReadWriteOnce"]
storageClassName: es-local-storage
resources:
requests:
storage: 5Gi
这里使用 volumeClaimTemplates 动态创建 pv 和 pvc 。
kubectl apply -f es-sfe.yml
查看 statefulset :
kubectl get statefulset -n es

查看 pod:
kubectl get pods -n es

使用 http 请求验证 es 服务是否正常:
http://ip:31920/_cluster/health?pretty

从结果上可以看出 ES 启动正常。
二、K8s 部署 kibana 客户端
1. 创建 Service 服务
vi kibana-svc.yml
apiVersion: v1
kind: Service
metadata:
name: kibana-svc-nodeport
namespace: es
labels:
app: kibana-svc
spec:
clusterIP:
ports:
- name: kibana
port: 5601
nodePort: 31561
targetPort: 5601
selector:
app: kibana
type: NodePort
target-port:
externalTrafficPolicy: Cluster # Local 只有所在node可以访问,Cluster 公平转发
kubectl apply -f kibana-svc.yml
2. 创建 Deployment 应用
vi kibana-dm.yml
apiVersion: apps/v1
kind: Deployment
metadata:
name: kibana
namespace: es
spec:
replicas: 1
selector:
matchLabels:
app: kibana
template:
metadata:
labels:
app: kibana
spec:
containers:
- name: kibana
image: kibana:7.14.0
ports:
- containerPort: 5601
name: ui-port
env:
- name: ELASTICSEARCH_HOSTS
value: http://es-0.es-svc.es.svc.cluster.local:9200
kubectl apply -f kibana-dm.yml
查看 pod :
kubectl get pods -n es

下面在浏览器访问 kibana 页面:
http://ip:31561/

三、测试
使用 kibana 创建一个 test_index 索引:
PUT /test_index

查看 test_index 索引信息:
GET /test_index

向 test_index 索引中添加数据:
PUT /test_index/user/1
{
"name": "张三",
"age": 15,
"sex": "男"
}

查询添加的数据:
GET /test_index/user/1



















