Docker实验5
实验五----Docker编排与部署本实验按1 个 manager 节点 2 个 worker 节点的标准流程进行。Docker Swarm 模式是 Docker Engine 内置的集群编排能力不需要额外安装单独的编排器**先把一台 Ubuntu 虚拟机装好 Docker再关机用 VMware 做两次完整克隆 **先关机在 VMware Workstation 里对这台原始虚拟机执行右键虚拟机选择Manage / 管理选择Clone / 克隆选择按当前状态克隆选择Full Clone / 完整克隆第一次命名为worker1再重复一次第二次命名为worker2VMware 官方文档说明克隆向导会帮你完成克隆流程克隆后的虚拟机会成为独立虚拟机并且拥有不同的 MAC 地址和 UUID。分别启动三台机器并改主机名把原机当作manager两台克隆机分别做worker1、worker2。进入每台 Ubuntu 后执行原机sudo hostnamectl set-hostname manager重命名需重启终端即可看到第一台克隆机sudo hostnamectl set-hostname worker1第二台克隆机sudo hostnamectl set-hostname worker2然后都执行exec bash hostname这样三台机器的终端提示名就会区分开后面做 Swarm 不会乱1. 配置主机映射在三台虚拟机上分别编辑/etc/hosts保证节点之间可以通过主机名互相访问。建议三台主机名分别设置为manager、worker1、worker2查看机器ipipa在三台机器上执行sudovim/etc/hosts添加如下内容# Docker Swarm 节点映射192.168.255.149 manager192.168.255.150 worker1192.168.255.151 worker2保存后分别测试连通性ping-c3managerping-c3worker1ping-c3worker2若能够正常解析并连通说明主机映射配置成功。Swarm 多节点实验要求各节点之间网络可达另外Swarm/overlay 网络涉及的关键端口至少包括2377/tcp、7946/tcpudp和4789/udp需要在实验环境中放通。(Docker Documentation)2. 配置 Docker API(三台机器都做)创建 systemd overridesudomkdir-p/etc/systemd/system/docker.service.d/sudovim/etc/systemd/system/docker.service.d/override.conf打开后写入这段[Service]ExecStartExecStart/usr/bin/dockerd--containerd/run/containerd/containerd.sock-Hfd://-Htcp://0.0.0.0:2375重载并重启sudosystemctl daemon-reloadsudosystemctl restartdockersudosystemctl statusdocker看 dockerd 启动参数ps-ef|grepdockerd应该出现-H tcp://0.0.0.0:2375验证 2375ss-lntp|grep23753. 拉取实验所需镜像Swarm 模式本身已经集成在 Docker Engine 中因此不需要单独拉取“Swarm 镜像”这里按实验内容实际需要拉取的是service 运行镜像和Portainer 镜像。(Docker Documentation)在 manager 节点docker1执行dockerpull nginx:latestdockerpull portainer/portainer-ce:ltsdockerpull portainer/agent:ltsdockerimages4. 初始化集群在 manager 节点执行 Swarm 初始化命令。官方文档说明docker swarm init会把当前节点切换到 Swarm 模式将其设置为 manager并默认监听2377端口同时生成 worker 和 manager 的加入令牌。(Docker Documentation)在 manager 节点(docker1)执行# 这里的ip是你docker1的IPdockerswarm init --advertise-addr192.168.255.149执行成功后终端会输出类似如下提示Swarm initialized: currentnode(...)is now a manager. Toadda worker to this swarm, run the following command:dockerswarmjoin--tokenSWMTKN-1-xxxxx192.168.100.10:2377!!注意看这一步结果给的token是什么下一步要用5. node 节点加入集群Swarm 初始化完成后在worker1和worker2上分别执行 manager 输出的docker swarm join命令。Docker 官方说明节点会根据你使用的 token 加入为 worker 或 manager。(Docker Documentation)在两个 worker 节点执行dockerswarmjoin--tokenSWMTKN-1-5sxzm7v9odf15jvfxbos0gq5u9lx325ee2lu51zuzavyf99rgh-0uloxandcdm0r78pp7ioxyrku192.168.255.149:2377两台 worker 都执行完成后说明节点已经成功加入集群。6. 验证集群回到 manager 节点使用以下命令查看集群状态dockernodelsdockerinfo|grep-iswarm如果配置正确应看到manager 节点角色为Leaderworker 节点状态为ReadySwarm: active7. 安装 PortainerDocker 的图形化管理工具Portainer 官方在 Swarm 环境下推荐通过Portainer Server Agent的 stack 方式部署。官方安装文档直接提供了portainer-agent-stack.yml使用docker stack deploy即可完成部署。(Portainer 文档)在 manager 节点执行sudoaptinstall-ycurlcd~curl-Lhttps://downloads.portainer.io/ce-lts/portainer-agent-stack.yml-oportainer-agent-stack.ymlls-lportainer-agent-stack.yml# 检查文件dockerstack deploy-cportainer-agent-stack.yml portainerdockerservicels如果要检查部署更细节还可以执行dockerstacklsdockerstack services portainerdockerstackpsportainer当看到portainer_portainer和portainer_agent相关服务正常运行时说明 Portainer 已部署成功8. 浏览器登录 PortainerPortainer 官方在 Swarm 安装说明中默认通过9443提供 Web 界面。部署成功后在宿主机浏览器或物理机浏览器访问 manager 节点(Portainer 文档)https://192.168.255.149:9443首次访问会要求创建管理员账号设置用户名与密码后进入 Portainer 控制台。设置速度要快不然超时系统会自锁。如果自锁在manager强制重启就行输入docker service update --force portainer_portainer我设置的密码是123456789zxy9. 运行 serviceSwarm 中最核心的对象是service。Docker 官方说明service 用来描述“希望运行多少个任务副本、使用什么镜像、开放哪些端口”等期望状态。(Docker Documentation)在 manager 节点运行一个 nginx servicedockerservicecreate--nameweb--replicas3-p8080:80 nginx:latest然后查看 service 和任务分布情况dockerservicelsdockerservicepsweb可以看到web服务已经创建副本数为3/3多个 task 被分配到不同节点运行10. service 的弹性伸缩Docker 官方提供docker service scale命令用于修改 service 的副本数Swarm 会自动把实际状态调整到你设定的期望状态。(Docker Documentation)将副本数从 3 扩展到 5在manager上执行dockerservicescaleweb5dockerservicelsdockerservicepsweb若成功可看到service 副本数变为5/5新任务自动分布到集群节点上如果要缩容也可以执行dockerservicescaleweb2dockerservicelsdockerservicepsweb11. 调度节点Swarm 支持使用节点标签和约束条件进行调度。Docker 官方说明可以先用docker node update --label-add给节点打标签再在docker service create或docker service update中使用--constraint限制 service 只能运行在满足条件的节点上。(Docker Documentation)全部 manager 节点执行为两个 worker 添加标签dockernodeupdate --label-addroleweb worker1dockernodeupdate --label-addroleweb worker2查看节点标签dockernodeinspect worker1--prettydockernodeinspect worker2--pretty然后更新 service只允许它运行在roleweb的节点上dockerserviceupdate --constraint-addnode.labels.rolewebwebdockerservicepsweb额外补充如果你还想让 manager 不再承载业务任务可以把 manager 设置为draindockernodeupdate--availabilitydrain managerdockernodels官方说明drain状态的节点不再接收新的任务调度。(Docker Documentation)12. 外部网络访问 serviceSwarm 的 routing mesh 允许所有节点接受对 service 已发布端口的访问请求即使该节点本地没有运行该 service 的 task也可以把流量转发给可用副本。Docker 官方文档明确说明Swarm 中所有节点都会参与 ingress routing mesh。(Docker Documentation)在浏览器中访问以下地址http://192.168.255.149:8080 http://192.168.255.150:8080 http://192.168.255.151:8080如果 service 正常运行就能打开 nginx 默认页面。这一步可以证明service 已成功发布端口routing mesh 已生效外部客户端可以通过任意节点访问 Swarm 服务 (Docker Documentation)
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2458504.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!