159-170-Hadoop-调优-hdfs-yran-综合

news2025/8/8 18:11:10

159-Hadoop-调优-hdfs故障排查:

HDFS**—故障排除**(此处了解,一般使用HA)

NameNode 故障处理

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ArobkKAK-1669214102298)(png/1625032232051.png)]

1)需求:

NameNode 进程挂了并且存储的数据也丢失了,如何恢复 NameNode

2)故障模拟

(1)kill -9 NameNode 进程

[root@hadoop102 hadoop-3.1.4]#kill -9 19886

(2)删除 NameNode 存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/name)

[root@hadoop102 hadoop-3.1.4]# rm -rf /opt/module/hadoop-3.1.4/data/dfs/name/*

3)问题解决

(1)拷贝 SecondaryNameNode 中数据到原 NameNode 存储数据目录

[root@hadoop102 hadoop-3.1.4]# scp -r root@hadoop104:/opt/module/hadoop-3.1.4/data/dfs/namesecondary/* ./name/

(2)重新启动 NameNode

[root@hadoop102 hadoop-3.1.4]#hdfs --daemon start namenode

(3)向集群上传一个文件测试ok

集群安全模式&磁盘修复

1)安全模式:文件系统只接受读数据请求,而不接受删除、修改等变更请求

2)进入安全模式场景

➢ NameNode 在加载镜像文件和编辑日志期间处于安全模式;

➢ NameNode 再接收 DataNode 注册时,处于安全模式 (启动时注册,间隔6h时候注册汇报)

3)退出安全模式条件

dfs.namenode.safemode.min.datanodes:最小可用 datanode 数量,默认 0

dfs.namenode.safemode.threshold-pct:副本数达到最小要求的 block 占系统总 block 数的

百分比,默认 0.999f。(只允许丢一个块)

dfs.namenode.safemode.extension:稳定时间,默认值 30000 毫秒,即 30 秒

4)基本语法

集群处于安全模式,不能执行重要操作(写操作)。集群启动完成后,自动退出安全模 式

(1)bin/hdfs dfsadmin -safemode get (功能描述:查看安全模式状态) 
(2)bin/hdfs dfsadmin -safemode enter (功能描述:进入安全模式状态) 
(3)bin/hdfs dfsadmin -safemode leave(功能描述:离开安全模式状态) 
(4)bin/hdfs dfsadmin -safemode wait (功能描述:等待安全模式状态)

5)测试1:启动集群进入安全模式

(1)重新启动集群

[root@hadoop102 hadoop-3.1.4]# myhadoop.sh stop

[root@hadoop102 hadoop-3.1.4]# myhadoop.sh start

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4QQL9jgG-1669214102299)(png/1625151676906.png)]

6)测试2:磁盘修复

需求:数据块损坏,进入安全模式,如何处理

( 1 ) 分 别 进 入 hadoop102 、 hadoop103 、 hadoop104 的 /opt/module/hadoop-

3.1.4/data/dfs/data/current/BP-1015489500-192.168.10.104-

1611909480872/current/finalized/subdir0/subdir0 目录,统一删除某 2 个块信息

(2)重新启动集群

(3)观察 http://hadoop102:9870/dfshealth.html#tab-overview

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Zz9AzdJA-1669214102299)(png/1625151739648.png)]

说明:安全模式已经打开,块的数量没有达到要求

(4)离开安全模式

[root@hadoop102 hadoop-3.1.4]# hdfs dfsadmin -safemode get

[root@hadoop102 hadoop-3.1.4]# hdfs dfsadmin -safemode leave

(5)观察

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vsYG0LpG-1669214102300)(png/1625151772817.png)]

(6)将元数据删除(上图提示的路径下),观察或者重启则正常

7)案例 3

需求:模拟等待安全模式

1)查看当前模式

[root@hadoop102 hadoop-3.1.4]#hdfs dfsadmin -safemode get

Safe mode is OFF

2)先进入安全模式

[root@hadoop102 hadoop-3.1.4]# bin/hdfs dfsadmin -safemode

3)创建并执行下面的脚本

在/opt/module/hadoop-3.1.4 路径上,编辑一个脚本 safemode.sh

[root@hadoop102 hadoop-3.1.4]# vim safemode.sh

#!/bin/bash

hdfs dfsadmin -safemode wait

hdfs dfs -put /opt/module/hadoop-3.1.4/README.txt /

[root@hadoop102 hadoop-3.1.4]#chmod 777 safemode.sh

[root@hadoop102 hadoop-3.1.4]#./safemode.sh

4)再打开一个窗口,执行

[root@hadoop102 hadoop-3.1.4]#bin/hdfs dfsadmin -safemode leave

5)再观察上一个窗口

Safe mode is OFF

6)HDFS集群上已经有上传的数据了,已经执行脚本

慢磁盘监控 (了解如何定位满磁盘,了解测试磁盘性能)

“慢磁盘”指的时写入数据非常慢的一类磁盘。其实慢性磁盘并不少见,当机器运行时 间长了,上面跑的任务多了,磁盘的读写性能自然会退化,严重时就会出现写入数据延时的问题。

如何发现慢磁盘?

正常在 HDFS 上创建一个目录,只需要不到 1s 的时间。如果你发现创建目录超过 1 分 钟及以上,而且这个现象并不是每次都有。只是偶尔慢了一下,就很有可能存在慢磁盘。 可以采用如下方法找出是哪块磁盘慢:

1)通过心跳未联系时间。(页面心跳)

一般出现慢磁盘现象,会影响到 DataNode 与 NameNode 之间的心跳。正常情况心跳时

间间隔是 3s。超过 3s 说明有异常。

2)fio 命令,测试磁盘的读写性能

(1)顺序读测试

[root@hadoop102 ~]# yum install -y fio

[root@hadoop102 ~]# sudo fio -filename=/opt/software/hadoop-3.1.4.tar.gz -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_r

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PpNuH59i-1669214102300)(png/1625152039105.png)]

(2)顺序写测试

[root@hadoop102 ~]#sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_w

(3)随机写测试

[root@hadoop102 ~]#sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_randw

(4)混合随机读写:

[root@hadoop102 ~]# sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread - rw=randrw -rwmixread=70 -ioengine=psync -bs=16k -size=2G - numjobs=10 -runtime=60 -group_reporting -name=test_r_w -ioscheduler=noop

小文件归档

1)HDFS 存储小文件弊端

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-84fwIlB9-1669214102301)(png/1625732249239.png)]

每个文件均按块存储,每个块的元数据存储在 NameNode 的内存中,因此 HDFS 存储 小文件会非常低效。因为大量的小文件会耗尽 NameNode 中的大部分内存。但注意,存储小 文件所需要的磁盘容量和数据块的大小无关。例如,一个 1MB 的文件设置为 128MB 的块 存储,实际使用的是 1MB 的磁盘空间,而不是 128MB。

2)解决存储小文件办法之一

HDFS 存档文件或 HAR 文件,是一个更高效的文件存档工具,它将文件存入 HDFS 块, 在减少 NameNode 内存使用的同时,允许对文件进行透明的访问。具体说来,HDFS 存档文 件对内还是一个一个独立文件,对 NameNode 而言却是一个整体,减少了 NameNode 的内存。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-12AM6xa2-1669214102301)(png/1625732384206.png)]

3)案例

(1)需要启动 YARN 进程

[root@hadoop102 hadoop-3.1.3]$ start-yarn.sh

(2)归档文件

把/input 目录里面的所有文件归档成一个叫 input.har 的归档文件,并把归档后文件存储

到/output 路径下。

[root@hadoop102 hadoop-3.1.3]$ hadoop archive -archiveName

input.har -p /input /output

(3)查看归档

[root@hadoop102 hadoop-3.1.3]$ hadoop fs -ls

/output/input.har

[root@hadoop102 hadoop-3.1.3]$ hadoop fs -ls

har:///output/input.har

(4)解归档文件

[root@hadoop102 hadoop-3.1.3]$ hadoop fs -cp

har:///output/input.har/* /

MapReduce 生产(了解)

MapReduce** 跑的慢的原因

MapReduce 程序效率的瓶颈在于两点:

1)计算机性能

CPU、内存、磁盘、网络

2I/O 操作优化

(1)数据倾斜

(2)Map 运行时间太长,导致 Reduce 等待过久

(3)小文件过多

图片截取自哔哩哔哩尚硅谷教学视频

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-s38l616k-1669214102302)(png/1625732506943.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-f9SRrexF-1669214102302)(png/1625732540902.png)]

Hadoop 综合调优

Hadoop 小文件弊端

HDFS 上每个文件都要在 NameNode 上创建对应的元数据,这个元数据的大小约为 150byte,这样当小文件比较多的时候,就会产生很多的元数据文件,一方面会大量占用 NameNode 的内存空间,另一方面就是元数据文件过多,使得寻址索引速度变慢。 小文件过多,在进行 MR 计算时,会生成过多切片,需要启动过多的 MapTask。每个 MapTask 处理的数据量小,导致 MapTask 的处理时间比启动时间还小,白白消耗资源。

Hadoop 小文件解决方案

1)在数据采集的时候,就将小文件或小批数据合成大文件再上传** HDFS**(数据源头)**

2Hadoop Archive(存储方向)

是一个高效的将小文件放入 HDFS 块中的文件存档工具,能够将多个小文件打包成一 个 HAR 文件,从而达到减少 NameNode 的内存使用

3)CombineTextInputFormat(计算方向)

CombineTextInputFormat 用于将多个小文件在切片过程中生成一个单独的切片或者少

量的切片。

4)开启 uber 模式,实现 JVM 重用(计算方向)

默认情况下,每个 Task 任务都需要启动一个 JVM 来运行,如果 Task 任务计算的数据 量很小,我们可以让同一个 Job 的多个 Task 运行在一个 JVM 中,不必为每个 Task 都开启一个 JVM。

(1)未开启 uber 模式,在/input 路径上上传多个小文件并执行 wordcount 程序

[root@hadoop102 hadoop-3.1.4]$ hadoop jar

share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar

wordcount /input /output2

(2)观察控制台

2021-02-14 16:13:50,607 INFO mapreduce.Job: Job job_1613281510851_0002

running in uber mode : false

(3)观察 http://hadoop103:8088/cluster

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BD57W8I0-1669214102303)(png/1625732682903.png)]

(4)开启 uber 模式,在 mapred-site.xml 中添加如下配置

<!-- 开启 uber 模式,默认关闭 -->
<property>
	<name>mapreduce.job.ubertask.enable</name>
	<value>true</value>
</property>
<!-- uber 模式中最大的 mapTask 数量,可向下修改 --> 
<property>
	<name>mapreduce.job.ubertask.maxmaps</name>
	<value>9</value>
</property>
<!-- uber 模式中最大的 reduce 数量,可向下修改 -->
<property>
	<name>mapreduce.job.ubertask.maxreduces</name>
	<value>1</value>
</property>
<!-- uber 模式中最大的输入数据量,默认使用 dfs.blocksize 的值,可向下修改 -->
<property>
	<name>mapreduce.job.ubertask.maxbytes</name>
	<value></value>
</property>

(5)分发配置

[root@hadoop102 hadoop]$ xsync mapred-site.xml

(6)再次执行 wordcount 程序

[root@hadoop102 hadoop-3.1.3]$ hadoop jar

share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar

wordcount /input /output2

(7)观察控制台

2021-02-14 16:28:36,198 INFO mapreduce.Job: Job

job_1613281510851_0003 running in uber mode : true

(8)观察 http://hadoop103:8088/cluster

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wz69Aokw-1669214102303)(png/1625732760722.png)]

测试 MapReduce 计算性能 (了解,为实践)案例尚硅谷

使用 Sort 程序评测 MapReduce

注:一个虚拟机不超过 150G 磁盘尽量不要执行这段代码

(1)使用 RandomWriter 来产生随机数,每个节点运行 10 个 Map 任务,每个 Map 产

生大约 1G 大小的二进制随机数

[root@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-

3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-

3.1.3.jar randomwriter random-data

(2)执行 Sort 程序

[root@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-

3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-

3.1.3.jar sort random-data sorted-data

(3)验证数据是否真正排好序了

[root@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-

3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client

jobclient-3.1.3-tests.jar testmapredsort -sortInput random-data

-sortOutput sorted-data

尚硅谷案例调优

需求

(1)需求:从 1G 数据中,统计每个单词出现次数。服务器 3 台,每台配置 4G 内存,

4 核 CPU,4 线程。

(2)需求分析:

1G / 128m = 8 个 MapTask;1 个 ReduceTask;1 个 mrAppMaster

平均每个节点运行 10 个 / 3 台 ≈ 3 个任务(4 3 3)

HDFS 参数调优

(1)修改:hadoop-env.sh

export HDFS_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,RFAS -
Xmx1024m"
export HDFS_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS
-Xmx1024m"

(2)修改 hdfs-site.xml

<!-- NameNode 有一个工作线程池,默认值是 10 -->
<property>
 <name>dfs.namenode.handler.count</name>
 <value>21</value>
</property>

(3)修改 core-site.xml

<!-- 配置垃圾回收时间为 60 分钟 -->
<property>
 <name>fs.trash.interval</name>
 <value>60</value>
</property>

(4)分发配置

xsync hadoop-env.sh hdfs-site.xml core-site.xml

MapReduce 参数调优

(1)修改 mapred-site.xml

<!-- 环形缓冲区大小,默认 100m -->
<property>
 <name>mapreduce.task.io.sort.mb</name>
 <value>100</value>
</property>
<!-- 环形缓冲区溢写阈值,默认 0.8 -->
<property>
 <name>mapreduce.map.sort.spill.percent</name>
 <value>0.80</value>
</property>
<!-- merge 合并次数,默认 10 个 -->
<property>
 <name>mapreduce.task.io.sort.factor</name>
 <value>10</value>
</property>
<!-- maptask 内存,默认 1g; maptask 堆内存大小默认和该值大小一致
mapreduce.map.java.opts -->
<property>
 <name>mapreduce.map.memory.mb</name>
 <value>-1</value>
 <description>The amount of memory to request from the 
scheduler for each map task. If this is not specified or is 
non-positive, it is inferred from mapreduce.map.java.opts and 
mapreduce.job.heap.memory-mb.ratio. If java-opts are also not 
specified, we set it to 1024.
 </description>
</property>
<!-- matask 的 CPU 核数,默认 1 个 -->
<property>
 <name>mapreduce.map.cpu.vcores</name>
 <value>1</value>
</property>
<!-- matask 异常重试次数,默认 4 次 -->
<property>
 <name>mapreduce.map.maxattempts</name>
 <value>4</value>
</property>
<!-- 每个 Reduce 去 Map 中拉取数据的并行数。默认值是 5 -->
<property>
 <name>mapreduce.reduce.shuffle.parallelcopies</name>
 <value>5</value>
</property>
<!-- Buffer 大小占 Reduce 可用内存的比例,默认值 0.7 -->
<property>
 <name>mapreduce.reduce.shuffle.input.buffer.percent</name>
 <value>0.70</value>
</property>
<!-- Buffer 中的数据达到多少比例开始写入磁盘,默认值 0.66。 -->
<property>
 <name>mapreduce.reduce.shuffle.merge.percent</name>
 <value>0.66</value>
</property>
<!-- reducetask 内存,默认 1g;reducetask 堆内存大小默认和该值大小一致
mapreduce.reduce.java.opts -->
<property>
 <name>mapreduce.reduce.memory.mb</name>
 <value>-1</value>
 <description>The amount of memory to request from the 
scheduler for each reduce task. If this is not specified or 
is non-positive, it is inferred
 from mapreduce.reduce.java.opts and 
mapreduce.job.heap.memory-mb.ratio.
 If java-opts are also not specified, we set it to 1024.
 </description>
</property>
<!-- reducetask 的 CPU 核数,默认 1 个 -->
<property>
 	<name>mapreduce.reduce.cpu.vcores</name>
 	<value>2</value>
</property>
<!-- reducetask 失败重试次数,默认 4 次 -->
<property>
 	<name>mapreduce.reduce.maxattempts</name>
 	<value>4</value>
</property>
<!-- 当 MapTask 完成的比例达到该值后才会为 ReduceTask 申请资源。默认是 0.05-->
<property>
 	<name>mapreduce.job.reduce.slowstart.completedmaps</name>
 	<value>0.05</value>
</property>
<!-- 如果程序在规定的默认 10 分钟内没有读到数据,将强制超时退出 -->
<property>
 	<name>mapreduce.task.timeout</name>
 	<value>600000</value>
</property>

分发配置 xsync mapred-site.xml

Yarn 参数调优

(1)修改 yarn-site.xml 配置参数如下:

<!-- 选择调度器,默认容量 -->
<property>
<description>The class to use as the resource scheduler.</description>
<name>yarn.resourcemanager.scheduler.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capaci
ty.CapacityScheduler</value>
</property>
<!-- ResourceManager 处理调度器请求的线程数量,默认 50;如果提交的任务数大于 50,可以
增加该值,但是不能超过 3 台 * 4 线程 = 12 线程(去除其他应用程序实际不能超过 8) -->
<property>
<description>Number of threads to handle scheduler 
interface.</description>
<name>yarn.resourcemanager.scheduler.client.thread-count</name>
<value>8</value>
</property>
<!-- 是否让 yarn 自动检测硬件进行配置,默认是 false,如果该节点有很多其他应用程序,建议
手动配置。如果该节点没有其他应用程序,可以采用自动 -->
<property>
<description>Enable auto-detection of node capabilities such as
memory and CPU.
</description>
<name>yarn.nodemanager.resource.detect-hardware-capabilities</name>
<value>false</value>
</property>
<!-- 是否将虚拟核数当作 CPU 核数,默认是 false,采用物理 CPU 核数 -->
<property>
<description>Flag to determine if logical processors(such as
hyperthreads) should be counted as cores. Only applicable on Linux
when yarn.nodemanager.resource.cpu-vcores is set to -1 and
yarn.nodemanager.resource.detect-hardware-capabilities is true.
</description>
<name>yarn.nodemanager.resource.count-logical-processors-ascores</name>
<value>false</value>
</property>
<!-- 虚拟核数和物理核数乘数,默认是 1.0 -->
<property>
<description>Multiplier to determine how to convert phyiscal cores to
vcores. This value is used if yarn.nodemanager.resource.cpu-vcores
is set to -1(which implies auto-calculate vcores) and
yarn.nodemanager.resource.detect-hardware-capabilities is set to true. 
The number of vcores will be calculated as number of CPUs * multiplier.
</description>
<name>yarn.nodemanager.resource.pcores-vcores-multiplier</name>
<value>1.0</value>
</property>
<!-- NodeManager 使用内存数,默认 8G,修改为 4G 内存 -->
<property>
<description>Amount of physical memory, in MB, that can be allocated 
for containers. If set to -1 and
yarn.nodemanager.resource.detect-hardware-capabilities is true, it is
automatically calculated(in case of Windows and Linux).
 尚硅谷大数据技术之 Hadoop(生产调优手册) 
———————————————————————————————————————
更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
In other cases, the default is 8192MB.
</description>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>4096</value>
</property>
<!-- nodemanager 的 CPU 核数,不按照硬件环境自动设定时默认是 8 个,修改为 4 个 -->
<property>
<description>Number of vcores that can be allocated
for containers. This is used by the RM scheduler when allocating
resources for containers. This is not used to limit the number of
CPUs used by YARN containers. If it is set to -1 and
yarn.nodemanager.resource.detect-hardware-capabilities is true, it is
automatically determined from the hardware in case of Windows and Linux.
In other cases, number of vcores is 8 by default.</description>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>4</value>
</property>
<!-- 容器最小内存,默认 1G -->
<property>
<description>The minimum allocation for every container request at the 
RM in MBs. Memory requests lower than this will be set to the value of 
this property. Additionally, a node manager that is configured to have 
less memory than this value will be shut down by the resource manager.
</description>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>1024</value>
</property>
<!-- 容器最大内存,默认 8G,修改为 2G -->
<property>
<description>The maximum allocation for every container request at the 
RM in MBs. Memory requests higher than this will throw an
InvalidResourceRequestException.
</description>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>2048</value>
</property>
<!-- 容器最小 CPU 核数,默认 1 个 -->
<property>
<description>The minimum allocation for every container request at the 
RM in terms of virtual CPU cores. Requests lower than this will be set to 
the value of this property. Additionally, a node manager that is configured 
to have fewer virtual cores than this value will be shut down by the 
resource manager.
</description>
<name>yarn.scheduler.minimum-allocation-vcores</name>
<value>1</value>
</property>
<!-- 容器最大 CPU 核数,默认 4 个,修改为 2 个 -->
<property>
<description>The maximum allocation for every container request at the 
RM in terms of virtual CPU cores. Requests higher than this will throw an
InvalidResourceRequestException.</description>
<name>yarn.scheduler.maximum-allocation-vcores</name>
<value>2</value>
</property>
<property>
<description>Whether virtual memory limits will be enforced for
containers.</description>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
<!-- 虚拟内存和物理内存设置比例,默认 2.1 -->
<property>
<description>Ratio between virtual memory to physical memory when
setting memory limits for containers. Container allocations are
expressed in terms of physical memory, and virtual memory usage is 
allowed to exceed this allocation by this ratio.
</description>
<name>yarn.nodemanager.vmem-pmem-ratio</name>
<value>2.1</value>
</property>

分发配置 xsync yarn-site.xml

执行程序

(1)重启集群

[root@hadoop102 hadoop-3.1.4]$ sbin/stop-yarn.sh

[root@hadoop103 hadoop-3.1.4]$ sbin/start-yarn.sh

(2)执行 WordCount 程序

[root@hadoop102 hadoop-3.1.4]$ hadoop jar

share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar

wordcount /input /output

(3)观察 Yarn 任务执行页面

2.1 -->

Ratio between virtual memory to physical memory when
setting memory limits for containers. Container allocations are
expressed in terms of physical memory, and virtual memory usage is
allowed to exceed this allocation by this ratio.

yarn.nodemanager.vmem-pmem-ratio
2.1


分发配置 xsync yarn-site.xml

**执行程序** 

(1)重启集群 

[root@hadoop102 hadoop-3.1.4]$ sbin/stop-yarn.sh 

[root@hadoop103 hadoop-3.1.4]$ sbin/start-yarn.sh 

(2)执行 WordCount 程序 

[root@hadoop102 hadoop-3.1.4]$ hadoop jar  

share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.4.jar  

wordcount /input /output 

(3)观察 Yarn 任务执行页面 

http://hadoop103:8088/cluster/apps


学习路径:https://space.bilibili.com/302417610/,如有侵权,请联系q进行删除:3623472230

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/34275.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

42、集合的第一大类:List

一、基本介绍&#xff1a; 1、List接口和常用方法 &#xff08;1&#xff09;List接口基本介绍&#xff1a; List接口是Collection接口的子接口 1&#xff09;List集合类中元素有序&#xff08;即添加顺序和取出顺序一致&#xff09;&#xff0c;且可重复 2&#xff09;Li…

第五章TCP/IP 我们网络在我们身边

个人简介&#xff1a;云计算网络运维专业人员&#xff0c;了解运维知识&#xff0c;掌握TCP/IP协议&#xff0c;每天分享网络运维知识与技能。个人爱好: 编程&#xff0c;打篮球&#xff0c;计算机知识个人名言&#xff1a;海不辞水&#xff0c;故能成其大&#xff1b;山不辞石…

GOT Online For Unreal | 支持GPU Counter、DrawCall和Triangle、功率

UWA GOT Online For Unreal 新功能上线&#xff0c;马上分享&#xff1a; 在GOT Online - Overview模式中&#xff0c;新增了GPU Counter、DrawCall、Triangle和功率数据采集等&#xff0c;同时也对新增了便于报告上传和查看的API接口&#xff0c;以便开发者在查看报告时可以更…

计算机组成原理4小时速成:存储器容量扩展:位扩展,字扩展,存储器与cpu链接,地址线,数据线,片选线,控制线,汉明码编码,奇偶校验

计算机组成原理4小时速成&#xff1a;存储器容量扩展&#xff1a;位扩展&#xff0c;字扩展&#xff0c;存储器与cpu链接&#xff0c;地址线&#xff0c;数据线&#xff0c;片选线&#xff0c;控制线&#xff0c;汉明码编码&#xff0c;奇偶校验 2022找工作是学历、能力和运气…

[附源码]java毕业设计游戏装备交易网站论文2022

项目运行 环境配置&#xff1a; Jdk1.8 Tomcat7.0 Mysql HBuilderX&#xff08;Webstorm也行&#xff09; Eclispe&#xff08;IntelliJ IDEA,Eclispe,MyEclispe,Sts都支持&#xff09;。 项目技术&#xff1a; SSM mybatis Maven Vue 等等组成&#xff0c;B/S模式 M…

项目管理中,如何应对需求蔓延?

项目管理中&#xff0c;需求蔓延几乎难以避免&#xff0c;控制不好所产生的后果不言而喻&#xff0c;轻则增加工作量&#xff0c;造成项目延期&#xff1b;重则导致方案不完善&#xff0c;导致交付质量难以保证&#xff0c;使项目失败&#xff0c;因此我们要做好充分的准备。 …

硬盘分区管理软件,硬盘分区软件哪个好用

磁盘分区是很高频的磁盘管理方式&#xff0c;但是&#xff0c;很多的用户又不知道磁盘分区&#xff0c;只能借助于专业的磁盘分区大师。那么&#xff0c;在本文中&#xff0c;易我小编将讲解磁盘分区的知识&#xff0c;并且为大家介绍一款超实用的硬盘分区管理软件。 一、电脑磁…

基于fastai 1.0.61的SSD目标检测算法 代码详解 (一)

基于fastai的目标检测算法&#xff0c;主要是2018年course ① 2018 coursev2 : https://nbviewer.org/github/fastai/fastai1/tree/master/courses/ pascal.ipynb pacal_multi.ipynb SSD② jav fastai1.x SSD 没有mAP&#xff1a; https://github/jav0927/course-v3/blob/…

41、集合

一、基本介绍&#xff1a; 1、引入&#xff1a; &#xff08;1&#xff09;前面我们保存多个数据使用的是数组&#xff0c;但数组不足的地方有&#xff1a; 1&#xff09;长度开始时必须指定&#xff0c;而且一旦指定&#xff0c;不能更改 2&#xff09;保存的必须为同一类…

最新uniApp微信小程序获取头像open-type=“chooseAvatar“ @chooseavatar方法

小程序用户头像昵称获取规则调整公告 调整说明 自 2022 年 10 月 25 日 24 时后&#xff08;以下统称 “生效期” &#xff09;&#xff0c;用户头像昵称获取规则将进行如下调整&#xff1a; 自生效期起&#xff0c;小程序 wx.getUserProfile 接口将被收回&#xff1a;生效期…

maven学习:继承与聚合

4.1继承 ​ 做面向对象编程的人都会觉得这是一个没意义的问题&#xff0c;是的&#xff0c;继承就是避免重复&#xff0c;maven的继承也是这样&#xff0c;它还有一个好处就是让项目更加安全. 我们在项目开发的过程中&#xff0c;可能多个模块独立开发&#xff0c;但是多个模块…

【面试宝典】Java八股文之Redis面试题

Redis面试题1、什么是 Redis?2、Redis 与其他 key-value 存储有什么不同?3、Redis 的数据类型?4、使用 Redis 有哪些好处?5、Redis 相比 Memcached 有哪些优势?6、Memcache 与 Redis 的区别都有哪些?7、Redis 是单进程单线程的?8、一个字符串类型的值能存储最大容量是多…

利用FME读取Word中的表格

利用FME的MSWordStyler转换器和Word写模块&#xff0c;我们可以将一些简单的文本和表格写出到Word文档格式中&#xff0c;转换器和写模块截图如下&#xff1a; 图1 MSWordStyler转换器 图2 Word写模块 FME目前还没有Word读模块可以直接读取和解析Word格式&#xff0c;今天我们给…

java基本语法 上

目录 关键字与保留字 关键字(keyword)的定义和特点 保留字 标识符 Java中的名称命名规范 变量 变量的定义 变量的分类 整数类型&#xff1a;byte、short、int、long 浮点类型&#xff1a;float、double 字符类型&#xff1a;char 布尔类型&#xff1a;boolean 字符…

【亲测】网址引导页管理系统

介绍&#xff1a; 易航网址引导系统-网址引导页管理系统去授权版一款极其优雅的易航网址引导页管理系统&#xff0c; 如果有问题可以跟我反馈&#xff0c;共同进步。祝各位道友一路飞升&#xff0c;顶峰相见&#xff01;内置12套模板和防墙插件。 项目亮点&#xff1a; 1、…

国产无线蓝牙耳机哪个好?性价比高的国产耳机品牌

目前市面上的无线蓝牙耳机品类众多&#xff0c;面对琳琅满目的无线蓝牙耳机&#xff0c;很多人一时之间无从下手&#xff0c;国产的产品越做越好&#xff0c;很多爱国人士纷纷支持自家品牌&#xff0c;因此小编根据蓝牙耳机热卖榜&#xff0c;给大家整理了一期性价比高的蓝牙耳…

Spring Boot + Activiti 完美结合,快速实现工作流~

概念 工作流。通过计算机对业务流程自动化执行管理&#xff0c;主要解决的是“使在多个参与者之间按照某种预定义的规则自动进行传递文档、信息或任务的过程&#xff0c;从而实现某个预期的业务目标&#xff0c;或者促使此目标的实现”。 Activiti7 介绍 Activiti是一个工作…

数百个模型放在面前,金融机构要如何高效管理

疫情推动金融机构加速数字化转型。依托人工智能、大数据等技术&#xff0c;金融机构建立各类模型&#xff0c;特别是以机器学习为代表的数据模型&#xff0c;被广泛运用在风险计量、客户准入、资本计量、拨备计提、客户管理、反洗钱、反欺诈、精准营销等领域。在用户行为模式改…

11.24总结二叉树

目录 一.将二叉搜索树变成有序链表 二.从前序遍历和中序遍历构建二叉树 三.从中序遍历和后续遍历创建字符串 四.二叉树创立字符串 五.订正题目 六.排序子序列 七.二叉树非递归遍历 1.前序遍历 3.后续遍历 一.将二叉搜索树变成有序链表 我们的思路就是因为一颗二叉搜索…

如何通过短链接跳转到小程序,或者跳转至小程序webview一个h5页面

theme: channing-cyan 一、需求背景&#xff1a; 公司需要通过发送短信携带短链接&#xff0c;用户点击短链接跳转到小程序的某个页面&#xff0c;然后打开小程序该页面webviewh5页面&#xff0c;然后链接携带参数。 使用技术&#xff1a; 主要是用小程序的云开发&#x…