2 HDFS写数据流程
客户端要向HDFS写数据,首先要跟namenode通信以确认可以写文件并获得接收文件block的datanode,然后客户端按顺序将文件逐个block传递给相应datanode,并由接收到block的datanode负责向其他datanode复制block的副本 。
这里说明文件的切割是在客户端实现的,而不是NameNode 。文件的传输也是由客户端传到指定datanode上,副本由datanode传给其他datanode 。
详细步骤(重要):
- 跟namenode通信请求上传文件,==namenode检查目前文件是否已存在,父目录是否存在==
- namenode返回是否可以上传
- client请求第一个block该传输到哪些datanode服务器上(副本)
- namenode返回3个datanode服务器ABC(假如副 本数为3 。优先找同机架的,其次不同机架,再其次是同机架的再一台机器 。还会根据服务器的容量,)
- client请求3台datanode中的一台A上传数据==(本质上是一个RPC调用,建立pipeline)==,A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,逐级返回客户端
- client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答 。
- 当一个block传输完成之后,client再次请求namenode上传第二个block的服务器 。
概述:客户端将要读取的文件路径发给namenode,namenode获取文件的元信息(主要是block的存放位置信息)返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端进行数据追加合并从而获得整个文件 。
详细步骤解析:
跟namenode通信查询元数据,找到文件块所在的datanoede服务器挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流datanode开始发送数据(从磁盘里面读取数据放入流,以packet为单位来做校验)客户端以packet为单位接收,先在本地缓存,然后写入目标文件 。
NAMENODE工作机制
学习目标:理解namenode的工作机制尤其是元数据管理机制,以增强对HDFS工作原理的理解,及培养hadoop集群运营中”性能调优”、”namenode”故障问题的分析解决能力
职责:
NAMENODE职责:负责客户端请求的响应元数据的管理(查询、修改)元数据管理:namenode对数据的管理采用了三种存储形式:内存元数据(NameSystem)磁盘元数据镜像文件(fsimage)数据操作日志文件(edits.xml)可通过日志运算出元数据元数据存储机制(重要):
A、内存中有一份完整的元数据(内存meta data)
B、磁盘有一个”准完整”的元数据镜像(fsimage)文件(在namenode的工作目录中)
C、用于衔接内存metadata和持久化元数据镜像fsimage之间的操作日志(edits文件)
注:当客户端对hdfs中的文件进行新增或者修改操作,操作记录首先被记入edits日志文件中,当客户端操作完成后,相应的元数据会更新到内存meta.data中 。
元数据手动查看
可通过hdfs的一个工具来查看edits中的信息hdfs oev -i edits -o edits.xmlhdfs oiv -i fsimage_0000000087 -p XML -o fsimage.xml
inputfile: 要查看的fsimage文件
推荐阅读
- 熊大熊二怎么画 熊大熊二简笔画教程
- 画猫怎么画 可爱小猫咪简笔画教程
- 狗狗怎么画 可爱的狗狗简笔画教程
- 怎么画小女孩 动漫小女孩简笔画教程
- 音响调音台的使用方法 调音台教程
- 护士怎么画 白衣天使简笔画教程
- 怎么画熊猫 熊猫简笔画教程
- 鲤鱼怎么画 鳄鱼简笔画教程
- 豹子怎么画 豹子简笔画教程
- 学生怎么画 小学生简笔画教程
