hadoop菜鸟教程 hadoop上传文件命令( 二 )


这里说明文件的切割是在客户端实现的,而不是NameNode 。文件的传输也是由客户端传到指定datanode上,副本由datanode传给其他datanode 。
详细步骤(重要):

  • 跟namenode通信请求上传文件,==namenode检查目前文件是否已存在,父目录是否存在==
  • namenode返回是否可以上传
  • client请求第一个block该传输到哪些datanode服务器上(副本)
  • namenode返回3个datanode服务器ABC(假如副 本数为3 。优先找同机架的,其次不同机架,再其次是同机架的再一台机器 。还会根据服务器的容量,)
  • client请求3台datanode中的一台A上传数据==(本质上是一个RPC调用,建立pipeline)==,A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,逐级返回客户端
  • client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答 。
  • 当一个block传输完成之后,client再次请求namenode上传第二个block的服务器 。
3. HDFS读数据流程
概述:客户端将要读取的文件路径发给namenode,namenode获取文件的元信息(主要是block的存放位置信息)返回给客户端,客户端根据返回的信息找到相应datanode逐个获取文件的block并在客户端进行数据追加合并从而获得整个文件 。
详细步骤解析:
跟namenode通信查询元数据,找到文件块所在的datanoede服务器挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流datanode开始发送数据(从磁盘里面读取数据放入流,以packet为单位来做校验)客户端以packet为单位接收,先在本地缓存,然后写入目标文件 。
NAMENODE工作机制
学习目标:理解namenode的工作机制尤其是元数据管理机制,以增强对HDFS工作原理的理解,及培养hadoop集群运营中”性能调优”、”namenode”故障问题的分析解决能力
职责:
NAMENODE职责:负责客户端请求的响应元数据的管理(查询、修改)元数据管理:namenode对数据的管理采用了三种存储形式:内存元数据(NameSystem)磁盘元数据镜像文件(fsimage)数据操作日志文件(edits.xml)可通过日志运算出元数据元数据存储机制(重要):
A、内存中有一份完整的元数据(内存meta data)
B、磁盘有一个”准完整”的元数据镜像(fsimage)文件(在namenode的工作目录中)
C、用于衔接内存metadata和持久化元数据镜像fsimage之间的操作日志(edits文件)
注:当客户端对hdfs中的文件进行新增或者修改操作,操作记录首先被记入edits日志文件中,当客户端操作完成后,相应的元数据会更新到内存meta.data中 。
元数据手动查看
可通过hdfs的一个工具来查看edits中的信息hdfs oev -i edits -o edits.xmlhdfs oiv -i fsimage_0000000087 -p XML -o fsimage.xml
inputfile: 要查看的fsimage文件
   outputfile:用于保存格式化之后的文件 process: 使用什么进程解码,XML|Web|…
Datanode工作职责:
存储管理用户的文件块数据定期向namenode汇报自身所持有的block信息(通过心跳信息上报)(这点很重要,因为当集群发生某些block副本失效时,集群如何恢复block初始副本数量的


推荐阅读