Hadoop-组件-HDFS-源码学习-数据读写-写文件设计
一、概述
二、理论笔记
三、实现
3.1. 流式接口
引用本站文章
Hadoop-组件-HDFS-源码学习-数据读写-写文件-流式接口
Joker
3.2. 上传文件
3.2.1. 创建文件
客户端在执行文件写操作前,首先需要调用 DistributedFileSystem.create() 创建一个空的 HDFS 文件,并且获取这个 HDFS 文件的输出流 HdfsDataOutputStream 对象。获取输出流对象后,客户端就可以在输出流 HdfsDataOutputStream 对象上调用 write() 方法执行写操作了。
引用本站文章
Hadoop-组件-HDFS-源码学习-数据读写-写文件-上传-创建文件
Joker
3.2.2. 写数据
当用户代码通过 DistributedFileSystem.create() 方法创建了一个新文件,并获取了 DFSOutputStream 输出流对象之后,就可以在输出流对象上调用 write() 方法写数据了。
引用本站文章
Hadoop-组件-HDFS-源码学习-数据读写-写文件-上传-写数据
Joker
3.3. 追加写
客户端除了可以执行写新文件的操作外,还可以打开一个已有的文件并执行追加写操作。DistributedFileSystem.append() 方法就是用于打开一个己有的 HDFS 文件,并获取追加写操作的 HdfsDataOutputStream 对象。
3.3.1. 打开文件
引用本站文章
Hadoop-组件-HDFS-源码学习-数据读写-写文件-追加写-打开文件
Joker
3.3.2. 写数据
引用本站文章
Hadoop-组件-HDFS-源码学习-数据读写-写文件-追加写-写数据
Joker
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Joker!
评论
ValineTwikoo