HDFS上的HBase更新操作 [英] HBase update operations on hdfs

查看:96
本文介绍了HDFS上的HBase更新操作的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

因为HBase基于HDFS,并且HDFS不具有更新功能,所以我想知道它的更新操作是否会重写hadoop上的整个HFILE文件?

Because HBase is based on HDFS, and that HDFS doesn't have update features, I was wondering if the update operations on it rewrites the whole HFILE files on hadoop?

谢谢

推荐答案

HBase中没有更新.

在HBase(整个行或特定单元格)中执行删除时,特殊的删除标记将添加到单元格中.即将进行的扫描或获取操作将看不到该单元格.

When you perform a delete in HBase (the whole row or particular cells), a special deletion marker is added to a cell. Upcoming scans or get operations would not see that cell(s).

执行插入操作时,只需使用当前时间戳创建一个新单元格.扫描和获取操作将返回较新版本的单元格.

When you perform an insert, you just create a new cell with current timestamp. Scan and get operations will return newer version of a cell.

真正的物理删除是在HBase 主要压缩过程中执行的.另外,压缩后减少了HFile的数量以提供更快的读取操作.

Real physical deletion is perform during HBase major compactions. Also, after compaction number of HFiles is reduced to provide faster read operations.

这篇关于HDFS上的HBase更新操作的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆