A.采用hash結(jié)構(gòu),且一個(gè)表使用一個(gè)hash KEY,表中一行記錄對于hash KEY的一個(gè)field
B.采用hash結(jié)構(gòu),每個(gè)表的每一行記錄使用一個(gè)hash KEY,hash KEY的field對應(yīng)表記錄的字段,且設(shè)計(jì)KEY時(shí)各個(gè)表添加不同的前綴以區(qū)分
C.采用string結(jié)構(gòu),每個(gè)表的每一行記錄的每個(gè)字段使用一個(gè)KEY
D.采用string結(jié)構(gòu),每個(gè)表的每一行記錄使用一個(gè)KEY,value為表中一行記錄的所有字段拼接后的值
您可能感興趣的試卷
你可能感興趣的試題
A.在Solr上建立索引,并保存數(shù)據(jù),在全文檢索時(shí),將所有數(shù)據(jù)全部返回
B.在HBase上存放數(shù)據(jù),通過HBase的過濾特性,滿足模糊匹配查詢
C.存放數(shù)據(jù)時(shí),在Solr上建立索引,在HBasx存放完整數(shù)據(jù);查詢時(shí),通過Solr全文檢索獲取記錄關(guān)鍵信息,通過關(guān)鍵信息在HBase上獲取完整記錄
A.點(diǎn)擊Cloud下的Tree,查看Solr Cloud中Collections、配置集和live_nodes等元數(shù)據(jù)信息
B.點(diǎn)擊Cloud,查看各Collection下各個(gè)ShardReplica的分布及狀態(tài)
C.進(jìn)入某Collection的Shard Replica的Core Overview界面,可以查看到該Replica索引實(shí)際文檔條數(shù)、存儲大小和位置信息
D.Solr用戶組、Solradmin角色和Super group的用戶可以訪問Solr Admin UI
A.支持CSV和JSON
B.支持CSV、JSON和HTML
C.支持CSV、JSON和XML
A.Flume
B.Loader
C.HBase
D.MapReduoe
最新試題
存在如下業(yè)務(wù)場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個(gè)字段,分別是姓名,性別,上網(wǎng)時(shí)間,字段之間用“,”護(hù)分隔;要求打印輸出所有上網(wǎng)總時(shí)間大于兩小時(shí)的女性網(wǎng)友。請問如下哪些代碼片段能實(shí)現(xiàn)上述業(yè)務(wù)場景?()
在通過Fusionlnsight manager界面創(chuàng)建用戶時(shí),想要該用戶對所有Topic具有讀寫權(quán)限,但不具有常見Topic的權(quán)限,應(yīng)該加入Kafka服務(wù)的那個(gè)組?()
Fusionlnsigt HD的Hive組件可以運(yùn)行在哪些分布式計(jì)算機(jī)框架上?()
Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()
關(guān)于Redis特點(diǎn),下面敘述正確的是?()
關(guān)于Kafka的Producer,如下說法正確的是?()
Fusionlnsight HD中,一個(gè)部署在Tomcat上的應(yīng)用,需訪問HBase服務(wù),這種場景下推薦使用機(jī)機(jī)賬號。()
FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
Flume寫入HDFS時(shí),文件的生成當(dāng)時(shí)有哪些?()