A.可以從HDFS上直接加載到Hive表
B.可以從HiveServer所在節(jié)點(diǎn)的本地硬盤直接加載到Hive表
C.可以從客戶端所在節(jié)點(diǎn)的本地硬盤直接加載到Hive表
D.Hive的數(shù)據(jù)加載過程了不會(huì)解析具體的文件內(nèi)容,主要是文件轉(zhuǎn)移的過程
您可能感興趣的試卷
你可能感興趣的試題
A.hive.exec.reducers.bytes.per.reducer
B.hive.exec-ducers.max
C.hive.exec.max.dynamic.partitions
D.hive.exec.max.dynamic.partitions.pernode
A.hive.exec.compress.intermediate
B.hive.intermediate.compression.codec
C.hive.exec.compress.output
D.hive.intermediate.compression.type
A.獲取數(shù)據(jù),并將原始數(shù)據(jù)轉(zhuǎn)化成自己處理的數(shù)據(jù)對(duì)象
B.緩存數(shù)據(jù),根據(jù)不同的可靠性策略,將數(shù)據(jù)保存在內(nèi)存或文件上
C.輸出數(shù)據(jù)到目的地,支持多種輸出協(xié)議
D.拆分?jǐn)?shù)據(jù),根據(jù)數(shù)據(jù)的特性,將數(shù)據(jù)發(fā)送到不同的目的地
最新試題
Fusionlnsight HD關(guān)于Oozie的作業(yè)操作命令,下列哪幾項(xiàng)敘述是正確的?()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()
Fusionlnsigt HD的Hive組件可以運(yùn)行在哪些分布式計(jì)算機(jī)框架上?()
FusionLnsigt HD用戶想通過HBase shell操作來查詢某個(gè)HBase表中的內(nèi)容,這中場(chǎng)景下推薦管理員給這個(gè)用戶分配一個(gè)機(jī)機(jī)賬號(hào)。()
關(guān)于Redis特點(diǎn),下面敘述正確的是?()
在MapReduce應(yīng)用程序開發(fā)中,setMapOutputCompressorClass類的作用是什么?()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
用戶要開發(fā)一個(gè)應(yīng)用去訪問HBase服務(wù),先申請(qǐng)了一個(gè)機(jī)機(jī)賬號(hào)teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號(hào)運(yùn)行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
關(guān)于Kafka的Producer,如下說法正確的是?()