您可能感興趣的試卷
你可能感興趣的試題
A.1,2,2
B.1,3,2
C.2,3,1
D.2,3,3
A.container
B.applicationattempt
C.jar
D.application
A.來源多,格式多
B.增長速度快,處理速度快
C.存儲量大,計算量大
D.數(shù)據(jù)的價值密度較低
A.Loader將作業(yè)提交到Yam執(zhí)行后,如果Loader服務出現(xiàn)異常,則此作業(yè)執(zhí)行失敗
B.Loader將作業(yè)提交到Yame執(zhí)行后,如果某個Mapper執(zhí)行失敗,能夠自動進行重試
C.Loader作業(yè)執(zhí)行失敗,將會產(chǎn)生垃圾數(shù)據(jù),需要用戶手動清除
D.Loader將作業(yè)提交到Yam執(zhí)行后,在該作業(yè)執(zhí)行完成前,不能再提交其他作業(yè)
A.1
B.2
C.3
D.4
最新試題
Redis不適用與下面那些場景?()
在Kafka中,如下關于Producer發(fā)送數(shù)據(jù)的說法錯誤的是?()
Fiume支持實時采集數(shù)據(jù)的source類型是哪項?()
在Kafka中,關于Consumer說法正確的是()。
在Solr的應用查詢場景中,當對查詢結果深度翻頁時,需使用游標進行深度翻頁。下面對游標說法正確的是?()
在集群正常的情況下,Redis客戶端發(fā)起一次get調用,客戶端跟服務端有()次消息交互。
Spark Streaming可以從Kafka接收數(shù)據(jù)并進行計算,計算結果只能存入HDFS,不能再寫回Kafka。()
Oozie的workflow.xml文件是工作流配置文件。()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應用可以處理的數(shù)據(jù)量不能超過分給這個Spark應用的內(nèi)存總和。()
Fusionlnsight HD中,關于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導入數(shù)據(jù)),以下敘述錯誤的是?()