判斷題對于N〈N>1〉副本存儲(chǔ)的文件,HDFS客戶端發(fā)起讀取文件請求,如果所讀副本節(jié)點(diǎn)故障,直接返回失敗,不會(huì)轉(zhuǎn)到其他副本節(jié)點(diǎn)進(jìn)行讀取。()

您可能感興趣的試卷

你可能感興趣的試題

2.多項(xiàng)選擇題HDFS的應(yīng)用開發(fā)中,下列哪些是HDFS服務(wù)支持的接口?()

A.BufferedOutputStream.write
B.BufferedOutputStream.flush
C.FileSystem.create
D.FileSystem.append

3.單項(xiàng)選擇題Fusionlnsight HD中,假設(shè)一個(gè)拓?fù)?,設(shè)置了spout并發(fā)度為3,bolt1并發(fā)度為2,bolt2并發(fā)度為3,worker數(shù)目為2,那么bolt1的executor在worker中是如何分布的?()

A.兩個(gè)worker中的其中一個(gè)worker分布兩個(gè)
B.兩個(gè)worker各分布一個(gè)
C.沒有固定規(guī)律
D.兩個(gè)worker都分布兩個(gè)

5.多項(xiàng)選擇題Fusionlnsight HD中,關(guān)于Hive和Sparksql,下列哪些敘述是正確的?()

A.兩者都能對外ᨀ供SQL或類SQL能力
B.兩者都能運(yùn)行在MapReduce計(jì)算框架上
C.兩者都能通過表字段和HBase字段映射的方式訪問HBase上的數(shù)據(jù)
D.兩者都能運(yùn)行在Spark計(jì)算框架上

最新試題

由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()

題型:判斷題

以下業(yè)務(wù)應(yīng)用中,哪個(gè)不是Hive適用的場景?()

題型:單項(xiàng)選擇題

Redis不適用與下面那些場景?()

題型:多項(xiàng)選擇題

Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()

題型:判斷題

FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()

題型:單項(xiàng)選擇題

在Kafka中,關(guān)于Consumer說法正確的是()。

題型:多項(xiàng)選擇題

FusionLnsigh HD,Oozie支持HDFS Action。()

題型:判斷題

Fusionlnsight HD中,關(guān)于Hive的數(shù)據(jù)加載功能(通過Hivede LOAD命令導(dǎo)入數(shù)據(jù)),以下敘述錯(cuò)誤的是?()

題型:單項(xiàng)選擇題

在Kafka中,如下關(guān)于Producer發(fā)送數(shù)據(jù)的說法錯(cuò)誤的是?()

題型:多項(xiàng)選擇題

在通過Fusionlnsight manager界面創(chuàng)建用戶時(shí),想要該用戶對所有Topic具有讀寫權(quán)限,但不具有常見Topic的權(quán)限,應(yīng)該加入Kafka服務(wù)的那個(gè)組?()

題型:單項(xiàng)選擇題