A.存儲
B.資源管理
C.搜索
D.數(shù)據(jù)傳輸
您可能感興趣的試卷
你可能感興趣的試題
A.易于編程
B.良好的擴(kuò)展性
C.實時計算
D.高容錯性
A.JDBC
B.spark-beeline
C.spark-sql
A.list
B.set
C.hash
D.sorted set
A.支持基于REST的查詢請求
B.WebHcat的返回數(shù)據(jù)格式是XML
C.WebHCat基于HTTP和HTTPS協(xié)議對外ᨀ供服務(wù)
D.可以通過WevHCat進(jìn)行建表,查詢等操作
最新試題
FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()
在MapReduce應(yīng)用程序開發(fā)中,setMapOutputCompressorClass類的作用是什么?()
存在如下業(yè)務(wù)場景:用戶上網(wǎng)日志文件已經(jīng)存放在HDFS上,日志文件內(nèi)容格式是:每條上網(wǎng)記錄三個字段,分別是姓名,性別,上網(wǎng)時間,字段之間用“,”護(hù)分隔;要求打印輸出所有上網(wǎng)總時間大于兩小時的女性網(wǎng)友。請問如下哪些代碼片段能實現(xiàn)上述業(yè)務(wù)場景?()
由于Spark是基于內(nèi)存的計算引擎,因此,一個Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過分給這個Spark應(yīng)用的內(nèi)存總和。()
Fusionlnsight HD中,屬于Streaming的數(shù)據(jù)分發(fā)方式有哪些?()
用戶要開發(fā)一個應(yīng)用去訪問HBase服務(wù),先申請了一個機(jī)機(jī)賬號teste1,并給它設(shè)置訪問HBase服務(wù)的權(quán)限:然后下載該賬戶的keytab文件,并使用該賬號運行應(yīng)用。后續(xù)此應(yīng)用增加業(yè)務(wù)需求,需訪問Hive服務(wù),那么在給tested用戶補(bǔ)充授予了訪問Hive組件權(quán)限后,需重新下載該用戶的keytab文件。()
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計算,計算結(jié)果只能存入HDFS,不能再寫回Kafka。()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。
在Kafka中,關(guān)于Consumer說法正確的是()。
Flume寫入HDFS時,文件的生成當(dāng)時有哪些?()