A.Producer
B.Broker
C.Consumer
D.ZooKeeper
您可能感興趣的試卷
你可能感興趣的試題
A.用戶自定義的UDF在被使用之前,需要先在Hive系統(tǒng)中創(chuàng)建UD只
B.用戶自定義的UDF,不允許加入?yún)R總和狀態(tài)等信息
C.用戶自定義的UDF,可以根據(jù)實(shí)際情況添加deterministic和statefull
D.安全集群下,用戶自定義的UDF,建議在每次使用前都創(chuàng)建一次
A.split
B.combine
C.partition
D.sort
A.索引名
B.索引列
C.索引列類型
D.索引列所歸屬的列族名稱
A.主備NameNode的元數(shù)據(jù)所在磁盤空間不足
B.丟失塊數(shù)超過(guò)閾值
C.丟失副本超過(guò)閾值
D.損壞副本超過(guò)閾值
A.128M
B.100M
C.64M
D.50M
最新試題
在Solr的應(yīng)用查詢場(chǎng)景中,當(dāng)對(duì)查詢結(jié)果深度翻頁(yè)時(shí),需使用游標(biāo)進(jìn)行深度翻頁(yè)。下面對(duì)游標(biāo)說(shuō)法正確的是?()
Oozie的workflow.xml文件是工作流配置文件。()
由于Spark是基于內(nèi)存的計(jì)算引擎,因此,一個(gè)Spark應(yīng)用可以處理的數(shù)據(jù)量不能超過(guò)分給這個(gè)Spark應(yīng)用的內(nèi)存總和。()
在Kafka中,關(guān)于Consumer說(shuō)法正確的是()。
Spark Streaming可以從Kafka接收數(shù)據(jù)并進(jìn)行計(jì)算,計(jì)算結(jié)果只能存入HDFS,不能再寫回Kafka。()
Fusionlnsight HD中,Streaming打包工具用于將業(yè)務(wù)代碼jar包和其他所依賴的jar包等,打包成一個(gè)完整的Streaming應(yīng)用的jar包。()
FusionlnsightHD系統(tǒng)中,關(guān)于HIve的JDBC接口類型,以下哪種敘述是正確的?()
在集群正常的情況下,Redis客戶端發(fā)起一次get調(diào)用,客戶端跟服務(wù)端有()次消息交互。
在Spark應(yīng)用開發(fā)中,以下哪項(xiàng)的代碼能正確進(jìn)行單詞統(tǒng)計(jì)?()
Flume寫入HDFS時(shí),文件的生成當(dāng)時(shí)有哪些?()