A.信息處理
B.互聯(lián)網(wǎng)搜索
C.分析處理
D.數(shù)據(jù)挖掘
您可能感興趣的試卷
你可能感興趣的試題
A.1-100M
B.100M-10G
C.10-1000G
D.100GB-數(shù)TB
A.頂點方體
B.方體的格
C.基本方體
D.維
A.上卷(roll-up)
B.選擇(select)
C.切片(slice)
D.轉(zhuǎn)軸(pivot)
A.上卷
B.下鉆
C.切塊
D.轉(zhuǎn)軸
A.分布的
B.代數(shù)的
C.整體的
D.混合的
最新試題
當(dāng)反向傳播算法運行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機(jī)森林通常比AdaBoost更好。
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進(jìn)行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。
使用正則表達(dá)式可以找到一個文本文件中所有可能出現(xiàn)的手機(jī)號碼。