A.頻繁模式挖掘
B.分類和預(yù)測
C.數(shù)據(jù)預(yù)處理
D.數(shù)據(jù)流挖掘
您可能感興趣的試卷
你可能感興趣的試題
以下兩種描述分別對應(yīng)哪兩種對分類算法的評價標(biāo)準(zhǔn)?()
(1)警察抓小偷,描述警察抓的人中有多少個是小偷的標(biāo)準(zhǔn)。
(2)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。
A.Precision,Recall
B.Recall,Precision
C.Precision,ROC
D.Recall,ROC
最新試題
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
由于決策樹學(xué)會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
當(dāng)MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。