A.精度
B.Rand統(tǒng)計量
C.Jaccard系數(shù)
D.召回率
您可能感興趣的試卷
你可能感興趣的試題
A.輪廓系數(shù)
B.共性分類相關系數(shù)
C.熵
D.F度量
A.規(guī)則集的表達能力遠不如決策樹好
B.基于規(guī)則的分類器都對屬性空間進行直線劃分,并將類指派到每個劃分
C.無法被用來產生更易于解釋的描述性模型
D.非常適合處理類分布不平衡的數(shù)據(jù)集
A.構造網(wǎng)絡費時費力
B.對模型的過分問題非常魯棒
C.貝葉斯網(wǎng)絡不適合處理不完整的數(shù)據(jù)
D.網(wǎng)絡結構確定后,添加變量相當麻煩
A.F1度量
B.召回率(recall)
C.精度(precision)
D.真正率(ture positive rate,TPR)
A.預測準確度
B.召回率
C.模型描述的簡潔度
D.計算復雜度
最新試題
根據(jù)數(shù)據(jù)科學家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構,甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應的存儲系統(tǒng)。
通常,當試圖從大量觀察中學習具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓練數(shù)據(jù)的可能性。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
假設屬性的數(shù)量固定,則可以在時間上以線性方式學習基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。
當數(shù)據(jù)集標簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
公司內部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
隨機梯度下降每次更新執(zhí)行的計算量少于批梯度下降。
通過統(tǒng)計學可以推測擲兩個撒子同時選中3點的幾率。