A. 先驗(yàn)概率
B. 后驗(yàn)概率
C. 類概率密度
D. 信息熵
E. 幾何距離
您可能感興趣的試卷
你可能感興趣的試題
A. 最小損失準(zhǔn)則
B. 最小最大損失準(zhǔn)則
C. 最小誤判概率準(zhǔn)則
D. N-P判決
A. 樣本輸入順序
B. 模式相似性測(cè)度
C. 聚類準(zhǔn)則
D. 初始類中心的選取
A. 平移不變性
B. 旋轉(zhuǎn)不變性
C. 尺度不變性
D. 考慮了模式的分布
A. 已知類別的樣本質(zhì)量
B. 分類準(zhǔn)則
C. 特征選取
D. 模式相似性測(cè)度
最新試題
在總的樣本集不是很大的情況下,可以采用交叉驗(yàn)證法來(lái)較好的估計(jì)分類器性能。
概率密度函數(shù)的參數(shù)估計(jì)需要一定數(shù)量的訓(xùn)練樣本,樣本越多,參數(shù)估計(jì)的結(jié)果越準(zhǔn)確。
神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響?()
一個(gè)數(shù)據(jù)集能生成多種決策樹(shù)。
過(guò)擬合不會(huì)影響分類模型的泛化能力。
當(dāng)各類的協(xié)方差矩陣相等時(shí),分類面為超平面,并且與兩類的中心連線垂直。
理想的判據(jù)應(yīng)該對(duì)特征具有單調(diào)性,加入新的特征不會(huì)使判據(jù)減小。
分支定界法計(jì)算量一定比窮舉法小。
測(cè)試集的樣本數(shù)量越多,對(duì)分類器錯(cuò)誤率的估計(jì)就越準(zhǔn)確。
在進(jìn)行交叉驗(yàn)證時(shí),一般讓臨時(shí)訓(xùn)練集較大,臨時(shí)測(cè)試集較小,這樣得到的錯(cuò)誤率估計(jì)就更接近用全部樣本作為訓(xùn)練樣本時(shí)的錯(cuò)誤率。