A.平移不變性
B.旋轉(zhuǎn)不變性
C.尺度縮放不變性
D.不受量綱影響的特性
您可能感興趣的試卷
你可能感興趣的試題
A.已知類別樣本質(zhì)量
B.分類準(zhǔn)則
C.特征選取
D.量綱
A. 先驗(yàn)概率
B. 后驗(yàn)概率
C. 類概率密度
D. 信息熵
E. 幾何距離
A. 最小損失準(zhǔn)則
B. 最小最大損失準(zhǔn)則
C. 最小誤判概率準(zhǔn)則
D. N-P判決
A. 樣本輸入順序
B. 模式相似性測(cè)度
C. 聚類準(zhǔn)則
D. 初始類中心的選取
A. 平移不變性
B. 旋轉(zhuǎn)不變性
C. 尺度不變性
D. 考慮了模式的分布
最新試題
概率密度函數(shù)的參數(shù)估計(jì)需要一定數(shù)量的訓(xùn)練樣本,樣本越多,參數(shù)估計(jì)的結(jié)果越準(zhǔn)確。
當(dāng)各類的協(xié)方差矩陣不等時(shí),決策面是超二次曲面。
fisher線性判別方法可以將樣本從多維空間投影到一維空間。
當(dāng)各類的協(xié)方差矩陣相等時(shí),分類面為超平面,并且與兩類的中心連線垂直。
理想的判據(jù)應(yīng)該對(duì)特征具有單調(diào)性,加入新的特征不會(huì)使判據(jù)減小。
特征選擇常用的次優(yōu)算法有順序前進(jìn)法,順序后退法和動(dòng)態(tài)順序前進(jìn)法三種。
下面關(guān)于貝葉斯分類器的說法中錯(cuò)誤的是()。
特征提取不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性。
神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響?()
在進(jìn)行交叉驗(yàn)證時(shí),一般讓臨時(shí)訓(xùn)練集較大,臨時(shí)測(cè)試集較小,這樣得到的錯(cuò)誤率估計(jì)就更接近用全部樣本作為訓(xùn)練樣本時(shí)的錯(cuò)誤率。