對一副道路圖像,希望把道路部分劃分出來,可以采用以下兩種方法:
1.在該圖像中分別在道路部分與非道路部分畫出一個窗口,把在這兩個窗口中的象素數(shù)據(jù)作為訓(xùn)練集,用Fisher準(zhǔn)則方法求得分類器參數(shù),再用該分類器對整幅圖進(jìn)行分類。
2.將整幅圖的每個象素的屬性記錄在一張數(shù)據(jù)表中,然后用某種方法將這些數(shù)據(jù)按它們的自然分布狀況劃分成兩類。因此每個象素就分別得到相應(yīng)的類別號,從而實現(xiàn)了道路圖像的分割。試問以上兩種方法哪一種是監(jiān)督學(xué)習(xí),哪個是非監(jiān)督學(xué)習(xí)?
您可能感興趣的試卷
最新試題
利用神經(jīng)網(wǎng)絡(luò)對兩類問題進(jìn)行分類時,可以用一個輸出節(jié)點來實現(xiàn)。
k-近鄰法中k的選取一般為偶數(shù)。
C均值聚類算法對噪聲和孤立點不敏感。
隱含層或輸出層具有激活函數(shù)。
概率密度函數(shù)的估計的本質(zhì)是根據(jù)訓(xùn)練數(shù)據(jù)來估計概率密度函數(shù)的形式和參數(shù)。
理想的判據(jù)應(yīng)該對特征具有單調(diào)性,加入新的特征不會使判據(jù)減小。
我們在對某一模式x進(jìn)行分類判別決策時,只需要算出它屬于各類的條件風(fēng)險就可以進(jìn)行決策了。
下面關(guān)于貝葉斯分類器的說法中錯誤的是()。
貝葉斯估計中是將未知的參數(shù)本身也看作一個隨機變量,要做的是根據(jù)觀測數(shù)據(jù)對參數(shù)的分布進(jìn)行估計。
剪輯近鄰法去除的是遠(yuǎn)離分類邊界,對于最后的決策沒有貢獻(xiàn)的樣本。