單項選擇題BIRCH是一種()。

A.分類器
B.聚類算法
C.關(guān)聯(lián)分析算法
D.特征選擇算法


您可能感興趣的試卷

最新試題

使決策樹更深將確保更好的擬合度,但會降低魯棒性。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。

題型:判斷題

公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。

題型:判斷題

當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。

題型:判斷題

小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機手段來完成。

題型:判斷題

數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。

題型:判斷題

當(dāng)反向傳播算法運行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。

題型:判斷題

要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題