A.分類器
B.聚類算法
C.關(guān)聯(lián)分析算法
D.特征選擇算法
您可能感興趣的試卷
你可能感興趣的試題
A.邊界點
B.質(zhì)心
C.離群點
D.核心點
A.曼哈頓距離
B.平方歐幾里德距離
C.余弦距離
D.Bregman散度
A.層次聚類
B.劃分聚類
C.非互斥聚類
D.模糊聚類
A.組合(ensemble)
B.聚集(aggregate)
C.合并(combination)
D.投票(voting)
A.0.75
B.0.35
C.0.4678
D.0.5738
最新試題
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點時,隨機森林通常比AdaBoost更好。
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機手段來完成。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。
當(dāng)反向傳播算法運行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
假設(shè)屬性的數(shù)量固定,則可以在時間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。