A.分類
B.回歸
C.模式發(fā)現(xiàn)
D.模式匹配
您可能感興趣的試卷
你可能感興趣的試題
A.決定要使用的表示的特征和結(jié)構(gòu)
B.決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞
C.選擇一個算法過程使評分函數(shù)最優(yōu)
D.決定用什么樣的數(shù)據(jù)管理原則以高效地實現(xiàn)算法
A.模型
B.模式
C.模范
D.模具
A.JP聚類擅長處理噪聲和離群點,并且能夠處理不同大小、形狀和密度的簇
B.JP算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強相關(guān)對象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時間復(fù)雜度為O(m)
A.概率
B.鄰近度
C.密度
D.聚類
A.STING
B.WaveCluster
C.MAFIA
D.BIRCH
最新試題
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
任務(wù)調(diào)度系統(tǒng)的設(shè)計與實現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
當(dāng)反向傳播算法運行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
使用偏差較小的模型總是比偏差較大的模型更好。
完整性,一致性,時效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個維度指標(biāo)。