A.主成分分析
B.特征提取
C.奇異值分解
D.特征加權(quán)
E.離散化
您可能感興趣的試卷
你可能感興趣的試題
A.連續(xù)性
B.維度
C.稀疏性
D.分辨率
E.相異性
A.時(shí)序數(shù)據(jù)
B.序列數(shù)據(jù)
C.時(shí)間序列數(shù)據(jù)
D.事務(wù)數(shù)據(jù)
E.空間數(shù)據(jù)
A.不一致
B.重復(fù)
C.不完整
D.含噪聲
E.維度高
A.矩陣
B.平行坐標(biāo)系
C.星形坐標(biāo)
D.散布圖
E.Chernoff臉
A.忽略元組
B.使用屬性的平均值填充空缺值
C.使用一個(gè)全局常量填充空缺值
D.使用與給定元組屬同一類的所有樣本的平均值
E.使用最可能的值填充空缺值
最新試題
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
使決策樹更深將確保更好的擬合度,但會(huì)降低魯棒性。
任務(wù)調(diào)度系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標(biāo)從目標(biāo)源獲取數(shù)據(jù)。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個(gè)值,并選擇最小化失真度量的值。
支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。