倒傳遞神經(jīng)網(wǎng)絡(luò)(BP神經(jīng)網(wǎng)絡(luò))的訓(xùn)練順序?yàn)楹??(?br /> A:調(diào)整權(quán)重;
B:計(jì)算誤差值;
C:利用隨機(jī)的權(quán)重產(chǎn)生輸出的結(jié)果。
A.BCA
B.CAB
C.BAC
D.CBA
您可能感興趣的試卷
你可能感興趣的試題
A.統(tǒng)計(jì)方法
B.鄰近度
C.密度
D.聚類技術(shù)
A.K均值丟棄被它識(shí)別為噪聲的對象,而DBSCAN一般聚類所有對象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇
A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理
B.混合模型比K均值或模糊C均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問題
A.它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測,不必維護(hù)源自數(shù)據(jù)的模型
B.分類一個(gè)測試樣例開銷很大
C.最近鄰分類器基于全局信息進(jìn)行預(yù)測
D.可以生產(chǎn)任意形狀的決策邊界
A.信息的溢出程度
B.信息的增加效益
C.熵增加的程度最大
D.熵減少的程度最大
最新試題
SVM算法的缺點(diǎn)包括()。
建設(shè)投資包括()等。
在以下條件下,需求可能缺乏彈性()。
決策樹模型的缺點(diǎn)有()。
以下對SVM算法的描述中正確的是()。
戰(zhàn)略集團(tuán)的三種用途()
判斷下列各個(gè)量,哪些是隨機(jī)變量()。
時(shí)間序列會(huì)受()因素共同作用。
用邏輯回歸方法得到的分析結(jié)果中,其中預(yù)測為正類的有102個(gè),其中78個(gè)預(yù)測正確。預(yù)測為負(fù)類的有115個(gè),其中83個(gè)預(yù)測正確。那么正類的precision和recall各是多少()。
在訓(xùn)練樣本集中,對于訓(xùn)練樣本數(shù)目不均衡的情況,處理方法妥當(dāng)?shù)氖牵ǎ?/p>