A.抵抗過擬合
B.加快模型收斂速度
C.增加網(wǎng)絡(luò)特征提取能力
D.抵抗梯度消失
您可能感興趣的試卷
你可能感興趣的試題
A.醫(yī)學(xué)
B.物理學(xué)
C.人工智能
D.經(jīng)濟(jì)學(xué)
A.圖形化交互
B.語(yǔ)音交互
C.對(duì)話式交互
D.多模態(tài)交互
A.一種將圖像分割成具有語(yǔ)義意義的區(qū)域的算法
B.一種通過圖像像素的相似性逐步合并區(qū)域的算法
C.一種基于深度學(xué)習(xí)的圖像分割算法
D.一種通過圖像像素的梯度來識(shí)別對(duì)象的算法
A.語(yǔ)音數(shù)據(jù)的預(yù)處理
B.語(yǔ)音數(shù)據(jù)的采集
C.語(yǔ)音數(shù)據(jù)的識(shí)別
D.語(yǔ)音數(shù)據(jù)的標(biāo)注
A.1950年,艾倫·圖靈提出圖靈測(cè)試
B.1970年,個(gè)人計(jì)算機(jī)的普及
C.1990年,互聯(lián)網(wǎng)的發(fā)明
D.2010年,社交媒體的興起
最新試題
在自然語(yǔ)言處理任務(wù)中,哪些技術(shù)適用于改善實(shí)體識(shí)別和關(guān)系抽取的效果()?
智能運(yùn)維AIOps 的核心技術(shù)是什么()?
數(shù)量歸約中無參數(shù)的方法一般使用()。
屬性值約束主要有()。
模型微調(diào)中的提示學(xué)習(xí)是指:()。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
在深度學(xué)習(xí)模型訓(xùn)練中,"早停法"(EarlyStopping)策略的應(yīng)用目的是什么()?
進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。
反向傳播算法的主要目的是什么()?
反向傳播算法和梯度下降算法在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的關(guān)系是什么()?