A.卷積層
B.池化層
C.全連接層
D.激活層
您可能感興趣的試卷
你可能感興趣的試題
A.降低模型的偏差。
B.減少模型的方差。
C.增加模型的復(fù)雜度。
D.提高模型的泛化能力。
A.生成候選目標(biāo)框
B.預(yù)測(cè)目標(biāo)的類(lèi)別
C.定位目標(biāo)的精確位置
D.提高目標(biāo)分辨率
A.減輕梯度消失問(wèn)題
B.加速模型收斂
C.增加模型的泛化能力
D.減少模型參數(shù)
A.用于將文本轉(zhuǎn)換為模型可處理的數(shù)值向量的工具
B.用于評(píng)估模型性能的指標(biāo)
C.模型訓(xùn)練時(shí)的優(yōu)化算法
D.模型輸出的文本格式
A.全模型微調(diào)
B.參數(shù)共享
C.自適應(yīng)微調(diào)
D.重學(xué)習(xí)
最新試題
相對(duì)化學(xué)沉淀等傳統(tǒng)工藝而言,萃取工藝的主要優(yōu)點(diǎn)是()。
在自然語(yǔ)言處理中,哪些技術(shù)可以用于改善實(shí)體識(shí)別和文本生成任務(wù)的性能()?
反向傳播算法的主要目的是什么()?
在機(jī)器學(xué)習(xí)中,核技巧(KernelTrick)主要用于解決什么問(wèn)題()?
Xpath 語(yǔ)言有()的構(gòu)成。
在深度學(xué)習(xí)模型中,用于提高模型訓(xùn)練穩(wěn)定性的技術(shù)是:()。
在強(qiáng)化學(xué)習(xí)中,什么是“動(dòng)態(tài)規(guī)劃”(DynamicProgramming)()?
在深度學(xué)習(xí)中,哪些技術(shù)可以用于加速模型訓(xùn)練并提高模型在圖像分類(lèi)和文本處理任務(wù)上的精確度()?
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU 的特點(diǎn)是什么()?
反向傳播算法的基本原理是基于什么()?