問答題

一個(gè)數(shù)據(jù)庫有5個(gè)事務(wù),如表所示。設(shè)min_sup=60%,min_conf=80%。

(a)分別用Apriori算法和FP-growth算法找出所有頻繁項(xiàng)集。比較兩種挖掘方法的效率。
(b)比較窮舉法和Apriori算法生成的候選項(xiàng)集的數(shù)量。
(c)利用(1)所找出的頻繁項(xiàng)集,生成所有的強(qiáng)關(guān)聯(lián)規(guī)則和對應(yīng)的支持度和置信度。


您可能感興趣的試卷

你可能感興趣的試題

最新試題

通過統(tǒng)計(jì)學(xué)可以推測擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。

題型:判斷題

完整性,一致性,時(shí)效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個(gè)維度指標(biāo)。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。

題型:判斷題

最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會返回零的概率估計(jì)。

題型:判斷題

當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時(shí),無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。

題型:判斷題

經(jīng)常跟管理層打交道并進(jìn)行有效地關(guān)于商業(yè)領(lǐng)域的討論有助于數(shù)據(jù)科學(xué)項(xiàng)目的成功。

題型:判斷題

使用偏差較小的模型總是比偏差較大的模型更好。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題

公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。

題型:判斷題

要將工作申請分為兩類,并使用密度估計(jì)來檢測離職申請人,我們可以使用生成分類器。

題型:判斷題