南開(kāi)23春學(xué)期《數(shù)據(jù)科學(xué)導(dǎo)論》在線(xiàn)作業(yè)【答案】

可做奧鵬全部院校在線(xiàn)離線(xiàn)作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時(shí)間:2023/8/27 20:10:16來(lái)源:admin瀏覽: 0 次


23春學(xué)期(高起本:1709-2103、專(zhuān)升本/高起專(zhuān):1909-2103)《數(shù)據(jù)科學(xué)導(dǎo)論》在線(xiàn)作業(yè)-00002

試卷總分:100  得分:100

一、單選題 (共 20 道試題,共 40 分)

1.一元線(xiàn)性回歸中,真實(shí)值與預(yù)測(cè)值的差稱(chēng)為樣本的()。

A.誤差

B.方差

C.測(cè)差

D.殘差

 

2.在k近鄰法中,選擇較小的k值時(shí),學(xué)習(xí)的“近似誤差”會(huì)(),“估計(jì)誤差”會(huì)()。

A.減小,減小

B.減小,增大

C.增大,減小

D.增大,增大

 

3.具有偏差和至少()個(gè)S型隱含層加上一個(gè)()輸出層的網(wǎng)絡(luò)能夠逼近任何有理數(shù)。

A.1,線(xiàn)性

B.2,線(xiàn)性

C.1,非線(xiàn)性

D.2,非線(xiàn)性

 

4.單層感知機(jī)模型屬于()模型。

A.二分類(lèi)的線(xiàn)性分類(lèi)模型

B.二分類(lèi)的非線(xiàn)性分類(lèi)模型

C.多分類(lèi)的線(xiàn)性分類(lèi)模型

D.多分類(lèi)的非線(xiàn)性分類(lèi)模型

 

5.多層感知機(jī)是由()層神經(jīng)元組成。

A.二

B.三

C.大于等于二層

D.大于等于三層

 

6.根據(jù)映射關(guān)系的不同可以分為線(xiàn)性回歸和()。

A.對(duì)數(shù)回歸

B.非線(xiàn)性回歸

C.邏輯回歸

D.多元回歸

 

7.聚類(lèi)的最簡(jiǎn)單最基本方法是()。

A.劃分聚類(lèi)

B.層次聚類(lèi)

C.密度聚類(lèi)

D.距離聚類(lèi)

 

8.以下哪一項(xiàng)不是特征選擇常見(jiàn)的方法()

A.過(guò)濾式

B.封裝式

C.嵌入式

D.開(kāi)放式

 

9.實(shí)體識(shí)別屬于以下哪個(gè)過(guò)程()

A.數(shù)據(jù)清洗

B.數(shù)據(jù)集成

C.數(shù)據(jù)規(guī)約

D.數(shù)據(jù)變換

 

10.數(shù)據(jù)質(zhì)量檢驗(yàn)的主要任務(wù)就是檢查原始數(shù)據(jù)中是否存在“臟數(shù)據(jù)”,概括性來(lái)說(shuō),臟數(shù)據(jù)不包括以下()

A.普通值

B.異常值

C.不一致的值

D.重復(fù)值

 

11.以下屬于關(guān)聯(lián)分析的是( )

A.CPU性能預(yù)測(cè)

B.購(gòu)物籃分析

C.自動(dòng)判斷鳶尾花類(lèi)別

D.股票趨勢(shì)建模

 

12.在一元線(xiàn)性回歸中,通過(guò)最小二乘法求得的直線(xiàn)叫做回歸直線(xiàn)或()。

A.最優(yōu)回歸線(xiàn)

B.最優(yōu)分布線(xiàn)

C.最優(yōu)預(yù)測(cè)線(xiàn)

D.最佳分布線(xiàn)

 

13.下列兩個(gè)變量之間的關(guān)系中,哪個(gè)是函數(shù)關(guān)系()。

A.人的性別和他的身高

B.人的工資與年齡

C.正方形的面積和邊長(zhǎng)

D.溫度與濕度

 

14.通過(guò)構(gòu)造新的指標(biāo)-線(xiàn)損率,當(dāng)超出線(xiàn)損率的正常范圍, 則可以判斷這條線(xiàn)路的用戶(hù)可能存在竊漏電等異常行為屬于數(shù)據(jù)變換中的()

A.簡(jiǎn)單函數(shù)變換

B.規(guī)范化

C.屬性構(gòu)造

D.連續(xù)屬性離散化

 

15.層次聚類(lèi)適合規(guī)模較()的數(shù)據(jù)集

A.大

B.中

C.小

D.所有

 

16.在有統(tǒng)計(jì)學(xué)意義的前提下,標(biāo)準(zhǔn)化偏回歸系數(shù)的絕對(duì)值越大,說(shuō)明相應(yīng)的自變量對(duì)y的作用()。

A.越小

B.越大

C.無(wú)關(guān)

D.不確定

 

17.以下哪一項(xiàng)不屬于數(shù)據(jù)變換()

A.簡(jiǎn)單函數(shù)變換

B.規(guī)范化

C.屬性合并

D.連續(xù)屬性離散化

 

18.K-means聚類(lèi)適用的數(shù)據(jù)類(lèi)型是()。

A.數(shù)值型數(shù)據(jù)

B.字符型數(shù)據(jù)

C.語(yǔ)音數(shù)據(jù)

D.所有數(shù)據(jù)

 

19.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則。

A.4

B.5

C.6

D.7

 

20.比如一張表,從業(yè)務(wù)上講,一個(gè)用戶(hù)應(yīng)該只會(huì)有一條記錄, 那么如果某個(gè)用戶(hù)出現(xiàn)了超過(guò)一條的記錄,這就產(chǎn)生了()

A.異常值

B.不一致的值

C.重復(fù)值

D.缺失值

 

二、多選題 (共 10 道試題,共 20 分)

21.系統(tǒng)日志收集的基本特征有()

A.高可用性

B.高可靠性

C.可擴(kuò)展性

D.高效率

 

22.多層感知機(jī)的學(xué)習(xí)過(guò)程包含()。

A.信號(hào)的正向傳播

B.信號(hào)的反向傳播

C.誤差的正向傳播

D.誤差的反向傳播

 

23.聚類(lèi)的主要方法有()。

A.劃分聚類(lèi)

B.層次聚類(lèi)

C.密度聚類(lèi)

D.距離聚類(lèi)

 

24.對(duì)于多層感知機(jī),()層擁有激活函數(shù)的功能神經(jīng)元。

A.輸入層

B.隱含層

C.輸出層

 

25.關(guān)聯(lián)規(guī)則的評(píng)價(jià)度量主要有:()。

A.支持度

B.置信度

C.準(zhǔn)確率

D.錯(cuò)誤率

 

26.K-means聚類(lèi)中K值選取的方法是()。

A.密度分類(lèi)法

B.手肘法

C.大腿法

D.隨機(jī)選取

 

27.什么情況下結(jié)點(diǎn)不用劃分()

A.當(dāng)前結(jié)點(diǎn)所包含的樣本全屬于同一類(lèi)別

B.當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同

C.當(dāng)前結(jié)點(diǎn)包含的樣本集為空

D.還有子集不能被基本正確分類(lèi)

 

28.數(shù)據(jù)科學(xué)具有哪些性質(zhì)()

A.有效性

B.可用性

C.未預(yù)料

D.可理解

 

29.一元回歸參數(shù)估計(jì)的參數(shù)求解方法有()。

A.最大似然法

B.距估計(jì)法

C.最小二乘法

D.歐式距離法

 

30.Apriori算法的計(jì)算復(fù)雜度受()影響。

A.支持度閾值

B.項(xiàng)數(shù)

C.事務(wù)數(shù)

D.事務(wù)平均寬度

 

三、判斷題 (共 20 道試題,共 40 分)

31.如果一個(gè)候選集至少有一個(gè)子集是非頻繁的,根據(jù)支持度的反單調(diào)屬性,這樣的候選項(xiàng)集肯定是非頻繁的。

 

32.交叉表可以幫助人們發(fā)現(xiàn)變量之間的相互作用。

 

33.K-means算法采用貪心策略,通過(guò)迭代優(yōu)化來(lái)近似求解。

 

34.Jaccard系數(shù)只關(guān)心個(gè)體間共同具有的特征是否一致這個(gè)問(wèn)題。

 

35.對(duì)于項(xiàng)集來(lái)說(shuō),置信度沒(méi)有意義。

 

36.在樹(shù)的結(jié)構(gòu)中,特征越重要,就越遠(yuǎn)離根節(jié)點(diǎn)。

 

37.決策樹(shù)內(nèi)部結(jié)點(diǎn)表示一個(gè)類(lèi),葉結(jié)點(diǎn)表示一個(gè)特征或?qū)傩?/span>

 

38.樸素貝葉斯分類(lèi)器有簡(jiǎn)單、高效、健壯的特點(diǎn),但某些屬性可能會(huì)降低分類(lèi)器的性能

 

39.決策樹(shù)學(xué)習(xí)的算法通常是一個(gè)遞歸地選擇最優(yōu)特征,并根據(jù)該特征對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分割,使得各個(gè)子數(shù)據(jù)集有一個(gè)最好的分類(lèi)的過(guò)程,這一過(guò)程對(duì)應(yīng)著特征空間的劃分,也對(duì)應(yīng)著決策樹(shù)的構(gòu)建

 

40.關(guān)聯(lián)規(guī)則可以用枚舉的方法產(chǎn)生。

 

41.獲取數(shù)據(jù)為數(shù)據(jù)分析提供了素材和依據(jù),這里的數(shù)據(jù)只包括直接獲取的數(shù)據(jù)。

 

42.聚合方法是自底向上的方法。

 

43.多層感知機(jī)的學(xué)習(xí)能力有限,只能處理線(xiàn)性可分的二分類(lèi)問(wèn)題。

 

44.支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個(gè)指標(biāo)。

 

45.可信度是對(duì)關(guān)聯(lián)規(guī)則的準(zhǔn)確度的衡量。

 

46.集中趨勢(shì)能夠表明在一定條件下數(shù)據(jù)的獨(dú)特性質(zhì)與差異

 

47.Apriori算法是一種典型的關(guān)聯(lián)規(guī)則挖掘算法。

 

48.選擇較小的k值,相當(dāng)于用較小的鄰域中的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),學(xué)習(xí)的“近似誤差”會(huì)減小,“估計(jì)誤差”會(huì)增大,預(yù)測(cè)結(jié)果會(huì)對(duì)近鄰的點(diǎn)實(shí)例點(diǎn)非常敏感。

 

49.當(dāng)訓(xùn)練集較大的時(shí)候,標(biāo)準(zhǔn)BP算法通常會(huì)更快的獲得更好的解。

 

50.一般而言,信息增益越大,則意味著使用屬性a來(lái)進(jìn)行劃分所獲得的“純度提升越大”,因此我們可用信息增益來(lái)進(jìn)行決策樹(shù)的最優(yōu)特征選擇。




奧鵬,國(guó)開(kāi),廣開(kāi),電大在線(xiàn),各省平臺(tái),新疆一體化等平臺(tái)學(xué)習(xí)
詳情請(qǐng)咨詢(xún)QQ : 3230981406或微信:aopopenfd777

  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢(xún) 論文咨詢(xún)
    微信客服掃一掃

    回到頂部