南開21春學(xué)期《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)-1(標(biāo)準(zhǔn)答案)

可做奧鵬全部院校在線離線作業(yè)畢業(yè)論文QQ:3230981406 微信:aopopenfd777

發(fā)布時間:2021/8/27 21:02:35來源:admin瀏覽: 54 次

可做奧鵬院校所有作業(yè),畢業(yè)論文,咨詢請?zhí)砑観Q:3230981406      微信:aopopenfd777



21春學(xué)期(1709、1803、1809、1903、1909、2003、2009、2103)《網(wǎng)絡(luò)爬蟲與信息提取》在線作業(yè)
試卷總分:100    得分:100
第1,通常使用()工具來模擬瀏覽器進(jìn)行爬蟲請求
A、Selenium
B、Chrome
C、ChromeDriver
D、WebDriver
正確答案:


第2題,下面代碼一共執(zhí)行循環(huán)多少次():
for i in range(10):print(i ** i)
A、9
B、10
C、11#0
正確答案:


第3題,Redis是()數(shù)據(jù)庫
A、關(guān)系數(shù)據(jù)庫
B、鍵值數(shù)據(jù)庫
C、列存數(shù)據(jù)庫
D、圖數(shù)據(jù)庫
正確答案:


第4題,Python中跳過本次循環(huán)應(yīng)用關(guān)鍵字()
A、break
B、continue
C、exit
D、return
正確答案:


答案來源:(www.),打碼平臺一般通過()識別驗證碼。
A、人工識別
B、機(jī)器學(xué)習(xí)識別
C、光學(xué)字符識別
D、深度學(xué)習(xí)識別
正確答案:


第6題,PyMongo中邏輯查詢表示等于的符號是()
A、$gt
B、$lt
C、$eq$$ne
正確答案:


第7題,帶上通過Chrome瀏覽器從評論頁面復(fù)制而來的()再發(fā)起請求,可以減少爬蟲被網(wǎng)站封鎖的概率
A、Cookie
B、Html
C、Headers
D、CSS
正確答案:


第8題,Python中以下哪個容器里的元素不能重復(fù)()
A、列表
B、元組
C、字典
D、集合
正確答案:


第9題,Redis中往集合中讀數(shù)據(jù),使用關(guān)鍵字()
A、pop
B、spop
C、lpop
D、range
正確答案:


答案來源:(www.),Redis是一個開源的使用()語言編寫
A、ANSI C
B、C++
C、JAVA
D、Python
正確答案:


第11題,可以通過()繞過網(wǎng)站登錄。
A、session
B、cookies
C、moonpies
D、localstorage
正確答案:


答案來源:(www.),使用了RedisSpider作為爬蟲的父類以后,爬蟲會直接監(jiān)控()中的數(shù)據(jù),并不讀取start_urls中的數(shù)據(jù)。
A、Redis
B、RedisSpider
C、Spider
D、MongoDB
正確答案:


第13題,HTTP常用狀態(tài)碼表明服務(wù)器上沒有請求的資源的是()
A、500
B、503
C、403
D、404
正確答案:


第14題,Redis中從集合中查看有多少個值,用關(guān)鍵字()
A、scard
B、card
C、count
D、distinct
正確答案:


答案來源:(www.),采用以下()技術(shù)可以實現(xiàn)異步加載
A、HTML
B、AJAX
C、CSS
D、HTTP
正確答案:


第16題,當(dāng)爬蟲創(chuàng)建好了之后,可以使用"scrapy()" 命令運行爬蟲。
A、startup
B、starwar
C、drawl
D、crawl
正確答案:


第17題,使用UI Automatorr輸入文字的操作是得到相應(yīng)控件后使用命令()
A、settext
B、set
C、set_text
D、text
正確答案:


第18題,要使用Python來操作UI Automator從而控制手機(jī),需要安裝一個第三方庫()
A、uiautomator
B、automator
C、ui_automator
D、pyautomator
正確答案:


第19題,使用xpath方法的返回類型是()
A、列表
B、元組
C、字典
D、集合
正確答案:


答案來源:(www.),Python中列表可以用()方法在末尾添加元素
A、add
B、append
C、plus
D、+
正確答案:


第21題,Redis中的值可以支持()
A、列表
B、哈希
C、集合
D、有序集合
正確答案:,B,C,D


第22題,以下哪些方法屬于Python寫CSV文件的方法()
A、writeheaders
B、writeheader
C、writerrows
D、writerow
正確答案:,C,D


第23題,下列關(guān)于mitmproxy的使用說法正確的是()
A、mitmproxy的端口為8080端口。
B、設(shè)置好代理以后,在手機(jī)上打開一個App或者打開一個網(wǎng)頁,可以看到mitmproxy上面有數(shù)據(jù)滾動。
C、用鼠標(biāo)在終端窗口上單擊其中的任意一個請求,可以顯示這個數(shù)據(jù)包的詳情信息。
D、如果要訪問HTTPS網(wǎng)站,還需要安裝mitmproxy的證書
正確答案:,B,C,D


第24題,如果爬蟲爬取的是商業(yè)網(wǎng)站,并且目標(biāo)網(wǎng)站使用了反爬蟲機(jī)制,那么強(qiáng)行突破反爬蟲機(jī)制可能構(gòu)成()
A、非法侵入計算機(jī)系統(tǒng)罪
B、非法獲取計算機(jī)信息系統(tǒng)數(shù)據(jù)罪
C、非法獲取計算機(jī)數(shù)據(jù)罪
D、非法獲取系統(tǒng)罪
正確答案:,B


答案來源:(www.),Python中一個函數(shù)可以有()個return語句
A、0
B、1
C、多個
D、2
正確答案:,B,C,D


第26題,HTTP常用狀態(tài)碼表明表明服務(wù)器本身發(fā)生錯誤的有()
A、403
B、404
C、500
D、503
正確答案:,D


第27題,如果目標(biāo)網(wǎng)站有反爬蟲聲明,那么對方在被爬蟲爬取以后,可以根據(jù)()來起訴使用爬蟲的公司
A、服務(wù)器日志
B、數(shù)據(jù)庫日志記錄
C、程序日志記錄
D、服務(wù)器監(jiān)控
正確答案:,B,C,D


第28題,常用的會話跟蹤技術(shù)是
A、session
B、cookies
C、moonpies
D、localstorage
正確答案:,B


第29題,Python中()與元組由類似的數(shù)據(jù)讀取方式
A、字符串
B、列表
C、字典
D、集合
正確答案:,B


答案來源:(www.),cookies的缺點是
A、實現(xiàn)自動登錄
B、跟蹤用戶狀態(tài)
C、http中明文傳輸
D、增加http請求的流量
正確答案:,D


第31題,Python中列表生成以后還可以往里面繼續(xù)添加數(shù)據(jù),也可以從里面刪除數(shù)據(jù);
T、對
F、錯
更多答案下載:(www.)


第32題,Redis的列表是一個單向隊列
T、對
F、錯
正確答案:


第33題,requests中g(shù)et請求方法的使用為requests.get('網(wǎng)址', data=data)
T、對
F、錯
正確答案:


第34題,scrapy與selenium結(jié)合可以實現(xiàn)直接處理需要異步加載的頁面
T、對
F、錯
更多答案下載:(www.)


第35題,為了在安卓手機(jī)上安裝證書,需要先發(fā)送證書到手機(jī)里面。在Charles中選擇"Help"-"SSL Proxying"-"Save Charles Root Certificate"命令,可以將Charles的證書保存到計算機(jī)桌面。
T、對
F、錯
更多答案下載:(www.)


第36題,XPath提取出來的內(nèi)容是一個SelectorList對象,它的第0個元素就是網(wǎng)頁的源代碼。
T、對
F、錯
正確答案:F


第37題,當(dāng)Charles抓包以后,在Mac OS系統(tǒng)下可以按Command+F組合鍵,在Windows系統(tǒng)下按Ctrl+F組合鍵打開Charles進(jìn)行搜索
T、對
F、錯
更多答案下載:(www.)


第38題,Python中直接對浮點數(shù)進(jìn)行計算有print(0.1+0.2),則結(jié)果為0.3
T、對
F、錯
正確答案:F


第39題,在對XPath返回的對象再次執(zhí)行XPath的時候,子XPath開頭需要添加斜線
T、對
F、錯
正確答案:F


第40題,Python中寫CSV文件的writerows方法參數(shù)為字典類型
T、對
F、錯
正確答案:F


第41題,網(wǎng)站返回的Headers中經(jīng)常有Cookies,可以用mitmdump腳本使用print函數(shù)把Cookies打印出來。
T、對
F、錯
正確答案:F


第42題,在安裝Scarpy的依賴庫時,由于Visual C++ Build Tools的安裝速度很慢,為了節(jié)省時間,可以和安裝Twisted同時進(jìn)行
T、對
F、錯
正確答案:F


第43題,Charles和Chrome開發(fā)者工具相比,只是多了一個搜索功能。
T、對
F、錯
正確答案:F


第44題,Scrapy的工程名字不能使用"scrapy",否則爬蟲會無法運行。除此以外工程名不受限制。
T、對
F、錯
正確答案:F


第45題,在發(fā)送請求時需要注意requests提交的請求頭不能與瀏覽器的請求頭一致,因為這樣才能隱藏好自己達(dá)到獲取數(shù)據(jù)的目的
T、對
F、錯
正確答案:F


第46題,Cookies一般包含在請求頭Headers中
T、對
F、錯
更多答案下載:(www.)


第47題,Python中相比于findall方法,search方法對于從超級大的文本里面只找第1個數(shù)據(jù)特別有用,可以大大提高程序的運行效率。
T、對
F、錯
更多答案下載:(www.)


第48題,當(dāng)使用Scarpy創(chuàng)建爬蟲時,當(dāng)爬取網(wǎng)易云音樂首頁信息時,scrapy genspider的第二個參數(shù)直接輸入"163.com"就可以了
T、對
F、錯
正確答案:F


第49題,chrome開發(fā)者工具沒法對數(shù)據(jù)進(jìn)行搜索。如果想知道一個特定的異步加載內(nèi)容來自哪個請求,必須在"Network"選項卡里面一個請求一個請求地進(jìn)行查看.
T、對
F、錯
正確答案:


答案來源:(www.),插入數(shù)據(jù)時,MongoDB會自動添加一列"_id",也就是自增ID,每次自動加1
T、對
F、錯
正確答案:F














  • 上一篇:
  • 下一篇:
  • 作業(yè)咨詢 論文咨詢
    微信客服掃一掃

    回到頂部