奥鹏南开20春学期《网络爬虫与信息提取》在线作业标准答案Word文档下载推荐.docx
- 文档编号:22573155
- 上传时间:2023-02-04
- 格式:DOCX
- 页数:14
- 大小:17.53KB
奥鹏南开20春学期《网络爬虫与信息提取》在线作业标准答案Word文档下载推荐.docx
《奥鹏南开20春学期《网络爬虫与信息提取》在线作业标准答案Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《奥鹏南开20春学期《网络爬虫与信息提取》在线作业标准答案Word文档下载推荐.docx(14页珍藏版)》请在冰豆网上搜索。
它负责将爬取博文列表页获取到的信息传递给负责爬取正文页的方法中。
Ameta
Bhead
Cheader
Dbody
5.如果使用Python的数据结构来做类比的话,MongoDB中集合相当于一个()
6.PyMongo中逻辑查询表示不等于的符号是()
A$gt
B$lt
C$eq
D$ne
C
7.PyMongo中逻辑查询表示大于等于的符号是()
C$gte
D$lte
8.以下哪个HTML标签表示定义文档的主体()
A&
lt;
div&
gt;
B&
body&
C&
head&
D&
footer&
9.某些网站在发起Ajax请求时会携带()字符串用于身份验证
AToken
BCookie
CReqTime
Dsum
10.下面Python代码输出为():
defdefault_para_trap(para=[],value=0):
para.append(value)
returnpara
print('
第一步:
{}'
.format(default_para_trap(value=100)))
第二步:
.format(default_para_trap(value=50)))
A第一步:
[100]
[100,50]
B第一步:
[50]
C第一步:
[]
D第一步:
11.用Xpathh获取第二个div标签应该是()
Advi
(1)
Bdiv
(2)
Cdiv[1]
Ddiv[2]
D
12.查看网站请求一般在Chrome开发者模式下的()选项卡中查看
AConsole
BSources
CNetwork
DPerformance
13.Python中Object={'
obj_1'
:
'
1'
'
obj_2'
2'
},则Objcet.get('
boj_1'
3'
)是()
A1
B2
C3
D无输出
14.通常使用()工具来模拟浏览器进行爬虫请求
ASelenium
BChrome
CChromeDriver
DWebDriver
15.Python并导入uiautomator来操作设备的语句是fromuiautomatorimport()
ADevice
BDevices
CJobs
DJob
16.Python中把列表转换为集合需要使用##函数
Aset
Blist
Cconvert
Dchange
17.Python中若定义object="
12345"
则print(object[:
-1])输出()
B5
C54321
D程序报错
18.Python正则表达式模块的findall方法如果没有匹配到结果,则返回结果为()
A空
B空列表
C空元组
D不返回
19.以下哪个命令是利用URL语法在命令行下工作的文件传输工具()
Acurl
Btar-zxvf
Cmkdir
Dcp
20.使用UIAutomatorr输入文字的操作是得到相应控件后使用命令()
Asettext
Bset
Cset_text
Dtext
21.HTTP常用状态码表明表明客户端是发生错误的原因所在的有()
A403
B404
C500
D503
A.B
22.Python中()容器有推导式
A.C.D
23.Python中通过Key来从字典object中读取对应的Value的方法有()
Aobject[key]
Bobject.get(key)
Cobject.pop(key)
Dobject.pop()
24.PyMongo更新操作有()
Aupdate
Bupdate_all
Cupdate_one
Dupdate_many
C.D
25.HTTP常用状态码表明表明服务器本身发生错误的有()
26.以下哪些可以独立成为Python编译器()
APycharm
BIDLE
CEclipse
DVisualStudio2010
27.requests中post请求方法的第二个参数可以为()
A字典
B列表
Cjson数据
D字符串
A.C
28.MongoDB中获取名字为set1的集合的语句为()
Adatabase.set1
Bdatabase('
set1'
)
Cdatabase['
]
Ddatabase{'
}
29.最常见的HTTP请求类型有()
AGET
BPOST
CSEND
DRECEIVE
30.PyMongo删除操作有()
Adelete
Bdelete_all
Cdelete_one
Ddelete_many
31.在请求头中设置User-Agent即可正常请求网站
T对
F错
32.一般来说在页面都通过GET将用户登录信息传递到服务器端。
33.Scrapy作为一个爬虫的框架,它在单机环境下运行时就可以获得最大性能优势
34.当运行爬虫代码后,出现"
Forbiddenbyrobots.txt"
提示后,说明当前时间段被爬取的网站无法访问。
35.使用UIAutomatorr操作实体键的命令为device.press.实体按键名称()
36.爬虫中间件的作用对象是请求request和返回response
37.Redis中列表读取数据命令lrange中l代表left,即从左侧开始读取
38.运行MongoDB以后,不会在终端打印任何Log
39.Selenium必须加载对应的webdriver才能模拟浏览器访问
40.Robo3T与RoboMongo是完全不一样的软件
41.在中间人攻击中,攻击者可以拦截通信双方的通话,并插入新的内容或者修改原有内容
42.使用Charles,可以轻松截获手机App和微信小程序的数据包,从而开发出直接抓取App后台和小程序后台的爬虫。
43.要实现Charles对Android抓包,其过程比iOS稍微复杂一点。
这是因为不同的Andorid设备,安装证书的入口可能不一样
44.Python中包含字典的列表页可以转换成JSON字符串
45.MongoDBURI的格式为:
mongodb:
//服务器IP或域名:
端口@用户名:
密码
46.Python中字符串切片以后的结果还是字符串
47.微信小程序的反爬虫能力要比网页的高很多。
48.cookies在http请求中是明文传输的。
49.默认情况下,MongoDB可以通过外网访问
50.Python中列表生成以后还可以往里面继续添加数据,也可以从里面删除数据;
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 网络爬虫与信息提取 南开 20 学期 网络 爬虫 信息 提取 在线 作业 标准答案