本实验爬取网页网址为 豆瓣图书Top250页面:
爬取的信息为图书名称、图书链接、评分、评价人数和一句话点评。
按照上一实验的方法,对书名单击右键-检查,在弹出的窗口中再次单击右键-Copy-Copy Xpath复制书名的Xpath:
//*[@id="content"]/div/div[1]/div/table[1]/tbody/tr/td[2]/div[1]/a
# 导入requests模块和bs4模块
import requests
from lxml import etree
# 引入要爬取的网页的url
url = 'https://book.douban.com/top250'
# 加入请求头,防止网站监测出来我们是爬虫,所以都必须要引入请求;对于有需要 登录 的页面需要加上cookices,那么直接在header字典中将 " 'Cookie': '你的cookie' "添加进去
header={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.113 Safari/537.36"
}
# 1、获取网页的响应
# url,请求头,设置访问超时时间
response = requests.get(url, headers=header,timeout=30)
# 2,当网页获取成功的之后,设置网页的编码格式,方式出现中文的乱码
response.encoding='utf-8'
# 3,从获取到的文本连接中获取对应的网页源代码字符串
data = response.text
# 4.对获取到的网页源代码字符串使用etree解析
s=etree.HTML(data)
# 5.直接请求对应 书名 的Xpath
file=s.xpath('//*[@id="content"]/div/div[1]/div/table[1]/tbody/tr/td[2]/div[1]/a')
#### 此时会报错,读取不到指定的Xpath的值,返回空值 ####
# 这里需要注意,浏览器复制的xpath信息并不是完全可靠的,浏览器经常会自己在里面增加多余的tbody标签,我们需要手动把这些标签删掉。
# 5.直接请求对应 书名 的Xpath(此时返回的是一个对象)
file=s.xpath('//*[@id="content"]/div/div[1]/div/table[1]/tr/td[2]/div[1]/a')
# 6.当我们要获取其中的值的时候,我们是不仅需要删除多余的tbody,还要拼接 "/text()" 来获取值
file=s.xpath('//*[@id="content"]/div/div[1]/div/table[1]/tr/td[2]/div[1]/a/text()')
print(file)
# 输出结果:['\n 红楼梦\n\n \n ']
1, 我们将整本书和书名的xpath进行对比
2, 不难发现,书名和评分 xpath 的前半部分和整本书的 xpath 一致的,那我们可以通过这样写 xpath 的方式来定位信息://*[@id=“content”]/div/div[1]/div/table[1] # 整本书 //*[@id=“content”]/div/div[1]/div/table[1]/tr/td[2]/div[1]/a # 书名 //*[@id=“content”]/div/div[1]/div/table[1]/tr/td[2]/div[2]/span[2] # 评分
book = s.xpath("//*[@id='content']/div/div[1]/div/table[1]")
for div in book:
# 对于标签的属性 例如: title 就直接使用 @title 的方式进行获取;href 就直接使用 @href 的方式进行获取
title =div.xpath("./tr/td[2]/div[1]/a/@title")
href =div.xpath("./tr/td[2]/div[1]/a/@href")
# 对于标签中的文本就直接使用text()的方式进行获取
score=div.xpath("./tr/td[2]/div[2]/span[2]/text()")
# 输出语句可以使用 .format 的格式化方式(类似于C语言)输出
print("{}: {}, {}".format(title, score, href))
# 列表的取值直接使用下标的方式进行列表值的获取
print("{}: {}, {}".format(title[0], score[0], href[0]))
books=s.xpath("//*[@id='content']/div/div[1]/div/table")
for div in books:
title = div.xpath("./tr/td[2]/div[1]/a/@title")[0]
score=div.xpath("./tr/td[2]/div[2]/span[2]/text()")[0]
print("{}: {}".format(title,score))
1,首先分析翻页之后的 url 是如何变化的:
https://book.douban.com/top250?start=0 # 第一页 https://book.douban.com/top250?start=25 # 第二页 https://book.douban.com/top250?start=50 # 第三页2,得到 url 变化的规律很简单,只是 start=() 的数字不一样而已,而且是以每页25为单位,递增25。于是爬取多页网页只需要写一个循环:
# 爬取前十页中的信息 for a in range(10): # 总共10个页面,用 a*25 保证以25为单位递增 url = 'https://book.douban.com/top250?start={}'.format(a*25)3,range() 函数简介
基本语法:range(start, stop, step)
start:计数从 start 开始。默认是从 0 开始。例如 range(5) 等价于range(0,5);
end:计数到 end 结束,但不包括 end。例如:range(0,5)是 [0,1,2,3,4] 没有5
step:步长,默认为1。例如:range(0,5) 等价于 range(0,5,1)
>>> range(10) #从 0 开始到 10 (不包含) [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] >>> range(1, 11) #从 1 开始到 11 (不包含) [1, 2, 3, 4, 5, 6, 7, 8, 9, 10] >>> range(0, 30, 5) #从0到30(不包含),步长为5 [0, 5, 10, 15, 20, 25]
# 完整代码
# 导入requests模块和bs4模块
import requests
from lxml import etree
import time
# 加入请求头,防止网站监测出来我们是爬虫,所以都必须要引入请求;对于有需要 登录 的页面需要加上cookices,那么直接在header字典中将 " 'Cookie': '你的cookie' "添加进去
header={
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.113 Safari/537.36"
}
# 遍历前10页的数据
for a in range(10):
# 此时的 url 根据range的区间不断变化的
url = 'https://book.douban.com/top250?start={}'.format(a*25)
# 1、获取网页的响应
# url,请求头,请求延迟(时间):主要是在多批次访问的时候,有一个停顿时间,可以防止网站监测为爬虫,也就是伪造一个真实的人的请求
response = requests.get(url, headers=header,timeout=10)
# 2,当网页获取成功的之后,设置网页的编码格式,方式出现中文的乱码
response.encoding='utf-8'
# 3,从获取到的文本连接中获取对应的网页源代码字符串
data = response.text
# 4.对获取到的网页源代码字符串使用etree解析
s=etree.HTML(data)
# 5.遍历当前页中的所有table
books=s.xpath("//*[@id='content']/div/div[1]/div/table")
# 在执行到每一个url的时候,设置请求的延时时间,也就是说在请求一次之后隔多长时间再执行一次
time.sleep(2)
# 6.在table中指定相对路径,把书名、超链接、评分、描述依次获取出来,然后格式化打印输出
for div in books:
title = div.xpath("./tr/td[2]/div[1]/a/@title")[0]
href =div.xpath("./tr/td[2]/div[1]/a/@href")
score=div.xpath("./tr/td[2]/div[2]/span[2]/text()")[0]
scrible=div.xpath("./tr/td[2]/p[2]/span/text()")
# 由于在源代码中部分书籍的描述信息有的是空的,所以这里做了一个判断
if len(scrible) > 0:
print("{}: {},{},{}\n".format(title,score,href,scrible[0]))
else:
print("{}: {},{}\n".format(title,score,href))
'''
第一个案例:爬取笔趣阁小说网中的一本小说
'''
import requests
from bs4 import BeautifulSoup
# 这个是爬虫请求时,设置的请求头文件,用将将爬虫伪装成模拟器就行请求网页,并不是所有的网页都需要headers,大部分get的网页都不需要
headers = {
"Host":"www.xbiquge.la",
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36",
"Cookie": "_abcde_qweasd=0; bdshare_firstime=1557364397358; Hm_lvt_169609146ffe5972484b0957bd1b46d6=1569634637; BAIDU_SSP_lcr=https://www.baidu.com/link?url=dyrbuFlzQnF2dvMKantPaFSxvBy7yw8kxfQKPGemmby&wd=&eqid=fbaeb37c0021021f000000025d8eb947; _abcde_qweasd=0; Hm_lpvt_169609146ffe5972484b0957bd1b46d6=1569637328"
}
# 定义一个变量,用来存放网址
url = 'http://www.xbiquge.la/40/40520/'
# 使用get请求去请求网页,这时候的返回值是一个代码(正确是200)
res = requests.get(url)
# 设置字符编码为utf-8,
res.encoding ='utf-8'
# 将res解析成text格式
html = res.text
# 使用BeautifulSoup将html解析成lxml格式,返回值类似于一个字符串,可以直接print,打印出来的东西看起来和html一样
soup = BeautifulSoup(html,'lxml')
# 查找网页中id为list的的div标签,这一步的作用是缩小查找的范围,方便我们查找我们想要的数据,返回值是一个类似是字符串吧,可以直接print
div = soup.find('div',id='list')
# 根据上边找到div标签,进一步查找我们需要的数据
# 查找出div标签中所有的a标签,返回值是一个list
list_a = div.find_all('a')
# 创建或者读取一个文件,文件名为40520.txt,读写类型为覆盖(没有此文件的时候会自动创建,但是只能创建文件,不能创建目录),编码类型为utf-8
fb = open("40520.txt",'w',encoding='utf-8')
# 上边我们找到了所有的a标签,现在我们遍历list,挨个取出a标签
# <a href="...">...</a>
for a in list_a:
# a标签中的href里有下一个页面的部分url,我们只需要将域名与href拼接起来就可以
# 想要取出a标签的href直接a['href']即可
href = "http://www.xbiquge.la"+a['href']
print(href)
# 类似于上边的res,同样还是请求网页
response = requests.get(href,headers=headers)
response.encoding='utf-8'
html = response.text
# print(response)
soup = BeautifulSoup(html,'lxml')
div = soup.find('div',id='content')
# 如果我们想取出标签之间的文字,直接使用get_text()函数即可
data = div.get_text()
# 写入数据
fb.write(a.get_text())
fb.write('\n')
fb.write(data)
fb.write('\n')
# 关闭文件
fb.close()
我主要使用Ruby来执行此操作,但到目前为止我的攻击计划如下:使用gemsrdf、rdf-rdfa和rdf-microdata或mida来解析给定任何URI的数据。我认为最好映射到像schema.org这样的统一模式,例如使用这个yaml文件,它试图描述数据词汇表和opengraph到schema.org之间的转换:#SchemaXtoschema.orgconversion#data-vocabularyDV:name:namestreet-address:streetAddressregion:addressRegionlocality:addressLocalityphoto:i
有时我需要处理键/值数据。我不喜欢使用数组,因为它们在大小上没有限制(很容易不小心添加超过2个项目,而且您最终需要稍后验证大小)。此外,0和1的索引变成了魔数(MagicNumber),并且在传达含义方面做得很差(“当我说0时,我的意思是head...”)。散列也不合适,因为可能会不小心添加额外的条目。我写了下面的类来解决这个问题:classPairattr_accessor:head,:taildefinitialize(h,t)@head,@tail=h,tendend它工作得很好并且解决了问题,但我很想知道:Ruby标准库是否已经带有这样一个类? 最佳
我正在尝试使用Curbgem执行以下POST以解析云curl-XPOST\-H"X-Parse-Application-Id:PARSE_APP_ID"\-H"X-Parse-REST-API-Key:PARSE_API_KEY"\-H"Content-Type:image/jpeg"\--data-binary'@myPicture.jpg'\https://api.parse.com/1/files/pic.jpg用这个:curl=Curl::Easy.new("https://api.parse.com/1/files/lion.jpg")curl.multipart_form_
无论您是想搭建桌面端、WEB端或者移动端APP应用,HOOPSPlatform组件都可以为您提供弹性的3D集成架构,同时,由工业领域3D技术专家组成的HOOPS技术团队也能为您提供技术支持服务。如果您的客户期望有一种在多个平台(桌面/WEB/APP,而且某些客户端是“瘦”客户端)快速、方便地将数据接入到3D应用系统的解决方案,并且当访问数据时,在各个平台上的性能和用户体验保持一致,HOOPSPlatform将帮助您完成。利用HOOPSPlatform,您可以开发在任何环境下的3D基础应用架构。HOOPSPlatform可以帮您打造3D创新型产品,HOOPSSDK包含的技术有:快速且准确的CAD
本教程将在Unity3D中混合Optitrack与数据手套的数据流,在人体运动的基础上,添加双手手指部分的运动。双手手背的角度仍由Optitrack提供,数据手套提供双手手指的角度。 01 客户端软件分别安装MotiveBody与MotionVenus并校准人体与数据手套。MotiveBodyMotionVenus数据手套使用、校准流程参照:https://gitee.com/foheart_1/foheart-h1-data-summary.git02 数据转发打开MotiveBody软件的Streaming,开始向Unity3D广播数据;MotionVenus中设置->选项选择Unit
文章目录一、概述简介原理模块二、配置Mysql使用版本环境要求1.操作系统2.mysql要求三、配置canal-server离线下载在线下载上传解压修改配置单机配置集群配置分库分表配置1.修改全局配置2.实例配置垂直分库水平分库3.修改group-instance.xml4.启动监听四、配置canal-adapter1修改启动配置2配置映射文件3启动ES数据同步查询所有订阅同步数据同步开关启动4.验证五、配置canal-admin一、概述简介canal是Alibaba旗下的一款开源项目,Java开发。基于数据库增量日志解析,提供增量数据订阅&消费。Git地址:https://github.co
我正在尝试在Rails上安装ruby,到目前为止一切都已安装,但是当我尝试使用rakedb:create创建数据库时,我收到一个奇怪的错误:dyld:lazysymbolbindingfailed:Symbolnotfound:_mysql_get_client_infoReferencedfrom:/Library/Ruby/Gems/1.8/gems/mysql2-0.3.11/lib/mysql2/mysql2.bundleExpectedin:flatnamespacedyld:Symbolnotfound:_mysql_get_client_infoReferencedf
文章目录1.开发板选择*用到的资源2.串口通信(个人理解)3.代码分析(注释比较详细)1.主函数2.串口1配置3.串口2配置以及中断函数4.注意问题5.源码链接1.开发板选择我用的是STM32F103RCT6的板子,不过代码大概在F103系列的板子上都可以运行,我试过在野火103的霸道板上也可以,主要看一下串口对应的引脚一不一样就行了,不一样的就更改一下。*用到的资源keil5软件这里用到了两个串口资源,采集数据一个,串口通信一个,板子对应引脚如下:串口1,TX:PA9,RX:PA10串口2,TX:PA2,RX:PA32.串口通信(个人理解)我就从串口采集传感器数据这个过程说一下我自己的理解,
SPI接收数据左移一位问题目录SPI接收数据左移一位问题一、问题描述二、问题分析三、探究原理四、经验总结最近在工作在学习调试SPI的过程中遇到一个问题——接收数据整体向左移了一位(1bit)。SPI数据收发是数据交换,因此接收数据时从第二个字节开始才是有效数据,也就是数据整体向右移一个字节(1byte)。请教前辈之后也没有得到解决,通过在网上查阅前人经验终于解决问题,所以写一个避坑经验总结。实际背景:MCU与一款芯片使用spi通信,MCU作为主机,芯片作为从机。这款芯片采用的是它规定的六线SPI,多了两根线:RDY和INT,这样从机就可以主动请求主机给主机发送数据了。一、问题描述根据从机芯片手
前言一般来说,前端根据后台返回code码展示对应内容只需要在前台判断code值展示对应的内容即可,但要是匹配的code码比较多或者多个页面用到时,为了便于后期维护,后台就会使用字典表让前端匹配,下面我将在微信小程序中通过wxs的方法实现这个操作。为什么要使用wxs?{{method(a,b)}}可以看到,上述代码是一个调用方法传值的操作,在vue中很常见,多用于数据之间的转换,但由于微信小程序诸多限制的原因,你并不能优雅的这样操作,可能有人会说,为什么不用if判断实现呢?但是if判断的局限性在于如果存在数据量过大时,大量重复性操作和if判断会让你的代码显得异常冗余。wxswxs相当于是一个独立