from selenium.webdriver import Chrome,ChromeOption
options = ChromeOptions()
options.add_argument('--proxy-server=http://代理服务器:端口')
第三步:通过指定配置创建浏览器对象
b = Chrome(options = options) #options:选择、选项、选择权,相当于做了一个配置,借助这个配置创建浏览器对象
b.get('https://www.baidu.com/')
print(b.page_source)
取消自动测试
from selenium.webdriver import Chrome,ChromeOptions
options = ChromeOptions()
options.add_experimental_option('excludeSwitches', ['enable-automation'])
b = Chrome(options=options)
b.get('https://www.baidu.com/')
b.implicitly_wait(5)
取消图片加载
options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2})
print(b.page_source)
b.close()
如果没有设置隐式等待:在通过浏览器获取标签的时候,如果标签不存在会直接报错
如果设置了隐式等待:在通过浏览器获取标签的时候,如果标签不存在不会直接报错,而是在指定时间范围内,不断尝试重新获取标签,直到获取到标签或者超时为值(如果超时会报错)
一个浏览器只需设置一次隐式等待时间,它会作用于这个浏览器每次获取标签的时候
#sleep设置等待时间,如果给出的时间不够,有可能没有加载完,会报错,隐式等待比较灵活。
from selenium.webdriver import Chrome,ChromeOptions
from selenium.webdriver.common.by import By
options = ChromeOptions()
options.add_experimental_option('excludeSwitches', ['enable-automation'])
# 取消图片加载
options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2})
b=Chrome()
b.get('https://www.jd.com')
# 1.设置隐式等待
# 1). 设置隐式等待时间,这个隐式等待是在获取标签的时候有效。
b.implicitly_wait(5) #
print('============')
# 2). 获取标签的时候,隐式等待时间才会生效
input_tag = b.find_element_by_id('key')
input_tag.send_keys('钱包')
等待对象. until(条件) - 等到条件成立为止
等待对象. until_not(条件) - 等到条件不成立为止
条件的写法:
# presence_of_element_located(标签) #当包含这个页面的标签出现的时候,才比较
wait = WebDriverWait(b, 10)
# wait.until(EC.text_to_be_present_in_element_value((By.ID, 'key'), '电脑'))
# print('继续执行')
# 等到页面中出现id值为J_goodsList里面class值为gl-i-wrap的div标签值
wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#J_goodsList div.gl-i-wrap')))
print(b.page_source)
#前程无忧
import requests
from time import sleep
from re import search
from json import loads
def get_ip():
url = 'http://d.jghttp.alicloudecs.com/getip?num=1&type=1&pro=&city=0&yys=0&port=11&time=2&ts=0&ys=0&cs=0&lb=4&sb=0&pb=4&mr=1®ions='
while True:
response = requests.get(url)
if response.text[0] == '{':
print('获取ip失败')
sleep(1)
continue
return response.text
def get_net_data():
# 设置请求地址和hedears
url = 'https://search.51job.com/list/000000,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590,2,1.html?lang=c&stype=&postchannel=0000&workyear=99&cotype=99°reefrom=99&jobterm=99&companysize=99&providesalary=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=&dibiaoid=0&address=&line=&specialarea=00&from=&welfare='
headers = {
'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'
}
# 发送请求,如果请求失败重新获取ip然后重新请求
while True:
ip = get_ip()
proxies = {
'http':ip,
'https':ip
}
response = requests.get(url,headers = headers,proxies = proxies )
result= search(r'window.__SEARCH_RESULT__ = (.+?)</script>',response)
if result:
analysis_data(result.group(1))
break
def analysis_data(json_data:str):
data = loads(json_data) #是一个字典,字典每一个元素还是一个字典
for x in data:
print(x['job_name'],x['providesalary_text'])
if __name__ == '__main__':
get_net_data()
## 京东评价
import requests
from selenium.webdriver import Chrome,ChromeOptions
from bs4 import BeautifulSoup
from time import sleep
from re import findall
headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36'}
options = ChromeOptions()
options.add_experimental_option('excludeSwitches', ['enable-automation'])
options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2})
#一、获取整个网页的鼠标的数据
# 定义函数拿到一页网页的所有鼠标的地址
def get_one_data(page:int,key_word='鼠标'):
#请求网页的数据
url = f'https://search.jd.com/Search?keyword={key_word}&pvid=9a743dbbb1ca49d28bc230c6cb731a72&page={page}&s=56&click=0'
response = requests.get(url,headers = headers) #整个网页的数据
#解析每一个商品的详情页地址
soup = BeautifulSoup(response.text,'lxml')
good_list = soup.select('#J_goodsList div.gl-i-wrap .p-img>a')
for x in good_list:
one_good_url = 'https:'+x.attrs['href'] #获取
get_good_details(one_good_url)
def get_good_details(url:str):
#获取带有评价信息的详情页数据
b = Chrome(options=options)
b.get(url)
b.implicitly_wait(5) #让这个页面
# for x in range(4)
# b.execute_script('window.scrollby(0,900)') #持续滚动,然给整个页面滑动到最后
button = b.find_element_by_css_selector('#detail>div.tab-main.large>ul>li:nth-child(5)') #找到评论的标签
button.click() #点击评论按钮
sleep(1)
result = b.page_source #得到评论的点击链接
##解析数据,获取单个数据
soup = BeautifulSoup(result,'lxml')
name = soup.select_one('.sku-name').text.strip()
print(name)
price = soup.select_one('.p-price>.price ').text.strip()
print(price) #.J-comments-list ul.filter-list>li'
comment_count =soup.select_one('#detail > div.tab-main.large > ul > li:nth-child(5)').text.strip()
count_num = findall(r'\((.+?)\)',comment_count)[0]
print(count_num)
comment_info = soup.select('.J-comments-list ul.filter-list>li')
if comment_info:
positive_comment = comment_info[4].text #取出内容在正则
positive_comment = findall(r'好评\((.+?)\)',positive_comment)[0]
nutual_comment = comment_info[5].text #取出内容在使用正则
nutual_comment = findall(r'中评\((.+?)\)', nutual_comment)[0]
nagetive_comment = comment_info[6].text
negative_comment = findall(r'差评\((.+?)\)', nagetive_comment)[0]
print(positive_comment,nutual_comment,negative_comment)
print('----------------------------冷静的分割线-------------------------------')
b.close()
#解析数据
if __name__ == '__main__':
get_one_data(1,'鼠标')
我正在学习如何使用Nokogiri,根据这段代码我遇到了一些问题:require'rubygems'require'mechanize'post_agent=WWW::Mechanize.newpost_page=post_agent.get('http://www.vbulletin.org/forum/showthread.php?t=230708')puts"\nabsolutepathwithtbodygivesnil"putspost_page.parser.xpath('/html/body/div/div/div/div/div/table/tbody/tr/td/div
我有一个Ruby程序,它使用rubyzip压缩XML文件的目录树。gem。我的问题是文件开始变得很重,我想提高压缩级别,因为压缩时间不是问题。我在rubyzipdocumentation中找不到一种为创建的ZIP文件指定压缩级别的方法。有人知道如何更改此设置吗?是否有另一个允许指定压缩级别的Ruby库? 最佳答案 这是我通过查看rubyzip内部创建的代码。level=Zlib::BEST_COMPRESSIONZip::ZipOutputStream.open(zip_file)do|zip|Dir.glob("**/*")d
类classAprivatedeffooputs:fooendpublicdefbarputs:barendprivatedefzimputs:zimendprotecteddefdibputs:dibendendA的实例a=A.new测试a.foorescueputs:faila.barrescueputs:faila.zimrescueputs:faila.dibrescueputs:faila.gazrescueputs:fail测试输出failbarfailfailfail.发送测试[:foo,:bar,:zim,:dib,:gaz].each{|m|a.send(m)resc
很好奇,就使用rubyonrails自动化单元测试而言,你们正在做什么?您是否创建了一个脚本来在cron中运行rake作业并将结果邮寄给您?git中的预提交Hook?只是手动调用?我完全理解测试,但想知道在错误发生之前捕获错误的最佳实践是什么。让我们理所当然地认为测试本身是完美无缺的,并且可以正常工作。下一步是什么以确保他们在正确的时间将可能有害的结果传达给您? 最佳答案 不确定您到底想听什么,但是有几个级别的自动代码库控制:在处理某项功能时,您可以使用类似autotest的内容获得关于哪些有效,哪些无效的即时反馈。要确保您的提
假设我做了一个模块如下:m=Module.newdoclassCendend三个问题:除了对m的引用之外,还有什么方法可以访问C和m中的其他内容?我可以在创建匿名模块后为其命名吗(就像我输入“module...”一样)?如何在使用完匿名模块后将其删除,使其定义的常量不再存在? 最佳答案 三个答案:是的,使用ObjectSpace.此代码使c引用你的类(class)C不引用m:c=nilObjectSpace.each_object{|obj|c=objif(Class===objandobj.name=~/::C$/)}当然这取决于
我正在尝试使用ruby和Savon来使用网络服务。测试服务为http://www.webservicex.net/WS/WSDetails.aspx?WSID=9&CATID=2require'rubygems'require'savon'client=Savon::Client.new"http://www.webservicex.net/stockquote.asmx?WSDL"client.get_quotedo|soap|soap.body={:symbol=>"AAPL"}end返回SOAP异常。检查soap信封,在我看来soap请求没有正确的命名空间。任何人都可以建议我
关闭。这个问题是opinion-based.它目前不接受答案。想要改进这个问题?更新问题,以便editingthispost可以用事实和引用来回答它.关闭4年前。Improvethisquestion我想在固定时间创建一系列低音和高音调的哔哔声。例如:在150毫秒时发出高音调的蜂鸣声在151毫秒时发出低音调的蜂鸣声200毫秒时发出低音调的蜂鸣声250毫秒的高音调蜂鸣声有没有办法在Ruby或Python中做到这一点?我真的不在乎输出编码是什么(.wav、.mp3、.ogg等等),但我确实想创建一个输出文件。
我在我的项目目录中完成了compasscreate.和compassinitrails。几个问题:我已将我的.sass文件放在public/stylesheets中。这是放置它们的正确位置吗?当我运行compasswatch时,它不会自动编译这些.sass文件。我必须手动指定文件:compasswatchpublic/stylesheets/myfile.sass等。如何让它自动运行?文件ie.css、print.css和screen.css已放在stylesheets/compiled。如何在编译后不让它们重新出现的情况下删除它们?我自己编译的.sass文件编译成compiled/t
我想将html转换为纯文本。不过,我不想只删除标签,我想智能地保留尽可能多的格式。为插入换行符标签,检测段落并格式化它们等。输入非常简单,通常是格式良好的html(不是整个文档,只是一堆内容,通常没有anchor或图像)。我可以将几个正则表达式放在一起,让我达到80%,但我认为可能有一些现有的解决方案更智能。 最佳答案 首先,不要尝试为此使用正则表达式。很有可能你会想出一个脆弱/脆弱的解决方案,它会随着HTML的变化而崩溃,或者很难管理和维护。您可以使用Nokogiri快速解析HTML并提取文本:require'nokogiri'h
我想为Heroku构建一个Rails3应用程序。他们使用Postgres作为他们的数据库,所以我通过MacPorts安装了postgres9.0。现在我需要一个postgresgem并且共识是出于性能原因你想要pggem。但是我对我得到的错误感到非常困惑当我尝试在rvm下通过geminstall安装pg时。我已经非常明确地指定了所有postgres目录的位置可以找到但仍然无法完成安装:$envARCHFLAGS='-archx86_64'geminstallpg--\--with-pg-config=/opt/local/var/db/postgresql90/defaultdb/po