我猜每个人的一生里都会遇见某个人,喜欢上她。有些人在合适的时间相遇,就像是在春天遇到花开,于是一切都会很好,他们会相恋、订婚、结婚、一起生活。而有些人在错误的时间相遇,就像是在冬天隔着冰看见浮上来换气的鱼,鱼换完气沉到水下去,再也看不见了,什么结果都没有,但我们能说在春天遇到花是对的,而在冬天遇到鱼是错的吗?在错误的时间遇到,就能克制自己不喜欢那个人么?是不是仍然会用尽了力气想去接近?想尽办法掩饰自己甚至伪装成另外一条鱼。
最后更新时间:
13:3159
星期三
2019年2月20日
前言
selenium可以模拟真实浏览器,自动化测试工具,支持多种浏览器,爬虫中主要用来解决JavaScript渲染问题。本文记载的是selenium这个库常用的语句,方便复习。
基本使用方法
选择使用的浏览器类型
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.common.keys import Keys
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.support.wait import WebDriverWait
import time
声明使用的浏览器
browser=webdriver.Chrome() #常用的有Chrome(),PhantomJS(),Firefox() //注意大小写
访问网址
browser.get('http://www.baidu.com')//找到ID为kw的元素
input = browser.find_element_by_id('kw')//向这个元素里面发送一些键,就好像让你输入一些字符串
input.send_keys('Langzi_blog')
敲入回车
input.send_keys(Keys.ENTER)
//等待一段时间,这段时间浏览器会发送请求
wait=WebDriverWait(browser,10)#接受参数1浏览器2等待时间
等待期望的数值或者结果加载出来
wait.until(EC.presence_of_all_elements_located((By.ID,'content_left')))//等待id是content_id的页面加载出来
打印浏览器当前的网址
print browser.current_url
打印浏览器当前的Cookies
print browser.get_cookies()
打印浏览器当前网页的源代码
print browser.page_source()
关闭浏览器
browser.close()
查找元素
单个元素查找
browser.get('http://www.taobao.com')
利用id=xxx来寻找,比如寻找id=q的元素
first_input=browser.find_element_by_id('q')
利用CSS选择器,用法类似Pyquery #q
secend_input=browser.find_element_by_css_selector('#q')
利用xpath来选择元素
third_input=browser.find_element_by_xpath('//*[@id=q"]')
一个通用的方法
forth_input=browser.find_element(By.ID,'q')# 这里有By.ID,By.CSS等等
还有by_name,xpath,lint_text,tag_name,class_name,css_selector
利用浏览器元素
按F12,点击到需要点击的地方,右键,copy–>选择copy selector。然后把复制到的内容使用By.CSS_SELECTOR即可。
比如:
browser.find_element(By.CSS_SELECTOR,"#xxx你复制的内容xxx")
查找多个元素
browser.get('http://www.taobao.com')
fifth_input=browser.find_elements_by_class_name('li')
print fifth_input//返回的对象是列表,使用索引可以获取指定想要的某一个元素
浏览器交互
输入文字与回车点击
browser.get('http://www.taobao.com')
首先找到输入位置的标签
input=browser.find_element(By.ID,'q')
其次输入文字
input.send_keys('Book')
清除刚刚输入的文字
input.clear()
然后你在输入其他的文字
input.send_keys('ZhaohanEB0')
在找到浏览器页面中的点击标签
button=browser.find_element(By.CLASS_NAME,'btn-search')
点击刚刚找到的点击按钮
button.click()
把动作附加到动作链中串行执行,比如拖动某个地方(验证码中拖到最右边这种情况)
from selenium.webdriver import ActionChains
browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')//这个链接是模拟拖动的地址
browser.switch_to.frame('iframeResult')#这里相当于切换到里面的iframe
source=browser.find_element(By.CSS_SELECTOR,'.ui-draggable') //找到被拖动的那个块
target=browser.find_element(By.CSS_SELECTOR,'.ui-droppable') //找到要拖拽的目标块
actions=ActionChains(browser)
actions.drag_and_drop(source,target)
actions.perform()//在这里实现拖拽
执行JavaScript 实现进度条下拖
browser.get('https://www.zhihu.com/people/lan-yan-xiao-cang-shu/activities')
browser.execute_script('window.scrollTo(0,document.body.scrollHeight)')
browser.execute_script('alert("To Bottom")')
浏览器前进与后退
browser.get('https://sxadmin.github.io')
browser.get('http://www.baidu.com')
browser.back() //后退
browser.forward() //前进
获取元素的属性
browser.get('https://sxadmin.github.io')
input = browser.find_element(By.CSS_SELECTOR,'.fade_box')
print input.get_attribute('href') //标签里面href的值
print input.text //获取文本值
获取已经获取元素的属性,包括id,标签,大小
browser.get('https://sxadmin.github.io')
input = browser.find_element(By.CSS_SELECTOR,'.fade_box')
获取id
print input.id
获取在浏览器里面的位置
print input.location
获取标签名
print input.tag_name
获取大小
print input.size
Frame的用法 相当于一个另外的网页,在主页面里切换到这个主页面里面的另一个页面
browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable')//这个链接是模拟拖动的地址
browser.switch_to.frame('iframeResult')//这里相当于切换到里面的iframe,可以赋给一个新的变量然后寻找元素或者操作
等待
隐式等待,就是如果你想要找到的元素没有出现的时候等待一点时间(可以自己设置),直到那个元素出现为止
browser.implicitly_wait(10)//设置等待的时间
browser.get('https://sxadmin.github.io')
print browser.find_element(By.ID,'link')
显式等待 设置一个等待时间,程序寻找元素,如果找到了就打印出来,没有找到就继续寻找,时间一到抛出异常
browser.implicitly_wait(10)//隐性等待和显性等待可以同时用,但要注意:等待的最长时间取两者之中的大者
browser.get('https://www.sxadmin.github.io')
locator = (By.LINK_TEXT, 'CSDN')
try:
WebDriverWait(browser, 20, 0.5).until(EC.presence_of_element_located(locator))
print browser.find_element_by_link_text('CSDN').get_attribute('href')
finally:
browser.close()
Cookie 当获取cookie后在调用或者编辑或者删除
browser.get('https://sxadmin.github.io')
print browser.get_cookies()
browser.delete_all_cookies()
在浏览器里面在另外打开一个页面
使用JavaScript
browser.get('https://sxadmin.github.io')
browser.execute_script('window.open()')
print browser.window_handles
使用代理IP
我一般是只是用chrome,首先你去这里下载chrome,然后添加到系统环境变量下载地址
第一种(好像咩用)
options = webdriver.ChromeOptions()
# 进入chrome设置模式
proxy = 'http://114.119.116.92:61066'
# 这个是一个代理IP
options.add_argument("'--proxy-server={}".format(proxy))
# 把代理IP添加到代理中
browser = webdriver.Chrome(chrome_options=options)
# 初始化浏览器
browser.get('https://sxadmin.github.io')
# 发起请求
第二种(不带密码的)
chromeOptions = webdriver.ChromeOptions()
chromeOptions.add_argument('--proxy-server=http://ip:port')
driver = webdriver.Chrome(chrome_options=chromeOptions)
第三种(带密码的)
# -*- coding:utf-8 -*-
import time
from selenium import webdriver
def create_proxyauth_extension(proxy_host, proxy_port,
proxy_username, proxy_password,
scheme='http', plugin_path=None):
"""Proxy Auth Extension
args:
proxy_host (str): domain or ip address, ie proxy.domain.com
proxy_port (int): port
proxy_username (str): auth username
proxy_password (str): auth password
kwargs:
scheme (str): proxy scheme, default http
plugin_path (str): absolute path of the extension
return str -> plugin_path
"""
import string
import zipfile
if plugin_path is None:
plugin_path = 'vimm_chrome_proxyauth_plugin.zip'
manifest_json = """
{
"version": "1.0.0",
"manifest_version": 2,
"name": "Chrome Proxy",
"permissions": [
"proxy",
"tabs",
"unlimitedStorage",
"storage",
"<all_urls>",
"webRequest",
"webRequestBlocking"
],
"background": {
"scripts": ["background.js"]
},
"minimum_chrome_version":"22.0.0"
}
"""
background_js = string.Template(
"""
var config = {
mode: "fixed_servers",
rules: {
singleProxy: {
scheme: "${scheme}",
host: "${host}",
port: parseInt(${port})
},
bypassList: ["foobar.com"]
}
};
chrome.proxy.settings.set({value: config, scope: "regular"}, function() {});
function callbackFn(details) {
return {
authCredentials: {
username: "${username}",
password: "${password}"
}
};
}
chrome.webRequest.onAuthRequired.addListener(
callbackFn,
{urls: ["<all_urls>"]},
['blocking']
);
"""
).substitute(
host=proxy_host,
port=proxy_port,
username=proxy_username,
password=proxy_password,
scheme=scheme,
)
with zipfile.ZipFile(plugin_path, 'w') as zp:
zp.writestr("manifest.json", manifest_json)
zp.writestr("background.js", background_js)
return plugin_path
proxyauth_plugin_path = create_proxyauth_extension(
proxy_host="220.176.90.95",
proxy_port=62089,
proxy_username="swkj",
proxy_password="swkj"
)
co = webdriver.ChromeOptions()
co.add_argument("--start-maximized")
co.add_extension(proxyauth_plugin_path)
driver = webdriver.Chrome(chrome_options=co)
driver.get("https://sxadmin.github.io")
打印当前网址
使用 current.url即可,这样可以用来判断网页是否关闭
def run():
browser = webdriver.Chrome()
browser.get('https://sxadmin.github.io')
while 1:
try:
print(browser.current_url)
if browser.current_url:
time.sleep(2)
else:
return None
except:
return None
判断是否有弹窗并截图
嘻嘻,猜一猜我要用这个功能干嘛~
driver = webdriver.Firefox()
driver.get('http://xxxx.com/help/searchlist.html?keyw=%E5%95%8A%E5%95%8A%E5%95%8A%E5%95%8A%E5%95%8A" onclick="confirm(1)')
print('加载完毕')
try:
result = EC.alert_is_present()(driver)
print(result)
if result:
print('存在弹窗行为')
print('截图咯')
driver.save_screenshot("codingpy.png")
except Exception as e:
print(e)
print('over')
chrome过滤了xss,需要使用火狐噢,首先到官网下载firefox,然后下载geckodriver.exe就行~
但是发现selenium无法截图弹窗,我日,还是老老实实用pillow,根据弹窗判断然后截图吧,日
pillow也有个缺陷,就是如果打包成exe后,不能保存jpg的图片,只能保存为png图片
哪位大佬要是能解决这个,希望能告知小弟。
记住:如果网页弹窗,必须要使用quite方法关闭,而不能使用close噢~
忽略ssl
firefox
profile = webdriver.FirefoxProfile()
profile.accept_untrusted_certs = True
driver = webdriver.Firefox(firefox_profile = profile)
driver.get(u'url地址')
chrome
options = webdriver.ChromeOptions()
options.add_argument('--ignore-certificate-errors')
ddriver = webdriver.Chrome(chrome_options=options)
driver.get(u'url地址')
结语
大概最常用的就这么多,其实语法还是很简单通用的,多多练习就好了。