AJAX(Asynchronouse JavaScript And XML)异步JavaScript和XML,与后台服务器进行很少量的数据交换,AJAX可以使网页实现异步更新。
可以在不重新加载整个页面的情况下,对网页的某部分进行更新。传统的网页(不使用AJAX)如果需要更新内容,必须重新加载整个页面,因为
传统的在网页在传输数据方面,使用的是XML语法。AJAX实现数据交互基本上都是使用JSON,使用AJAX加载数据即是使用JS,将数据渲染到浏览器
中,在“右键—>查看网页源代码”操作中,还是不能看到通过AJAX加载的数据,只能看到使用这个URL加载的HTML代码。
JSON在线解析及格式化:https://www.json.cn。通过在线解析及格式化可以是JSON数据看起来更加舒服。
获取ajax数据的方式:
1.直接分析ajax调用的接口,然后通过代码求情接口;
2.使用Selenium+chromedriver模拟浏览器获取数据。
直接可以请求到数据,不需要做一些解析工作,
代码量少,性能高
分析接口复杂,特别是一些通过js混淆的接口,要有一定的js功底。容易被发现是爬虫
selenium
直接模拟浏览器行为,浏览器能请求到的,
使用selenium也能请求到。爬虫更加稳定
代码量多,性能低。
#
初始化一个driver,并且指定chromedriver的绝对路径
driver = webdriver.Chrome(executable_path=
driver_path)
#
请求网页
driver.get(
'
https://baidu.com/
'
)
#
通过page_source获取网页源码
print
(driver.page_source)
Selenium常用操作:
更多教程参考:
http://selenium-python.readthedocs.io/installation.html#introduction
关闭页面:
# 关闭当前页面
driver.close()
# 退出整个浏览器
driver.quit()
定位元素:
1,根据id来查找某个元素:
submitTag = driver.find_element_by_id('su')
submitTag1 = driver.find_element(By.ID, 'su')
2,根据类名查找元素:
submitTag = driver.find_element_by_class_name('su')
submitTag1 = driver.find_element(By.CLASS_NAME, 'su')
3.根据标签名来查找元素:
submitTag = driver.find_element_by_tag_name('div')
submitTag1 = driver.find_element(By.TAG_NAME, 'div')
4,根据标签属性的值来查找元素:
submitTag = driver.find_element_by_name('email')
submitTag1 = driver.find_element(By.NAME, 'email')
5,根据XPath语法来获取元素:
submitTag = driver.find_elements_by_xpath('//div')
submitTag1 = driver.find_element(By.XPATH, '//div')
6.根据CSS选择器选择元素:
submitTag = driver.find_elements_by_css_selector('//div')
submitTag1 = driver.find_element(By.CSS_SELECTOR, '//div')
find_element是获取第一个满足条件的元素,find_elements 是获取所有满足条件的元素。
操作表单元素:
1,操作输入框:第一步:找到这个元素;第二步:使用send_key(value),将数据填充进去。
inputTag = driver.find_element_by_id("kw")
inputTag.send_keys("python")
使用clear方法可以清楚输入框中的内容:
inputTag.clear()
2.操作checkbox:checkbox标签在网页中是通过鼠标点击的。因此,先找到标签,然后执行click事件。
remembertag = driver.find_element_by_name('remenberMe')
remembertag.click()
3.选择select:select元素不能直接点击。因为点击后还需要选中元素。selenium专门为select标签提供了一个类selenium.webdriver.support.ui。将获取到的元素当成参数传到这个类中,创建这个对象,以后就可以使用这个对象进行选择。
from selenium.webdriver.support.ui import Select
# 选中标签
select = Select(driver.find_element_by_name('name'))
# 根据索引进行选择
select.select_by_index(index)
# 根据可视化文本进行选择
select.select_by_visible_text("text")
# 根据值进行选择
select.select_by_value(value)
#取消选中的所有项
select.deselect_all()
4.操作按钮:操作按钮有很多种方式。比如:单击、右击、双击等。点击直接调用click函数即可。
element = driver.find_element_by_id("su")
element.click()
比如说:有时候在页面中的操作分为很多步,那么可以使用鼠标行为链类ActionChains来完成。比如:将鼠标移动到某个元素并执行点击事件。
from selenium.webdriver import ActionChains
inputTag = driver.find_element_by_id('kw')
submitTag =driver.find_element_by_id('su')
action = ActionChains(driver)
action.move_to_element(inputTag)
action.send_keys_to_element(inputTag,'python')
action.move_to_element(submitTag)
action.click(submitTag)
action.perform()
还有更多的鼠标相关操作:
click_and_hold(element):点击但不松开鼠标
context_click(element):右键点击
double_click(element):双击
更多方法参考:http://selenium-python.readthedocs.io/api.html
Cookie操作:
1.获取所有的cookie:
for cookie in driver.get_cookies():
print(cookie)
2.根据cookie的key获取value:
value = driver.get_cookie(key)
3.删除所有的cookie:
driver.delete_all_cookies()
4.删除某个cookie:
driver.delete_cookie(key)
页面等待:
现在的网页越来越多采用AJAX技术,这样程序便不能确定何时某个元素完全加载出来。如果实际页面等待时间过长导致某个dom元素还没有出来,但是你的代码直接使用了WebElement,那么就会抛出NullPointer的异常,为了解决这个问题,所以Selenium提供两种等待方式:一种是隐式等待;一种是显式等待。
1,隐式等待:调用driver.implicitly_wait。那么在获取不可用的元素之前,会先等待10秒中的时间。
driver = webdriver.Chrome(executable_path=driver_path)
driver.implicitly_wait(10)
# 请求网页
driver.get('https://www.baidu.com/')
2,显式等待:显式等待是表明某个条件成立后才执行获取元素操作,也可以给等待的时间指定一个最大值,如果超过这个时间就会抛出一个异常。显式等待应该使用selenium.webdriver.support.excepted_conditions期望的条件和selenium.webdriver.support.ui.webDriverWait来配合完成。
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
driver = webdriver.Firefox()
driver.get('http://somedomain/url_that_delays_loading')
try:
element = WebDriverWait(driver,10).until(
EC.presence_of_element_located((By.ID,"myDynamicElement"))
finally:
driver.quit()
3.一些其他的等待条件:
presence_of_element_located:某个元素已经加载完成。
presence_of_all_emement_located:网页中所有满足条件的元素都加载完毕。
element_to_be_cliable:某个元素是可以点击了。
更多条件参考:http://selenium-python.readthedocs.io/waits.html
切换页面:
有时候窗口中有很多子tab页面。这时候肯定是需要进行切换。selenium提供了一个叫做swith_to_window来进行切换,具体切换到哪个页面,可以从
driver.window_handles中找到。
# 打开一个新的页面
self.driver.execute_script('window.open('"+url+"')')
# 切换到这个新的页面
self.driver.switch_to_window(self.driver.window_handles[1])
from selenium import webdriver
# chromedriver的绝对路径
driver_path = r'D:\edgedriver_win64\msedgedriver.exe'
#初始化一个driver,并且指定chromedriver的绝对路径
driver = webdriver.Chrome(executable_path=driver_path)
#请求网页
driver.get('https://baidu.com/')
driver.execute_script("window.open('https://baidu.com/)")
print(driver.window_handles)
driver.switch_to_window(driver.window_handles[1])
print(driver.current_url)
print(driver.page_source)
虽然在窗口中切换到了新的页面,但是driver中还没有切换到。如果想要在代码中切换到新的页面,并且做一些爬虫。那么应该使用driver.switch_to_window来切换到指定的窗口。从driver.window_handlers中取出具体第几个窗口,driver.window_handlers是一个列表,会按照打开网页的顺序来存储窗口的句柄。
WebElement元素:
from selenium.webdriver.remote.webelement import WebElement类是每一个获取出来的元素的所属类。
有一些常用的属性:
1.get_attribute:这个标签的某个属性的值。
2.screentshot:获取当前页面的截图。这个方法只能在driver上使用。
driver的对象类,也是继承在WebElement。
设置代理IP:
频繁的爬取一些网页,服务器会发现你是爬虫后封掉IP地址。这时候我们可以更改代理IP。更改代理IP,不同的浏览器
有不同的实现方式。以Chrome浏览器为列:
from selenium import webdriver
options = webdriver.ChromeOptions()
options.add_argument('--proxy-server=http://110.73.2.248:8123')
driver_path = r"D:\ProgramApp\chromedriver\chromedriver.exe"
driver = webdriver.Chrome(executable_path=driver_path,chrome_options=options)
driver.get('http://httpbin.org/ip')