成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識庫 > python基礎之爬蟲入門

python基礎之爬蟲入門

熱門標簽:陜西金融外呼系統(tǒng) 哈爾濱ai外呼系統(tǒng)定制 廣告地圖標注app 公司電話機器人 騰訊外呼線路 唐山智能外呼系統(tǒng)一般多少錢 海南400電話如何申請 白銀外呼系統(tǒng) 激戰(zhàn)2地圖標注

前言

python基礎爬蟲主要針對一些反爬機制較為簡單的網站,是對爬蟲整個過程的了解與爬蟲策略的熟練過程。
爬蟲分為四個步驟:請求,解析數據,提取數據,存儲數據。本文也會從這四個角度介紹基礎爬蟲的案例。

一、簡單靜態(tài)網頁的爬取

我們要爬取的是一個壁紙網站的所有壁紙

http://www.netbian.com/dongman/

1.1 選取爬蟲策略——縮略圖

首先打開開發(fā)者模式,觀察網頁結構,找到每一張圖對應的的圖片標簽,可以發(fā)現我們只要獲取到標黃的img標簽并向它發(fā)送請求就可以得到壁紙的預覽圖了。

隨后注意到網站不止一頁,打開前3頁的網站觀察url有沒有規(guī)律

http://www.netbian.com/dongman/index.htm#第一頁
http://www.netbian.com/dongman/index_2.htm#第二頁
http://www.netbian.com/dongman/index_3.htm#第三頁

我們發(fā)現除了第一頁其他頁數的url都是有著固定規(guī)律的,所以先構建一個含有所有頁數url的列表

url_start = 'http://www.netbian.com/dongman/'
url_list=['http://www.netbian.com/dongman/index.htm']
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
for i in range(2,133):
    url = url_start+'index_'+str(i)+'.htm'
    url_list.append(url)

至此我們的基本爬蟲策略就確定了。

網頁請求

for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text

解析數據

在這里我們選用etree解析數據

tree = etree.HTML(response)

提取數據

在這里我們選用xpath提取數據

leaf = tree.xpath('//div[@class="list"]//ul/li/a/img/@src')
for l in leaf:
      print(l)
      h = requests.get(url=l, headers=headers).content

存儲數據

i = 'exercise/' + l.split('/')[-1]
with open(i, 'wb') as fp:
      fp.write(h)

完整代碼

import requests
from lxml import etree
import os
url_start = 'http://www.netbian.com/dongman/'
url_list=['http://www.netbian.com/dongman/index.htm']
#http://www.netbian.com/dongman/index_2.htm
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
for i in range(2,133):
    url = url_start+'index_'+str(i)+'.htm'
    url_list.append(url)
print(url_list)
for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text
    tree = etree.HTML(response)
    leaf = tree.xpath('//div[@class="list"]//ul/li/a/img/@src')
    for l in leaf:
        print(l)
        h = requests.get(url=l, headers=headers).content
        i = 'exercise/' + l.split('/')[-1]
        with open(i, 'wb') as fp:
            fp.write(h)

1.2 選取爬蟲策略——高清大圖

在剛剛的爬蟲中我們爬取到的只是壁紙的縮略圖,要想爬到高清版本,就需要我們更改策略。重新打開開發(fā)者工具進行觀察,發(fā)現在原先爬取的img標簽之上還有一個href標簽,打開之后就會跳轉高清大圖。


那么此時我們的爬取策略就變成了提取這個href標簽的內容,向這個標簽中的網站發(fā)送請求,隨后在該網站中找到img標簽進行再一次請求。

我們用到了正則表達式來提取href標簽的內容。正則表達式是比xpath語法更簡便的一種數據提取方法,具體有關語法可查看以下文檔

for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text
    leaf = re.findall("desk/\d*.htm",response,re.S)
    for l in leaf:
        url = "http://www.netbian.com/"+str(l)
        h = requests.get(url=url, headers=headers).text
        leaf_ =re.findall('div class="pic">.*?(http://img.netbian.com/file/\d*/\d*/\w*.jpg)',h,re.S)

這樣輸出的leaf_就是我們要找的高清大圖的img標簽,此時我們只需要再次發(fā)送請求隨后再保存數據就可以了。

存儲數據

for l_ in leaf_:
      print(l_)
      h = requests.get(url=l_, headers=headers).content
      i = 'exercise/' + l_.split('/')[-1]
      with open(i, 'wb') as fp:
          fp.write(h)

完整代碼

import requests
import os
import re
url_start = 'http://www.netbian.com/dongman/'
url_list=['http://www.netbian.com/dongman/index.htm']
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
for i in range(2,133):
    url = url_start+'index_'+str(i)+'.htm'
    url_list.append(url)
print(url_list)
for url in url_list:
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
    response = requests.get(url=url,headers=headers).text
    leaf = re.findall("desk/\d*.htm",response,re.S)
    for l in leaf:
        url = "http://www.netbian.com/"+str(l)
        h = requests.get(url=url, headers=headers).text
        leaf_ =re.findall('div class="pic">.*?(http://img.netbian.com/file/\d*/\d*/\w*.jpg)',h,re.S)
        for l_ in leaf_:
            print(l_)
            h = requests.get(url=l_, headers=headers).content
            i = 'exercise/' + l_.split('/')[-1]
            with open(i, 'wb') as fp:
                fp.write(h)

    

二、動態(tài)加載網站的爬取

我們要爬取的是另一個壁紙網站的所有壁紙

https://sucai.gaoding.com/topic/9080?

2.1 選取爬蟲策略——selenium

首先打開開發(fā)者模式,觀察網頁結構,此時我們會發(fā)現一頁上的所有壁紙并不是全部都加載出來了的,也就是說隨著我們下拉滾動條,內容會不斷實時加載出來,查看網頁元素時也能看到lazy-image這個代表動態(tài)加載的標簽。

由于是動態(tài)加載,因此不能用之前的直接發(fā)送請求的辦法來爬取數據了,面對這種情況我們就需要模擬瀏覽器發(fā)送一個請求,并且下拉頁面,來實現爬取一個實時加載網頁的目的。

觀察完網頁結構之后我們又來觀察頁數,這次就不多說了,想必大家也能發(fā)現規(guī)律

url_list=[]
for i in range(1,4):
    url =  'https://sucai.gaoding.com/topic/9080?p={}'.format(i)
    url_list.append(url)

網頁請求

在這里我們用到了selenium這個自動化測試框架

for url in url_list:
    driver = webdriver.Chrome()
    driver.get(url)
    driver.maximize_window()
    time.sleep(2)
    i=0
    while i10:#下拉滾動條加載頁面
        i+=1
        driver.execute_script("window.scrollBy(0,500)")
        driver.implicitly_wait(5)#顯式等待

解析提取數據

items = driver.find_elements_by_xpath("http://*[@class='gdd-lazy-image__img gdd-lazy-image__img--loaded']")
    for item in items:
            href = item.get_attribute('src')
            print(href)

至于數據的存儲只需要再請求我們爬下來的href標簽的網站就可以了。

完整代碼

from selenium import webdriver
import time
import os
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.75 Safari/537.36'
    }
url_list=[]
url_f_list=[]
for i in range(1,4):
    url =  'https://sucai.gaoding.com/topic/9080?p={}'.format(i)
    url_list.append(url)
for url in url_list:
    driver = webdriver.Chrome()
    driver.get(url)
    driver.maximize_window()
    time.sleep(2)
    i=0
    while i10:
        i+=1
        driver.execute_script("window.scrollBy(0,500)")
        driver.implicitly_wait(5)#顯式等待
    items = driver.find_elements_by_xpath("http://*[@class='gdd-lazy-image__img gdd-lazy-image__img--loaded']")
    for item in items:
            href = item.get_attribute('src')
            print(href)

2.2 選取爬蟲策略——api

眾所周知,api接口是個好東西,如果找到了它,我們就無需擔心動態(tài)加載,請求api返回給我們的是json格式的字典,里面或許有我們需要的東西也說不定。那么我們重新打開開發(fā)者工具搜索一番吧!

從Element切換到Network我們可以發(fā)現這里多了好多奇怪的東西,但是打開preview好像沒有我們能用到的。

這個時候別灰心,切換下頁面,等第二頁加載出來的時候最后又多出來了一個xhr文件,點開preview我們驚喜的發(fā)現,這個里面有每一張圖id的信息!

搜尋一圈發(fā)現字典里有效的只有id這個值,那么id對于我們的圖片爬取有什么意義呢?通常情況下網址+id就可以定位到具體的圖片,于是我點進去一張壁紙,驚喜的發(fā)現跟我想的一樣!

最后又到了我們老生常談的頁數環(huán)節(jié),在看到這個api的request url之后大家有沒有觀察到它其中帶著page_num=2page_size=100這兩個看著很像頁碼的參數呢?我們再往下就看到了參數中也正好有這兩個值!也就是說我們只需要更改page_num=2就可以實現翻頁了!

url='https://api-sucai.gaoding.com/api/csc-api/topics/9080/modules/18928/templets?'
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
params_list=[]
for i in range(1,4):
    parms ={
        'page_num': i,
        'page_size': 100
    }
    params_list.append(parms)

解析提取數據

for param in params_list:
    response = requests.get(url=url,params=param,headers=headers).json()
    for i in range(100):
        try:
            dict  =response[i]
            id = dict['id']
            url_f = 'https://sucai.gaoding.com/material/'+str(id)
            url_f_list.append(url_f)
        except:
            pass

存儲數據

for l in url_f_list:
    print(l)
    h = requests.get(url=l, headers=headers).content
    i = 'exercise/' + l.split('/')[-1]
    with open(i, 'wb') as fp:
        fp.write(h)

完整代碼

import os
import requests
if not os.path.exists('./exercise'):
    os.mkdir('./exercise')
url='https://api-sucai.gaoding.com/api/csc-api/topics/9080/modules/18928/templets?'
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36'
    }
params_list=[]
url_f_list=[]
for i in range(1,4):
    parms ={
        'page_num': i,
        'page_size': 100
    }
    params_list.append(parms)
for param in params_list:
    response = requests.get(url=url,params=param,headers=headers).json()
    for i in range(100):
        try:
            dict  =response[i]
            id = dict['id']
            url_f = 'https://sucai.gaoding.com/material/'+str(id)
            url_f_list.append(url_f)
        except:
            pass
for l in url_f_list:
    print(l)
    #h = requests.get(url=l, headers=headers).content
    #i = 'exercise/' + l.split('/')[-1]
    #with open(i, 'wb') as fp:
    #    fp.write(h)

三、selenium模擬登錄

我們要爬取的網站總是免不了登錄這一關鍵環(huán)節(jié),因此模擬登錄也是一大爬蟲基礎。
我們要模擬登錄的網站如下

https://www.icourse163.org/course/BIT-268001

選取爬蟲策略

既然我們是用selenium模擬登陸,首先肯定要明確我們要模擬的具體內容,歸納起來就是

點擊 登錄|注冊
點擊 其他登陸方式
點擊 手機號登錄
輸入賬號
輸入密碼
點擊 登錄

在明確該干些什么之后我們就打開開發(fā)者模式觀察一下這個登錄框吧。

不看不知道,一看嚇一跳,原來這里有一個iframe框架,這就意味著如果我們不做任何處理就查找元素的話可能會什么都查找不到。這就相當于在王家找李家的東西一樣,我們首先需要切換到當前iframe

driver.switch_to.frame(driver.find_element_by_xpath('//*[@id="j-ursContainer-1"]/iframe'))

經過這一操作之后我們就可以正常按部就班的進行模擬登陸了!

完整代碼

from selenium import webdriver
import time
url = 'https://www.icourse163.org/course/BIT-268001'
driver = webdriver.Chrome()
driver.get(url)
driver.maximize_window()
#time.sleep(2)
driver.find_element_by_xpath('//div[@class="unlogin"]/a').click()
driver.find_element_by_class_name('ux-login-set-scan-code_ft_back').click()
driver.find_element_by_xpath('//ul[@class="ux-tabs-underline_hd"]/li[2]').click()
driver.switch_to.frame(driver.find_element_by_xpath('//*[@id="j-ursContainer-1"]/iframe'))
driver.implicitly_wait(2)#給登錄框一些加載的時間
driver.find_element_by_css_selector('input[type="tel"]').send_keys('15201359153')
driver.find_element_by_css_selector('input[class="j-inputtext dlemail"]').send_keys('Asdasd123')
driver.implicitly_wait(2)#如果不等待的話可能密碼還沒輸入結束就點按登錄鍵了
driver.find_element_by_id('submitBtn').click()

到此這篇關于python基礎之爬蟲入門的文章就介紹到這了,更多相關python入門爬蟲內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲數據的分類及json數據使用小結
  • python爬蟲scrapy圖書分類實例講解
  • Python爬蟲實現的根據分類爬取豆瓣電影信息功能示例
  • Python異步爬蟲實現原理與知識總結
  • Python爬蟲之線程池的使用
  • python爬蟲請求庫httpx和parsel解析庫的使用測評
  • Python爬蟲之爬取最新更新的小說網站
  • 用Python爬蟲破解滑動驗證碼的案例解析
  • Python爬蟲基礎之爬蟲的分類知識總結

標簽:四川 益陽 黔西 惠州 鷹潭 黑龍江 上海 常德

巨人網絡通訊聲明:本文標題《python基礎之爬蟲入門》,本文關鍵詞  python,基礎,之,爬蟲,入門,;如發(fā)現本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統(tǒng)采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python基礎之爬蟲入門》相關的同類信息!
  • 本頁收集關于python基礎之爬蟲入門的相關信息資訊供網民參考!
  • 推薦文章
    美腿丝袜一区二区三区| 欧美aaaaaaaa| 被男同事摸的水好多| 亚洲一区二区三区四区中文| 国产日产在线观看| 伊人影院蕉久影院在线播放| 日韩一区二区视频在线| 电影一区电影二区| 欧美国产在线一区| 日韩av自拍| 春暖花开亚洲| 日av在线播放| 99在线视频播放| 免费高清视频在线一区| 国产成人影院| 欧美大片在线影院| 成人性生活视频| 成人在线分类| 精品久久久三级丝袜| 国产精品日韩欧美综合| 一级黄色大片免费| 成人综合久久网| 污视频网站入口| 黄色三级电影网站| 国产午夜精品久久久久久久| 色哟哟免费视频| 欧美久久高跟鞋激| 国产中文一区| 中文字幕2018| 91夜夜未满十八勿入爽爽影院| 欧美狂野激情性xxxx在线观| 婷婷亚洲最大| 激情综合网激情| 人成网站免费观看| 久久精品一区四区| 少妇无套高潮一二三区| 欧美少妇激情| 成人ssswww在线播放| 久久性色av| 久久久视频6r| 欧美国产日本视频| www.久久久久久久久久| 欧美一级黄色录像片| 欧美日韩视频在线| 99久久精品一区二区三区| mm131丰满少妇人体欣赏图| 国产片在线播放| 久久精品91久久久久久再现| 国产视频三区| 国产精品区一区二区三含羞草| 99re视频在线播放| 日韩电影免费网址| 疯狂蹂躏欧美一区二区精品| 亚洲精品二区三区| 国产一区二区三区av电影| 超碰97在线资源| 日本加勒比一区| 国产亚洲欧美视频| 久久久久久久久久成人| 欧美6699| 欧美成人午夜精品免费| 成人ww免费完整版在线观看| 裤袜国产欧美精品一区| 91精品国产综合久久国产大片| 奇米一区二区三区| 日本三级在线视频| 精品偷拍各种wc美女嘘嘘| 国产偷国产偷精品高清尤物| 日本一区美女| 日韩av在线精品| 亚洲影院污污.| 成人国产精品一级毛片视频| 久久影院午夜片一区| 日韩无套无码精品| 夜夜操天天操亚洲| 污视频网站在线免费观看| 手机看片1024日韩| 久久久久国产精品无码免费看| 亚洲第一导航| 九九九九九九精品任你躁| 色综合五月天导航| 国产三级av片| 5566先锋影音夜色资源站在线观看| 国产又大又黑又粗| 看全色黄大色黄女片18| 高清成人在线| 欧美偷拍自拍| 黄色av一区二区| 99久久99久久免费精品小说| 日韩欧美国产午夜精品| 久色国产在线| 精品视频自拍| 亚洲av成人无码久久精品| 日韩美女一级视频| 国产精品男人的天堂| 日韩av在线电影网| 国产精品videossex久久发布| √8天堂资源地址中文在线| 成人激情视频小说免费下载| 免费一级网站| 在线亚洲日本| 国产真实的和子乱拍在线观看| 黄页网站在线免费观看| 中文字幕av在线一区二区三区| 三级性生活视频| 三级网站在线播放| 成人免费网站黄| 国产精品美女一区| 国自产拍偷拍福利精品免费一| 欧美交换配乱吟粗大25p| 国内精品一区二区三区| 久久久9999久久精品小说| av亚洲一区| 日本999视频| 国产电影精品久久禁18| www黄色av| 国产一区二区三区国产| 538任你躁在线精品免费| 久久偷看各类wc女厕嘘嘘偷窃| 精品欧美一区二区久久久久| 亚洲成在人线在线播放| 日本中文字幕观看| 亚洲香蕉伊在人在线观| 日韩精品91亚洲二区在线观看| 在线不卡中文字幕播放| 亚洲视频一区二区三区四区| 欧美黑人性生活视频| 日韩av资源在线| 午夜dj在线观看高清视频完整版| 性活交片大全免费看| 欧美成人第一区| ㊣最新国产の精品bt伙计久久| 精品欧美一区二区三区在线观看| aa国产精品| 亚洲av人无码激艳猛片服务器| 美女羞羞视频在线观看| 可以看av的网址| 欧美夫妻性生活| 亚洲午夜在线观看视频在线| 不卡一区二区在线观看| 国产a级黄色大片| 亚洲日本电影在线| 欧美激情图区| 人妻少妇无码精品视频区| 污视频免费在线观看网站| jizz亚洲少妇| 无码任你躁久久久久久老妇| 少妇性l交大片| 亚洲日本青草视频在线怡红院| 邻居大乳一区二区三区| 4虎在线播放1区| 日本黄网站免费| www.久久综合| 狠狠躁夜夜躁人人爽天天天天97| 亚洲一区亚洲二区亚洲三区| 欧美伊人久久久久久午夜久久久久| 国产精品久久久久久久7电影| 男女午夜视频在线观看| 欧美1区二区三区公司| 成年人免费看毛片| 国产网址在线观看| 国产精品影视在线观看| 新版中文字幕在线资源| 免费av成人在线| 被黑人猛躁10次高潮视频| 成人免费在线观看视频网站| 黄色免费福利视频| 亚洲国产成人影院播放| 熟妇人妻一区二区三区四区| 农村妇女一区二区| 天堂在线免费观看视频| 毛片在线视频| 天天操综合520| 日韩视频在线视频| 国产一区二区三区高清视频| 日韩在线小视频| 亚洲欧美制服第一页| 精品国精品国产| 国产日韩精品视频一区二区三区| 成年人在线免费观看视频网站| 精精国产xxxx视频在线动漫| 久久久青草青青国产亚洲免观| 久久久天堂国产精品女人| 在线免费观看麻豆| 国产成人亚洲综合色影视| 久久精品视频观看| 久久国产精品色| 久久久999精品免费| 亚洲欧洲视频在线| 国产一区91精品张津瑜| 天堂在线第六区| 亚洲国产精品午夜在线观看| 国产又黄又爽又无遮挡| 国产精品久久久久久99| 免费在线看成人av| 国产高清无密码一区二区三区| 性少妇xx生活| 18久久久久久| 夜鲁很鲁在线视频| 日本高清不卡的在线| aaa日本高清在线播放免费观看| 中文字幕18页| 国产精品国产三级国产aⅴ9色| 国产女王在线**视频| 成人性生交视频免费观看| 国产一区国产精品| 久久久久亚洲av无码专区| 国产中文日韩欧美| 在线亚洲精品| 亚洲最新中文字幕| 成人片在线播放| 97精品国产97久久久久久| 国产综合成人久久大片91| 男人与禽猛交狂配| 欧美精品二区三区| 欧美少妇一级片| 欧美精品vⅰdeose4hd| 美女高潮黄又色高清视频免费| 男女免费网站| 成人精品国产福利| caoprom在线| 麻豆蜜桃91| 国产aⅴ精品一区二区四区| 一本色道精品久久一区二区三区| 久久精品国产综合| 高h视频免费观看| 亚洲欧洲午夜一线一品| 狠狠做深爱婷婷综合一区| 在线视频国内一区二区| 成人激情电影在线| 亚洲精品传媒| 国外成人免费视频| 欧美性videosxxxxx| 91蜜桃网站免费观看| 超碰公开在线| 亚洲色图另类小说| 免费人成网ww777kkk手机| 看电视剧不卡顿的网站| 国产伦理精品不卡| 欧美野外wwwxxx| 水蜜桃亚洲一二三四在线| 一区二区三区视频免费视频观看网站| 国产精品扒开腿做爽爽爽男男| 成人免费在线视频网站| 91麻豆国产福利在线观看宅福利| 免费在线观看亚洲| 免费观看成年人视频在线观看| 精品久久久久久久久久久aⅴ| 日韩女优av电影在线观看| 四虎永久在线高清国产精品| 成人午夜激情在线| 一个色在线综合| 免费看一级大黄情大片| 天堂在线亚洲| 亚洲综合影视| 伊人影院蕉久影院在线观看| 黄色成人美女网站| 欧美一区二区三区久久精品茉莉花| 捆绑调教美女网站视频一区| 秋霞午夜理伦电影在线观看| 欧美成人精品xxx| 蜜臀久久99精品久久久画质超高清| 99re在线视频精品| 国产国语老龄妇女a片| 嫩草在线视频| 精品国产va久久久久久久| 色婷婷av一区二区三区gif| 久久国内精品自在自线400部| 女人让男人操自己视频在线观看| 浮力国产第一页| 日本最新在线视频| 欧美色欧美亚洲另类七区| 亚洲国产成人精品一区二区| 肉色超薄丝袜脚交69xx图片| 精品欧美日韩在线| 亚洲精品视频在线观看视频| 在线免费观看亚洲视频| 亚洲成人av中文字幕| 亚洲成人中文字幕在线| 国产不卡免费视频| 精品少妇一区二区三区在线| 国产精品三级在线观看无码| 99精品在免费线中文字幕网站一区| 日本福利专区在线观看| 成人黄色免费看| 欧美xxxx黑人xyx性爽| 亚洲丝袜一区在线| 亚洲免费在线观看av| 欧美国产综合视频| 精品国产一区二区三区av性色| 欧美午夜理伦三级在线观看| 日韩丝袜情趣美女图片| 美女福利一区二区三区| 久久精品成人av| 受虐m奴xxx在线观看| 天美星空大象mv在线观看视频| yellow91字幕网在线| 国产日产欧美视频| 黄色国产在线| 久久精品视频在线看| 亚洲欧美日韩中文在线制服| 国产绿帽刺激高潮对白| av福利网址| 亚洲色图在线视频| 一区二区乱码| 久久久久久99久久久精品网站| 欧美日韩精品中文字幕| 韩日成人在线| 97超碰人人看人人| 国产亚洲成av人在线观看导航| 4438国产精品一区二区| 亚洲欧美国产一区二区三区| 97影视大全免费追剧大全在线观看| 成人三级av在线| 五月婷婷丁香色| 清纯唯美一区二区三区| 精品久久五月天| 精品黑人一区二区三区| 麻豆传媒网站在线观看| 国产精品极品美女在线观看| 天天射成人网| 羞羞影院体验区| 中文字幕日本欧美| 欧美日韩免费一区二区| 91毛片在线观看| 日韩欧美自拍| 蝌蚪91视频| 欧美激情精品久久久久久|