成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識(shí)庫 > python實(shí)現(xiàn)百度文庫自動(dòng)化爬取

python實(shí)現(xiàn)百度文庫自動(dòng)化爬取

熱門標(biāo)簽:南京銷售外呼系統(tǒng)軟件 浙江電銷卡外呼系統(tǒng)好用嗎 315電話機(jī)器人廣告 蓋州市地圖標(biāo)注 房產(chǎn)電銷外呼系統(tǒng) 地圖標(biāo)注的意義點(diǎn) 地圖標(biāo)注微信發(fā)送位置不顯示 上海機(jī)器人外呼系統(tǒng)哪家好 地圖制圖標(biāo)注位置改變是移位嗎

項(xiàng)目介紹

可以下載doc,ppt,pdf.對(duì)于doc文檔可以下載,doc中的表格無法下載,圖片格式的文檔也可以下載.ppt和pdf是先下載圖片再放到ppt中.只要是可以預(yù)覽的都可以下載。

已有功能

  •  將可以預(yù)覽的word文檔下載為word文檔,如果文檔是掃描件,同樣支持.
  •  將可以預(yù)覽的ppt和pdf下載為不可編輯的ppt,因?yàn)榫W(wǎng)頁上只有圖片,所以理論上無法下載可編輯的版本.

環(huán)境安裝

pip install requests
pip install my_fake_useragent
pip install python-docx
pip install opencv-python
pip install python-pptx
pip install selenium
pip install scrapy

本項(xiàng)目使用的是chromedriver控制chrome瀏覽器進(jìn)行數(shù)據(jù)爬取的的,chromedriver的版本和chrome需要匹配

Windows用看這里

1. 如果你的chrome瀏覽器版本恰好是87.0.4280,那么恭喜你,你可以直接看使用方式了,因?yàn)槲蚁螺d的chromedriver也是這個(gè)版本

2. 如果不是,你需要查看自己的chrome瀏覽器版本,然后到chromedriver下載地址:http://npm.taobao.org/mirrors/chromedriver/ 這個(gè)地址下載對(duì)應(yīng)版本的chromedriver,比如你的瀏覽器版本是87.0.4280,你就可以找到87.0.4280.20/這個(gè)鏈接,如果你是windows版本然后選擇chromedriver_win32.zip進(jìn)行下載解壓。千萬不要下載LASEST——RELEASE87.0.4280這個(gè)鏈接,這個(gè)鏈接沒有用,之前有小伙伴走過彎路的,注意一下哈。

3. 用解壓好的chromedriver.exe替換原有文件,然后跳到使用方式

ubuntu用戶看這里

講道理,你已經(jīng)用ubuntu了,那位就默認(rèn)你是大神,你只要根據(jù)chrome的版本下載對(duì)應(yīng)的chromdriver(linux系統(tǒng)的),然后把chromedriver的路徑改稱你下載解壓的文件路徑就好了,然后跳到使用方式。哈哈哈,我這里就偷懶不講武德啦

使用方式:

把代碼中的url改為你想要下載的鏈接地址,腳本會(huì)自動(dòng)文檔判斷類型,并把在當(dāng)前目錄新建文件夾并把文件下載到當(dāng)前目錄。

主要代碼

import os
import time

from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
from scrapy import Selector
import requests
from my_fake_useragent import UserAgent
import docx
from docx.shared import Inches
import cv2
from pptx import Presentation
from pptx.util import Inches

#dows是的chromedriver
chromedriver_path = "./chromedriver.exe"
#用ubuntu的chromedriver
# chromedriver_path = "./chromedriver"

doc_dir_path = "./doc"
ppt_dir_path = "./ppt"
# url = "https://wenku.baidu.com/view/4410199cb0717fd5370cdc2e.html?fr=search"# doc_txt p
# url = "https://wenku.baidu.com/view/4d18916f7c21af45b307e87101f69e314332fa36.html" # doc_txt span
# url = "https://wenku.baidu.com/view/dea519c7e53a580216fcfefa.html?fr=search" # doc_txt span br
# url = 'https://wk.baidu.com/view/062edabeb6360b4c2e3f5727a5e9856a5712262d?pcf=2bfetype=new' # doc_img
# url = "https://wenku.baidu.com/view/2af6de34a7e9856a561252d380eb6294dd88228d"# vip限定doc
# url = "https://wenku.baidu.com/view/3de365cc6aec0975f46527d3240c844769eaa0aa.html?fr=search" #ppt
# url = "https://wenku.baidu.com/view/18a8bc08094e767f5acfa1c7aa00b52acec79c55"#pdf
# url = "https://wenku.baidu.com/view/bbe27bf21b5f312b3169a45177232f60dccce772"
# url = "https://wenku.baidu.com/view/5cb11d096e1aff00bed5b9f3f90f76c660374c24.html?fr=search"
# url = "https://wenku.baidu.com/view/71f9818fef06eff9aef8941ea76e58fafab045a6.html"
# url = "https://wenku.baidu.com/view/ffc6b32a68eae009581b6bd97f1922791788be69.html"
url = "https://wenku.baidu.com/view/d4d2e1e3122de2bd960590c69ec3d5bbfd0adaa6.html"

class DownloadImg():
    def __init__(self):
        self.ua = UserAgent()

    def download_one_img(self, img_url, saved_path):
        # 下載圖片
        header = {
            "User-Agent": "{}".format(self.ua.random().strip()),
            'Connection': 'close'}
        r = requests.get(img_url, headers=header, stream=True)
        print("請(qǐng)求圖片狀態(tài)碼 {}".format(r.status_code))  # 返回狀態(tài)碼
        if r.status_code == 200:  # 寫入圖片
            with open(saved_path, mode="wb") as f:
                f.write(r.content)
            print("download {} success!".format(saved_path))
        del r
        return saved_path


class StartChrome():
    def __init__(self):
        mobile_emulation = {"deviceName": "Galaxy S5"}
        capabilities = DesiredCapabilities.CHROME
        capabilities['loggingPrefs'] = {'browser': 'ALL'}
        options = webdriver.ChromeOptions()
        options.add_experimental_option("mobileEmulation", mobile_emulation)
        self.brower = webdriver.Chrome(executable_path=chromedriver_path, desired_capabilities=capabilities,
                                       chrome_options=options)
        # 啟動(dòng)瀏覽器,打開需要下載的網(wǎng)頁
        self.brower.get(url)
        self.download_img = DownloadImg()

    def click_ele(self, click_xpath):
        # 單擊指定控件
        click_ele = self.brower.find_elements_by_xpath(click_xpath)
        if click_ele:
            click_ele[0].location_once_scrolled_into_view  # 滾動(dòng)到控件位置
            self.brower.execute_script('arguments[0].click()', click_ele[0])  # 單擊控件,即使控件被遮擋,同樣可以單擊

    def judge_doc(self, contents):
        # 判斷文檔類別
        p_list = ''.join(contents.xpath("./text()").extract())
        span_list = ''.join(contents.xpath("./span/text()").extract())
        # # if span_list
        # if len(span_list)>len(p_list):
        #     xpath_content_one = "./br/text()|./span/text()|./text()"
        # elif len(span_list)len(p_list):
        #     # xpath_content_one = "./br/text()|./text()"
        #     xpath_content_one = "./br/text()|./span/text()|./text()"
        if len(span_list)!=len(p_list):
            xpath_content_one = "./br/text()|./span/text()|./text()"
        else:
            xpath_content_one = "./span/img/@src"
        return xpath_content_one

    def create_ppt_doc(self, ppt_dir_path, doc_dir_path):
        # 點(diǎn)擊關(guān)閉開通會(huì)員按鈕
        xpath_close_button = "http://div[@class='na-dialog-wrap show']/div/div/div[@class='btn-close']"
        self.click_ele(xpath_close_button)
        # 點(diǎn)擊繼續(xù)閱讀
        xpath_continue_read_button = "http://div[@class='foldpagewg-icon']"
        self.click_ele(xpath_continue_read_button)
        # 點(diǎn)擊取消打開百度app按鈕
        xpath_next_content_button = "http://div[@class='btn-wrap']/div[@class='btn-cancel']"
        self.click_ele(xpath_next_content_button)
        # 循環(huán)點(diǎn)擊加載更多按鈕,直到顯示全文
        click_count = 0
        while True:
            # 如果到了最后一頁就跳出循環(huán)
            if self.brower.find_elements_by_xpath("http://div[@class='pagerwg-loadSucc hide']") or self.brower.find_elements_by_xpath("http://div[@class='pagerwg-button' and @style='display: none;']"):
                break
            # 點(diǎn)擊加載更多
            xpath_loading_more_button = "http://span[@class='pagerwg-arrow-lower']"
            self.click_ele(xpath_loading_more_button)
            click_count += 1
            print("第{}次點(diǎn)擊加載更多!".format(click_count))
            # 等待一秒,等瀏覽器加載
            time.sleep(1.5)

        # 獲取html內(nèi)容
        sel = Selector(text=self.brower.page_source)
        #判斷文檔類型
        xpath_content = "http://div[@class='content singlePage wk-container']/div/p/img/@data-loading-src|//div[@class='content singlePage wk-container']/div/p/img/@data-src"
        contents = sel.xpath(xpath_content).extract()
        if contents:#如果是ppt
            self.create_ppt(ppt_dir_path, sel)
        else:#如果是doc
            self.create_doc(doc_dir_path, sel)
        # a = 3333
        # return sel

    def create_ppt(self, ppt_dir_path, sel):
        # 如果文件夾不存在就創(chuàng)建一個(gè)
        if not os.path.exists(ppt_dir_path):
            os.makedirs(ppt_dir_path)

        SLD_LAYOUT_TITLE_AND_CONTENT = 6  # 6代表ppt模版為空
        prs = Presentation()  # 實(shí)例化ppt

        # # 獲取完整html
        # sel = self.get_html_data()
        # 獲取標(biāo)題
        xpath_title = "http://div[@class='doc-title']/text()"
        title = "".join(sel.xpath(xpath_title).extract()).strip()
        # 獲取內(nèi)容
        xpath_content_p = "http://div[@class='content singlePage wk-container']/div/p/img"
        xpath_content_p_list = sel.xpath(xpath_content_p)
        xpath_content_p_url_list=[]
        for imgs in xpath_content_p_list:
            xpath_content = "./@data-loading-src|./@data-src|./@src"
            contents_list = imgs.xpath(xpath_content).extract()
            xpath_content_p_url_list.append(contents_list)

        img_path_list = []  # 保存下載的圖片路徑,方便后續(xù)圖片插入ppt和刪除圖片
        # 下載圖片到指定目錄
        for index, content_img_p in enumerate(xpath_content_p_url_list):
            p_img_path_list=[]
            for index_1,img_one in enumerate(content_img_p):
                one_img_saved_path = os.path.join(ppt_dir_path, "{}_{}.jpg".format(index,index_1))
                self.download_img.download_one_img(img_one, one_img_saved_path)
                p_img_path_list.append(one_img_saved_path)

            p_img_max_shape = 0
            for index,p_img_path in enumerate(p_img_path_list):
                img_shape = cv2.imread(p_img_path).shape
                if p_img_max_shapeimg_shape[0]:
                    p_img_max_shape = img_shape[0]
                    index_max_img = index
            img_path_list.append(p_img_path_list[index_max_img])


        print(img_path_list)
        # 獲取下載的圖片中最大的圖片的尺寸
        img_shape_max=[0,0]
        for img_path_one in img_path_list:
            img_path_one_shape = cv2.imread(img_path_one).shape
            if img_path_one_shape[0]>img_shape_max[0]:
                img_shape_max = img_path_one_shape
        # 把圖片統(tǒng)一縮放最大的尺寸
        for img_path_one in img_path_list:
            cv2.imwrite(img_path_one,cv2.resize(cv2.imread(img_path_one),(img_shape_max[1],img_shape_max[0])))
        # img_shape_path = img_path_list[0]
        # 獲得圖片的尺寸
        # img_shape = cv2.imread(img_shape_path).shape
        # 把像素轉(zhuǎn)換為ppt中的長(zhǎng)度單位emu,默認(rèn)dpi是720
        # 1厘米=28.346像素=360000
        # 1像素 = 12700emu
        prs.slide_width = img_shape_max[1] * 12700  # 換算單位
        prs.slide_height = img_shape_max[0] * 12700

        for img_path_one in img_path_list:
            left = Inches(0)
            right = Inches(0)
            # width = Inches(1)
            slide_layout = prs.slide_layouts[SLD_LAYOUT_TITLE_AND_CONTENT]
            slide = prs.slides.add_slide(slide_layout)
            pic = slide.shapes.add_picture(img_path_one, left, right, )
            print("insert {} into pptx success!".format(img_path_one))
            # os.remove(img_path_one)

        for root,dirs,files in os.walk(ppt_dir_path):
            for file in files:
                if file.endswith(".jpg"):
                    img_path = os.path.join(root,file)
                    os.remove(img_path)

        prs.save(os.path.join(ppt_dir_path, title + ".pptx"))
        print("download {} success!".format(os.path.join(ppt_dir_path, title + ".pptx")))

    def create_doc(self, doc_dir_path, sel):
        # 如果文件夾不存在就創(chuàng)建一個(gè)
        if not os.path.exists(doc_dir_path):
            os.makedirs(doc_dir_path)
        # # 獲取完整html
        # sel = self.get_html_data()
        # 獲取標(biāo)題
        xpath_title = "http://div[@class='doc-title']/text()"
        title = "".join(sel.xpath(xpath_title).extract()).strip()

        document = docx.Document()  # 創(chuàng)建word文檔
        document.add_heading(title, 0)  # 添加標(biāo)題

        # 獲取文章內(nèi)容
        xpath_content = "http://div[contains(@data-id,'div_class_')]//p"
        # xpath_content = "http://div[contains(@data-id,'div_class_')]/p"
        contents = sel.xpath(xpath_content)
        # 判斷內(nèi)容類別
        xpath_content_one = self.judge_doc(contents)
        if xpath_content_one.endswith("text()"):  # 如果是文字就直接爬
            for content_one in contents:
                one_p_list = content_one.xpath(xpath_content_one).extract()
                p_txt = ""
                for p in one_p_list:
                    if p==" ":
                        p_txt += ('\n'+p)
                    else:
                        p_txt += p
                # content_txt_one = '*'.join(content_one.xpath(xpath_content_one).extract())
                pp = document.add_paragraph(p_txt)
            document.save(os.path.join(doc_dir_path, '{}.docx'.format(title)))
            print("download {} success!".format(title))
        elif xpath_content_one.endswith("@src"):  # 如果是圖片就下載圖片
            for index, content_one in enumerate(contents.xpath(xpath_content_one).extract()):
                # 獲取圖片下載路徑
                content_img_one_url = 'https:' + content_one
                # 保存圖片
                saved_image_path = self.download_img.download_one_img(content_img_one_url, os.path.join(doc_dir_path,
                                                                                                        "{}.jpg".format(
                                                                                                            index)))
                document.add_picture(saved_image_path, width=Inches(6))  # 在文檔中加入圖片
                os.remove(saved_image_path)  # 刪除下載的圖片
            document.save(os.path.join(doc_dir_path, '{}.docx'.format(title)))  # 保存文檔到指定位置
            print("download {} success!".format(title))


if __name__ == "__main__":
    start_chrome = StartChrome()
    # start_chrome.create_doc_txt(doc_dir_path)
    start_chrome.create_ppt_doc(ppt_dir_path, doc_dir_path)

項(xiàng)目地址

https://github.com/siyangbing/baiduwenku

以上就是python實(shí)現(xiàn)百度文庫自動(dòng)化爬取的詳細(xì)內(nèi)容,更多關(guān)于python 爬取百度文庫的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • Python爬蟲自動(dòng)化爬取b站實(shí)時(shí)彈幕實(shí)例方法
  • Python自動(dòng)化爬取天眼查數(shù)據(jù)的實(shí)現(xiàn)

標(biāo)簽:臨汾 克拉瑪依 赤峰 日照 貴州 金華 雙鴨山 陽泉

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python實(shí)現(xiàn)百度文庫自動(dòng)化爬取》,本文關(guān)鍵詞  python,實(shí)現(xiàn),百度,文庫,自動(dòng)化,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python實(shí)現(xiàn)百度文庫自動(dòng)化爬取》相關(guān)的同類信息!
  • 本頁收集關(guān)于python實(shí)現(xiàn)百度文庫自動(dòng)化爬取的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    成人一区二区在线观看| 黑人巨大精品欧美黑白配亚洲| 日韩欧美一级在线| 在线播放毛片| 久久99国产精品自在自在app| 久久字幕精品一区| 亚洲人成伊人成综合图片| 日韩精品极品视频免费观看| 欧美美女15p| 国产精品拍天天在线| 国产精品亚洲欧美导航| 影音先锋久久资源网| 免费黄色电影在线观看| 91精品国产美女浴室洗澡无遮挡| 欧美在线视频二区| 成人午夜视频精品一区| 久草国产在线视频| 色老板亚洲精品一区| 黄色欧美在线| 欧美日韩大陆一区二区| 美女搞黄视频在线观看| 欧洲亚洲精品视频| 精品成人一区二区三区免费视频| 天海翼女教师无删减版电影| www.欧美精品一二三区| 国产亚洲精品美女久久久| 综合久久一本| 男人网站在线观看| 手机电影在线观看| 精品女同一区二区三区在线播放| 视频一区国产| 欧美日韩三级视频| h视频免费在线| 一本一本久久a久久精品综合妖精| 成人手机在线播放| 免费观看国产视频| 久久人人爽国产| 毛片av在线| 亚洲国产成人av好男人在线观看| 亚洲一区二区三区免费| 隔壁人妻偷人bd中字| 欧美一区二区精美| 国产又粗又硬视频| 精人妻一区二区三区| 婷婷视频一区二区三区| 国内外成人免费激情在线视频网站| 免费一级全黄少妇性色生活片| 亚洲精品毛片一区二区三区| 狠狠色噜噜狠狠狠888奇米| 欧美成人h版在线观看| 国产男女爽爽爽| 国产精品看片你懂得| 97国产在线观看| siro系绝美精品系列| 波多野结衣一本一道| 91日韩精品视频| 涩涩涩视频在线观看| 91这里只有精品| 校园春色 亚洲色图| 国产乱国产乱老熟300| 丁香亚洲综合激情啪啪综合| 日韩精品一区二区三区中文不卡| 色爽爽爽爽爽爽爽爽| 人妻久久久一区二区三区| 日韩欧美中文字幕精品| 久久久久久久久久久久久久av| 日本高清不卡的在线| 亚洲国产精久久久久久| 久热精品在线播放| 中文字幕亚洲在线观看| 天天躁夜夜躁狠狠是什么心态| 国产精品毛片久久久久久久av| 少女频道在线观看高清| 电影一区二区| 精品99一区二区| 精品国产乱码久久久久久牛牛| 亚洲丝袜制服诱惑| 91精品国产综合久久久久久| 亚洲男人天堂古典| 91色琪琪电影亚洲精品久久| 看av免费毛片手机播放| 日韩欧美在线免费观看视频| 欧美一区二区视频观看视频| 久久99精品久久| av网站在线免费播放| 96sao精品免费视频观看| 亚洲综合影院| 国产精品对白刺激久久久| 深夜福利网站在线观看| 男人的天堂avav| 99re在线视频播放| 亚洲成年人电影网站| 六月丁香婷婷综合| 美女在线视频免费| 17c精品麻豆一区二区免费| 国产精品巨作av| 国产成人免费视频| 天天干免费视频| 中文在线中文资源| 中文字幕国产欧美| 99自拍偷拍视频| 日韩中文字幕在线视频观看| 亚洲区在线播放| 男人的天堂一区| 蜜桃av噜噜一区二区三区麻豆| 四虎永久在线精品免费网址| 免费观看成人性生生活片| 日韩精品免费在线视频观看| 男女h黄动漫啪啪无遮挡软件| 欧美日韩亚洲网| 91久久精品www人人做人人爽| 美女的尿口免费视频| 亚洲精品少妇久久久久久| 亚洲欧美成aⅴ人在线观看| 性做久久久久久久免费看| 久久手机免费观看| 这里只有精品久久| 国产亚洲精品成人| 日韩国产综合| 日韩欧美美女在线观看| 国产亚洲欧美日韩在线一区| 7777久久亚洲中文字幕| 久久精品亚洲一区| 日本色综合中文字幕| 亚洲欧美bt| 中文字幕一区二区三| 男人插入女人视频| 艳妇乳肉豪妇荡乳av无码福利| 日本人添下边视频免费| 四虎国产精品成人免费4hu| 久久婷婷蜜乳一本欲蜜臀| 国产精品一级在线观看| 亚洲一级不卡视频| av加勒比在线| 亚洲伊人一本大道中文字幕| blackedav金发美女大战黑人| 日韩高清在线| 国产情侣高潮对白| xx欧美撒尿嘘撒尿xx| 污软件在线观看| 精品人妻伦一区二区三区久久| 在线观看亚洲区| 久久99国产精品成人| 女女百合国产免费网站| 妞干网视频在线观看| 天堂а√在线资源在线| 国产一区观看| 日韩精品一区在线| 久久视频在线观看| 国产亚洲精品久久久久久移动网络| 免费观看黄色大片| 女同一区二区免费aⅴ| 18一19gay欧美视频网站| 亚洲少妇中文字幕| 日韩福利影视| 精品人妻无码一区二区色欲产成人| 日韩美女在线看| 日本三级视频在线观看| 日韩网站免费观看高清| 91免费精品| 久草青青在线观看| 精品国产一区二区三区香蕉沈先生| 综合av第一页| 特级黄色片视频| 中国一级片黄色一级片黄| 精品亚洲国内自在自线福利| 黄网在线观看视频| 北条麻妃亚洲一区| 日韩在线免费看| 男女羞羞视频在线观看| 亚洲午夜精品久久久久久久久久久久| 一区二区视频免费观看| 成人妖精视频yjsp地址| 一区二区三区在线免费视频| 亚洲国产精品成人综合| 亚洲成人精品一区| 国产亚洲第一页| 先锋在线资源一区二区三区| 亚洲第一级黄色片| 欧美精品一区二区三区很污很色的| 男人天堂网在线观看| 亚洲国语精品自产拍在线观看| 美日韩一区二区三区| 九九三级毛片| 久久天天做天天爱综合色| 91综合精品国产丝袜长腿久久| 色青青草原桃花久久综合| 国产人妖一区二区| 欧美aⅴ在线观看| 91欧美激情一区二区三区成人| 中国一级大黄大黄大色毛片| 日本免费不卡| 亚洲制服一区| 欧美日韩在线电影| 中文字幕人妻一区二区| 无遮挡动作视频在线观看免费入口| 国产成人一区二区| 91精品91久久久久久| a级网站在线观看| 精品成人久久| 国产日韩在线视频| 午夜视频在线观| 国产浮力第一页| 亚洲精品中文字幕无码蜜桃| 在线一区免费观看| 国产美女www爽爽爽| 中文字幕欧美日韩久久| 91精彩视频在线观看| 国产欧美精品aaaaaa片| 日韩欧美网站| www.久久精品.com| 天堂中文在线视频| 不卡一区2区| jizz性欧美10| 久久性生活视频| juy有坂深雪中文字幕| 国产a久久精品一区二区三区| 欧美一进一出视频| 日本aⅴ大伊香蕉精品视频| 国产18无套直看片| 欧美最大成人综合网| 日韩av久操| 黄色三级小视频| 欧美三级网址| 一级全黄肉体裸体全过程| 国产亚洲情侣一区二区无| 久久国产精品免费观看| 久久精品一区八戒影视| 日韩精品视频免费| 亚洲精品国产免费| 国产香蕉成人综合精品视频| 永久免费精品影视网站| 91精品国产色综合久久不卡98| 成人福利网站在线观看11| 91欧美激情一区二区三区成人| 久久国产综合精品| 免费在线观看av电影| 欧美寡妇偷汉性猛交| 蜜桃视频在线观看免费视频网站www| 久久久91精品国产一区二区三区| 国产精品日韩在线观看| 日韩精品自拍偷拍| 99.玖玖.com| 少妇精品在线| 久久伊人精品视频| 国产女主播在线| 免费在线黄色影片| 成 年 人 黄 色 大 片大 全| 国模娜娜一区二区三区| 毛片基地在线观看| 久久免费播放视频| 草草地址线路①屁屁影院成人| 99视频一区二区三区| 国产午夜福利在线播放| xf在线a精品一区二区视频网站| 成+人+亚洲+综合天堂| 亚洲蜜桃视频| 亚洲黄色免费在线观看| 久久99蜜桃| 国产视频一区在线| 国产91ⅴ在线精品免费观看| 在线黄色.com| 国产成人在线电影| 精品视频麻豆入口| 国产自产自拍视频在线观看| 懂色av一区二区三区四区| 日韩一区二区精品视频| 鬼打鬼之黄金道士1992林正英| 热久久国产精品| 国产成人亚洲一区二区三区| 国内不卡的二区三区中文字幕| 免费毛片观看| 超碰97在线人人| 国产亚洲精品久久久久久| 日韩不卡高清视频| 极品美女一区| 在线观看av的网站| 国产黄色片在线播放| 国产1区2区3区中文字幕| 久久天天躁狠狠躁夜夜av| 色av综合在线| 在线观看色网站| 高潮按摩久久久久久av免费| 韩日电影在线观看| xxx免费视频| 人人干人人干| 亚洲国产日韩一区无码精品久久久| 一二三区高清| 中文字幕伦理免费在线视频| 国产精品免费在线播放| 国产综合香蕉五月婷在线| 国产精品毛片| 99视频精品免费视频| 国产成人啪精品午夜在线观看| 亚洲第一主播视频| 欧美性xxxx极品hd欧美| 综合视频一区| 精品久久久网| 欧美一区二区中文字幕| 欧美中文字幕精在线不卡| 日韩国产在线观看| 欧美精品丝袜中出| 九9re精品视频在线观看re6| 精品蜜桃一区二区三区| 成人深夜在线观看| 久久久久99精品| 久久天天做天天爱综合色| 欧美一区午夜精品| 伊人色综合久久久| wwwwxxxx日韩| 69看片网站| 亚洲第一成人在线| 成人av资源在线播放| 99久久久无码国产精品| 日本久久久久久| 亚洲午夜网未来影院| 亚洲激情国产| 91捆绑美女网站| 欧美一级电影久久| 女同一区二区免费aⅴ| 午夜一区二区三区免费| 五十路亲子中出在线观看| 亚洲v国产v在线观看| 一区二区不卡视频在线观看| 国产成人一区二| 天天综合天天综合| 99精品视频免费在线观看| 欧美aaaaa成人免费观看视频|