成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識庫 > 基于xpath選擇器、PyQuery、正則表達(dá)式的格式清理工具詳解

基于xpath選擇器、PyQuery、正則表達(dá)式的格式清理工具詳解

熱門標(biāo)簽:深圳400電話辦理那家好 襄陽房產(chǎn)電銷機(jī)器人招商 安徽移動外呼系統(tǒng) 百度地圖標(biāo)注名編輯 怎么在高德地圖標(biāo)注行走軌跡 百度地圖標(biāo)注飯店位置怎么 施工地圖標(biāo)注怎么做 清遠(yuǎn)陽山400電話號碼如何申請 個性化地圖標(biāo)注在線

1,使用xpath清理不必要的標(biāo)簽元素,以及無內(nèi)容標(biāo)簽

from lxml import etree
 
def xpath_clean(self, text: str, xpath_dict: dict) -> str:
    '''
    xpath 清除不必要的元素
    :param text: html_content
    :param xpath_dict: 清除目標(biāo)xpath
    :return: string type html_content
    '''
    remove_by_xpath = xpath_dict if xpath_dict else dict()
 
    # 必然清除的項目 除非極端情況 一般這些都是要清除的
    remove_by_xpath.update({
      '_remove_2': '//iframe',
      '_remove_4': '//button',
      '_remove_5': '//form',
      '_remove_6': '//input',
      '_remove_7': '//select',
      '_remove_8': '//option',
      '_remove_9': '//textarea',
      '_remove_10': '//figure',
      '_remove_11': '//figcaption',
      '_remove_12': '//frame',
      '_remove_13': '//video',
      '_remove_14': '//script',
      '_remove_15': '//style'
    })
 
    parser = etree.HTMLParser(remove_blank_text=True, remove_comments=True)
    selector = etree.HTML(text, parser=parser)
 
    # 常規(guī)刪除操作,不需要的標(biāo)簽刪除
    for xpath in remove_by_xpath.values():
      for bad in selector.xpath(xpath):
        bad_string = etree.tostring(bad, encoding='utf-8',
                      pretty_print=True).decode()
        logger.debug(f"clean article content : {bad_string}")
        bad.getparent().remove(bad)
 
    skip_tip = "name()='img' or name()='tr' or " \

          "name()='th' or name()='tbody' or " \

          "name()='thead' or name()='table'"
    # 判斷所有p標(biāo)簽,是否有內(nèi)容存在,沒有的直接刪除
    for p in selector.xpath(f"http://*[not({skip_tip})]"):
      # 跳過邏輯
      if p.xpath(f".//*[{skip_tip}]") or \

          bool(re.sub('\s', '', p.xpath('string(.)'))):
        continue
 
      bad_p = etree.tostring(p, encoding='utf-8',
                  pretty_print=True).decode()
      logger.debug(f"clean p tag : {bad_p}")
      p.getparent().remove(p)
 
    return etree.tostring(selector, encoding='utf-8',
               pretty_print=True).decode()

2,使用pyquery清理標(biāo)簽屬性,并返回處理后源碼和純凈文本

#!/usr/bin/env python
# -*-coding:utf-8-*-
 
from pyquery import PyQuery as pq
 
def pyquery_clean(self, text, url, pq_dict) -> object:
    '''
    pyquery 做出必要的處理,
    :param text:
    :param url:
    :param pq_dict:
    :return:
    '''
    # 刪除pq表達(dá)式字典
    remove_by_pq = pq_dict if pq_dict else dict()
    # 標(biāo)簽屬性白名單
    attr_white_list = ['rowspan', 'colspan']
    # 圖片鏈接key
    img_key_list = ['src', 'data-echo', 'data-src', 'data-original']
    # 生成pyquery對象
    dom = pq(text)
 
    # 刪除無用標(biāo)簽
    for bad_tag in remove_by_pq.values():
      for bad in dom(bad_tag):
        bad_string = pq(bad).html()
        logger.debug(f"clean article content : {bad_string}")
      dom.remove(bad_tag)
 
    # 標(biāo)簽各個屬性處理
    for tag in dom('*'):
      for key, value in tag.attrib.items():
        # 跳過邏輯,保留表格的rowspan和colspan屬性
        if key in attr_white_list:
          continue
        # 處理圖片鏈接,不完整url,補(bǔ)充完整后替換
        if key in img_key_list:
          img_url = self.absolute_url(url, value)
          pq(tag).remove_attr(key)
          pq(tag).attr('src', img_url)
          pq(tag).attr('alt', '')
        # img標(biāo)簽的alt屬性保留為空
        elif key == 'alt':
          pq(tag).attr(key, '')
        # 其余所有屬性做刪除操作
        else:
          pq(tag).remove_attr(key)
 
    return dom.text(), dom.html()

 3,正則表達(dá)清理空格以及換行符內(nèi)容

#!/usr/bin/env python
# -*-coding:utf-8-*-
 
import re  
 
def regular_clean(self, str1: str, str2: str):
    '''
    正則表達(dá)式處理數(shù)據(jù)格式
    :param str1: content
    :param str2: html_content
    :return: 返回處理后的結(jié)果
    '''
 
    def new_line(text):
      text = re.sub('br\s?/?>', 'br>', text)
      text = re.sub(
        '/?a>|/?em>|/?html>|/?body>|'
        '/?head>|[a-zA-Z]{1,10}\s?/>|'
        '/?strong>|/?blockquote>|/?b>|'
        '/?span>|/?i>|/?hr>|/?font>',
        '',
        text)
      text = re.sub('\n', '', text)
      text = re.sub('h[1-6]>', 'p>', text)
      text = re.sub('/h[1-6]>', '/p>', text)
      text = text.replace('/p>', '/p>\n').replace('br>', 'br/>')
      return text
 
    str1, str2 = self.clean_blank(str1), self.clean_blank(str2) # TODO 處理空白行問題
 
    # TODO html_content處理 1,刪除多余的無法使用的標(biāo)簽以及影響數(shù)據(jù)展示的標(biāo)簽 2,換行符問題處理以及更換
 
    str2 = new_line(text=str2)
 
    return str1, str2

結(jié)尾部分,各個方法封裝類代碼展示

#!/usr/bin/env python
# -*-coding:utf-8-*-
'''
author: szhan
date:2020-08-17
summery: 清理html_conent以及獲取純凈數(shù)據(jù)格式
'''
 
import re
from lxml import etree
from pyquery import PyQuery as pq
from urllib.parse import urlsplit, urljoin
 
from loguru import logger
 
 
class CleanArticle:
 
  def __init__(
      self,
      text: str,
      url: str = '',
      xpath_dict: dict = None,
      pq_dict: dict = None
  ):
    self.text = text
    self.url = url
    self.xpath_dict = xpath_dict or dict()
    self.pq_dict = pq_dict or dict()
 
  @staticmethod
  def absolute_url(baseurl: str, url: str) -> str:
    '''
    補(bǔ)充url
    :param baseurl:scheme url
    :param url: target url
    :return: complete url
    '''
    target_url = url if urlsplit(url).scheme else urljoin(baseurl, url)
    return target_url
 
  @staticmethod
  def clean_blank(text):
    '''
    空白處理
    :param text:
    :return:
    '''
    text = text.replace('#13;', '').replace('\u3000', '').replace('\t', '').replace('\xa0', '')
    text = re.sub('\s{2,}', '', text)
    text = re.sub('\n{2,}', '\n', text)
    text = text.strip('\n').strip()
    return text
 
  def run(self):
    '''
    :return:處理后的content, html_content
    '''
    if (not bool(self.text)) or (not isinstance(self.text, str)):
      raise ValueError('html_content has a bad type value')
    # 首先,使用xpath去除空格,以及注釋,iframe, button, form, script, style, video等標(biāo)簽
    text = self.xpath_clean(self.text, self.xpath_dict)
 
    # 第二步,使用pyquery處理具體細(xì)節(jié)方面
    str1, str2 = self.pyquery_clean(text, self.url, self.pq_dict)
 
    # 最終的正則處理
    content, html_content = self.regular_clean(str1, str2)
 
    return content, html_content
 
  def xpath_clean(self, text: str, xpath_dict: dict) -> str:
    '''
    xpath 清除不必要的元素
    :param text: html_content
    :param xpath_dict: 清除目標(biāo)xpath
    :return: string type html_content
    '''
    remove_by_xpath = xpath_dict if xpath_dict else dict()
 
    # 必然清除的項目 除非極端情況 一般這些都是要清除的
    remove_by_xpath.update({
      '_remove_2': '//iframe',
      '_remove_4': '//button',
      '_remove_5': '//form',
      '_remove_6': '//input',
      '_remove_7': '//select',
      '_remove_8': '//option',
      '_remove_9': '//textarea',
      '_remove_10': '//figure',
      '_remove_11': '//figcaption',
      '_remove_12': '//frame',
      '_remove_13': '//video',
      '_remove_14': '//script',
      '_remove_15': '//style'
    })
 
    parser = etree.HTMLParser(remove_blank_text=True, remove_comments=True)
    selector = etree.HTML(text, parser=parser)
 
    # 常規(guī)刪除操作,不需要的標(biāo)簽刪除
    for xpath in remove_by_xpath.values():
      for bad in selector.xpath(xpath):
        bad_string = etree.tostring(bad, encoding='utf-8',
                      pretty_print=True).decode()
        logger.debug(f"clean article content : {bad_string}")
        bad.getparent().remove(bad)
 
    skip_tip = "name()='img' or name()='tr' or " \

          "name()='th' or name()='tbody' or " \

          "name()='thead' or name()='table'"
    # 判斷所有p標(biāo)簽,是否有內(nèi)容存在,沒有的直接刪除
    for p in selector.xpath(f"http://*[not({skip_tip})]"):
      # 跳過邏輯
      if p.xpath(f".//*[{skip_tip}]") or \

          bool(re.sub('\s', '', p.xpath('string(.)'))):
        continue
 
      bad_p = etree.tostring(p, encoding='utf-8',
                  pretty_print=True).decode()
      logger.debug(f"clean p tag : {bad_p}")
      p.getparent().remove(p)
 
    return etree.tostring(selector, encoding='utf-8',
               pretty_print=True).decode()
 
  def pyquery_clean(self, text, url, pq_dict) -> object:
    '''
    pyquery 做出必要的處理,
    :param text:
    :param url:
    :param pq_dict:
    :return:
    '''
    # 刪除pq表達(dá)式字典
    remove_by_pq = pq_dict if pq_dict else dict()
    # 標(biāo)簽屬性白名單
    attr_white_list = ['rowspan', 'colspan']
    # 圖片鏈接key
    img_key_list = ['src', 'data-echo', 'data-src', 'data-original']
    # 生成pyquery對象
    dom = pq(text)
 
    # 刪除無用標(biāo)簽
    for bad_tag in remove_by_pq.values():
      for bad in dom(bad_tag):
        bad_string = pq(bad).html()
        logger.debug(f"clean article content : {bad_string}")
      dom.remove(bad_tag)
 
    # 標(biāo)簽各個屬性處理
    for tag in dom('*'):
      for key, value in tag.attrib.items():
        # 跳過邏輯,保留表格的rowspan和colspan屬性
        if key in attr_white_list:
          continue
        # 處理圖片鏈接,不完整url,補(bǔ)充完整后替換
        if key in img_key_list:
          img_url = self.absolute_url(url, value)
          pq(tag).remove_attr(key)
          pq(tag).attr('src', img_url)
          pq(tag).attr('alt', '')
        # img標(biāo)簽的alt屬性保留為空
        elif key == 'alt':
          pq(tag).attr(key, '')
        # 其余所有屬性做刪除操作
        else:
          pq(tag).remove_attr(key)
 
    return dom.text(), dom.html()
 
  def regular_clean(self, str1: str, str2: str):
    '''
    正則表達(dá)式處理數(shù)據(jù)格式
    :param str1: content
    :param str2: html_content
    :return: 返回處理后的結(jié)果
    '''
 
    def new_line(text):
      text = re.sub('br\s?/?>', 'br>', text)
      text = re.sub(
        '/?a>|/?em>|/?html>|/?body>|'
        '/?head>|[a-zA-Z]{1,10}\s?/>|'
        '/?strong>|/?blockquote>|/?b>|'
        '/?span>|/?i>|/?hr>|/?font>',
        '',
        text)
      text = re.sub('\n', '', text)
      text = re.sub('h[1-6]>', 'p>', text)
      text = re.sub('/h[1-6]>', '/p>', text)
      text = text.replace('/p>', '/p>\n').replace('br>', 'br/>')
      return text
 
    str1, str2 = self.clean_blank(str1), self.clean_blank(str2) # TODO 處理空白行問題
 
    # TODO html_content處理 1,刪除多余的無法使用的標(biāo)簽以及影響數(shù)據(jù)展示的標(biāo)簽 2,換行符問題處理以及更換
 
    str2 = new_line(text=str2)
 
    return str1, str2
 
if __name__ == '__main__':
  with open('html_content.html', 'r', encoding='utf-8') as f:
    lines = f.readlines()
    html = ''
    for line in lines:
      html += line
  ca = CleanArticle(text=html)
  _, html_content = ca.run()
  print(html_content)

總結(jié)

到此這篇關(guān)于基于xpath選擇器、PyQuery、正則表達(dá)式的格式清理工具詳解的文章就介紹到這了,更多相關(guān)PyQuery、正則表達(dá)式的格式清理工具內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • JQuery 選擇器 xpath 語法應(yīng)用
  • Python利用Xpath選擇器爬取京東網(wǎng)商品信息
  • Python爬蟲PyQuery庫基本用法入門教程
  • Python中的jquery PyQuery庫使用小結(jié)
  • python解析html開發(fā)庫pyquery使用方法
  • python使用urllib模塊和pyquery實現(xiàn)阿里巴巴排名查詢
  • javascript中使用正則表達(dá)式清理table樣式的代碼

標(biāo)簽:延邊 臨夏 中衛(wèi) 阜陽 黑河 駐馬店 欽州 南昌

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《基于xpath選擇器、PyQuery、正則表達(dá)式的格式清理工具詳解》,本文關(guān)鍵詞  基于,xpath,選擇器,PyQuery,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《基于xpath選擇器、PyQuery、正則表達(dá)式的格式清理工具詳解》相關(guān)的同類信息!
  • 本頁收集關(guān)于基于xpath選擇器、PyQuery、正則表達(dá)式的格式清理工具詳解的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    制服丝袜第一页在线观看| 香蕉影院在线观看| 亚洲精品国产精品国自产在线| 日本日本精品二区免费| 亚洲精品在线免费看| 日韩中文一区二区| 91在线你懂的| 日韩 欧美 高清| 国产一区二区网址| 中文字幕第3页| 91国内揄拍国内精品对白| 午夜精品一区二区三区在线观看| 手机av在线免费| 国产性生活一级片| 欧美一区国产二区| 蜜臀精品一区二区三区在线观看| 国产精品视频在线观看| 亚洲网站免费| av福利在线观看| 精品成人久久| 国产精品2024| 国产精品88久久久久久妇女| 国产精品69久久久| 国产二级片在线观看| 无码毛片aaa在线| 国产又粗又大又长| 国产女片a归国片aa| 欧美日韩ab| 国产一区二区精品福利地址| 一区二区不卡在线视频 午夜欧美不卡在| 26uuu国产一区二区三区| 国内精品久久久久久久影视简单| 超碰免费在线播放| 欧美性猛片xxxxx免费中国| 爱爱的免费视频| 国产欧美在线观看免费| 欧美色图片区| 国产精品免费aⅴ片在线观看| 国产精品第七页| 日产电影一区二区三区| 91精品在线观看国产| 国产香蕉在线视频| 亚洲精品aⅴ中文字幕乱码| 一级毛片aaaaaa免费看| 日韩在线一区二区视频| 久久国产色av免费观看| 日产国产欧美视频一区精品| 久久亚洲精品中文字幕| 日韩乱码在线视频| 久久综合五月婷婷| 欧美三级视频在线播放| 九九这里只精品视在线99| 独立日3在线观看完整版| 亚洲国产欧美91| 91老司机精品视频| 国产一区二区三区四区视频| 日本午夜免费福利视频| 欧妇女乱妇女乱视频| 欧美孕妇性xxxⅹ精品hd| 91直播在线观看| 国语精品免费视频| 99久久精品久久久久久清纯| 四虎成人在线| 99久久久久久中文字幕一区| 91午夜在线播放| 国产黄视频网站| 蜜臀av粉嫩av懂色av| 丝袜美腿一区二区三区动态图| av首页在线观看| 91成人国产| 亚洲自拍偷拍色片视频| 欲色天天网综合久久| 亚洲欧美一区二区原创| 91丨九色丨蝌蚪丨老版| 懂色av粉嫩av蜜乳av| 日韩一二三区不卡| 欧美三级韩国三级日本三斤| 色婷五月综激情亚洲综合| 久久久国产成人| 夜夜躁狠狠躁日日躁婷婷小说| 中文字幕亚洲欧美一区二区三区| 日本系列第一页| 在线天堂中文www官网| 深田えいみ中文字幕99久久| 无码人妻精品一区二区三区温州| 欧美久久99| 日韩一区二区三区视频在线| 精品久久影视| 韩国18福利视频免费观看| 色综合天天综合网国产成人网| 久久人人看视频| 亚洲成人免费网站| 亚洲影院在线观看| 嗯~啊~轻一点视频日本在线观看| 日韩av中文字幕在线播放| 免费精品视频最新在线| 欧美精品一二三区| 日韩精品中文字幕在线观看| 二区三区四区视频| 黄色一级大片在线免费观看| 蜜桃免费在线| 欧美日韩国产中文| 91麻豆国产自产在线观看亚洲| 欧美特黄一级片| 最新中文字幕在线播放| 久久久久久黄色| 国产精品不卡在线| 婷婷综合六月| 精品久久久久久中文字幕人妻最新| 午夜精品在线观看| 国产精品一区二区入口九绯色| 国产视频一二区| 国产精品一区二区免费不卡| 欧美日韩激情视频在线观看| 久久久久久穴| 久久精品国产**网站演员| 成人春色激情网| 日本美女久久久| 日本电影免费看| 91农村精品一区二区在线| 国产精品自拍小视频| 自拍偷拍亚洲图片| 国产伦精品一区二区三区免费迷| 免费人成又黄又爽又色| 在线看视频不卡| 国产高清免费av在线| 欧美日韩一区在线播放| 97超碰人人看人人| 大片免费在线看视频| 亚洲卡一卡二卡三| 原创真实夫妻啪啪av| 真实原创一区二区影院| 色成人免费网站| 久久亚洲精精品中文字幕早川悠里| 国产美女精品一区二区三区| 99亚洲男女激情在线观看| 在线观看日产精品| 丁香综合av| 亚洲国产精品无码久久久| 国产精品久久久久高潮| 国产免费人做人爱午夜视频| 黄色网一区二区| av动漫在线播放| 亚洲第一黄色网址| 国产成人av无码精品| 久久久国产精品午夜一区ai换脸| 日本午夜一区二区三区| 国产精品成人免费视频| 亚洲日韩欧美视频| 日韩亚洲国产中文字幕欧美| 成人免费视频网站在线看| 日本高清不卡一区二区三| 亚洲精品福利电影| 欧美日韩免费精品| 欧美91在线|欧美| 在线观看免费黄色| 又黄又爽无遮挡| 天堂日韩电影| 国产美女高潮久久白浆| 国产亚洲精品美女久久| 日韩有码在线视频| 久久久精品99| 91在线无精精品白丝| 欧美一级欧美三级| 国产一区二区电影在线观看| 全亚洲第一av番号网站| 欧美极品jizzhd欧美18| 日本妇女一区| 国产偷国产偷亚洲高清97cao| 999国产精品视频| 大地资源第二页在线观看高清版| 国产日韩1区| 91福利国产成人精品照片| 久热中文字幕精品视频在线| 久久五月天综合| 午夜精品一区二区三区在线视频| 欧美日韩一区二区在线免费观看| 91动漫免费网站| 日韩在线免费av| 女人被狂躁到高潮视频免费网站| 精品视频久久| 精品这里只有精品| 国产欧美日韩精品丝袜高跟鞋| 欧美日韩电影一区二区三区| 欧美中文一区二区三区| 精品国产麻豆| 亚洲国产午夜伦理片大全在线观看网站| 日韩精品无码一区二区三区免费| 91精品福利观看| 国产性色一区二区| 欧美电影精品一区二区| 在线免费观看麻豆| 国产在线一级片| 国产精品蜜臀av| 亚洲精品在线一区二区| 欧美国产乱视频| 九九热视频免费在线观看| 亚洲天堂久久久| 亚洲a∨无码无在线观看| 强开小嫩苞一区二区三区网站| 精品一区二区影视| 亚洲天堂成人av| 免费的黄色av| 欧美一级做性受免费大片免费| 欧美一区二区二区| 亚洲欧美另类中文字幕| av激情亚洲男人天堂| 欧美日韩一区二区三区高清| 国产色综合网| 蜜臀av午夜精品| 欧美极品aaaaabbbbb| 88在线观看91蜜桃国自产| 欧美年轻男男videosbes| 精品视频在线观看网站| 高清国产一区二区| 欧美一级爆毛片| a级黄色片免费| 欧产日产国产v| 在线免费观看av网站| 成人在线免费视频观看| 欧美第一页在线| 农村妇女一区二区| 欧美电影在线观看免费| 不卡亚洲精品| 黄色一区二区在线| 色婷婷综合在线| 日韩欧美一区二区视频| 中文字幕亚洲区| 免费在线你懂的| 91蜜桃在线免费视频| 久久婷婷中文字幕| 特大巨黑人吊性xxxxn38| 精品福利一区二区三区免费视频| 国产欧美一区二区精品性色| 91精品少妇一区二区三区蜜桃臀| 亚洲国产成人一区二区| 国产成人无码一二三区视频| 国产亚洲欧美日韩在线一区| 干日本少妇视频| 天堂在线中文网| 福利欧美精品在线| 欧美日韩成人精品| 911国产网站尤物在线观看| 精品视频在线观看一区二区| 成人小说亚洲一区二区三区| 久久精品亚洲牛牛影视| 久久99精品国产99久久| 日韩高清av在线| 国产一级性生活| 男人午夜影院| 国产乱子精品一区二区在线观看| 日本欧美大码aⅴ在线播放| 国产精品外国| 欧美日韩亚洲综合在线 欧美亚洲特黄一级| 国产区一区二区三区| 激情视频网站在线播放色| 国产精品美女www爽爽爽视频| 成人涩涩网站| 日本国产精品| 久久成人精品一区二区三区| 欧美日韩在线视频一区| 久久影院亚洲| 成人精品视频网站| 日韩精品社区| 影音先锋男人资源站在线观看| 91色综合久久久久婷婷| 日韩电影二区| 欧美成人tv| 乱小说欧美综合| 国产一区二区三区播放| 成人国产精品免费视频| 在线午夜精品自拍| 国产一区二区三区免费不卡| 午夜精品久久久久久久久| 中文字幕久久久av一区| 精品中文av资源站在线观看| 99久久九九| 国产精品久久久久久在线| 99久久综合精品| 亚洲天堂中文在线| 99久久精品国产一区| 日韩av二区在线播放| 男人猛进猛出女人屁股视频| 亚洲色图视频网| 日本欧美肥老太交大片| 欧美www在线| 一区二区三区四区高清精品免费观看| 成人亚洲性情网站www在线观看| heyzo国产| 自拍偷拍亚洲天堂| 激情综合色综合啪啪开心| 日韩和的一区二在线| 国产精品不卡一区| 台湾亚洲精品一区二区tv| 91po在线观看91精品国产性色| 国产1区2区3区4区| 日本成人免费视频| www.eeuss影院| 国产欧美日韩中文字幕在线| av福利网址| 欧美丰满少妇xxxx| 91精品国产综合久久香蕉麻豆| 精品美女久久久久| 国产美女免费观看| 国产精品天天操| 天堂a中文在线| 亚洲一区二区三区四区电影| 亚洲精品人人| 日本一区二区三区视频在线播放| 老熟妻内射精品一区| 国产日韩三区| 91国产丝袜在线播放| 制服丝袜中文字幕一区| 另类的小说在线视频另类成人小视频在线| 欧美三级黄网| 国产女主播在线| 一区二区美女视频| 全网免费在线播放视频入口| 亚洲精品无码国产| 国产爆初菊在线观看免费视频网站| 国产女人水真多18毛片18精品视频| 美女免费视频一区| 天堂av资源在线| 亚洲国产一区二区久久久777| 在线一二三区| 亚洲女人在线观看| 夫妇交换中文字幕| 蜜桃久久一区二区三区|