成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識庫 > python 爬取華為應(yīng)用市場評論

python 爬取華為應(yīng)用市場評論

熱門標(biāo)簽:佛山400電話辦理 市場上的電銷機器人 朝陽手機外呼系統(tǒng) 儋州電話機器人 小蘇云呼電話機器人 北京電銷外呼系統(tǒng)加盟 北瀚ai電銷機器人官網(wǎng)手機版 地圖標(biāo)注面積 所得系統(tǒng)電梯怎樣主板設(shè)置外呼

代碼分享

整個項目我放在了github上,在python3.7下可以正常使用,如果有什么問題歡迎大家指正。

github項目地址:https://github.com/LSY-C/scrapy_hauweiappstore_comment

分別爬取的一些應(yīng)用信息以及應(yīng)用的評論信息,數(shù)據(jù)結(jié)構(gòu)如下:

一、安裝并創(chuàng)建Scrapy項目

Scrapy官方文檔:https://docs.scrapy.org/en/latest/intro/install.html

Scrapy是一個比較好用的python爬蟲框架,官方文檔寫得也比較詳細(xì)??梢灾苯舆\行以下命令安裝:

pip install Scrapy

安裝完畢后,需要創(chuàng)建Scrapy項目,相當(dāng)于是一個爬蟲項目框架,在想要放置項目的地方打開命令行并輸入以下命令會自動創(chuàng)建一個名為[project_name]的文件夾,比如我這里的[project_name]是appstore,文件夾中會自動生成的一些文件。

scrapy startproject appstore
  • appstore/scrapy.cfg中包含了用于啟動爬蟲的一些基礎(chǔ)配置,一般不用管它。
  • appstore/appstore/items.py:定義了爬取到的數(shù)據(jù)格式類,在這里面創(chuàng)建類來存放爬取到的數(shù)據(jù)的item格式。
  • appstore/appstore/middlewares.py:定義了爬蟲中間鍵的一些行為,我一般也不會去動它。
  • appstore/appstore/pipelines.py:定義了爬取到item后對其進(jìn)行的處理。
  • appstore/appstore/settings.py:是爬蟲配置文件。
  • appstore/appstore/spiders/:這個目錄下存放的是爬蟲,也就是向網(wǎng)頁發(fā)送請求并受到應(yīng)答然后進(jìn)行數(shù)據(jù)處理的過程。

二、爬取應(yīng)用市場評論過程

爬取網(wǎng)頁信息有兩個常用的方法:

  • 直接通過xpath解析html文件
  • 依據(jù)特定格式構(gòu)造請求獲取json數(shù)據(jù)進(jìn)行解析

顯然前者更簡單方便一些,但是現(xiàn)在許多網(wǎng)頁都是動態(tài)的,所以后者泛用性更強一些,這里我爬取華為應(yīng)用市場上所有應(yīng)用的評論信息主要使用的是后面一種方法。

1. Scrapy爬蟲運行流程

首先需要大致了解Scrapy的爬蟲是如何運作的,分為以下幾個步驟:

  • Step1: 在項目的spiders文件夾中新建一個.py文件,比如huawei.py,一般來說每一個文件代表一個爬蟲,也就是對某一個網(wǎng)頁的爬取策略。
  • Step2: 創(chuàng)建一個類繼承自scrapy.Spider,類中至少需要有name、allowed_domain、start_urls變量以及一個函數(shù)parse(self)。其中name是此爬蟲的唯一標(biāo)識,之后啟動時通過指定name來判斷啟動哪個爬蟲(因為spiders文件夾中可能包含多個爬蟲文件);allowed_domain用來指定當(dāng)前爬蟲可以訪問的主域名;start_urls用來指定首先獲取的頁面,而此獲取結(jié)果將會交由parse函數(shù)進(jìn)行處理。每個爬蟲中的處理函數(shù)可能有很多個,命名格式一般是parse_xxx之類的,用來處理多級頁面,比如parse處理完主頁面之后構(gòu)造新的請求獲取二級頁面信息并通過parse_second進(jìn)行處理,但不管怎么樣都會包含一個parse函數(shù)。
import scrapy
class HuaWei(scrapy.Spider):
    name = "huawei"
    allowed_domains = ['appstore.huawei.com', 'web-drcn.hispace.dbankcloud.cn']
    start_urls = [
        'https://web-drcn.hispace.dbankcloud.cn/uowap/index?method=internal.getTemplateserviceType=20zone=locale=zh']

    def parse(self, response):
    	pass
  • step3: 爬蟲編寫好之后,在項目根目錄(也就是scrapy.cfg文件的同級目錄)打開命令行,并輸入以下命令啟動爬蟲:
scrapy crawl hauwei

2. 頁面分析

首先,通過瀏覽器訪問應(yīng)用市場,分析一下想要爬取網(wǎng)頁的基本信息,這里我想要爬取應(yīng)用市場中所有應(yīng)用的評論,所以首先需要進(jìn)入到所有應(yīng)用的詳細(xì)界面,然后在詳細(xì)界面中展開評論進(jìn)行爬取,基本的思路是:對每一個分類–>對每一個子分類–>展開每一個應(yīng)用–>獲取應(yīng)用全部評論。

爬取的初始頁面是https://appgallery.huawei.com/#/Apps,瀏覽器中使用F12啟動開發(fā)者模式,調(diào)試網(wǎng)頁前端代碼,我們希望的是能夠找到頁面排版的某些規(guī)律。

頁面分析過程一

我們發(fā)現(xiàn)不管在應(yīng)用分類的選項卡中選擇哪一個分類或是子分類,url都不會變。也就是說,選擇分類后顯示對應(yīng)的應(yīng)用列表這一功能是動態(tài)實現(xiàn)的,我們沒辦法通過抓取html中的信息來獲取不同分類的應(yīng)用列表,那么我們只能通過自己構(gòu)造請求獲取json數(shù)據(jù)的方式爬取信息。
首先,打開調(diào)試窗口中的Network選項卡來分析獲取不同分類應(yīng)用列表時的網(wǎng)絡(luò)數(shù)據(jù)包:

除了第一個數(shù)據(jù)包以外,后面的都是獲取應(yīng)用圖標(biāo)數(shù)據(jù),也就是說第一個數(shù)據(jù)包里面就包含了應(yīng)用的其他數(shù)據(jù),查看此數(shù)據(jù)包中的request_url為:

https://web-drcn.hispace.dbankcloud.cn/uowap/index
?method=internal.getTabDetail
serviceType=20
reqPageNum=1
uri=8e62cf6d238c4abdb892b400ff072f43
maxResults=25
zone=
locale=zh

我們直接在瀏覽器中訪問此url,可以得到一個json文件,分析后發(fā)現(xiàn)此json文件中包含了列表中應(yīng)用的信息。點擊不同的分類、子分類,獲取不同的request_url,我們發(fā)現(xiàn),每一個子分類的request_url都只有uri字段不一樣,且默認(rèn)情況都只顯示第1頁的25個應(yīng)用。也就是說我們以此request_url為模板,修改uri字段實現(xiàn)獲取不同類別應(yīng)用列表,修改reqPageNum字段獲取列表中的多頁應(yīng)用。

頁面分析過程二

手動點進(jìn)每一個應(yīng)用的詳細(xì)界面時,我們發(fā)現(xiàn),不同應(yīng)用的詳細(xì)界面的url只有最后的定位有不同,比如騰訊視頻與優(yōu)酷視頻這兩個應(yīng)用詳細(xì)界面的url分別是:

多觀察幾個應(yīng)用就會發(fā)現(xiàn)最后的那一串代碼應(yīng)該是類似于應(yīng)用唯一標(biāo)識符一樣的東西。而在上一步中,我們可以發(fā)現(xiàn)在獲取的每個應(yīng)用信息中包含能夠找到這些標(biāo)識符(‘a(chǎn)ppid'鍵的值),于是我在這里嘗試直接以這種格式構(gòu)造url請求獲取頁面,但是失敗了,猜測可能是頁面重定向的問題,沒辦法,只能按部就班地通過其它方式繼續(xù)分析。
通過F12查看頁面排版,每一個app卡片中雖然有app名稱以及一些其他信息,但是找不到app詳細(xì)頁面的鏈接,因為獲取應(yīng)用詳細(xì)信息功能被寫成了使用js動態(tài)獲取的,因此我們沒辦法直接從html界面中獲取,所以依舊采用構(gòu)造request_url的方法獲取json數(shù)據(jù)。

與分析過程一類似,我們可以獲取以下的request_url:

https://web-drcn.hispace.dbankcloud.cn/uowap/index
?method=internal.getTabDetail
serviceType=20
reqPageNum=1
maxResults=25
uri=app%7CC174391
shareTo=
currentUrl=https%253A%252F%252Fappgallery.huawei.com%252F%2523%252Fapp%252FC174391
accessId=
appid=C174391
zone=
locale=zh

通過此request_url獲取的json中包含了應(yīng)用的詳細(xì)信息,實際上通過測試,其中的reqPageNum、maxResults、shareTo、currentUrl、accessId、appid、zone、locale字段都是不需要的,而又發(fā)現(xiàn)uri字段中后面的“C174391”是當(dāng)前應(yīng)用的appid,也就是說我們只需要修改uri字段的“app%7C”后面的字符串為不同應(yīng)用的appid(可以在分析過程一中的json文件里獲?。?,就可以獲取不同應(yīng)用的詳細(xì)信息。

頁面分析過程三

有了上面兩次分析的經(jīng)驗,我們繼續(xù)來爬取每個應(yīng)用的評論數(shù)據(jù),發(fā)現(xiàn)這些數(shù)據(jù)也是通過js動態(tài)獲取的,于是繼續(xù)分析request_url,格式如下:

https://web-drcn.hispace.dbankcloud.cn/uowap/index
?method=internal.user.commenList3
serviceType=20
reqPageNum=1
maxResults=25
appid=C2002
version=10.0.0
zone=
locale=zh

與之前類似,我們可以通過修改appid字段爬取不同應(yīng)用的評論,通過修改reqPageNum字段爬取多頁評論。

3. 爬蟲實現(xiàn)

整個爬取過程就是:構(gòu)造request_url請求獲取json數(shù)據(jù)–>解析json數(shù)據(jù)–>構(gòu)造新的request_url獲取json數(shù)據(jù)–>…
下面是爬蟲中的一個處理函數(shù),功能是處理每一個應(yīng)用的詳細(xì)信息并構(gòu)造獲取評論的request_url發(fā)送新的請求,接下來依次說明其中的關(guān)鍵部分。

def app_parse(self, response):
    """
    解析應(yīng)用,獲取應(yīng)用名稱、描述、資費、版本、開發(fā)者,然后轉(zhuǎn)至appcomment_parse進(jìn)行處理
    :param resonse:
    :return:
    """
    appid = response.meta['appid']
    app_json = json.loads(response.text)
    Name = app_json.get('layoutData')[0].get('dataList')[0].get('name')
    Star = app_json.get('layoutData')[0].get('dataList')[0].get('intro')
    Downloads = app_json.get('layoutData')[0].get('dataList')[0].get('stars')
    Price = app_json.get('layoutData')[3].get('dataList')[0].get('tariffDesc')
    Version = app_json.get('layoutData')[3].get('dataList')[0].get('version')
    Developer = app_json.get('layoutData')[3].get('dataList')[0].get('developer')
    Description = app_json.get('layoutData')[7].get('dataList')[0].get('appIntro').replace('\n', '')
    AppData = AppItem(
        AppId=appid,
        AppName=Name,
        AppDesc=Description,
        AppPrice=Price,
        AppVersion=Version,
        AppDeveloper=Developer,
        AppStar=Star,
        AppDownloads=Downloads
    )
    yield AppData
    for pagenum in range(1, 20):
        request_url = "https://web-drcn.hispace.dbankcloud.cn/uowap/index?method=internal.user.commenList3serviceType=20reqPageNum={}maxResults=25appid={}version=10.0.0zone=locale=zh".format(
            pagenum, appid)
        yield scrapy.Request(url=request_url, callback=self.appcomment_parse, meta={'appid': appid})

解析json并構(gòu)造請求

第8行中通過json.loads將響應(yīng)解析為json格式,并在后續(xù)使用鍵值與index訪問里面的信息。

將數(shù)據(jù)保存在items中

在items.py文件中定義好Item類之后,可以在此新建一個Item對象,并在填入相應(yīng)的值,將此item返回交由pipeline.py進(jìn)行處理。

# items.py
class AppItem(scrapy.Item):
    AppId = scrapy.Field()
    AppName = scrapy.Field()
    AppDesc = scrapy.Field()
    AppPrice = scrapy.Field()
    AppVersion = scrapy.Field()
    AppDeveloper = scrapy.Field()
    AppStar = scrapy.Field()
    AppDownloads = scrapy.Field()

yield是python中的一個關(guān)鍵詞,與return類似,會讓函數(shù)返回此關(guān)鍵詞修飾的表達(dá)式值,與return不同的是,yield在返回一個值后會繼續(xù)執(zhí)行后面的代碼,而return不會。

構(gòu)造新的請求

在最后一行中針對所有評論列表構(gòu)造新的request_url以獲取評論信息,并通過scrapy.Request發(fā)送請求,其中callback指定用于處理此請求響應(yīng)的處理函數(shù),而meta中包含了想要傳遞給callback函數(shù)的信息。

item數(shù)據(jù)的處理

在爬取數(shù)據(jù)的過程中,處理函數(shù)會實時將不同的item返回并交由pipeline進(jìn)行處理,此時需要在pipeline.py中指定如何處理這些item,比如在此我把數(shù)據(jù)全都記錄入csv表格中。pipeline類中必須定義process_item函數(shù)來處理每一個item,而__init__與close_spider都是可選的。

class AppStorePipeline:
    def __init__(self):
        self.app_list = []
        self.comment_list = []

    def process_item(self, item, spider):	# 接收到item時調(diào)用的函數(shù)
        if isinstance(item, AppItem):
            self.app_list.append(dict(item))
        elif isinstance(item, CommentItem):
            self.comment_list.append(dict(item))
        return item

    def close_spider(self, spider):			# 當(dāng)爬蟲關(guān)閉時調(diào)用的函數(shù)
        df_app = pd.DataFrame(self.app_list)
        df_comment = pd.DataFrame(self.comment_list)
        df_app.to_csv('app_info.csv')
        df_comment.to_csv('comment_info.csv')

以上就是python 爬取華為應(yīng)用市場評論的詳細(xì)內(nèi)容,更多關(guān)于python 爬取華為應(yīng)用市場的資料請關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • python 爬取京東指定商品評論并進(jìn)行情感分析
  • python爬取晉江文學(xué)城小說評論(情緒分析)
  • 利用Python網(wǎng)絡(luò)爬蟲爬取各大音樂評論的代碼
  • 詳解用python實現(xiàn)爬取CSDN熱門評論URL并存入redis
  • python 利用百度API進(jìn)行淘寶評論關(guān)鍵詞提取
  • python 爬取騰訊視頻評論的實現(xiàn)步驟
  • python爬取微博評論的實例講解
  • python實現(xiàn)模擬器爬取抖音評論數(shù)據(jù)的示例代碼
  • 如何基于Python爬取隱秘的角落評論
  • Python實現(xiàn)爬取并分析電商評論
  • python 爬取馬蜂窩景點翻頁文字評論的實現(xiàn)
  • 用Python爬取QQ音樂評論并制成詞云圖的實例

標(biāo)簽:江蘇 云南 酒泉 寧夏 龍巖 金融催收 商丘 定西

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python 爬取華為應(yīng)用市場評論》,本文關(guān)鍵詞  python,爬取,華為,應(yīng)用,市場,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python 爬取華為應(yīng)用市場評論》相關(guān)的同類信息!
  • 本頁收集關(guān)于python 爬取華為應(yīng)用市場評論的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    色婷婷综合在线观看| 国产一区视频在线播放| 青青草精品视频在线| 99精品在线免费在线观看| 91入口在线观看| 久久成人精品无人区| 国产精品国产三级国产aⅴ中文| 国产一区二区三区久久悠悠色av| 一级欧洲+日本+国产| 超污视频在线播放| 女人和拘做爰正片视频| 精品国产伦一区二区三| 超碰人人爱人人| 久久综合图片| 免费看欧美女人艹b| 91精品国产91久久久久久吃药| 99久久视频| 国产三区在线视频| 国产女主播一区二区| av电影天堂一区二区在线| 五月婷婷激情综合| 国产精品免费一区二区三区都可以| 日本在线播放不卡| 精品人妻大屁股白浆无码| 欧美三级一区二区| 久本草在线中文字幕亚洲| 欧美在线中文| 999在线观看视频| 亚洲国产成人精品一区二区| 久久久亚洲精华液精华液精华液| 欧美一区二区三区少妇| 久热精品视频在线观看一区| 一本色道久久88综合日韩精品| 一区二区在线观| 免费福利在线视频| 欧美日韩在线免费| 风间由美性色一区二区三区| 日韩精品高清在线观看| 久久精品免费看| 久久人人爽人人爽| 妺妺窝人体色www聚色窝仙踪| 麻豆传媒视频在线观看免费| 日韩大片免费观看视频播放| 黄色小视频在线免费观看| 午夜精品久久久久久不卡8050| 成人av免费在线观看| 国产黄色片免费在线观看| 国产在线高清精品| 欧美亚男人的天堂| www.一区二区三区.com| 蜜芽tv福利在线视频| 精品亚洲va在线va天堂资源站| 日韩视频一区在线| www.亚洲天堂网| 日av在线播放中文不卡| 欧美丰满艳妇bbwbbw| www网站在线观看| 高清视频在线观看三级| 国产精品久久免费视频| 91色porny| 亚洲欧美中文字幕在线观看| 另类综合图区| 99久久国产综合精品色伊| 欧美特级一级片| 久久露脸国语精品国产91| 国产香蕉免费精品视频| 青青青爽在线视频免费观看| 欧美日韩国产专区| 国产福利拍拍拍| 免费极品av一视觉盛宴| 91国内精品久久| 精品久久久久久中文字幕一区奶水| 天堂在线观看| 亚洲国产美女久久久久| 自拍亚洲图区| 久久久久久久久久久久久女过产乱| 国产精品一区二区午夜嘿嘿嘿小说| 满满都是荷尔蒙韩剧在线观看| 农村少妇一区二区三区四区五区| 亚洲爱情岛论坛永久| 成人动漫一区二区| 亚洲 欧美 变态 另类 综合| 翡翠波斯猫1977年美国| 香蕉视频久久久| 全国男人的天堂天堂网| 偷窥自拍亚洲色图精选| 五月婷婷综合久久| 久久久久人妻精品一区三寸| 国产亚洲福利| 中文字幕乱在线伦视频中文字幕乱码在线| 国产麻豆精品久久| 亚洲综合网站在线观看| 日本免费在线精品| 777色狠狠一区二区三区| 伊人成人在线视频| www在线观看播放免费视频日本| 国产美女视频黄a视频免费| 日韩大陆欧美高清视频区| 日本亚洲欧洲色α| 日韩视频免费直播| 丰满人妻一区二区三区四区53| 国产麻豆a毛片| 国产精品探花一区二区在线观看| 美女爆乳18禁www久久久久久| 3d动漫精品啪啪一区二区竹菊| 好男人www社区在线视频夜恋| 亚洲精品乱码久久久久久自慰| 日本高清不卡视频| 中文字幕久热精品视频免费| 女人另类性混交zo| 91亚洲国产成人精品一区| 国产熟女一区二区丰满| av在线一区二区三区| 日韩黄色碟片| 日韩不卡免费视频| 欧美三级又粗又硬| 美女福利视频在线| 国产美女免费观看| 国产一区二区三区四区二区| 国产成人涩涩涩视频在线观看| jizzjizz免费大全| www在线观看播放免费视频日本| 9191精品国产综合久久久久久| 日韩综合一区| 日日夜夜精品| 成人丝袜18视频在线观看| 一区二区欧美视频| 国产精品视频麻豆| 老熟妇高潮一区二区高清视频| 国产福利电影网| 亚洲国产第一区| 亚洲最大视频网| 亚洲在线日韩| 97超碰在线免费| 色中文字幕在线观看| 日韩小视频网址| 免费黄色小视频| 最新av网站在线观看| 巨乳诱惑日韩免费av| 无码一区二区三区在线| 美国一区二区三区在线播放| 日韩加勒比系列| 美女少妇一区二区| 日本人妖一区二区| 韩国一区二区在线观看| 亚洲精品久久久久久久久久| 亚洲日本免费电影| 91人妻一区二区| 国产一区二区三区四区| 久久久久久久9| 久久久综合香蕉尹人综合网| 欧美 日韩 人妻 高清 中文| 国产l精品国产亚洲区久久| 国产欧美日韩精品a在线观看| 欧美剧情片在线观看| 日韩精品视频一区二区在线观看| 国产精选一区| 国产口爆吞精一区二区| 李丽珍裸体午夜理伦片| 日日躁天天躁狠狠躁| 最新亚洲激情| 国产黑丝在线一区二区三区| 国产91在线视频| 免费在线视频你懂的| 亚洲欧洲国产综合| 最近中文字幕在线| 国产成人精品免费视频大全最热| 热99精品只有里视频精品| 国产精品成人一区二区三区吃奶| 丰满人妻av一区二区三区| 免费99热在线观看| 精品欧美国产一区二区三区不卡| 欧美性生活大片视频| 两个人看的无遮挡免费视频| 蜜桃av久久久亚洲精品| 久久综合中文字幕| 狠狠擦狠狠操| 免费观看成人www动漫视频| 亚洲国产成人自拍| 日韩欧美亚洲精品| 成人免费一区| 亚洲国产精品无码观看久久| 欧美极品免费| 2019中文字幕在线视频| 中文字幕一区二区三区乱码在线| 日韩a级大片| 北条麻妃在线视频观看| 欧美性巨大欧美| 日韩激情视频| 日韩一区二区三区不卡| 日本熟妇毛茸茸丰满| 一本色道久久综合亚洲精品按摩| 黑料不打烊so导航| 国产视频久久| 亚洲免费999| 亚洲美女主播视频免费观看| 午夜男人天堂| 日韩午夜电影在线观看| 国产亚洲视频在线观看| 日韩成人在线播放| 91热门视频在线观看| 在线免费观看你懂的| 免费人成年激情视频在线观看| 欧美美最猛性xxxxxx| 色丁香久综合在线久综合在线观看| 欧美在线中文字幕| 4438亚洲最大| 国产精品a成v人在线播放| 中文字幕电影在线观看| 中文字幕亚洲二区| 日本vs亚洲vs韩国一区三区| 欧美一级淫片免费视频黄| 日日碰狠狠躁久久躁婷婷| 女生裸体视频一区二区三区| 亚洲va欧美va国产综合剧情| 国产精品欧美激情在线播放| 久久综合精品国产一区二区三区| 久久精品综合| 日本丰满少妇黄大片在线观看| 日本护士做爰视频| 欧美色图自拍| 一本久道综合色婷婷五月| 奇米影视第四色777| 午夜影院在线免费观看| 欧美国产一二三区| 国产精品久久久久久久久免费| 成人同人动漫免费观看| 精品在线视频一区| 怡红院男人的天堂| 国产精品久久久久久久久妇女| 亚洲天堂网av在线| 91网页在线看| 精品一区二区三区中文字幕老牛| 久久躁日日躁aaaaxxxx| 四虎精品一区二区永久在线观看| 欧美日韩在线电影| 欧美香蕉大胸在线视频观看| 一本一道波多野毛片中文在线| www.黄色在线| 日韩黄色小视频| 一个人www视频在线免费观看| 色视频在线观看| 小小的日本在线观看免费色网| 欧美精品v日韩精品v韩国精品v| 中日韩男男gay无套| 久久电影在线| 久久久久伊人| 97精品国产综合久久久动漫日韩| mm视频在线视频| 2020中文字字幕在线不卡| 欧美性69xxxx肥| 日韩黄色一区二区| 欧美日本韩国一区| 精品国一区二区三区| 日韩美女一区二区三区| av毛片在线免费观看| 亚洲女人天堂网| 最近最好的中文字幕2019免费| 欧美激情国产精品免费| 欧美日韩一区高清| 亚洲字幕成人中文在线观看| 国产亚洲观看| 97人人做人人人难人人做| 日韩精品久久久久久久软件91| 在线观看免费高清完整| 欧美一级日本a级v片| 伊人久久视频| 加勒比av一区二区| 亚洲黄色成人网| 国产厕拍一区| 韩国视频一区二区三区| 日本电影中文字幕| 日韩超碰人人爽人人做人人添| 亚洲精品国产一区| 国产在线一二三| 欧美性猛交xxxx乱大交91| 精品少妇一区二区三区日产乱码| 加勒比av在线播放| 国产精品yjizz视频网| 欧美深夜福利视频| 亚洲综合一二三区| 另类图片亚洲色图| 日韩电影在线观看一区二区| 久久国产精品网站| 视频一区中文字幕精品| 国产精品视频一区二区三区四区五区| 久久国产色av免费观看| 欧美日韩美少妇| 欧美成人午夜电影| 国产精品色在线观看| 潘金莲一级淫片aaaaaa播放1| av观看成片免费网站| 草莓福利社区在线| 国产精品影院在线观看| 成人小视频在线| 精品电影在线| 开心丁香婷婷深爱五月| 免费av不卡在线观看| 天天草天天干| 成人免费毛片在线观看| av高清在线观看| 小泽玛利亚一区二区免费| 成人免费观看视频在线观看| 韩国成人免费视频| 色婷婷av一区二区三区丝袜美腿| 日韩中文字幕免费在线观看| 国产日韩精品视频一区二区三区| 青青视频免费在线| 波多野结衣av在线免费观看| 无码人妻精品一区二区三| 大乳护士喂奶hd| 亚洲黄色毛片| 免费一级欧美在线大片| 日韩大尺度视频| 午夜精品久久久久久99热| 亚洲高清色综合| 午夜国产欧美理论在线播放| av福利网址网站| 亚洲国产影院| 97人人在线视频| xxxxaaa欧美另类| 国产精品三级在线观看| 成人免费公开视频| 伊人激情综合| 成人高清免费观看mv| 你懂的在线免费观看| 国产一区二区不卡视频| 国产精品成人免费在线|