成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識庫 > Python爬蟲分析匯總

Python爬蟲分析匯總

熱門標簽:沈陽防封電銷電話卡 萊蕪電信外呼系統(tǒng) 地圖標注多個 銀川電話機器人電話 鶴壁手機自動外呼系統(tǒng)違法嗎 企業(yè)微信地圖標注 怎么辦理400客服電話 B52系統(tǒng)電梯外呼顯示E7 高德地圖標注收入咋樣

Python爬蟲分析

前言:

計算機行業(yè)的發(fā)展太快了,有時候幾天不學習,就被時代所拋棄了,因此對于我們程序員而言,最重要的就是要時刻緊跟業(yè)界動態(tài)變化,學習新的技術(shù),但是很多時候我們又不知道學什么好,萬一學的新技術(shù)并不會被廣泛使用,太小眾了對學習工作也幫助不大,這時候我們就想要知道大佬們都在學什么了,跟著大佬學習走彎路的概率就小很多了。現(xiàn)在就讓我們看看C站大佬們平時都收藏了什么,大佬學什么跟著大佬的腳步就好了!

一、程序說明

通過爬取 “CSDN” 獲取全站排名靠前的博主的公開收藏夾,寫入 csv 文件中,根據(jù)所獲取數(shù)據(jù)分析領域大佬們的學習趨勢,并通過可視化的方式進行展示。

二、數(shù)據(jù)爬取

使用 requests 庫請求網(wǎng)頁信息,使用 BeautifulSoup4 json 庫解析網(wǎng)頁。

1、獲取 CSDN 作者總榜數(shù)據(jù)

首先,我們需要獲取 CSDN 中在榜的大佬,獲取他/她們的相關(guān)信息。由于數(shù)據(jù)是動態(tài)加載的 (因此使用開發(fā)者工具,在網(wǎng)絡選項卡中可以找到請求的 JSON 數(shù)據(jù):

觀察請求鏈接:

https://blog.csdn.net/phoenix/web/blog/all-rank?page=0pageSize=20
https://blog.csdn.net/phoenix/web/blog/all-rank?page=1pageSize=20
...

可以發(fā)現(xiàn)每次請求 JSON 數(shù)據(jù)時,會獲取20個數(shù)據(jù),為了獲取排名前100的大佬數(shù)據(jù),使用如下方式構(gòu)造請求:

url_rank_pattern = "https://blog.csdn.net/phoenix/web/blog/all-rank?page={}pageSize=20"

for i in range(5):
    url = url_rank_pattern.format(i)
    #聲明網(wǎng)頁編碼方式
    response = requests.get(url=url, headers=headers)
    response.encoding = 'utf-8'
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')

請求得到 Json 數(shù)據(jù)后,使用 json 模塊解析數(shù)據(jù)(當然也可以使用 re 模塊,根據(jù)自己的喜好選擇就好了),獲取用戶信息,從需求上講,這里僅需要用戶 userName,因此僅解析 userName 信息,也可以根據(jù)需求獲取其他信息:

userNames = []
information = json.loads(str(soup))
for j in information['data']['allRankListItem']:
    # 獲取id信息
    userNames.append(j['userName'])

2、獲取收藏夾列表

獲取到大佬的 userName 信息后,通過主頁來觀察收藏夾列表的請求方式,本文以自己的主頁為例(給自己推廣一波),分析方法與上一步類似,在主頁中切換到“收藏”選項卡,同樣利用開發(fā)者工具的網(wǎng)絡選項卡:

觀察請求收藏夾列表的地址:

https://blog.csdn.net/community/home-api/v1/get-favorites-created-list?page=1size=20noMore=falseblogUsername=LOVEmy134611

可以看到這里我們上一步獲取的 userName 就用上了,可以通過替換 blogUsername 的值來獲取列表中大佬的收藏夾列表,同樣當收藏夾數(shù)量大于20時,可以通過修改 page 值來獲取所有收藏夾列表:

collections = "https://blog.csdn.net/community/home-api/v1/get-favorites-created-list?page=1size=20noMore=falseblogUsername={}"
for userName in userNames:
    url = collections.format(userName)
    #聲明網(wǎng)頁編碼方式
    response = requests.get(url=url, headers=headers)
    response.encoding = 'utf-8'
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')

請求得到 Json 數(shù)據(jù)后,使用 json 模塊解析數(shù)據(jù),獲取收藏夾信息,從需求上講,這里僅需要收藏夾 id,因此僅解析 id 信息,也可以根據(jù)需求獲取其他信息(例如可以獲取關(guān)注人數(shù)等信息,找到最受歡迎的收藏夾):

file_id_list = []
information = json.loads(str(soup))
# 獲取收藏夾總數(shù)
collection_number = information['data']['total']
# 獲取收藏夾id
for j in information['data']['list']:
    file_id_list.append(j['id'])

這里大家可能會問,現(xiàn)在 CSDN 不是有新舊兩種主頁么,請求方式能一樣么?答案是:不一樣,在瀏覽器端進行訪問時,舊版本使用了不同的請求接口,但是我們同樣可以使用新版本的請求方式來進行獲取,因此就不必區(qū)分新、舊版本的請求接口了,獲取收藏數(shù)據(jù)時情況也是一樣的。

3、獲取收藏數(shù)據(jù)

最后,單擊收藏夾展開按鈕,就可以看到收藏夾中的內(nèi)容了,然后同樣利用開發(fā)者工具的網(wǎng)絡選項卡進行分析:

觀察請求收藏夾的地址:

https://blog.csdn.net/community/home-api/v1/get-favorites-item-list?blogUsername=LOVEmy134611folderId=9406232page=1pageSize=200

可以看到剛剛獲取的用戶 userName 和收藏夾 id 就可以構(gòu)造請求獲取收藏夾中的收藏信息了:

file_url = "https://blog.csdn.net/community/home-api/v1/get-favorites-item-list?blogUsername={}folderId={}page=1pageSize=200"
for file_id in file_id_list:
    url = file_url.format(userName,file_id)
    #聲明網(wǎng)頁編碼方式
    response = requests.get(url=url, headers=headers)
    response.encoding = 'utf-8'
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')

最后用 re 模塊解析:

    user = user_dict[userName]
    user = preprocess(user)
    # 標題
    title_list  = analysis(r'"title":"(.*?)",', str(soup))
    # 鏈接
    url_list = analysis(r'"url":"(.*?)"', str(soup))
    # 作者
    nickname_list = analysis(r'"nickname":"(.*?)",', str(soup))
    # 收藏日期
    date_list = analysis(r'"dateTime":"(.*?)",', str(soup))
    for i in range(len(title_list)):
        title = preprocess(title_list[i])
        url = preprocess(url_list[i])
        nickname = preprocess(nickname_list[i])
        date = preprocess(date_list[i])

4、爬蟲程序完整代碼

import time
import requests
from bs4 import BeautifulSoup
import os
import json
import re
import csv

if not os.path.exists("col_infor.csv"):
    #創(chuàng)建存儲csv文件存儲數(shù)據(jù)
    file = open('col_infor.csv', "w", encoding="utf-8-sig",newline='')
    csv_head = csv.writer(file)
    #表頭
    header = ['userName','title','url','anthor','date']
    csv_head.writerow(header)
    file.close()

headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'
}

def preprocess(string):
    return string.replace(',',' ')

url_rank_pattern = "https://blog.csdn.net/phoenix/web/blog/all-rank?page={}pageSize=20"

userNames = []
user_dict = {}
for i in range(5):
    url = url_rank_pattern.format(i)
    #聲明網(wǎng)頁編碼方式
    response = requests.get(url=url, headers=headers)
    response.encoding = 'utf-8'
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')
    information = json.loads(str(soup))
    for j in information['data']['allRankListItem']:
        # 獲取id信息
        userNames.append(j['userName'])
        user_dict[j['userName']] = j['nickName']

def get_col_list(page,userName):
    collections = "https://blog.csdn.net/community/home-api/v1/get-favorites-created-list?page={}size=20noMore=falseblogUsername={}"
    url = collections.format(page,userName)
    #聲明網(wǎng)頁編碼方式
    response = requests.get(url=url, headers=headers)
    response.encoding = 'utf-8'
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')
    information = json.loads(str(soup))
    return information

def analysis(item,results):
    pattern = re.compile(item, re.I|re.M)
    result_list = pattern.findall(results)
    return result_list

def get_col(userName, file_id, col_page):
    file_url = "https://blog.csdn.net/community/home-api/v1/get-favorites-item-list?blogUsername={}folderId={}page={}pageSize=200"
    url = file_url.format(userName,file_id, col_page)
    #聲明網(wǎng)頁編碼方式
    response = requests.get(url=url, headers=headers)
    response.encoding = 'utf-8'
    response.raise_for_status()
    soup = BeautifulSoup(response.text, 'html.parser')
    user = user_dict[userName]
    user = preprocess(user)
    # 標題
    title_list  = analysis(r'"title":"(.*?)",', str(soup))
    # 鏈接
    url_list = analysis(r'"url":"(.*?)"', str(soup))
    # 作者
    nickname_list = analysis(r'"nickname":"(.*?)",', str(soup))
    # 收藏日期
    date_list = analysis(r'"dateTime":"(.*?)",', str(soup))
    for i in range(len(title_list)):
        title = preprocess(title_list[i])
        url = preprocess(url_list[i])
        nickname = preprocess(nickname_list[i])
        date = preprocess(date_list[i])
        if title and url and nickname and date:
            with open('col_infor.csv', 'a+', encoding='utf-8-sig') as f:
                f.write(user + ',' + title + ',' + url + ',' + nickname + ',' + date  + '\n')

    return information

for userName in userNames:
    page = 1
    file_id_list = []
    information = get_col_list(page, userName)
    # 獲取收藏夾總數(shù)
    collection_number = information['data']['total']
    # 獲取收藏夾id
    for j in information['data']['list']:
        file_id_list.append(j['id'])
    while collection_number > 20:
        page = page + 1
        collection_number = collection_number - 20
        information = get_col_list(page, userName)
        # 獲取收藏夾id
        for j in information['data']['list']:
            file_id_list.append(j['id'])
    collection_number = 0

    # 獲取收藏信息
    for file_id in file_id_list:
        col_page = 1
        information = get_col(userName, file_id, col_page)
        number_col = information['data']['total']
        while number_col > 200:
            col_page = col_page + 1
            number_col = number_col - 200
            get_col(userName, file_id, col_page)
    number_col = 0

5、爬取數(shù)據(jù)結(jié)果

展示部分爬取結(jié)果:

三、數(shù)據(jù)分析及可視化

最后使用 wordcloud 庫,繪制詞云展示大佬收藏。

from os import path
from PIL import Image
import matplotlib.pyplot as plt
import jieba
from wordcloud import WordCloud, STOPWORDS
import pandas as pd
import matplotlib.ticker as ticker
import numpy as np
import math
import re

df = pd.read_csv('col_infor.csv', encoding='utf-8-sig',usecols=['userName','title','url','anthor','date'])

place_array = df['title'].values
place_list = ','.join(place_array)
with open('text.txt','a+') as f:
    f.writelines(place_list)

###當前文件路徑
d = path.dirname(__file__)

# Read the whole text.
file = open(path.join(d, 'text.txt')).read()
##進行分詞
#停用詞
stopwords = ["的","與","和","建議","收藏","使用","了","實現(xiàn)","我","中","你","在","之"]
text_split = jieba.cut(file)  # 未去掉停用詞的分詞結(jié)果   list類型

#去掉停用詞的分詞結(jié)果  list類型
text_split_no = []
for word in text_split:
    if word not in stopwords:
        text_split_no.append(word)
#print(text_split_no)

text =' '.join(text_split_no)
#背景圖片
picture_mask = np.array(Image.open(path.join(d, "path.jpg")))
stopwords = set(STOPWORDS)
stopwords.add("said")
wc = WordCloud(  
    #設置字體,指定字體路徑
    font_path=r'C:\Windows\Fonts\simsun.ttc', 
    # font_path=r'/usr/share/fonts/wps-office/simsun.ttc', 
    background_color="white",   
    max_words=2000,   
    mask=picture_mask,  
    stopwords=stopwords)  
# 生成詞云
wc.generate(text)

# 存儲圖片
wc.to_file(path.join(d, "result.jpg"))

到此這篇關(guān)于Python爬蟲分析匯總的文章就介紹到這了,更多相關(guān)Python爬蟲內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 關(guān)于python爬蟲應用urllib庫作用分析
  • python爬蟲Scrapy框架:媒體管道原理學習分析
  • python爬蟲Mitmproxy安裝使用學習筆記
  • Python爬蟲和反爬技術(shù)過程詳解
  • python爬蟲之Appium爬取手機App數(shù)據(jù)及模擬用戶手勢
  • 爬蟲Python驗證碼識別入門
  • Python爬蟲技術(shù)
  • Python爬蟲爬取商品失敗處理方法
  • Python獲取江蘇疫情實時數(shù)據(jù)及爬蟲分析
  • Python爬蟲之Scrapy環(huán)境搭建案例教程
  • Python爬蟲中urllib3與urllib的區(qū)別是什么
  • 教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫

標簽:烏魯木齊 葫蘆島 湘西 安慶 三亞 銀川 呼倫貝爾 呼倫貝爾

巨人網(wǎng)絡通訊聲明:本文標題《Python爬蟲分析匯總》,本文關(guān)鍵詞  Python,爬蟲,分析,匯總,Python,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《Python爬蟲分析匯總》相關(guān)的同類信息!
  • 本頁收集關(guān)于Python爬蟲分析匯總的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    粉嫩久久久久久久极品| 国产东北露脸精品视频| 99久久久无码国产精品性波多| 色88久久久久高潮综合影院| 四虎国产精品免费久久5151| 亚洲国产精品久久久| 亚洲区一区二区三区| 制服丝袜中文字幕在线观看| 性国产高清在线观看| 欧美日韩中文一区二区| 黄色国产一级视频| 日韩一二三四区| 中文字幕三级电影| 国产黄在线免费观看| 国产精品久久久久高潮| 在线国产视频一区| 色姑娘资源站| 人妻体体内射精一区二区| 男女激情网站| 亚洲精品国产suv一区| 黑丝美女一区二区| 青春草在线视频| 国内精品免费**视频| 欧美一二区在线观看| 96国产粉嫩美女| 天天操天天操天天色天天要| jizzjizzjizzjizz日本| 在线观看91| 三上亚洲一区二区| 亚洲最大福利视频| 美国十次av导航亚洲入口| 天天综合成人网| 3atv一区二区三区| 在线观看h网址| 秋霞av在线| jizz性欧美23| 欧美性猛交xxxx乱大交丰满| 中文 欧美 日韩| 91肉色超薄丝袜脚交一区二区| 日本一区二区免费在线观看视频| 成年人在线看| 91免费看片| 麻豆视频免费在线观看| 在线观看国产一区| 欧美日韩精品一区二区天天拍小说| 人与人69性欧美三人交| 免费大片在线观看| 成人动漫一区二区| 92国产精品观看| 538精品在线观看| 国产日韩精品中文字无码| 中文字幕精品—区二区四季| 国产黄a三级三级看三级| 欧美日韩123区| 日韩一区二区三区精品视频第3页| 欧美白人猛性xxxxx交69| 性色av蜜臀av浪潮av老女人| 欧洲永久精品大片ww免费漫画| 久久久人人人| 亚洲欧美在线视频免费| 欧美精品一区二区三区视频| 久久精品国产**网站演员| 国产成人精品亚洲| 久久久综合网| 成人在线播放网址| 精品日产一区2区三区黄免费| 成人h精品动漫一区二区三区| 国产一区二区三区香蕉| 国产精品天干天干在观线| 欧美激情电影| 久久久久一区二区| 国产无套精品一区二区三区| 成人黄色免费视频| 色喇叭免费久久综合| 亚洲欧美综合一区| 不卡一区二区三区四区五区| 日韩经典在线视频| 中文字幕人妻熟女人妻a片| 欧美大片91| 97色成人综合网站| 欧美区一区二区三区| 日韩激情视频在线播放| 母乳一区在线观看| 成人精品福利视频| 色综合天天综合网国产成人综合天| 亚洲精品久久| 欧美一区二区视频观看视频| 午夜精品无码一区二区三区| 91黄色8090| 国产一区二区三区毛片| 国产一区二区三区美女秒播| 欧美久久精品| 国产成人啪免费观看软件| 国产亚洲欧美另类中文| 老色鬼精品视频在线观看播放| 国产av 一区二区三区| 三级成人黄色影院| 福利在线一区| 中文字幕av无码一区二区三区| 一区二区在线不卡| 黄色aaa毛片| 欧美韩日高清| 亚洲精品自在久久| 欧美性生交大片免费| 天天射综合影视| 欧美aa免费在线| 国产网站在线播放| 麻豆传媒在线视频| 中文乱码免费一区二区| 日韩精品亚洲专区| 26uuu国产精品视频| 禁断一区二区三区在线| 国产精品久久久久一区二区三区| 婷婷六月国产精品久久不卡| 婷婷久久综合| 成人激情诱惑| 久久99九九| 中文字幕+乱码+中文乱码www| 欧美在线观看网址综合| 精品国产免费一区二区三区香蕉| ass大特写| 久久亚洲AV无码| 国内揄拍国内精品久久| 欧美jizz| 久久综合狠狠综合| 国产成人av网| 国产精品视频一区二区三区四区五区| 日本少妇aaa| 久久精品视频免费播放| 国产亚洲精品熟女国产成人| 中文字幕亚洲精品乱码| 亚洲深夜福利网站| 91精品国产综合久久久久久久| 五月天中文字幕在线| 羞羞视频在线观看一区二区| 久久亚洲精精品中文字幕| 久久亚洲精品成人| 亚洲精品网站在线| √天堂中文在线| 自拍日韩亚洲一区在线| 亚洲女人天堂网| 日韩av片电影专区| 男女高潮又爽又黄又无遮挡| 国产在线麻豆精品观看| 国产调教精品| 日本a在线天堂| 亚洲国产精品无码观看久久| 欧美成熟毛茸茸| 三级av在线免费观看| 成人xxxxx色| 欧美综合在线第二页| 特大巨黑人吊性xxxxn38| 国产一区二区视频网站| 亚洲无码精品在线播放| gogo人体一区| 色偷偷综合社区| 成全电影播放在线观看国语| 色喇叭免费久久综合| 一区二区精品视频在线观看| 黄色免费视频在线观看| 一区二区三区毛片免费| 美女av在线免费看| 一区不卡字幕| 国产精品国产三级国产普通话99| 91精品一区二区| 亚洲午夜久久久久中文字幕久| 欧美 国产 综合| 亚洲高清福利视频| 黄色av免费观看| 91片黄在线观看| 欧美牲交a欧美牲交aⅴ免费下载| 97超级在线观看免费高清完整版电视剧| 国产999精品久久久久久绿帽| 日日摸夜夜添夜夜添亚洲女人| 国产网友自拍视频导航网站在线观看| 亚洲在线观看视频网站| 久久精品一区二区三区不卡免费视频| 亚洲aⅴ天堂av在线电影软件| 免费在线观看视频a| 日韩欧美激情电影| 手机av在线网站| 成人写真视频| 男生女生差差差的视频在线观看| 亚洲欧美一区二区三| 亚洲成人7777| 欧美大片久久久| 成年网址网站在线观看| 中文字幕在线观看av| 日本欧美一区二区三区乱码| 日韩精品免费一区二区三区竹菊| 国产精品久久波多野结衣| 亚洲图片在线| 在线观看精品自拍私拍| 十八禁一区二区三区| 国内精品国产成人国产三级粉色| 九九热在线视频观看这里只有精品| 伊人久久久久久久久久久久| 久久久久久香蕉| 日本一卡2卡三卡4卡网站| 日韩精品在线看片z| 中文字幕日本最新乱码视频| 日本中文字幕在线不卡| 久久色精品视频| 久久精品一区二区| 国产成人久久久久| 亚洲国产精品综合小说图片区| 91片黄在线观看| 污污网站免费看| 久久久国产精品网站| 国产精品sm| 国产精品啊啊啊| 久久九九免费视频| 欧美精品一区二区三区国产精品| 久久99精品波多结衣一区| 国产精品免费在线| 很黄很黄的网站免费的| 亚洲自拍偷拍精品| 成人免费av片| 精品欧美一区二区三区在线观看| 天天操天天干天天摸| 一二三四日本在线| 欧美在线中文字幕高清的| 国产高潮国产高潮久久久91| 成人免费播放器| 精品网站在线| 国产精品永久免费在线| 欧美人善交videosg| 国产精品亚洲精品| 不卡的在线视频| 国产欧美日韩第一页| 三年中文在线观看免费大全中国| 国产欧美短视频| 成人三级视频| 日韩新的三级电影| 男女污污视频网站| 偷偷要91色婷婷| 日韩欧美一区二区三区免费看| 福利欧美精品在线| 久久免费视频这里只有精品| 精品国产成人av| 国产精品无码毛片| 日韩欧美高清在线视频| 免费看成人午夜电影| 久久夜色精品一区| 精品在线观看一区二区| 99中文字幕在线观看| 国产精品久久久久久久久久免费看| 91亚洲男人天堂| 四虎永久成年免费影院| 亚洲无人区码一码二码三码| 久久先锋资源| yy6080午夜| 日韩在线精品一区| 日本1区2区3区中文字幕| 国产精品黄页免费高清在线观看| 国产综合成人久久大片91| 在线看片国产福利你懂的| 亚洲天堂一区在线观看| 亚洲国产欧美日韩在线观看第一区| 国产伦精品一区二区三区四区视频_| 一区二区三区国产| 欧美高清视频在线高清观看mv色露露十八| 黄色www网站| 男人揉女人奶房视频60分| 欧美成熟毛茸茸| 欧美四级电影网| 色一色在线观看视频网站| 欧美/亚洲一区| 中文字幕一区二区人妻电影丶| 亚洲欧美日韩国产手机在线| 欧美高清视频www夜色资源网| 日韩视频不卡| 欧美大交乱xxxx| 久久99精品国产91久久来源| 91超碰rencao97精品| 国产精品久久久久久久天堂第1集| 日韩五码在线观看| 亚洲精品久久久久久久久| 26uuu色噜噜精品一区二区| 亚洲三级免费电影| 日韩国产精品毛片| 亚洲无亚洲人成网站77777| 激情综合色播五月| 成人精品视频一区二区| 爱久久·www| se视频在线观看| 国产精品老熟女视频一区二区| 8x8x拔插拔插影库永久免费| av在线免费观看不卡| 妺妺窝人体色www在线小说| 韩国视频一区二区| 可以在线看的黄色网址| 91亚洲精品在线观看| 亚洲欧洲av在线| 成人在线视频网址| 蜜桃av鲁一鲁一鲁一鲁俄罗斯的| 91嫩草亚洲精品| 亚洲伦理一区二区三区| 视频区 图片区 小说区| 国产精品美女久久久久久| 天堂视频免费在线观看| 精品久久sese| 国产激情一区二区三区在线观看| 国产精品久久精品视| 三级视频在线看| 日韩福利二区| 性欧美xxxx大乳国产app| 欧美激情在线观看视频| 性农村xxxxx小树林| 国产精品三级在线观看| 亚洲免费视频中文字幕| 国产精品视频一区二区三区四蜜臂| 国产二区视频在线播放| 欧美高清视频一区二区| 日韩永久免费视频| 午夜视频在线免费观看| 人人澡人人添人人爽一区二区| 亚洲激情在线激情| 中文字幕第一区二区| 欧美最近摘花xxxx摘花| 国产麻豆剧传媒精品国产av| 色操视频在线| 北条麻妃一区二区三区中文字幕| 成人激情五月天| 成人免费看片'免费看| 国产免费黄色| 成人黄色av网| 亚洲老板91色精品久久|