成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識庫 > Python爬蟲爬取全球疫情數據并存儲到mysql數據庫的步驟

Python爬蟲爬取全球疫情數據并存儲到mysql數據庫的步驟

熱門標簽:西藏智能外呼系統五星服務 千陽自動外呼系統 在哪里辦理400電話號碼 原裝電話機器人 工廠智能電話機器人 清遠360地圖標注方法 平頂山外呼系統免費 江蘇客服外呼系統廠家 400電話申請服務商選什么

思路:使用Python爬蟲對騰訊疫情網站世界疫情數據進行爬取,封裝成一個函數返回一個

     字典數據格式的對象,寫另一個方法調用該函數接收返回值,和數據庫取得連接后把

     數據存儲到mysql數據庫。

一、mysql數據庫建表

CREATE TABLE world(
 id INT(11) NOT NULL AUTO_INCREMENT,
 dt DATETIME NOT NULL COMMENT '日期',
 c_name VARCHAR(35) DEFAULT NULL COMMENT '國家',
 continent VARCHAR(35) DEFAULT NULL COMMENT '所屬大洲',
 nowConfirm INT(11) DEFAULT NULL COMMENT '累計確診',
 confirm INT(11) DEFAULT NULL COMMENT '當日現存確診',
 confirmAdd INT(11) DEFAULT NULL COMMENT '當日新增確診',
 suspect INT(11) DEFAULT NULL COMMENT '剩余疑似',
 heal INT(11) DEFAULT NULL COMMENT '累計治愈',
 dead INT(11) DEFAULT NULL COMMENT '累計死亡',
 confirmAddCut INT(11) DEFAULT NULL COMMENT 'confirmAddCut',
 confirmCompare INT(11) DEFAULT NULL COMMENT 'confirmCompare',
 nowConfirmCompare INT(11) DEFAULT NULL COMMENT 'nowConfirmCompare',
 healCompare INT(11) DEFAULT NULL COMMENT 'healCompare',
 deadCompare INT(11) DEFAULT NULL COMMENT 'deadCompare',
 PRIMARY KEY(id)
)ENGINE=INNODB DEFAULT CHARSET=utf8mb4;

注意建立的表,數據的名字,數據的長度,數據的類型,主鍵的定義一定要小心仔細。

這里博主出現了幾個小錯誤:

①數據表的主鍵不可以設置為日期,因為在之后爬取數據之后可以看到,網站給的數據是同一天的,

因為主鍵不可以有重復,所以相同的日期是不可以作為主鍵定義的。

②設置int類型的id作為數據表的主鍵,那么存在一個問題,在往表里插入數據的時候,id位置的數據值需要考慮,

這個方法可以解決:可以在傳值的時候把id的值設定為 0,前提是id是自增的,

這樣數據庫是可以自己處理id的,依然是從0開始自增,這樣避免了不給id傳值導致Null的異常。

③博主使用的mysql可視化工具默認在一個頁面顯示30條記錄,在右上角可以改變顯示的記錄數,因為本次插入的

是185條數據,所以在插入完之后如果發(fā)現數據不對,可以看看可視化工具是不是有什么設置導致的。

二、下面直接上代碼(爬蟲方法)

"""
獲取全球疫情數據
"""
def get_world_data():
 url='https://api.inews.qq.com/newsqa/v1/automation/foreign/country/ranklist'
 headers={'user-agent': 'WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36'}
 # 創(chuàng)建會話對象
 # session = requests.session()
 # 請求接口
 # result = session.get('https://api.inews.qq.com/newsqa/v1/automation/foreign/country/ranklist')
 # 打印結果
 # print(result.text)
 res = requests.get(url, headers=headers)
 # print(res.text)
 response_data_0 = json.loads(res.text.replace('jQuery34102848205531413024_1584924641755(', '')[:-1]) #轉化json對象
 # print(response_data_0.keys())
 # print(response_data_0)
 response_data_1=response_data_0['data']
 # print(response_data_1)
 # print(response_data_1[0].keys())
 # data = jsonpath.jsonpath(resJson_1, '$.data.*')
 # print(resJson_1.keys())
 # for d in data:
 # res = '日期:' + d['date'] + '--' + d['continent'] + '--' + d['name'] + '--' + '新增確診:' + str(
 # d['confirmAdd']) + '累計確診:' + str(d['confirm']) + '治愈:' + str(d['heal']) + '死亡:' + str(d['dead'])
 # file = r'C:/Users/Administrator/Desktop/world_data.txt'
 # with open(file, 'w+', encoding='utf-8') as f:
 # f.write(res + '\n') # 加\n換行顯示
 # f.close()
 world={}
 for i in response_data_1:
 temp=i['y']+'.'+i['date']
 tup = time.strptime(temp, '%Y.%m.%d')
 dt = time.strftime('%Y-%m-%d', tup) # 改變時間格式,插入數據庫 日期
 # print(ds)
 c_name=i['name'] #國家
 continent=i['continent'] #所屬大洲
 nowConfirm=i['nowConfirm'] #現有確診
 confirm=i['confirm'] #累計確診
 confirmAdd=i['confirmAdd'] #新增確診
 suspect=i['suspect'] #現有疑似
 heal=i['heal'] #累計治愈
 dead=i['dead'] #累計死亡
 confirmAddCut=i['confirmAddCut']
 confirmCompare=i['confirmCompare']
 nowConfirmCompare=i['nowConfirmCompare']
 healCompare=i['healCompare']
 deadCompare=i['deadCompare']
 world[c_name] = {'dt':dt ,
  'continent': continent,
  'nowConfirm': nowConfirm,
  'confirm': confirm,
  'confirmAdd': confirmAdd,
  'suspect': suspect,
  'heal': heal,
  'dead': dead,
  'confirmAddCut': confirmAddCut,
  'confirmCompare': confirmCompare,
  'nowConfirmCompare': nowConfirmCompare,
  'healCompare': healCompare,
  'deadCompare': deadCompare,
  }
 return world

三、插入數據庫

def insert_world():
 """
 更新 world 表
 :return:
 """
 cursor = None
 conn = None
 try:
 dic = get_world_data()
 print(dic)
 conn, cursor = get_conn()
 sql = "insert into world values(%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s,%s)"
 sql_query = 'select %s=(select dt from world order by id desc limit 1)' #對比當前最大時間戳
 cursor.execute(sql_query,dic['美國']['dt'])
 if not cursor.fetchone()[0]:
 print(f"{time.asctime()}開始插入世界數據")
 for k, v in dic.items(): # item 格式 {'2021-01-13': {'confirm': 41, 'suspect': 0, 'heal': 0, 'dead': 1}
 cursor.execute(sql, [0,v.get('dt'), k, v.get("continent"), v.get("nowConfirm"),
  v.get("confirm"), v.get("confirmAdd"),v.get("suspect"),v.get("heal"), v.get("dead")
  , v.get("confirmAddCut"), v.get("confirmCompare"), v.get("nowConfirmCompare"), v.get("healCompare"),
 v.get("deadCompare")])
 conn.commit() # 提交事務
 print(f"{time.asctime()}插入世界數據完畢")
 else:
 print(f"{time.asctime()}世界數據已是最新數據!")
 except:
 traceback.print_exc()
 finally:
 close_conn(conn, cursor)

總結一下在完成這兩個方法的過程中遇到的問題,首先是最基礎的問題,數據的類型和格式的轉換,這里主要是指json字符串和

Python里對應的數據對象(list和字典)。

(1)一般來講對我們而言,需要抓取的是某個網站或者某個應用的內容,提取有用的價值。內容一般分為三部分,

結構化的數據、半結構化的數據和非機構化數據。

1.結構化數據:
       可以用統一的結構加以表示的數據。可以使用關系型數據庫表示和存儲,表現為二維形式的數據,一般特點是:數據以行為單位,

  一行數據表示一個實體的信息,每一行的數據的屬性是相同的。
2.半結構化數據:
       結構化數據的一種形式,并不符合關系型數據庫或其他數據表的形式關聯起來的數據模型結構,但包含相關標記,

  用來分隔語義元素以及對記錄和字段進行分層。因此他也被成為自描述的結構。常見的半結構數據有:html,xml和json等、

  實際上是以樹或者圖的結構來存儲的。
       對于半結構化數據,節(jié)點中屬性的順序是不重要的,不同的半結構化數據的屬性的個數是不一樣的。這樣的數據格式,

  可以自由的表達很多有用的信息,

  包含自描述信息。所以半結構化數據的擴展性很好,特別適合于在互聯網中大規(guī)模傳播。
3.非結構化數據

  就是沒有固定的結構。各種文檔,圖片,視頻或者音頻都屬于非結構化數據。對于這類數據,我們一般直接整體進行存儲,而且一般存儲為二進制形式。

原文鏈接:www.jb51.net/article/208448.htm

json數據      

 json(JavaScript Object Notation,JS對象標記)是一種輕量級的數據交換格式。

基于ECMAScript(w3c制定的JS規(guī)范)的一個子集,采用完全獨立于編程語言的文本格式來存儲和表示數據。

簡潔和清晰的層次結構使得JSON成為理想的數據交換語言。

       特點:易于閱讀、易于機器生成、有效提升網絡速度。       

JSON語法規(guī)則:

在JS語言中,一切都是對象。因此,任何支持的類型都可以通過json來表示。

例如字符串、數字,對象,數組。
Js中對象和數組是比較特殊并且常用的兩種類型:
       1、對象表示為鍵值對{name:'zhangsan',age:'7'}
       2、數據有逗號分隔[1,2,3,4,5]
       3、花括號保存對象
       4、方括號保存數組。
js的對象就相當于python中的字典
js的數組就相當于Python中的列表
       因為json用來存儲js的對象或者數組,所以在Python中我們可以將json轉化為list或者dict。

解析json的包json:
       json.dumps(python的list或者dict)---->(返回值)---->json字符串。
       json.loads(json字符串)------>(返回值)----->python的list或者dict.

       json.dump(list/dict,fp)—>list,或者字典保存到json文件中。
       json.load(fp)—>list/dict:從json文件中讀出json數據。

       json鍵值對是用來保存js對象的一種方式,和js對象的寫法頁大同小異,比如:
  {“firstName”:“Json”,“Class”:“aid1111”}等價于下面這條js語句:{firstName:“Json”,Class:“aid1111”}。
       很多人搞不清楚json和js對象的關系,甚至誰是誰都不清楚。其實可以這么理解:

  【JSON是JS對象的字符串表達式,他使用文本形式表示一個JS對象的信息,本質是一個字符串。】
        如var obj = {a:“hello”,b:“World”}這是一個js對象。注意,鍵名也是可以用引號包裹的var json = ' {“a”:“hello”,“b”:“World”}'這是一個json字符串,本質上是一個字符串。
       JSON作為數據包格式傳輸的時候具有更高的效率,這是因為JSON不想xml那樣具有嚴格的閉合標簽,這就讓有效數據量與總數據包比大大提升,從而減少同等數據流量的情況下,網絡的傳輸的壓力大大減低。

之前寫過一篇關于爬取中國疫情數據的博客文章,那里爬取的每日疫情數據和全球爬取的疫情數據格式有一點點不同:

這是中國的疫情數據,注意箭頭指的地方,這里的data對應的key是字典

這是全球疫情,注意這里data對應的是list

數據的格式非常重要,因為在后續(xù)需要把網頁爬取的數據接受之后,還要把數據導入數據庫,所以中間數據的格式必須清楚,

比如list類型的可以通過下標去訪問,而字典只可以通過name來訪問,字典是不提供索引的,所以不可以通過下標訪問。還

有就是數據庫里的日期格式一定要注意轉換再插入。

四、總結一下爬取數據的步驟:

(1)首先需要導入需要的包:

import requests
import pymysql
import time
import json
import traceback

(2)通過request向被爬取網站的url發(fā)起一個請求(如果網站有反爬取手段,需要在請求里加上headers)
獲取headers:

到指定網站,瀏覽器按F12,之后在網絡那一個選項里可以看到。

 (3)獲取和解析數據

 url='https://api.inews.qq.com/newsqa/v1/automation/foreign/country/ranklist'
 headers={'user-agent': 'WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36'}
 
 res = requests.get(url, headers=headers)
 # print(res.text)
 response_data_0 = json.loads(res.text.replace('jQuery34102848205531413024_1584924641755(', '')[:-1]) #轉化json對象

這里進行了第一步解析,通過json.loads( ) 方法把從網頁獲取的json字符串數據轉化成Python對應的list或者字典。

如果第一步解析之后data對應的value不是list,那么可以進行第二次解析,本次操作中,世界疫情數據的data對

應的數據是一個list,所以也就不需要進行第二次轉化,可以直接通過list的下標去訪問。

數據轉化是必要的,在網絡中json字符串傳遞小巧安全速度快,但是我們讀取數據,如果直接對字符串進行操作

會非常不方便,所以我們需要解析json字符串,也就是通過json.loads()方法把字符串轉化成Python對應的list或

者字典對象,這樣我們訪問操作這些數據會變得簡單。

以上就是Python爬蟲爬取全球疫情數據并存儲到mysql數據庫的步驟的詳細內容,更多關于python 爬取疫情數據存儲到mysql的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • 教你如何使用Python快速爬取需要的數據
  • python爬取豆瓣電影TOP250數據
  • python爬取鏈家二手房的數據
  • Python手拉手教你爬取貝殼房源數據的實戰(zhàn)教程
  • Python數據分析之Python和Selenium爬取BOSS直聘崗位
  • python爬蟲之爬取谷歌趨勢數據
  • python selenium實現智聯招聘數據爬取
  • python爬蟲之教你如何爬取地理數據
  • Python爬取騰訊疫情實時數據并存儲到mysql數據庫的示例代碼
  • Python爬蟲之自動爬取某車之家各車銷售數據

標簽:隨州 白城 股票 西安 安慶 日照 天水 錦州

巨人網絡通訊聲明:本文標題《Python爬蟲爬取全球疫情數據并存儲到mysql數據庫的步驟》,本文關鍵詞  Python,爬蟲,爬取,全球,疫情,;如發(fā)現本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《Python爬蟲爬取全球疫情數據并存儲到mysql數據庫的步驟》相關的同類信息!
  • 本頁收集關于Python爬蟲爬取全球疫情數據并存儲到mysql數據庫的步驟的相關信息資訊供網民參考!
  • 推薦文章
    日韩情涩欧美日韩视频| jizzjizzjizz国产| 免费av大全| 免费人成视频在线| 日韩va欧美va亚洲va久久| 欧美尤物巨大精品爽| 成年人视频网站免费观看| 欧美日韩在线精品一区二区三区| 久久网站免费观看| 亚洲级视频在线观看免费1级| 欧美孕妇孕交xxⅹ孕妇交| 黄色欧美视频| 特级西西444| 亚洲欧美另类人妖| 欧美视频日韩| 99热这里只有精品5| 亚洲区免费影片| 三级在线看中文字幕完整版| 成人中文字幕电影| 综合欧美视频一区二区三区| 亚洲一级片在线看| 亚洲欧美自拍一区| 欧美激情论坛| 久久久免费观看| 成人无码一区二区三区| 俺去亚洲欧洲欧美日韩| 毛片大全在线观看| 亚洲欧洲日韩综合| 亚洲电影观看| 亚洲三级在线| 久久久久久免费毛片精品| 国产精品自拍网站| 亚欧精品一区二区三区| 国产麻豆精品视频一区二区| 国产91久久婷婷一区二区| 国产 porn| 99久久婷婷国产综合精品首页| 色偷偷亚洲第一成人综合网址| 不卡视频在线观看| 男女视频网站在线观看| 婷婷夜色潮精品综合在线| 最近中文字幕在线中文高清版| 日韩午夜电影在线观看| 亚洲第一天堂网| 精品人妻互换一区二区三区| 精品午夜福利视频| 天天干天天骑| 欧美狂猛xxxxx乱大交3| 人交獸av完整版在线观看| 久久黄色美女电影| 欧美一级片在线| 久久免费电影网| 男人添女人下部高潮视频在观看| eeuss影院在线观看第一页| 色欲无码人妻久久精品| 狠狠操五月天| 91精品国产高潮对白| 亚洲精品一二| www.亚洲视频.com| 欧美性高潮床叫视频| 正在播放91九色| 性少妇videosexfreexxx片| 中文字幕在线天堂| 日韩精品一级中文字幕精品视频免费观看| 国产精品suv一区二区| 欧美在线播放视频| 亚洲免费影视| 国产精品久久久久久超碰| 国产精品18久久久久| 国产激情视频一区| 久久久久久有精品国产| 中文字幕亚洲一区二区va在线| 久久综合久久美利坚合众国| 亚洲免费成人| 亚洲免费黄色录像| 中文字幕日韩欧美精品高清在线| 三上悠亚在线观看| 欧美h视频在线观看| 午夜久久电影网| 久久久精品在线观看| 91精品国产自产在线丝袜啪| 久久久噜噜噜久久人人看| 99reav在线| 日本视频在线一区| 久久久久久电影| 欧美午夜激情小视频| 精品少妇一区二区三区在线视频| 欧美体内谢she精2性欧美| 久久a爱视频| 欧美三电影在线| 色国产精品一区在线观看| 亚洲精品小区久久久久久| 日韩欧美视频在线免费观看| 91大神在线播放精品| 老湿机69福利| 日本韩国欧美在线观看| 成人偷拍自拍| 免费色片视频| 奇米视频888战线精品播放| 91精品久久久久久粉嫩| 在线看的av网站| 国产1区2区3区中文字幕| 欧美日韩国产另类不卡| 午夜精品蜜臀一区二区三区免费| 欧美做受777cos| 亚洲图片欧洲图片日韩av| 亚洲国产成人精品久久久国产成人一区| 精品一区二区三区中文字幕| 日韩人妻精品中文字幕| 日本h视频在线观看| 精品国产髙清在线看国产毛片| 超在线视频97| 国产一二三视频| 久久99久久精品欧美| 天天做天天干天天操| 男人的天堂av网| 国产99久久久久久免费看农村| 欧美性生交大片免费| 99精品国产一区二区三区2021| 久久天天躁夜夜躁狠狠躁2022| 九色91在线视频| 欧美xxxxx在线视频| 日本视频一区二区在线观看| jizz国产在线| 97久久精品人人爽人人爽蜜臀| 亚洲图色中文字幕| 亚洲一区二区三区四区电影| 人妻内射一区二区在线视频| 日韩午夜av电影| 亚洲经典在线| 天堂地址在线www| 91中文字幕| 在线精品视频免费播放| 成人av在线播放网站| 91嫩草国产线观看亚洲一区二区| 国产成人手机在线| 97国产精东麻豆人妻电影| 日韩av高清在线观看| 国产成人精品久久久| 成年人免费影院| 色婷婷久久99综合精品jk白丝| 亚洲精品午夜av福利久久蜜桃| 欧美网站免费观看| 中文字幕第五页| 污网站在线观看免费| 日韩福利视频| 日韩123区| 91亚洲国产成人精品一区二区三| 日韩在线播放一区| 黄色在线免费观看| 久久精品国产精品亚洲| 午夜激情在线播放| 一区二区在线观看视频| 欧美与动交zoz0z| 天天做天天爱天天综合网2021| 奇米4444一区二区三区| 五月天婷婷丁香网| 人人人妻人人澡人人爽欧美一区| 性色av一区二区三区免费| 亚洲国产高清aⅴ视频| av中文字幕在线观看| 91精品国产高清一区二区三密臀| 中文字幕无码不卡免费视频| 欧美日夜夜逼| 丁香花高清视频完整版在线观看| 国产亚洲亚洲国产一二区| 国产又大又硬又粗| 99视频在线观看免费| 97香蕉超级碰碰久久免费的优势| 中文字幕一区二区三区在线乱码| 高清国语自产拍免费视频国产| 欧美成人精品福利在线视频| 神马久久一区二区三区| 欧美色大人视频| 国产综合色在线观看| 超碰一区二区| 色8久久影院午夜场| 97精品久久久久中文字幕| 六月丁香久久丫| 色综合视频一区中文字幕| 国产美女精品人人做人人爽| 男人草女人视频| 国产欧美综合一区二区三区| 中文在线资源观看视频网站免费不卡| 欧美重口另类videos人妖| 欧亚精品中文字幕| 久久亚洲电影| 国产一区二区三区四区二区| 精品无人区一区二区三区竹菊| 黄瓜视频在线观看| 国产香蕉久久| 国产一区二区三区在线观看免费视频| 成人av免费在线播放| 天天操夜夜做| 国产精品嫩草影院精东| av在线综合网| 精品一区电影| 91好吊色国产欧美日韩在线| 日韩美女网站| 欧美黄色三级网站| 91九色在线免费视频| 在线一区免费观看| 国产高清免费av在线| 久久久久久久久久影院| 午夜精品视频一区二区三区在线看| 国产精品久久久久91| 蜜臀av性久久久久蜜臀av麻豆| 99re8精品视频在线观看| 亚洲午夜久久久影院| 日韩精品资源| 99精品视频99| 精品国产国产综合精品| 在线亚洲精品福利网址导航| 偷拍自拍在线| 欧美美女性生活视频| 欧美日韩国产欧美日美国产精品| 久久久久久久久久婷婷| 天堂中文在线免费观看| 不卡在线一区二区| 国产91亚洲精品一区二区三区| 亚洲综合色视频在线观看| 欧美在线不卡一区| 亚洲欧美日韩国产一区二区| 久久99视频免费| 亚洲高清不卡av| 风间由美一区二区av101| 欧美日韩亚洲不卡| 国产精品一区二区6| 在线观看国产欧美| 午夜在线观看91| 男人的天堂在线播放| 日韩av电影在线观看| 国产成人鲁色资源国产91色综| 日精品一区二区| 97av影视网在线观看| 麻豆av电影在线观看| 国产乱xxⅹxx国语对白| 五月天久久网站| 亚洲av成人片色在线观看高潮| 91国模少妇一区二区三区| 韩国xxxx做受gayxxxx| 羞羞网站免费观看| 国产精品99一区二区三区| 国产极品模特精品一二| 精品在线亚洲视频| 三级黄色在线视频| 国产精品乱人伦中文| 香蕉久久免费电影| 91精品国产777在线观看| 亚洲精品国产手机| 成人黄色av| 国产精品初高中精品久久| 视频一区欧美| 国产精品一区2区3区| 日韩高清人体午夜| 日本中文字幕高清视频| 97蜜桃久久| 欧美性感一区二区三区| 69成人免费视频| 国内揄拍国内精品| 亚洲精品视频大全| 国产黄色av片| 日韩欧美久久久| 亚洲精品国产一区二区在线| jlzzjlzz欧美| 日韩欧美精品一区二区三区| av黄色网址| 亚洲大胆视频| 99热一区二区| 又黄又免费的网站| 91精品店在线| 美女视频在线免费| 亚洲黄一区二区| 不卡的av电影| 麻豆一区产品精品蜜桃的特点| 欧美视频第三页| 日韩大尺度视频| 亚洲国产美女久久久久| 精品国产欧美日韩不卡在线观看| 国产女主播一区二区| 亚洲第一精品在线观看| 成人国产视频在线| 色噜噜亚洲精品中文字幕| 视频在线不卡免费观看| 亚洲国产精品嫩草影院久久| 黄色免费福利视频| 99在线免费视频| 四虎影视亚洲| 91性感美女视频| 成年女人免费毛片视频永久| 亚洲+变态+欧美+另类+精品| 在线观看国产精品淫| 精品视频一区二区不卡| 美女做暖暖视频免费在线观看全部网址91| 国产区精品视频| 日韩 欧美 综合| 亚洲一区二区三区美女| 欧美三级在线播放| 97久久久久久久| 精品久久久久成人码免费动漫| 国产精品扒开做爽爽爽的视频| free性护士videos欧美| 亚洲少妇自拍| 国产精品久久久久av免费| 日韩久久久久久久久久| 久草在在线视频| 亚洲国产福利视频| 成年人小视频在线观看| 亚洲欧美日本在线| 欧美成人三级在线观看| 精品伦理一区二区| 欧美日韩国产另类不卡| 好看的日韩精品视频在线| 亚洲精品视频在线| 亚洲人成色777777老人头| 成人毛片在线| 57pao国产成人免费| 亚洲自拍偷拍网址| 中文字幕乱在线伦视频乱在线伦视频| 欧美一区二区三区久久精品茉莉花| 亚洲高清视频中文字幕| 国产精品99久久久| 日本成人在线一区| jizzjizz少妇亚洲水多| 亚洲熟妇无码av| jizz国产视频| 1769国产精品| 欧美日韩的一区二区|