成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁 > 知識(shí)庫 > 使用torchtext導(dǎo)入NLP數(shù)據(jù)集的操作

使用torchtext導(dǎo)入NLP數(shù)據(jù)集的操作

熱門標(biāo)簽:唐山智能外呼系統(tǒng)一般多少錢 哈爾濱ai外呼系統(tǒng)定制 激戰(zhàn)2地圖標(biāo)注 海南400電話如何申請(qǐng) 陜西金融外呼系統(tǒng) 廣告地圖標(biāo)注app 騰訊外呼線路 白銀外呼系統(tǒng) 公司電話機(jī)器人

如果你是pytorch的用戶,可能你會(huì)很熟悉pytorch生態(tài)圈中專門預(yù)處理圖像數(shù)據(jù)集的torchvision庫。

從torchtext這個(gè)名字我們也能大概猜到該庫是pytorch圈中用來預(yù)處理文本數(shù)據(jù)集的庫,但這方面的教程網(wǎng)絡(luò)上比較少,今天我就講講這個(gè)特別有用的文本分析庫。

簡(jiǎn)介

torchtext在文本數(shù)據(jù)預(yù)處理方面特別強(qiáng)大,但我們要知道ta能做什么、不能做什么,并如何將我們的需求用torchtext實(shí)現(xiàn)。雖然torchtext是為pytorch而設(shè)計(jì)的,但是也可以與keras、tensorflow等結(jié)合使用。

官方文檔地址 https://torchtext.readthedocs.io/en/latest/index.html

# 安裝	
!pip3 install torchtext

自然語言處理預(yù)處理的工作流程:

1、Train/Validation/Test數(shù)據(jù)集分割

2、文件數(shù)據(jù)導(dǎo)入(File Loading)

3、分詞(Tokenization) 文本字符串切分為詞語列表

4、構(gòu)建詞典(Vocab) 根據(jù)訓(xùn)練的預(yù)料數(shù)據(jù)集構(gòu)建詞典

5、數(shù)字映射(Numericalize/Indexify) 根據(jù)詞典,將數(shù)據(jù)從詞語映射成數(shù)字,方便機(jī)器學(xué)習(xí)

6、導(dǎo)入預(yù)訓(xùn)練好的詞向量(word vector)

7、分批(Batch) 數(shù)據(jù)集太大的話,不能一次性讓機(jī)器讀取,否則機(jī)器會(huì)內(nèi)存崩潰。解決辦法就是將大的數(shù)據(jù)集分成更小份的數(shù)據(jù)集,分批處理

8、向量映射(Embedding Lookup) 根據(jù)預(yù)處理好的詞向量數(shù)據(jù)集,將5的結(jié)果中每個(gè)詞語對(duì)應(yīng)的索引值變成 詞語向量

上面8個(gè)步驟,torchtext實(shí)現(xiàn)了2-7。第一步需要我們自己diy,好在這一步?jīng)]什么難度

"The quick fox jumped over a lazy dog."	
# 分詞	
["The", "quick", "fox", "jumped", "over", "a", "lazy", "dog", "."]	
# 構(gòu)建詞典	
{"The" -gt; 0, 	
"quick"-gt; 1, 	
"fox" -gt; 2,	
...}	
# 數(shù)字映射(將每個(gè)詞根據(jù)詞典映射為對(duì)應(yīng)的索引值)	
[0, 1, 2, ...]	
# 向量映射(按照導(dǎo)入的預(yù)訓(xùn)練好的詞向量數(shù)據(jù)集,把詞語映射成向量)	
[	
  [0.3, 0.2, 0.5],	
  [0.6, 0., 0.1],	
  [0.8, 01., 0.4],	
  ...	
]

一、數(shù)據(jù)集分割

一般我們做機(jī)器學(xué)習(xí)會(huì)將數(shù)據(jù)分為訓(xùn)練集和測(cè)試集,而在深度學(xué)習(xí)中,需要多輪訓(xùn)練學(xué)習(xí),每次的學(xué)習(xí)過程都包括訓(xùn)練和驗(yàn)證,最后再進(jìn)行測(cè)試。所以需要將數(shù)據(jù)分成訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)。

import pandas as pd	
import numpy as np	
def split_csv(infile, trainfile, valtestfile, seed=999, ratio=0.2):	
    df = pd.read_csv(infile)	
    df["text"] = df.text.str.replace("\n", " ")	
    idxs = np.arange(df.shape[0])	
    np.random.seed(seed)	
    np.random.shuffle(idxs)	
    val_size = int(len(idxs) * ratio)	
    df.iloc[idxs[:val_size], :].to_csv(valtestfile, index=False)	
    df.iloc[idxs[val_size:], :].to_csv(trainfile, index=False)	
#先將sms_spam.csv數(shù)據(jù)分為train.csv和test.csv	
split_csv(infile='data/sms_spam.csv', 	
          trainfile='data/train.csv', 	
          valtestfile='data/test.csv', 	
          seed=999, 	
          ratio=0.2)	
#再將train.csv分為dataset_train.csv和dataset_valid.csv	
split_csv(infile='data/train.csv', 	
          trainfile='data/dataset_train.csv', 	
          valtestfile='data/dataset_valid.csv', 	
          seed=999, 	
          ratio=0.2)

1.1 參數(shù)解讀

split_csv(infile, trainfile, valtestfile, seed, ratio)

infile:待分割的csv文件

trainfile:分割出的訓(xùn)練cs文件

valtestfile:分割出的測(cè)試或驗(yàn)證csv文件

seed:隨機(jī)種子,保證每次的隨機(jī)分割隨機(jī)性一致

ratio:測(cè)試(驗(yàn)證)集占數(shù)據(jù)的比例

經(jīng)過上面的操作,我們已經(jīng)構(gòu)建出實(shí)驗(yàn)所需的數(shù)據(jù):

訓(xùn)練數(shù)據(jù)(這里說的是dataset_train.csv而不是train.csv)

驗(yàn)證數(shù)據(jù)(dataset_train.csv)

測(cè)試數(shù)據(jù)(test.csv)。

二、分詞

導(dǎo)入的數(shù)據(jù)是字符串形式的文本,我們需要將其分詞成詞語列表。英文最精準(zhǔn)的分詞器如下:

import re	
import spacy	
import jieba	
	
#英文的分詞器	
NLP = spacy.load('en_core_web_sm')	
MAX_CHARS = 20000  #為了降低處理的數(shù)據(jù)規(guī)模,可以設(shè)置最大文本長(zhǎng)度,超過的部分忽略,	
def tokenize1(text):	
    text = re.sub(r"\s", " ", text)	
    if (len(text) gt; MAX_CHARS):	
        text = text[:MAX_CHARS]	
    return [	
        x.text for x in NLP.tokenizer(text) if x.text != " " and len(x.text)gt;1]	
#有的同學(xué)tokenize1用不了,可以使用tokenize2。	
def tokenize2(text):	
    text = re.sub(r"\s", " ", text)	
    if (len(text) gt; MAX_CHARS):	
        text = text[:MAX_CHARS]	
    return [w for w in text.split(' ') if len(w)gt;1]	
#中文的分類器比較簡(jiǎn)單	
def tokenize3(text):	
    if (len(text) gt; MAX_CHARS):	
        text = text[:MAX_CHARS]	
    return [w for w in jieba.lcut(text) if len(w)gt;1]	
	
print(tokenize1('Python is powerful and beautiful!'))	
print(tokenize2('Python is powerful and beautiful!'))	
print(tokenize3('Python強(qiáng)大而美麗!'))

Run

['Python', 'is', 'powerful', 'and', 'beautiful']	
['Python', 'is', 'powerful', 'and', 'beautiful!']	
['Python', '強(qiáng)大', '美麗']

三、 導(dǎo)入數(shù)據(jù)

torchtext中使用torchtext.data.TabularDataset來導(dǎo)入自己的數(shù)據(jù)集,并且我們需要先定義字段的數(shù)據(jù)類型才能導(dǎo)入。要按照csv中的字段順序來定義字段的數(shù)據(jù)類型,我們的csv文件中有兩個(gè)字段(label、text)

import pandas as pd	
df = pd.read_csv('data/train.csv')	
df.head()

import torch	
import torchtext	
from torchtext import data	
import logging	
LABEL = data.LabelField(dtype = torch.float)	
TEXT = data.Field(tokenize = tokenize1, 	
                      lower=True,	
                      fix_length=100,	
                      stop_words=None)	
train, valid, test = data.TabularDataset.splits(path='data', #數(shù)據(jù)所在文件夾	
                                                train='dataset_train.csv', 	
                                                validation='dataset_valid.csv',	
                                                test = 'test.csv',	
                                                format='csv', 	
                                                skip_header=True,	
                                                fields = [('label', LABEL),('text', TEXT)])	
train

Run

lt;torchtext.data.dataset.TabularDataset at 0x120d8ab38gt;

四、構(gòu)建詞典

根據(jù)訓(xùn)練(上面得到的train)的預(yù)料數(shù)據(jù)集構(gòu)建詞典。這兩有兩種構(gòu)建方式,一種是常規(guī)的不使用詞向量,而另一種是使用向量的。

區(qū)別僅僅在于vectors是否傳入?yún)?shù)

vects =  torchtext.vocab.Vectors(name = 'glove.6B.100d.txt', 	
                                 cache = 'data/')	
TEXT.build_vocab(train,	
                 max_size=2000, 	
                 min_freq=50,   	
                 vectors=vects,  #vects替換為None則不使用詞向量	
                 unk_init = torch.Tensor.normal_)

4.1 TEXT是Field對(duì)象,該對(duì)象的方法有

print(type(TEXT)) 
print(type(TEXT.vocab))

Run

lt;class 'torchtext.data.field.Field'gt; 
lt;class 'torchtext.vocab.Vocab'gt;

詞典-詞語列表形式,這里只顯示前20個(gè)

TEXT.vocab.itos[:20]
['lt;unkgt;', 
 'lt;padgt;', 
 'to', 
 'you', 
 'the', 
 '...', 
 'and', 
 'is', 
 'in', 
 'me', 
 'it', 
 'my', 
 'for', 
 'your', 
 '..', 
 'do', 
 'of', 
 'have', 
 'that', 
 'call']

詞典-字典形式

TEXT.vocab.stoi
defaultdict(lt;bound method Vocab._default_unk_index of lt;torchtext.vocab.Vocab object at 0x1214b1e48gt;gt;, 
            {'lt;unkgt;': 0, 
             'lt;padgt;': 1, 
             'to': 2, 
             'you': 3, 
             'the': 4, 
             '...': 5, 
             'and': 6, 
             'is': 7, 
             'in': 8, 
             .... 
             'mother': 0, 
             'english': 0, 
             'son': 0, 
             'gradfather': 0, 
             'father': 0, 
             'german': 0)

4.2 注意

train數(shù)據(jù)中生成的詞典,里面有,這里有兩個(gè)要注意:

是指不認(rèn)識(shí)的詞語都編碼為

german、father等都編碼為0,這是因?yàn)槲覀円笤~典中出現(xiàn)的詞語詞頻必須大于50,小于50的都統(tǒng)一分配一個(gè)索引值。

詞語you對(duì)應(yīng)的詞向量

TEXT.vocab.vectors[3]
tensor([-0.4989,  0.7660,  0.8975, -0.7855, -0.6855,  0.6261, -0.3965,  0.3491,	
         0.3333, -0.4523,  0.6122,  0.0759,  0.2253,  0.1637,  0.2810, -0.2476,	
         0.0099,  0.7111, -0.7586,  0.8742,  0.0031,  0.3580, -0.3523, -0.6650,	
         0.3845,  0.6268, -0.5154, -0.9665,  0.6152, -0.7545, -0.0124,  1.1188,	
         0.3572,  0.0072,  0.2025,  0.5011, -0.4405,  0.1066,  0.7939, -0.8095,	
        -0.0156, -0.2289, -0.3420, -1.0065, -0.8763,  0.1516, -0.0853, -0.6465,	
        -0.1673, -1.4499, -0.0066,  0.0048, -0.0124,  1.0474, -0.1938, -2.5991,	
         0.4053,  0.4380,  1.9332,  0.4581, -0.0488,  1.4308, -0.7864, -0.2079,	
         1.0900,  0.2482,  1.1487,  0.5148, -0.2183, -0.4572,  0.1389, -0.2637,	
         0.1365, -0.6054,  0.0996,  0.2334,  0.1365, -0.1846, -0.0477, -0.1839,	
         0.5272, -0.2885, -1.0742, -0.0467, -1.8302, -0.2120,  0.0298, -0.3096,	
        -0.4339, -0.3646, -0.3274, -0.0093,  0.4721, -0.5169, -0.5918, -0.3234,	
         0.2005, -0.4118,  0.4054,  0.7850])

4.3 計(jì)算詞語的相似性

得用詞向量構(gòu)建特征工程時(shí)能保留更多的信息量(詞語之間的關(guān)系)

這樣可以看出詞語的向量方向

是同義還是反義

距離遠(yuǎn)近。

而這里我們粗糙的用余弦定理計(jì)算詞語之間的關(guān)系,沒有近義反義關(guān)系,只能體現(xiàn)出距離遠(yuǎn)近(相似性)。

from sklearn.metrics.pairwise import cosine_similarity 
import numpy as np 
def simalarity(word1, word2): 
    word_vec1 = TEXT.vocab.vectors[TEXT.vocab.stoi[word1]].tolist() 
    word_vec2 = TEXT.vocab.vectors[TEXT.vocab.stoi[word2]].tolist() 
    vectors = np.array([word_vec1, word_vec2]) 
    return cosine_similarity(vectors) 
print(simalarity('you', 'your'))

Run

[[1.         0.83483314] 
 [0.83483314 1.        ]]

五、get_dataset函數(shù)

相似的功能合并成模塊,可以增加代碼的可讀性。這里我們把階段性合并三四的成果get_dataset函數(shù)

from torchtext import data	
import torchtext	
import torch	
import logging	
LOGGER = logging.getLogger("導(dǎo)入數(shù)據(jù)")	
def get_dataset(stop_words=None):	
    #定義字段的數(shù)據(jù)類型	
    LABEL = data.LabelField(dtype = torch.float)	
    TEXT = data.Field(tokenize = tokenize1, 	
                      lower=True,	
                      fix_length=100,	
                      stop_words=stop_words)	
    LOGGER.debug("準(zhǔn)備讀取csv數(shù)據(jù)...")	
    train, valid, test = data.TabularDataset.splits(path='data', #數(shù)據(jù)所在文件夾	
                                         train='dataset_train.csv', 	
                                         validation='dataset_valid.csv',	
                                         test = 'test.csv',	
                                         format='csv', 	
                                         skip_header=True,	
                                         fields = [('label', LABEL),('text', TEXT)])	
    LOGGER.debug("準(zhǔn)備導(dǎo)入詞向量...")	
    vectors = torchtext.vocab.Vectors(name = 'glove.6B.100d.txt', 	
                                      cache = 'data/')	
    LOGGER.debug("準(zhǔn)備構(gòu)建詞典...")	
    TEXT.build_vocab(	
        train,	
        max_size=2000, 	
        min_freq=50,   	
        vectors=vectors,	
        unk_init = torch.Tensor.normal_)	
    LOGGER.debug("完成數(shù)據(jù)導(dǎo)入!")	
    return train,valid, test, TEXT

get_dataset函數(shù)內(nèi)部參數(shù)解讀

data.Field(tokenize,fix_length)定義字段

tokenize=tokenize1 使用英文的分詞器tokenize1函數(shù)。

fix_length=100 讓每個(gè)文本分詞后的長(zhǎng)度均為100個(gè)詞;不足100的,可以填充為100。超過100的,只保留100

data.TabularDataset.splits(train, validation,test, format,skip_header,fields)讀取訓(xùn)練驗(yàn)證數(shù)據(jù),可以一次性讀取多個(gè)文件

train/validation/test 訓(xùn)練驗(yàn)證測(cè)試對(duì)應(yīng)的csv文件名

skip_header=True 如果csv有抬頭,設(shè)置為True可以避免pytorch將抬頭當(dāng)成一條記錄

fields = [('label', LABEL), ('text', TEXT)] 定義字段的類型,注意fields要按照csv抬頭中字段的順序設(shè)置

torchtext.vocab.Vectors(name, cache)導(dǎo)入詞向量數(shù)據(jù)文件

name= 'glove.6B.100d.txt' 從網(wǎng)上下載預(yù)訓(xùn)練好的詞向量glove.6B.100d.txt文件(該文件有6B個(gè)詞,每個(gè)詞向量長(zhǎng)度為100)

cache = 'data/' 文件夾位置。glove文件存放在data文件夾內(nèi)

TEXT.buildvocab(maxsize,minfreq,unkinit) 構(gòu)建詞典,其中

max_size=2000 設(shè)定了詞典最大詞語數(shù)

min_freq=50設(shè)定了詞典中的詞語保證最少出現(xiàn)50次

unkinit=torch.Tensor.normal 詞典中沒有的詞語對(duì)應(yīng)的向量統(tǒng)一用torch.Tensor.normal_填充

六、分批次

數(shù)據(jù)集太大的話,一次性讓機(jī)器讀取容易導(dǎo)致內(nèi)存崩潰。解決辦法就是將大的數(shù)據(jù)集分成更小份的數(shù)據(jù)集,分批處理

def split2batches(batch_size=32, device='cpu'):	
    train, valid, test, TEXT = get_dataset() #datasets按順序包含train、valid、test三部分	
    LOGGER.debug("準(zhǔn)備數(shù)據(jù)分批次...")	
    train_iterator, valid_iterator, test_iterator = data.BucketIterator.splits((train, valid, test), 	
                                                                               batch_size = batch_size,	
                                                                               sort = False,	
                                                                               device = device)	
    LOGGER.debug("完成數(shù)據(jù)分批次!")	
    return train_iterator, valid_iterator, test_iterator, TEXT

6.1參數(shù)解讀

split2batches(batch_size=32, device=0)

batch_size 每批次最多加入多少條評(píng)論

device device='cpu'在CPU中運(yùn)行,device='gpu' 在GPU中運(yùn)行。普通電腦都只有CPU的 該函數(shù)返回的是BucketIterator對(duì)象

train_iterator, valid_iterator, test_iterator, TEXT = split2batches() 
train_iterator

Run

lt;torchtext.data.iterator.BucketIterator at 0x12b0c7898gt;

查看train_iterator數(shù)據(jù)類型

type(train_iterator)
torchtext.data.iterator.BucketIterator

6.2BucketIterator對(duì)象

這里以trainiterator為例(validiterator, test_iterator都是相同的對(duì)象)。因?yàn)楸纠袛?shù)據(jù)有兩個(gè)字段label和text,所以

獲取train_iterator的dataset

train_iterator.dataset
lt;torchtext.data.dataset.TabularDataset at 0x12e9c57b8gt;

獲取train_iterator中的第8個(gè)對(duì)象

train_iterator.dataset.examples[7]
lt;torchtext.data.example.Example at 0x12a82dcf8gt;

獲取train_iterator中的第8個(gè)對(duì)象的lebel字段的內(nèi)容

train_iterator.dataset.examples[7].label
'ham'

獲取train_iterator中的第8個(gè)對(duì)象的text字段的內(nèi)容

train_iterator.dataset.examples[7].text
['were', 'trying', 'to', 'find', 'chinese', 'food', 'place', 'around', 'here']

總結(jié)

到這里我們已經(jīng)學(xué)習(xí)了torchtext的常用知識(shí)。使用本代碼要注意:

我們假設(shè)數(shù)據(jù)集是csv文件,torchtext可以還可以處理tsv、json。但如果你想使用本代碼,請(qǐng)先轉(zhuǎn)為csv

本教程的csv文件只有兩個(gè)字段,label和text。如果你的數(shù)據(jù)有更多的字段,記得再代碼中增加字段定義

本教程默認(rèn)場(chǎng)景是英文,且使用詞向量。所以記得對(duì)應(yīng)位置下載本教程的glove.6B.100d.txt。

glove下載地址https://nlp.stanford.edu/projects/glove/

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 使用pytorch和torchtext進(jìn)行文本分類的實(shí)例
  • pytorch加載語音類自定義數(shù)據(jù)集的方法教程
  • pytorch下大型數(shù)據(jù)集(大型圖片)的導(dǎo)入方式
  • PyTorch加載自己的數(shù)據(jù)集實(shí)例詳解

標(biāo)簽:黑龍江 上海 黔西 惠州 四川 鷹潭 益陽 常德

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《使用torchtext導(dǎo)入NLP數(shù)據(jù)集的操作》,本文關(guān)鍵詞  使用,torchtext,導(dǎo)入,NLP,數(shù)據(jù),;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《使用torchtext導(dǎo)入NLP數(shù)據(jù)集的操作》相關(guān)的同類信息!
  • 本頁收集關(guān)于使用torchtext導(dǎo)入NLP數(shù)據(jù)集的操作的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    成人免费观看在线视频| 可以免费看的黄色网址| 日日狠狠久久偷偷综合色| 精品一区二区三区日韩| 欧美一区二区三区爽爽爽| 久久精品国产久精国产爱| 亚洲欧美日韩爽爽影院| 国产影视精品一区二区三区| 三级精品视频久久久久| 亚洲视频精选| 黄页免费观看| 成人av一区二区三区在线观看| 国产精品久久国产精麻豆96堂| 欧美一区二区三区思思人| 日韩欧美大片| 免费男女羞羞的视频网站中文版| 1024av视频| 国产精品77777竹菊影视小说| 性xxxx视频| 一区二区在线视频播放| 玖玖爱免费视频| 污视频网站观看| 久久只有这里有精品| 亚洲乱妇老熟女爽到高潮的片| www.神马久久| 人妻无码中文久久久久专区| 91精品国产综合久久国产大片| 日本超碰在线观看| 欧洲一区二区在线观看| 国产精品yjizz| 亚洲精品中文字幕在线| 国产一区香蕉久久| 97免费视频在线| 精品久久国产字幕高潮| 欧美男人的天堂| 男人在线观看视频| 成人区人妻精品一区二| 俺去啦最新官网| 精品一区免费观看| 在线播放黄网| 男女男精品视频网站| 天天影视天天精品| 97看剧电视剧大全| 蘑菇福利视频一区播放| 国产不卡人人| 亚洲最大激情中文字幕| 久久电影天堂| www婷婷av久久久影片| 国产精品色在线网站| 奇米影视亚洲狠狠色| 成人写真福利网| 国内精品久久久久久野外| 免费在线观看一区| 91高清在线免费观看| 久草在线免费二| 色综合亚洲图丝熟| 日韩成人网免费视频| 欧美一区二区三区日韩视频| 免费观看久久久4p| 国产一区二区三区在线观看免费视频| 中国麻豆视频| 欧美人与性动交α欧美精品济南到| 亚洲午夜久久久久久久国产| 国产亚洲亚洲| www天堂在线观看| 国产亚洲亚洲国产一二区| 免费看日本黄色片| 三级成人黄色影院| 免费黄色在线看| 国产婷婷色一区二区三区四区| 女厕盗摄一区二区三区| 亚洲男人影院| 亚洲一级二级三级在线免费观看| www.四虎在线观看| 一道本在线免费视频| 精品三级在线观看| 深夜福利视频一区| 成人在线免费观看一区| 久久久国产一级片| 福利影院在线看| jizz日本18| 日韩欧美一级片| 国产福利一区二区在线精品| 污视频网站入口| 少妇被躁爽到高潮无码文| 穿情趣内衣被c到高潮视频| 日本高清不卡一区二区三区视频| 日韩av免费一区| 黄色免费视频大全| 国产二级片在线观看| 免费观看v片在线观看| 思99热精品久久只有精品| 在线日韩日本国产亚洲| 国产精品美女久久久久久2018| 欧美午夜精品一区二区三区电影| 日本精品久久久久久| 成人看片毛片免费播放器| 日韩欧美a级片| 一本大道伊人av久久综合| 日韩亚洲欧美一区二区| 91成人在线免费视频| а√天堂中文在线资源8| 天天干天天操天天做| 国产大片一区二区三区| 男女激情视频网站| 国产精品久久二区| 久久在线中文字幕| 国产精品呻吟| 久久综合av| 久久久久国产精品一区| 午夜在线a亚洲v天堂网2018| 六月丁香综合网| 日本网站在线免费观看视频| 中文字幕人妻丝袜乱一区三区| 黄色国产在线视频| 91黄色免费观看| 日本三区在线观看| 日韩欧美一级二级三级| 天天影院图片亚洲| 国产91精品欧美| 国产精品入口66mio| 在线观看欧美理论a影院| 亚洲欧美自偷自拍| 亚洲视频一二三四| 日韩亚洲成人av在线| 日韩一区三区| www.狠狠操| 国产卡一卡二卡三| 精品一区国产| 在线视频中文字幕| 丰满岳乱妇一区二区三区| 亚洲美女15p| 久久久久久有精品国产| 91久久国产视频| www.avtt| 手机看片1024日韩| 丝袜美腿亚洲一区二区图片| 伊人天天综合| 中文精品视频一区二区在线观看| 国产精品1234区| 最新eeuss影院在线观看| 成人欧美精品一区二区| 欧美日韩日本网| 在这里有精品| 一区二区三区福利视频| 激情校园亚洲图片| 亚洲欧美在线磁力| jizz性欧美2| 91在线观看入口| 加勒比海盗1在线观看免费国语版| 在线精品视频一区二区| 国产亚洲午夜高清国产拍精品| 日本午夜精品久久久| 2019av中文字幕| 国产精品久久久久久久久免费相片| 丝袜美腿综合| 国产日韩欧美一二三区| 亚洲人成自拍网站| 久久99青青精品免费观看| 成人在线综合网站| 夜夜春亚洲嫩草影视日日摸夜夜添夜| 在线观看免费黄色网址| 久久久久狠狠高潮亚洲精品| 无码国产精品一区二区高潮| 欧美多人爱爱视频网站| jk破处视频在线| 精品综合久久88少妇激情| 北条麻妃在线视频观看| 亚洲视频综合在线| 婷婷在线视频观看| 激情文学亚洲色图| 欧美一区二区三区粗大| 最新97超碰在线| 欧美综合激情| 先锋影音资源综合在线播放av| 成年人在线免费看片| 男人的j进女人的j一区| 国产精品99免费看| 久久精品视频免费| 国产精品久久亚洲7777| 18视频免费网址在线观看| 男人天堂电影网| 国产精品高潮呻吟av| 韩国视频理论视频久久| 在线视频欧美性高潮| 日韩午夜三级在线| 免费av中文字幕| 丰满熟女人妻一区二区三| 人妖粗暴刺激videos呻吟| 精品国产91| 久久午夜鲁丝片| 国产sm在线观看| 黄色片免费在线观看视频| 外国成人免费视频| 日本精品一区二区三区视频| 强迫凌虐淫辱の牝奴在线观看| 中文字幕不卡三区| 国产91久久婷婷一区二区| 国产精品情趣视频| 中文字幕日本精品| 国产福利精品一区二区| 久久国产亚洲精品| 四虎免费播放| 国精产品一区一区三区有限在线| 欧美自拍电影| 午夜影院免费在线观看| 亚洲AV无码精品色毛片浪潮| 欧美日韩一级黄色片| 日韩精品欧美国产精品忘忧草| 欧美喷水视频| 免费在线观看h| 欧美一区二区日韩一区二区| 国产高清免费在线播放| 欧美大片91| 亚洲国产精品一区二区第一页| 中文字幕av免费在线观看| 国产在线视频三区| 日韩在线视频第一页| 俺去啦在线观看| 国产女人18毛片水18精| 精品一区二区电影| 黄色小视频免费在线观看| 久久亚裔精品欧美| 黄色小视频免费网站| 韩国欧美一区| 日韩欧美一级二级三级久久久| 好吊色视频在线观看| 亚洲最大福利视频| 亚洲免费视频二区| 国产一级免费大片| 欧美一区二区在线| 国产99久久| 欧美日韩国产精品一区二区| 欧美一级精品片在线看| 欧洲成人av| 一区二区三区免费网站| 国产一区不卡精品| 高清国语自产拍免费视频国产| 欧美日韩亚洲国内综合网俺| 高清不卡在线观看av| 日本免费中文字幕在线| 国产一区二区三区av在线| 精品一区二区观看| 永久亚洲成a人片777777| 欧美激情图片小说| 黄色aaa级片| 精品人妻一区二区三| 亚洲一二三av| 青青草视频播放| 岛国av免费观看| 大胆日韩av| 欧美 激情 在线| 91香蕉视频黄| 国产精品久久久久久久久久直播| 一区二区精品在线观看| 日本18视频网站| 国产欧美精品一区二区色综合朱莉| 欧美精品做受xxx性少妇| 美日韩精品免费观看视频| 日韩黄色片网站| 色777狠狠狠综合伊人| 成人在线免费视频观看| 亚洲欧美国产日韩综合| 久激情内射婷内射蜜桃| 日本免费一区二区视频| av无码一区二区三区| 亚洲人性生活视频| 日本午夜大片a在线观看| 91精品视频一区| 久久精品国产av一区二区三区| 日韩不卡在线观看日韩不卡视频| 天天干天天操天天拍| 久久久亚洲国产| 日韩精品一区二区三区老鸭窝| 黄色网页网址在线免费| 国产一区二区三区成人欧美日韩在线观看| 亚洲精品视频在线观看免费| 天堂精品一区二区三区| 国产高清精品一区二区三区| 亚洲图色中文字幕| 国内偷自视频区视频综合| 国产草草影院ccyycom| 狠狠综合久久av一区二区老牛| www.xxx黄| 99re8这里有精品热视频免费| 国模一区二区三区私拍视频| 亚洲成人黄色在线观看| 亚洲一区二区三区日本久久九| 少妇的滋味中文字幕bd| 日韩精品一区二区三区swag| 国产成人一区三区| 久久精品日产第一区二区三区精品版| 狂野欧美性猛交xxxx巴西| 精品视频在线一区二区| 久久久久国产一区二区三区四区| 国产一区二区三区视频在线播放| 精品久久久一区| 精品一区二区三区免费站| 色综合咪咪久久网| 亚洲一区二区欧美| 波多野结衣亚洲| 农村妇女精品一区二区| 综合136福利视频在线| 欧美精品一区在线发布| 欧美亚洲日本| 国产交换配乱淫视频免费| 大型av综合网站| 国产农村妇女aaaaa视频| 亚洲啪啪av| 国产在线播放你懂的| 300部国产真实乱| 国产中文字幕一区二区| 欧美老年两性高潮| 成人免费av资源| 久久亚洲国产精品一区二区| 国产精品一级黄| 国产精品久久免费| 特黄一区二区三区| 日韩精品不卡一区二区| 久久一级大片| 日韩av福利在线观看| 国产精品亚洲不卡a| 国产乱码精品一区二区三区四区| av先锋影音少妇| 成人做爰免费视频免费看| 国产aⅴ爽av久久久久成人| 美女网站视频色| 欧美亚洲综合在线|