成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁(yè) > 知識(shí)庫(kù) > 基于PyTorch實(shí)現(xiàn)一個(gè)簡(jiǎn)單的CNN圖像分類(lèi)器

基于PyTorch實(shí)現(xiàn)一個(gè)簡(jiǎn)單的CNN圖像分類(lèi)器

熱門(mén)標(biāo)簽:地圖標(biāo)注面積 小蘇云呼電話(huà)機(jī)器人 佛山400電話(huà)辦理 朝陽(yáng)手機(jī)外呼系統(tǒng) 儋州電話(huà)機(jī)器人 北京電銷(xiāo)外呼系統(tǒng)加盟 所得系統(tǒng)電梯怎樣主板設(shè)置外呼 北瀚ai電銷(xiāo)機(jī)器人官網(wǎng)手機(jī)版 市場(chǎng)上的電銷(xiāo)機(jī)器人

pytorch中文網(wǎng):https://www.pytorchtutorial.com/
pytorch官方文檔:https://pytorch.org/docs/stable/index.html

一. 加載數(shù)據(jù)

Pytorch的數(shù)據(jù)加載一般是用torch.utils.data.Dataset與torch.utils.data.Dataloader兩個(gè)類(lèi)聯(lián)合進(jìn)行。我們需要繼承Dataset來(lái)定義自己的數(shù)據(jù)集類(lèi),然后在訓(xùn)練時(shí)用Dataloader加載自定義的數(shù)據(jù)集類(lèi)。

1. 繼承Dataset類(lèi)并重寫(xiě)關(guān)鍵方法

pytorch的dataset類(lèi)有兩種:Map-style datasets和Iterable-style datasets。前者是我們常用的結(jié)構(gòu),而后者是當(dāng)數(shù)據(jù)集難以(或不可能)進(jìn)行隨機(jī)讀取時(shí)使用。在這里我們實(shí)現(xiàn)Map-style dataset。
繼承torch.utils.data.Dataset后,需要重寫(xiě)的方法有:__len__與__getitem__方法,其中__len__方法需要返回所有數(shù)據(jù)的數(shù)量,而__getitem__則是要依照給出的數(shù)據(jù)索引獲取對(duì)應(yīng)的tensor類(lèi)型的Sample,除了這兩個(gè)方法以外,一般還需要實(shí)現(xiàn)__init__方法來(lái)初始化一些變量。話(huà)不多說(shuō),直接上代碼。

'''
包括了各種數(shù)據(jù)集的讀取處理,以及圖像相關(guān)處理方法
'''
from torch.utils.data import Dataset
import torch
import os
import cv2
from Config import mycfg
import random
import numpy as np


class ImageClassifyDataset(Dataset):
    def __init__(self, imagedir, labelfile, classify_num, train=True):
    	'''
    	這里進(jìn)行一些初始化操作。
    	'''
        self.imagedir = imagedir
        self.labelfile = labelfile
        self.classify_num = classify_num
        self.img_list = []
        # 讀取標(biāo)簽
        with open(self.labelfile, 'r') as fp:
            lines = fp.readlines()
            for line in lines:
                filepath = os.path.join(self.imagedir, line.split(";")[0].replace('\\', '/'))
                label = line.split(";")[1].strip('\n')
                self.img_list.append((filepath, label))
        if not train:
            self.img_list = random.sample(self.img_list, 50)

    def __len__(self):
        return len(self.img_list)
        
    def __getitem__(self, item):
	    '''
	    這個(gè)函數(shù)是關(guān)鍵,通過(guò)item(索引)來(lái)取數(shù)據(jù)集中的數(shù)據(jù),
	    一般來(lái)說(shuō)在這里才將圖像數(shù)據(jù)加載入內(nèi)存,之前存的是圖像的保存路徑
	    '''
        _int_label = int(self.img_list[item][1])	# label直接用0,1,2,3,4...表示不同類(lèi)別
        label = torch.tensor(_int_label,dtype=torch.long)
        img = self.ProcessImgResize(self.img_list[item][0])
        return img, label

    def ProcessImgResize(self, filename):
    	'''
    	對(duì)圖像進(jìn)行一些預(yù)處理
    	'''
        _img = cv2.imread(filename)
        _img = cv2.resize(_img, (mycfg.IMG_WIDTH, mycfg.IMG_HEIGHT), interpolation=cv2.INTER_CUBIC)
        _img = _img.transpose((2, 0, 1))
        _img = _img / 255
        _img = torch.from_numpy(_img)
        _img = _img.to(torch.float32)
        return _img

有一些的數(shù)據(jù)集類(lèi)一般還會(huì)傳入一個(gè)transforms函數(shù)來(lái)構(gòu)造一個(gè)圖像預(yù)處理序列,傳入transforms函數(shù)的一個(gè)好處是作為參數(shù)傳入的話(huà)可以對(duì)一些非本地?cái)?shù)據(jù)集中的數(shù)據(jù)進(jìn)行操作(比如直接通過(guò)torchvision獲取的一些預(yù)存數(shù)據(jù)集CIFAR10等等),除此之外就是torchvision.transforms里面有一些預(yù)定義的圖像操作函數(shù),可以直接像拼積木一樣拼成一個(gè)圖像處理序列,很方便。我這里因?yàn)槭怯梦易约合螺d到本地的數(shù)據(jù)集,而且比較簡(jiǎn)單就直接用自己的函數(shù)來(lái)操作了。

2. 使用Dataloader加載數(shù)據(jù)

實(shí)例化自定義的數(shù)據(jù)集類(lèi)ImageClassifyDataset后,將其傳給DataLoader作為參數(shù),得到一個(gè)可遍歷的數(shù)據(jù)加載器??梢酝ㄟ^(guò)參數(shù)batch_size控制批處理大小,shuffle控制是否亂序讀取,num_workers控制用于讀取數(shù)據(jù)的線程數(shù)量。

from torch.utils.data import DataLoader
from MyDataset import ImageClassifyDataset

dataset = ImageClassifyDataset(imagedir, labelfile, 10)
dataloader = DataLoader(dataset, batch_size=5, shuffle=True,num_workers=5)
for index, data in enumerate(dataloader):
	print(index)	# batch索引
	print(data)		# 一個(gè)batch的{img,label}

二. 模型設(shè)計(jì)

在這里只討論深度學(xué)習(xí)模型的設(shè)計(jì),pytorch中的網(wǎng)絡(luò)結(jié)構(gòu)是一層一層疊出來(lái)的,pytorch中預(yù)定義了許多可以通過(guò)參數(shù)控制的網(wǎng)絡(luò)層結(jié)構(gòu),比如Linear、CNN、RNN、Transformer等等具體可以查閱官方文檔中的torch.nn部分。
設(shè)計(jì)自己的模型結(jié)構(gòu)需要繼承torch.nn.Module這個(gè)類(lèi),然后實(shí)現(xiàn)其中的forward方法,一般在__init__中設(shè)定好網(wǎng)絡(luò)模型的一些組件,然后在forward方法中依據(jù)輸入輸出順序拼裝組件。

'''
包括了各種模型、自定義的loss計(jì)算方法、optimizer
'''
import torch.nn as nn


class Simple_CNN(nn.Module):
    def __init__(self, class_num):
        super(Simple_CNN, self).__init__()
        self.class_num = class_num
        self.conv1 = nn.Sequential(
            nn.Conv2d(		# input: 3,400,600
                in_channels=3,
                out_channels=8,
                kernel_size=5,
                stride=1,
                padding=2
            ),
            nn.Conv2d(
                in_channels=8,
                out_channels=16,
                kernel_size=5,
                stride=1,
                padding=2
            ),
            nn.AvgPool2d(2),  # 16,400,600 --> 16,200,300
            nn.BatchNorm2d(16),
            nn.LeakyReLU(),
            nn.Conv2d(
                in_channels=16,
                out_channels=16,
                kernel_size=5,
                stride=1,
                padding=2
            ),
            nn.Conv2d(
                in_channels=16,
                out_channels=8,
                kernel_size=5,
                stride=1,
                padding=2
            ),
            nn.AvgPool2d(2),  # 8,200,300 --> 8,100,150
            nn.BatchNorm2d(8),
            nn.LeakyReLU(),
            nn.Conv2d(
                in_channels=8,
                out_channels=8,
                kernel_size=3,
                stride=1,
                padding=1
            ),
            nn.Conv2d(
                in_channels=8,
                out_channels=1,
                kernel_size=3,
                stride=1,
                padding=1
            ),
            nn.AvgPool2d(2),  # 1,100,150 --> 1,50,75
            nn.BatchNorm2d(1),
            nn.LeakyReLU()
        )
        self.line = nn.Sequential(
            nn.Linear(
                in_features=50 * 75,
                out_features=self.class_num
            ),
            nn.Softmax()
        )

    def forward(self, x):
        x = self.conv1(x)
        x = x.view(-1, 50 * 75)
        y = self.line(x)
        return y

上面我定義的模型中包括卷積組件conv1和全連接組件line,卷積組件中包括了一些卷積層,一般是按照{(diào)卷積層、池化層、激活函數(shù)}的順序拼接,其中我還在激活函數(shù)之前添加了一個(gè)BatchNorm2d層對(duì)上層的輸出進(jìn)行正則化以免傳入激活函數(shù)的值過(guò)小(梯度消失)或過(guò)大(梯度爆炸)。
在拼接組件時(shí),由于我全連接層的輸入是一個(gè)一維向量,所以需要將卷積組件中最后的50 × 75 50\times 7550×75大小的矩陣展平成一維的再傳入全連接層(x.view(-1,50*75))

三. 訓(xùn)練

實(shí)例化模型后,網(wǎng)絡(luò)模型的訓(xùn)練需要定義損失函數(shù)與優(yōu)化器,損失函數(shù)定義了網(wǎng)絡(luò)輸出與標(biāo)簽的差距,依據(jù)不同的任務(wù)需要定義不同的合適的損失函數(shù),而優(yōu)化器則定義了神經(jīng)網(wǎng)絡(luò)中的參數(shù)如何基于損失來(lái)更新,目前神經(jīng)網(wǎng)絡(luò)最常用的優(yōu)化器就是SGD(隨機(jī)梯度下降算法) 及其變種。
在我這個(gè)簡(jiǎn)單的分類(lèi)器模型中,直接用的多分類(lèi)任務(wù)最常用的損失函數(shù)CrossEntropyLoss()以及優(yōu)化器SGD。

self.cnnmodel = Simple_CNN(mycfg.CLASS_NUM)
self.criterion = nn.CrossEntropyLoss()	# 交叉熵,標(biāo)簽應(yīng)該是0,1,2,3...的形式而不是獨(dú)熱的
self.optimizer = optim.SGD(self.cnnmodel.parameters(), lr=mycfg.LEARNING_RATE, momentum=0.9)

訓(xùn)練過(guò)程其實(shí)很簡(jiǎn)單,使用dataloader依照batch讀出數(shù)據(jù)后,將input放入網(wǎng)絡(luò)模型中計(jì)算得到網(wǎng)絡(luò)的輸出,然后基于標(biāo)簽通過(guò)損失函數(shù)計(jì)算Loss,并將Loss反向傳播回神經(jīng)網(wǎng)絡(luò)(在此之前需要清理上一次循環(huán)時(shí)的梯度),最后通過(guò)優(yōu)化器更新權(quán)重。訓(xùn)練部分代碼如下:

for each_epoch in range(mycfg.MAX_EPOCH):
            running_loss = 0.0
            self.cnnmodel.train()
            for index, data in enumerate(self.dataloader):
                inputs, labels = data
                outputs = self.cnnmodel(inputs)
                loss = self.criterion(outputs, labels)

                self.optimizer.zero_grad()	# 清理上一次循環(huán)的梯度
                loss.backward()	# 反向傳播
                self.optimizer.step()	# 更新參數(shù)
                running_loss += loss.item()
                if index % 200 == 199:
                    print("[{}] loss: {:.4f}".format(each_epoch, running_loss/200))
                    running_loss = 0.0
            # 保存每一輪的模型
            model_name = 'classify-{}-{}.pth'.format(each_epoch,round(all_loss/all_index,3))
            torch.save(self.cnnmodel,model_name)	# 保存全部模型

四. 測(cè)試

測(cè)試和訓(xùn)練的步驟差不多,也就是讀取模型后通過(guò)dataloader獲取數(shù)據(jù)然后將其輸入網(wǎng)絡(luò)獲得輸出,但是不需要進(jìn)行反向傳播的等操作了。比較值得注意的可能就是準(zhǔn)確率計(jì)算方面有一些小技巧。

acc = 0.0
count = 0
self.cnnmodel = torch.load('mymodel.pth')
self.cnnmodel.eval()
for index, data in enumerate(dataloader_eval):
	inputs, labels = data   # 5,3,400,600  5,10
	count += len(labels)
	outputs = cnnmodel(inputs)
	_,predict = torch.max(outputs, 1)
	acc += (labels == predict).sum().item()
print("[{}] accurancy: {:.4f}".format(each_epoch, acc / count))

我這里采用的是保存全部模型并加載全部模型的方法,這種方法的好處是在使用模型時(shí)可以完全將其看作一個(gè)黑盒,但是在模型比較大時(shí)這種方法會(huì)很費(fèi)事。此時(shí)可以采用只保存參數(shù)不保存網(wǎng)絡(luò)結(jié)構(gòu)的方法,在每一次使用模型時(shí)需要讀取參數(shù)賦值給已經(jīng)實(shí)例化的模型:

torch.save(cnnmodel.state_dict(), "my_resnet.pth")
cnnmodel = Simple_CNN()
cnnmodel.load_state_dict(torch.load("my_resnet.pth"))

結(jié)語(yǔ)

至此整個(gè)流程就說(shuō)完了,是一個(gè)小白級(jí)的圖像分類(lèi)任務(wù)流程,因?yàn)榍岸螘r(shí)間一直在做android方面的事,所以有點(diǎn)生疏了,就寫(xiě)了這篇博客記錄一下,之后應(yīng)該還會(huì)寫(xiě)一下seq2seq以及image caption任務(wù)方面的模型構(gòu)造與訓(xùn)練過(guò)程,完整代碼之后也會(huì)統(tǒng)一放到github上給大家做參考。

以上就是基于PyTorch實(shí)現(xiàn)一個(gè)簡(jiǎn)單的CNN圖像分類(lèi)器的詳細(xì)內(nèi)容,更多關(guān)于PyTorch實(shí)現(xiàn)CNN圖像分類(lèi)器的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!

您可能感興趣的文章:
  • pytorch實(shí)現(xiàn)textCNN的具體操作
  • Pytorch mask-rcnn 實(shí)現(xiàn)細(xì)節(jié)分享
  • Pytorch 使用CNN圖像分類(lèi)的實(shí)現(xiàn)
  • pytorch實(shí)現(xiàn)CNN卷積神經(jīng)網(wǎng)絡(luò)
  • 用Pytorch訓(xùn)練CNN(數(shù)據(jù)集MNIST,使用GPU的方法)
  • PyTorch CNN實(shí)戰(zhàn)之MNIST手寫(xiě)數(shù)字識(shí)別示例
  • PyTorch上實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)CNN的方法
  • CNN的Pytorch實(shí)現(xiàn)(LeNet)

標(biāo)簽:江蘇 金融催收 商丘 龍巖 酒泉 定西 云南 寧夏

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《基于PyTorch實(shí)現(xiàn)一個(gè)簡(jiǎn)單的CNN圖像分類(lèi)器》,本文關(guān)鍵詞  基于,PyTorch,實(shí)現(xiàn),一個(gè),簡(jiǎn)單,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《基于PyTorch實(shí)現(xiàn)一個(gè)簡(jiǎn)單的CNN圖像分類(lèi)器》相關(guān)的同類(lèi)信息!
  • 本頁(yè)收集關(guān)于基于PyTorch實(shí)現(xiàn)一個(gè)簡(jiǎn)單的CNN圖像分類(lèi)器的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    日韩电影天堂视频一区二区| 四虎成人精品永久免费av九九| 国产91丝袜在线播放| 福利视频1000| 久久精品国产理论片免费| 国产污视频在线看| 99久久久国产精品| 男男视频在线观看网站| 国产又粗又猛又黄| 久久综合久久综合久久| 一区二区三区四区在线观看国产日韩| 久久免费看毛片| 免费观看污网站| 国产呻吟对白刺激无套视频在线| 国产精品久久久| 你懂的网址一区二区三区| 亚洲欧美在线观看视频| 色先锋久久影院av| 在线成人免费观看| 日本特黄在线观看| 99久久婷婷国产精品综合| 91av久久| 色综合久久天天| 中文字幕黄色大片| 日韩欧美三级电影| 日韩一区二区精品在线观看| 日本高清在线观看| 综合 欧美 亚洲日本| 黄色一级视频在线观看| 濑亚美莉vs黑人在线观看| 国产精品国产精品国产专区| 波多野结衣乳巨码无在线观看| 亚洲videos| 好吊色欧美一区二区三区| 高清不卡在线观看| 精品卡1卡2卡三卡免费网站| 黄网视频午夜青春| 国产寡妇亲子伦一区二区| www.国产91| 91在线小视频| 成人性生交大片免费观看嘿嘿视频| 97人人爽人人澡人人精品| 丁香天五香天堂综合| 亚洲乱码国产乱码精品天美传媒| 国语对白做受69| 日本一区二区综合亚洲| 超碰在线97国产| 亚洲欧美日韩久久| 亚洲高清资源| 另类在线视频| 中文字幕精品一区二区三区在线| 欧美丝袜一区| 日本欧美国产| 嫩草影院网站在线| 99在线欧洲视频| 日本黄色片免费观看| 国产精品视频在线播放| h视频免费高清在线观看| 在线观看欧美精品| 国产91av在线播放| 91精品国产乱码久久久竹菊| 中文字幕免费在线观看| 亚洲成人基地| 日本不卡免费播放| 成人免费91在线看| 亚洲二区在线视频| 国产自产在线视频| 亚洲一区第一页| 久草手机视频在线观看| 国外av在线| 欧美另类高清视频在线| 少妇户外露出[11p]| 中文字幕亚洲乱码熟女1区2区| 一区二区三区不卡视频| 成年人免费大片| 在线观看h视频| 欧美一区二区三区影院| 亚洲免费影视| 91久久久久久国产精品| 天天色天天爽| 男女污污视频在线观看| 性色av无码久久一区二区三区| 99久久自偷自偷国产精品不卡| 欧美高清视频在线播放| 特级西西人体wwwww| 最近免费中文字幕大全免费版视频| 成人有码视频在线播放| 中文字幕亚洲无线码在线一区| 疯狂欧美牲乱大交777| 丝袜诱惑制服诱惑色一区在线观看| 日韩在线视频一区| 亚洲成人精品女人久久久| 欧美一级大片免费看| 波多野结衣一本| 久久影视精品| 成年人视频在线免费| 国产乱码精品一区二三区蜜臂| 免费av观看网站| 六月丁香在线视频| av电影资源| 亚洲av永久纯肉无码精品动漫| 亚洲制服欧美另类| 日韩视频在线观看免费视频| 国产免费拔擦拔擦8x高清在线人| 97香蕉碰碰人妻国产欧美| 日本电影一区二区三区| 国产91色蝌蚪视频| 国产精品国产三级国产aⅴ原创| h片在线免费| 亚洲在线观看视频| 啊啊啊一区二区| 日本xxxxwww| 中文字幕在线2021| 日韩av在线中文| 91玉足脚交嫩脚丫在线播放| jizz在线观看视频| 天堂网在线观看在线观看精品| 国产精品偷伦一区二区| 欧美成人三级伦在线观看| 激情网站在线| 亚洲日韩中文字幕一区| 小鲜肉gaygays免费动漫| 亚洲国产精品av| 日韩一级在线免费观看| 美女视频久久久| julia一区二区中文久久94| 国产欧美亚洲精品a| 欧美久久久久久久久久久久| 天堂网在线播放| 午夜激情视频网| 婷婷久久伊人| 天堂久久精品忘忧草| 日韩久久精品一区二区三区| 五月天激情综合网| 欧美videossex另类| 亚洲欧美国产精品久久久久久久| 一区二区亚洲| 亚洲无码精品在线观看| 久久亚洲影视婷婷| frxxee中国xxx麻豆hd| 丝袜美腿一区| 中文字幕在线免费播放| 黄色一区二区视频| 男人j桶女人的网站| 老司机午夜激情| 7777久久亚洲中文字幕| 中文字幕欧美日韩va免费视频| 日本视频中文字幕一区二区三区| 亚洲最大色网站| 91丨九色丨蝌蚪丨老板| 狠狠色一日本高清视频| 强乱中文字幕av一区乱码| 在线观看av网| h在线观看免费| 亚洲同性同志一二三专区| 5月丁香婷婷综合| 色橹橹欧美在线观看视频高清| 久久久亚洲精品视频| 大地资源高清播放在线观看| 性欧美大战久久久久久久| 日本中文字幕精品—区二区| a级黄色免费视频| 日韩精品在线视频免费观看| 亚洲欧美一区二区久久| 亚洲成人福利在线| 欧洲性视频在线播放| 成年网址网站在线观看| 欧美18hd| 婷婷国产精品| 女人在下体塞跳蛋在线观看| а√天堂中文在线资源bt在线| 91香蕉国产在线观看| 日本一区二区在线视频观看| 欧洲杯足球赛直播| 亚洲国产www| 粉嫩小泬无遮挡久久久久久| 精品国产一区二区三区四区阿崩| 无码av天堂一区二区三区| 精品成人在线视频| 亚洲视频精选在线| 四虎最新网站| 国产色综合网| 91九色丨porny丨极品女神| 中文字幕亚洲情99在线| 国产免费高清视频| 日韩字幕在线观看| 法国伦理少妇愉情| 亚洲国产视频在线观看| 99re久久精品国产| 日一区二区三区| 久久久久久不卡| 日本视频免费观看| 高清国产mv在线观看| 久久夜色精品国产噜噜亚洲av| 一区二区三区四区欧美日韩| 日韩 国产 一区| 国产精品久久久久桃色tv| 国产精品三级美女白浆呻吟| 亚洲成人免费在线视频| 国产精品传媒在线观看| 亚洲精品成人三区| 免费h视频在线观看| h视频在线免费观看| 国产中文字幕在线观看| 九九视频免费在线观看| 欧美日本一区二区| 国产高清不卡二三区| 欧美日韩视频网站| 四虎影视成人永久免费观看视频| 最近2018中文字幕免费在线视频| 奇米777国产一区国产二区| 欧美黑人猛交| 国产精品久久久久久久久久久久久| 天堂av免费在线观看| 五月天电影免费在线观看一区| 在线观看免费电影| 国内精品卡一卡二卡三| 天天干天天干天天干天天| 91精品国产色综合久久ai换脸| 久久99热这里只有精品国产| 国模精品一区二区三区色天香| 久久精品人人做人人爽电影蜜月| 情趣视频网站在线免费观看| 污的网站在线观看| 精品视频一区二区三区四区| 一个色综合网站| 国产精品探花一区二区在线观看| 91精品免费久久久久久久久| 中文字幕在线观看播放| 91福利国产精品| 韩国一区二区三区美女美女秀| 人妻精品无码一区二区| 成人影院免费观看| 德国极品另类| 91日韩视频在线观看| www.国产精品一二区| xfplay资源站夜色先锋| 三上悠亚在线观看| 无码 制服 丝袜 国产 另类| 日韩毛片高清在线播放| 久操久操久操| 日本男人操女人| 国产精品自拍av| 黄色激情视频网址| 黑人精品欧美一区二区蜜桃| 久久久一区二区三区| 视频一区二区三区国产| 狠狠色噜噜狠狠狠| 国产精品久久久久9999小说| 欧美亚洲动漫精品| 久久一区二区三区喷水| a视频在线观看免费| 欧美成人精品一区二区三区| 黄网在线观看视频| 成人国产亚洲欧美成人综合网| 97精品国产| 国产免费黄视频| 免费偷拍视频网站| 国产精品免费视频一区二区三区| 69xxxx视频| 在线日韩中文字幕| 久久久久久9| 亚洲欧美日韩久久久久久| 日本午夜在线| 5278欧美一区二区三区| 国产精品亚洲第一区在线暖暖韩国| av天堂一区二区| 91 中文字幕| 最新中文乱码字字幕在线| 亚洲一二三四五六区| 一区二区三区在线视频观看58| 国产尤物久久久| 中文xxx视频| 久久久久久久久久久久久久久久久久久久| 久草在线中文888| 美女视频在线免费| 久久精品国产久精国产爱| 国产福利片在线观看| 在线综合亚洲欧美在线视频| 国产麻豆精品theporn| 麻豆av电影在线观看| 2024最新电影免费在线观看| 疯狂欧洲av久久成人av电影| 久草久草久草| 成人福利视频在| 波多野结衣视频一区二区| 欧美性大战xxxxx久久久| 欧美a级片视频| 久久精品这里都是精品| 国产精品一区二区在线看| 大伊香蕉精品在线品播放| 99国产欧美久久久精品| 美女的诞生在线观看高清免费完整版中文| 欧美三级视频在线播放| 四虎永久免费影院| 99精品视频在线播放免费| 国产精品免费网站在线观看| 玖玖视频精品| 欧美日韩1区| 色婷婷综合激情| 51国产偷自视频区视频| 中文字幕第20页| 黄色av网站免费| 精品久久久久久久久久久久久久久久久久| 少妇人妻丰满做爰xxx| 久久精品久久久久久国产 免费| 日本黄色片一级片| 国产无遮挡在线视频免费观看| 在线免费看h| 国产精品久久久91| 国产精品sss在线观看av| 精品亚洲国产成av人片传媒| 美女久久久久久久久久久| 免费在线视频一区二区| 国产劲爆久久| 亚洲一二三专区| 加勒比色老久久爱综合网| 四季av一区二区| 亚洲精品白虎| 久久99精品久久久久子伦| 久久综合伊人77777| 亚洲国产免费av| 久久久精品人妻无码专区| 91精品国产手机| 成人动漫中文字幕| 日日摸天天添天天添破| 国产日韩综合av| 国产成人麻豆免费观看|