成人性生交大片免费看视频r_亚洲综合极品香蕉久久网_在线视频免费观看一区_亚洲精品亚洲人成人网在线播放_国产精品毛片av_久久久久国产精品www_亚洲国产一区二区三区在线播_日韩一区二区三区四区区区_亚洲精品国产无套在线观_国产免费www

主頁(yè) > 知識(shí)庫(kù) > pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作

pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作

熱門(mén)標(biāo)簽:唐山智能外呼系統(tǒng)一般多少錢(qián) 海南400電話如何申請(qǐng) 哈爾濱ai外呼系統(tǒng)定制 激戰(zhàn)2地圖標(biāo)注 騰訊外呼線路 白銀外呼系統(tǒng) 陜西金融外呼系統(tǒng) 廣告地圖標(biāo)注app 公司電話機(jī)器人

optim 的基本使用

for do:

1. 計(jì)算loss

2. 清空梯度

3. 反傳梯度

4. 更新參數(shù)

optim的完整流程

cifiron = nn.MSELoss()
optimiter = torch.optim.SGD(net.parameters(),lr=0.01,momentum=0.9)
for i in range(iters):
    out = net(inputs)
    loss = cifiron(out,label)
    optimiter.zero_grad()  # 清空之前保留的梯度信息
    loss.backward()   # 將mini_batch 的loss 信息反傳回去
 optimiter.step()  # 根據(jù) optim參數(shù) 和 梯度 更新參數(shù)  w.data -= w.grad*lr

網(wǎng)絡(luò)參數(shù) 默認(rèn)使用統(tǒng)一的 優(yōu)化器參數(shù)

如下設(shè)置 網(wǎng)絡(luò)全局參數(shù) 使用統(tǒng)一的優(yōu)化器參數(shù)

optimiter = torch.optim.Adam(net.parameters(),lr=0.01,momentum=0.9)

如下設(shè)置將optimizer的可更新參數(shù)分為不同的三組,每組使用不同的策略

   optimizer = torch.optim.SGD([
            {'params': other_params}, 
            {'params': first_params, 'lr': 0.01*args.learning_rate},
            {'params': second_params, 'weight_decay': args.weight_decay}],
            lr=args.learning_rate,
            momentum=args.momentum,
    )

我們追溯一下構(gòu)造Optim的過(guò)程

為了更好的看整個(gè)過(guò)程,去掉了很多 條件判斷 語(yǔ)句,如 >0 0

# 首先是 子類Adam 的構(gòu)造函數(shù)
class Adam(Optimizer):
    def __init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,
                 weight_decay=0, amsgrad=False):
        defaults = dict(lr=lr, betas=betas, eps=eps,
                        weight_decay=weight_decay, amsgrad=amsgrad)
        '''
        構(gòu)造了 參數(shù)params,可以有兩種傳入格式,分別對(duì)應(yīng) 
        1. 全局參數(shù) net.parameters() 
        2. 不同參數(shù)組 [{'params': other_params}, 
                      {'params': first_params, 'lr': 0.1*lr}]
        和 全局> 的默認(rèn)參數(shù)字典defaults
        '''
        # 然后調(diào)用 父類Optimizer 的構(gòu)造函數(shù)
        super(Adam, self).__init__(params, defaults)
        
# 看一下 Optim類的構(gòu)造函數(shù)  只有兩個(gè)輸入 params 和 defaults
class Optimizer(object):
    def __init__(self, params, defaults):
        torch._C._log_api_usage_once("python.optimizer")
        self.defaults = defaults
		
        self.state = defaultdict(dict)
        self.param_groups = [] # 自身構(gòu)造的參數(shù)組,每個(gè)組使用一套參數(shù)
		
        param_groups = list(params)
        if len(param_groups) == 0:
            raise ValueError("optimizer got an empty parameter list")
        # 如果傳入的net.parameters(),將其轉(zhuǎn)換為 字典
        if not isinstance(param_groups[0], dict):
            param_groups = [{'params': param_groups}]
		
        for param_group in param_groups:
        #add_param_group 這個(gè)函數(shù),主要是處理一下每個(gè)參數(shù)組其它屬性參數(shù)(lr,eps)
            self.add_param_group(param_group)
	def add_param_group(self, param_group):
        # 如果當(dāng)前 參數(shù)組中 不存在默認(rèn)參數(shù)的設(shè)置,則使用全局參數(shù)屬性進(jìn)行覆蓋
        '''
        [{'params': other_params}, 
         {'params': first_params, 'lr': 0.1*lr}]
         如第一個(gè)參數(shù)組 只提供了參數(shù)列表,沒(méi)有其它的參數(shù)屬性,則使用全局屬性覆蓋,第二個(gè)參數(shù)組 則設(shè)置了自身的lr為全局 (0.1*lr)
        '''
        for name, default in self.defaults.items():
            if default is required and name not in param_group:
                raise ValueError("parameter group didn't specify a value of required optimization parameter " +
                                 name)
            else:
                param_group.setdefault(name, default)
		# 判斷 是否有一個(gè)參數(shù) 出現(xiàn)在不同的參數(shù)組中,否則會(huì)報(bào)錯(cuò)
        param_set = set()
        for group in self.param_groups:
            param_set.update(set(group['params']))
        if not param_set.isdisjoint(set(param_group['params'])):
            raise ValueError("some parameters appear in more than one parameter group")
		# 然后 更新自身的參數(shù)組中
        self.param_groups.append(param_group)

網(wǎng)絡(luò)更新的過(guò)程(Step)

具體實(shí)現(xiàn)

1、我們拿SGD舉例,首先看一下,optim.step 更新函數(shù)的具體操作

2、可見(jiàn),for group in self.param_groups,optim中存在一個(gè)param_groups的東西,其實(shí)它就是我們傳進(jìn)去的param_list,比如我們上面?zhèn)鬟M(jìn)去一個(gè)長(zhǎng)度為3的param_list,那么 len(optimizer.param_groups)==3 , 而每一個(gè) group 又是一個(gè)dict, 其中包含了 每組參數(shù)所需的必要參數(shù) optimizer.param_groups:長(zhǎng)度2的list,optimizer.param_groups[0]:長(zhǎng)度6的字典

3、然后取回每組 所需更新的參數(shù)for p in group['params'] ,根據(jù)設(shè)置 計(jì)算其 正則化 及 動(dòng)量累積,然后更新參數(shù) w.data -= w.grad*lr

def step(self, closure=None):
        loss = None
        if closure is not None:
            loss = closure()
        for group in self.param_groups:
        	# 本組參數(shù)更新所必需的 參數(shù)設(shè)置
            weight_decay = group['weight_decay']
            momentum = group['momentum']
            dampening = group['dampening']
            nesterov = group['nesterov']
            for p in group['params']:  # 本組所有需要更新的參數(shù) params
                if p.grad is None:  # 如果沒(méi)有梯度 則直接下一步
                    continue
                d_p = p.grad.data
                # 正則化 及 動(dòng)量累積 操作
                if weight_decay != 0:
                    d_p.add_(weight_decay, p.data)
                if momentum != 0:
                    param_state = self.state[p]
                    if 'momentum_buffer' not in param_state:
                        buf = param_state['momentum_buffer'] = torch.clone(d_p).detach()
                    else:
                        buf = param_state['momentum_buffer']
                        buf.mul_(momentum).add_(1 - dampening, d_p)
                    if nesterov:
                        d_p = d_p.add(momentum, buf)
                    else:
                        d_p = buf
				# 當(dāng)前組 學(xué)習(xí)參數(shù) 更新  w.data -= w.grad*lr
                p.data.add_(-group['lr'], d_p)
        return loss

如何獲取指定參數(shù)

1、可以使用model.named_parameters() 取回所有參數(shù),然后設(shè)定自己的篩選規(guī)則,將參數(shù)分組

2、取回分組參數(shù)的id map(id, weight_params_list)

3、取回剩余分特殊處置參數(shù)的id other_params = list(filter(lambda p: id(p) not in params_id, all_params))

    all_params = model.parameters()
    weight_params = []
    quant_params = []
    # 根據(jù)自己的篩選規(guī)則  將所有網(wǎng)絡(luò)參數(shù)進(jìn)行分組
    for pname, p in model.named_parameters():
        if any([pname.endswith(k) for k in ['cw', 'dw', 'cx', 'dx', 'lamb']]):
            quant_params += [p]
        elif ('conv' or 'fc' in pname and 'weight' in pname):
            weight_params += [p]    
	# 取回分組參數(shù)的id
    params_id = list(map(id, weight_params)) + list(map(id, quant_params))
    # 取回剩余分特殊處置參數(shù)的id
    other_params = list(filter(lambda p: id(p) not in params_id, all_params))
	# 構(gòu)建不同學(xué)習(xí)參數(shù)的優(yōu)化器
	optimizer = torch.optim.SGD([
            {'params': other_params}, 
            {'params': quant_params, 'lr': 0.1*args.learning_rate},
            {'params': weight_params, 'weight_decay': args.weight_decay}],
            lr=args.learning_rate,
            momentum=args.momentum,
    )

獲取指定層的參數(shù)id

# # 以層為單位,為不同層指定不同的學(xué)習(xí)率
# ## 提取指定層對(duì)象
special_layers = t.nn.ModuleList([net.classifiter[0], net.classifiter[3]])
# ## 獲取指定層參數(shù)id
special_layers_params = list(map(id, special_layers.parameters()))
print(special_layers_params)
# ## 獲取非指定層的參數(shù)id
base_params = filter(lambda p: id(p) not in special_layers_params, net.parameters())
optimizer = t.optim.SGD([{'params': base_params},
                         {'params': special_layers.parameters(), 'lr': 0.01}], lr=0.001)

補(bǔ)充:【pytorch】篩選凍結(jié)部分網(wǎng)絡(luò)層參數(shù)同時(shí)設(shè)置有參數(shù)組的時(shí)候該怎么辦?

在進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練的時(shí)候,常常需要凍結(jié)部分網(wǎng)絡(luò)層的參數(shù),不想讓他們回傳梯度。這個(gè)其實(shí)很簡(jiǎn)單,其他博客里教程很多~

那如果,我想對(duì)不同的參數(shù)設(shè)置不同的學(xué)習(xí)率呢?這個(gè)其他博客也有,設(shè)置參數(shù)組就好啦,優(yōu)化器就可以分別設(shè)置學(xué)習(xí)率了。

那么,如果我同時(shí)想凍結(jié)參數(shù)和設(shè)置不同的學(xué)習(xí)率呢?是不是把兩個(gè)人給合起來(lái)就好了?好的那你試試吧看看行不行。

我最近工作中需要對(duì)two-stream的其中的一只進(jìn)行凍結(jié),并且設(shè)置不同的學(xué)習(xí)率。下面記錄一下我踩的坑。

首先,我們需要篩選所需要的層。我想要把名字里含有特定符號(hào)的層給篩選出來(lái)。在這里我要強(qiáng)烈推薦這個(gè)利用正則表達(dá)式來(lái)進(jìn)行字符串篩選的方式!

import re
str = 'assdffggggg'
word = 'a'
 a = [m.start() for m in re.finditer(word, str)]

這里的a是一個(gè)列表,它里面包含的是word在字符串str中所在的位置,這里自然就是0了。

在進(jìn)行網(wǎng)絡(luò)層參數(shù)凍結(jié)的時(shí)候,網(wǎng)上會(huì)有兩種for循環(huán):

for name, p in net.named_parameters():
for p in net.parameters():

這兩種都行,但是對(duì)于需要對(duì)特定名稱的網(wǎng)絡(luò)層進(jìn)行凍結(jié)的時(shí)候就需要選第一個(gè)啦,因?yàn)槲覀冃枰玫絽?shù)的"name"屬性。

下面就是簡(jiǎn)單的篩選和凍結(jié),和其他教程里面的一樣:

word1 = 'seg'
for name, p in decode_net.named_parameters():
    str = name
    a = [m.start() for m in re.finditer(word1, str)]
    if a: #列表a不為空的話就設(shè)置回傳的標(biāo)識(shí)為False
        p.requires_grad = False
    else:
        p.requires_grad = True
    #if p.requires_grad:#這個(gè)判斷可以打印出需要回傳梯度的層的名稱
        #print(name)

到這里我們就完成了網(wǎng)絡(luò)參數(shù)的凍結(jié)。我真正想要分享的在下面這個(gè)部分??!看了四天的大坑!

凍結(jié)部分層的參數(shù)之后,我們?cè)谑褂脙?yōu)化器的時(shí)候就需要先把不需要回傳梯度的參數(shù)給過(guò)濾掉,如果不過(guò)濾就會(huì)報(bào)錯(cuò),優(yōu)化器就會(huì)抱怨你怎么把不需要優(yōu)化的參數(shù)給放進(jìn)去了balabala的。所以我們加一個(gè):

optimizer = optim.SGD(
            filter(lambda p: p.requires_grad, net.parameters()),  # 記住一定要加上filter(),不然會(huì)報(bào)錯(cuò)
            lr=0.01, weight_decay=1e-5, momentum=0.9)

到這里也沒(méi)有任何的問(wèn)題。但是!我做分割的encode部分是pre-trained的resnet,這部分我的學(xué)習(xí)率不想和我decode的部分一樣??!不然我用pre-trained的有啥用??so,我劃分了一個(gè)參數(shù)組:

base_params_id = list(map(id, net.conv1.parameters())) + list(map(id,net.bn1.parameters()))+\

 list(map(id,net.layer1.parameters())) + list(map(id,net.layer2.parameters())) \

  + list(map(id,net.layer3.parameters())) + list(map(id,net.layer4.parameters()))
new_params = filter(lambda p: id(p) not in base_params_id , net.parameters())
base_params = filter(lambda p: id(p) in base_params_id, net.parameters())

好了,那么這個(gè)時(shí)候,如果我先不考慮過(guò)濾的話,優(yōu)化器的設(shè)置應(yīng)該是這樣的:

optimizerG = optim.SGD([{'params': base_params, 'lr': 1e-4}, 
                        {'params': new_params}], lr = opt.lr, momentum = 0.9, weight_decay=0.0005)

那么,按照百度出來(lái)的教程,我下一步要加上過(guò)濾器的話是不是應(yīng)該:

optimizerG = optim.SGD( filter(lambda p: p.requires_grad, net.parameters()),
      [{'params': base_params, 'lr': 1e-4}, 
                        {'params': new_params}], lr = opt.lr, momentum = 0.9, weight_decay=0.0005)

好的看起來(lái)沒(méi)有任何的問(wèn)題,但是運(yùn)行的時(shí)候就開(kāi)始報(bào)錯(cuò):

就是這里!!一個(gè)剛開(kāi)始用pytorch的我!什么都不懂!然后我看了四天?。∽詈蟛殚喠斯俜轿臋n才知道為什么報(bào)錯(cuò)。以后看到這種提示init函數(shù)錯(cuò)誤的都要記得去官方doc上看說(shuō)明。

這里其實(shí)寫(xiě)的很清楚了,SGD優(yōu)化器每個(gè)位置都是什么參數(shù)。到這里應(yīng)該已經(jīng)能看出來(lái)哪里有問(wèn)題了吧?

optimizerG = optim.SGD( filter(lambda p: p.requires_grad, net.parameters()),
      [{'params': base_params, 'lr': 1e-4}, 
                        {'params': new_params}], lr = opt.lr, momentum = 0.9, weight_decay=0.0005)

看我的SGD函數(shù)每個(gè)參數(shù)的位置,第一個(gè)放的是過(guò)濾器,第二個(gè)是參數(shù)組,然后是lr,對(duì)比官方的定義:第一個(gè)參數(shù),第二個(gè)是lr等等。

所以錯(cuò)誤就在這里!我第一個(gè)位置放了過(guò)濾器!第二個(gè)位置是參數(shù)組!所以他把過(guò)濾器當(dāng)作參數(shù),參數(shù)組當(dāng)作學(xué)習(xí)率,然后就報(bào)錯(cuò)說(shuō)lr接受到很多個(gè)值……

仔細(xì)去看其他博客的教程,基本是只有分參數(shù)組的優(yōu)化器設(shè)置和凍結(jié)層了之后優(yōu)化器的設(shè)置。沒(méi)有又分參數(shù)組又凍結(jié)部分層參數(shù)的設(shè)置。所以設(shè)置過(guò)濾器把不需要優(yōu)化的參數(shù)給踢掉這個(gè)步驟還是要的,但是在現(xiàn)在這種情況下不應(yīng)該放在SGD里!

new_params = filter(lambda p: id(p) not in base_params_id and p.requires_grad,\

    netG.parameters())
base_params = filter(lambda p: id(p) in base_params_id,
                     netG.parameters())     

應(yīng)該在劃分參數(shù)組的時(shí)候就添加過(guò)濾器,將不需要回傳梯度的參數(shù)過(guò)濾掉(這里就是直接篩選p.requires_grad即可)。如此便可以順利凍結(jié)參數(shù)并且設(shè)置參數(shù)組啦!

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • 在pytorch中動(dòng)態(tài)調(diào)整優(yōu)化器的學(xué)習(xí)率方式
  • 淺談Pytorch torch.optim優(yōu)化器個(gè)性化的使用
  • pytorch 實(shí)現(xiàn)在一個(gè)優(yōu)化器中設(shè)置多個(gè)網(wǎng)絡(luò)參數(shù)的例子
  • 詳解PyTorch批訓(xùn)練及優(yōu)化器比較
  • pytorch中的優(yōu)化器optimizer.param_groups用法

標(biāo)簽:黑龍江 益陽(yáng) 常德 四川 惠州 上海 黔西 鷹潭

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作》,本文關(guān)鍵詞  pytorch,優(yōu)化,器,optim,不同,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問(wèn)題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無(wú)關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作》相關(guān)的同類信息!
  • 本頁(yè)收集關(guān)于pytorch 優(yōu)化器(optim)不同參數(shù)組,不同學(xué)習(xí)率設(shè)置的操作的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    国产精品涩涩涩视频网站| 性猛交xxxx乱大交孕妇印度| 国模大尺度视频| 国产精品伊人色| 免费观看亚洲视频大全| 一区精品久久| 丁香六月综合| 免费国产羞羞网站美图| av在线免费播放网址| 欧美洲成人男女午夜视频| 欧美国产日韩一区二区在线观看| 国产91丝袜美女在线播放| 欧美激情成人| 婷婷成人综合| 国产有码在线| 久久夜色精品国产亚洲aⅴ| 第一会所亚洲原创| 亚洲综合二区| 亚洲av永久无码精品| 在线小视频你懂的| 精品动漫一区二区三区在线观看| 一区二区三区四区欧美日韩| 国产乱肥老妇国产一区二| 深夜福利日韩在线看| 亚洲大胆人体大胆做受1| 久久久久成人网| 无码国精品一区二区免费蜜桃| 性欧美18一19sex性欧美| 日韩精品免费播放| 夜夜躁狠狠躁日日躁婷婷小说| julia京香一区二区三区| 97伦伦午夜电影理伦片| 极品日韩av| 亚洲高清三级视频| 色综合中文字幕| 日韩精品每日更新| 日韩亚洲成人av在线| 香蕉av777xxx色综合一区| 青草青草久热精品视频在线网站| 国产欧美日韩另类视频免费观看| 在线观看精品自拍私拍| 日本一二三区视频在线| wwwxxx色| 成人免费在线观看视频| 青青在线观看视频中文字| 羞羞视频在线免费国产| 亚洲国产日韩欧美一区二区三区| www.超碰在线.com| 深夜福利视频在线观看| 亚洲人体视频| 亚洲高清自拍| 在线视频欧美区| 成人午夜私人影院| 国产成人精品免费久久久久| 向日葵污视频在线观看| 偷偷色噜狠狠狠狠的777米奇| 乱人伦中文字幕在线zone| 老女人性淫交视频| 亚洲成a人片在线观看中文| 日韩电影免费在线观看| a看欧美黄色女同性恋| 亚州黄色一级| 国产精品无码专区在线观看| 丰满人妻一区二区三区免费视频| 在线电影av不卡网址| 尤物av无码色av无码| 国产麻豆视频在线观看| 欧洲亚洲在线| 国产美女一区二区| 在线免费看黄| 久草成人资源| 亚洲第一网站| 亚洲欧美日韩色图| 国产精品96久久久久久又黄又硬| 7777精品伊人久久久大香线蕉完整版| 午夜国产福利一区二区| 中文字幕中文字幕在线十八区| 日韩av网站导航| 少妇一级淫免费观看| 国产一区二区三区视频在线| www.av在线播放| 久久艹免费视频| 亚洲第一成年免费网站| xxxcom在线观看| 91亚洲va在线va天堂va国| 成人黄页在线观看| 国产哺乳奶水91在线播放| avav免费在线观看| 亚洲欧洲www| 亚洲国产福利| 欧美一区二区三区黄片| 中文在线字幕av| 国产一区二区三区免费在线观看| 国产精品白丝jk黑袜喷水| 青青青国产在线视频| 免费一级片视频| 黑人精品一区二区| 色老板视频在线观看| 91视频www| 日本精品入口免费视频| 依依成人综合网| 精品少妇av| 久久久久久久波多野高潮日日| 最新在线中文字幕| 亚洲激情一区二区三区| 人妻熟妇乱又伦精品视频| 91精品国产自产拍在线观看蜜| 在线亚洲国产精品网| 国产精品一区=区| 青青久在线视频| 黄色高清视频| 丁香六月综合| 欧美亚洲国产怡红院影院| 中文字幕在线播| 女教师淫辱の教室蜜臀av软件| 欧美日日夜夜| 好吊色欧美一区二区三区视频| 亚洲丶国产丶欧美一区二区三区| 国产真实的和子乱拍在线观看| 一本到高清视频免费精品| 亚洲高清精品视频| 久久综合色综合| 欧美主播一区二区三区美女| 国产视频精品xxxx| 一区二区三区不卡视频| 成人精品久久一区二区三区| 精彩视频一区二区三区| 久久精品国产**网站演员| 天天做夜夜爱爱爱| 粉嫩av懂色av蜜臀av分享| 久久在线免费观看| 国内外成人激情免费视频| 国产中文一区二区三区| 亚洲国产午夜精品| 国产l精品国产亚洲区在线观看| 性欧美video另类hd尤物| 波多野结衣一区二区三区四区| 日韩特级黄色片| 久久久久久久亚洲| 久久爱com| 日韩免费av一区二区三区| 日本免费一区二区三区四区| 中文字幕第66页| 韩国一区二区三区美女美女秀| 热re66久久精品国产99热| 亚洲网友自拍偷拍| 久久久综合久久久| 久久人人97超碰精品888| 日产电影一区二区三区| 欧美日韩裸体免费视频| 国产在线视频91| 亚洲无码久久久久久久| 久久精品伊人| 亚洲一区免费观看| 欧美第十八页| 亚洲一区中文字幕永久在线| 中文乱码免费一区二区三区下载| 国产精品国产三级国产有无不卡| 成人免费淫片在线费观看| 色狠狠av一区二区三区| 精品久久久久久中文字幕人妻最新| 黄色片在线免费观看| 欧美黑人双插| 国产欧美一区二区白浆黑人| 成人网视频在线观看| 黑人一区二区三区| 亚洲va韩国va欧美va| 狠狠色噜噜狠狠狠狠色吗综合| 国产成人超碰人人澡人人澡| 亚洲福利视频三区| 综合电影一区二区三区| 国产日韩三级| 另类的小说在线视频另类成人小视频在线| www.26天天久久天堂| 国产传媒欧美日韩| 成人激情视频网| 国产一级片视频| 一级美女在线| 国产香蕉精品视频一区二区三区| 欧美三区四区| 777丰满影院| 美女露胸一区二区三区| 精品国产拍在线观看| 精品国产亚洲一区二区三区在线| 亚洲品质自拍视频网站| 日本一区视频在线播放| fpee性欧美| 特级西西444www大胆免费看| 伊人精品在线| 大胆欧美熟妇xx| 精品国产青草久久久久福利| 在线麻豆国产传媒1国产免费| 色综合一个色综合| 91人人爽人人爽人人精88v| 国产黄色免费观看| 久久久久女教师免费一区| а√天堂官网中文在线| 天堂a中文在线| 三级做a全过程在线观看| 97人妻精品一区二区三区动漫| 国产 日韩 欧美在线| 在线免费观看视频| 日本高清视频免费在线观看| 国产丝袜一区| 日韩在线欧美在线国产在线| 亚洲欧美精品一区二区| 欧美日韩黄色| 久久精品在线免费视频| 日本高清成人vr专区| 欧美疯狂xxxx大交乱88av| 91热福利电影| 日韩欧美亚洲另类制服综合在线| 精品国产乱码久久久久久果冻传媒| 欧美日韩成人激情| 日日爽夜夜爽| 欧美精品v日韩精品v国产精品| 欧美三级午夜理伦三级中文幕| 2014亚洲天堂| 久久福利视频一区二区| 妖精视频一区二区三区| 国产91在线高潮白浆在线观看| 色综合视频一区二区三区高清| 国产亚洲永久域名| 踪合国产第二页| 亚洲影视第一页| 久久视频在线| 中文字幕一区二区三区人妻电影| 国产资源在线一区| 成人午夜免费福利| 精品一区二区三区在线播放视频| 国产精自产拍久久久久久蜜| 日本国产精品视频| 国产精品免费观看在线| 九色精品蝌蚪| 国产99久久精品一区二区300| 欧美一级在线看| 欧美 日韩 国产一区| 国产精品国产馆在线真实露脸| 日本成人免费视频| 91精品啪在线观看国产爱臀| av不卡免费在线观看| 成年免费视频黄网站在线观看| wwwwxxxx日本| 久久66热这里只有精品| 首页亚洲中字| 亚洲av无码一区二区二三区| 国产女人免费看a级丨片| 亚洲欧美另类中文字幕| 天天色综合社区| 国产一区二区中文| 欧美伊人影院| 亚洲日本久久久午夜精品| 麻豆成全视频免费观看在线看| av电影免费在线看| 999这里有精品| 99reav2| 97精品国产99久久久久久免费| 免费成人av在线播放| 亚洲在线一区二区| 亚洲天堂视频在线| 精品999网站| 久久久99久久精品女同性| av小次郎收藏| 亚洲人成电影在线观看天堂色| 在线无限看免费粉色视频| 天堂资源最新版在线视频观看免费网| 亚洲综合视频在线观看| 免费在线观看av| 91精品国产自产观看在线| 亚洲人成五月天| 国产精品无码永久免费不卡| 国产精品美女www爽爽爽视频| 美女久久久久久| 国产亚洲人成网站| 中文字幕码精品视频网站| 久久福利影视| 色哟哟精品视频| 中文字幕不卡三区| 国产亚洲精品熟女国产成人| 在线视频日韩欧美| 国产免费观看av| 久久99久久精品国产| 日韩高清中文字幕一区| 唐朝av高清盛宴| www.爱久久| 欧美日韩国产123| 国模娜娜一区二区三区| www.男人天堂.com| 日韩美女一级片| 日韩激情中文字幕| 欧美黑人性猛交xxx| 中文字幕一区二区人妻| 视频一区二区三区在线观看| 欧美一区二区三区电影| 香港三级日本三级| 在线精品小视频| 亚洲天堂资源在线| 国产欧美精品在线| 电影一区二区三区久久免费观看| 超级砰砰砰97免费观看最新一期| www.99.热| 日韩网站在线免费观看| 日本韩国在线视频| 色国产综合视频| 波多野结衣av在线| 欧美/亚洲一区| 精品国产一区二区三区久久久狼牙| 黄色的电影在线-骚虎影院-骚虎视频| 永久免费看片视频教学| 国产精品久久久久久久av大片| 天堂а在线中文在线无限看推荐| 亚洲sss综合天堂久久| 国产精品成人免费观看| 自拍偷拍中文字幕| 国产素人在线观看| 国产欧美一区二区三区视频在线观看| 天天激情综合| 国产青青草视频| 黄色一级片网址| 不卡影院一区二区| 蜜桃tv在线播放| 国产盗摄精品一区二区酒店| 麻豆福利视频| 视频在线观看一区| 18岁成年人网站| 欧美最猛性xxxx高清| 国产又粗又猛又爽又| 一区二区在线不卡|