精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

量化自定義PyTorch模型入門教程

開發 前端
在以前Pytorch只有一種量化的方法,叫做“eager mode qunatization”,在量化我們自定定義模型時經常會產生奇怪的錯誤,并且很難解決。但是最近,PyTorch發布了一種稱為“fx-graph-mode-qunatization”的方方法。

在以前Pytorch只有一種量化的方法,叫做“eager mode qunatization”,在量化我們自定定義模型時經常會產生奇怪的錯誤,并且很難解決。但是最近,PyTorch發布了一種稱為“fx-graph-mode-qunatization”的方方法。在本文中我們將研究這個fx-graph-mode-qunatization”看看它能不能讓我們的量化操作更容易,更穩定。

本文將使用CIFAR 10和一個自定義AlexNet模型,我對這個模型進行了小的修改以提高效率,最后就是因為模型和數據集都很小,所以CPU也可以跑起來。

import os
 import cv2
 import time
 import torch
 import numpy as np
 import torchvision
 from PIL import Image
 import torch.nn as nn
 import matplotlib.pyplot as plt
 from torchvision import transforms
 from torchvision import datasets, models, transforms
 
 device = "cpu"
 
 print(device)
 transform = transforms.Compose([
    transforms.Resize(224),
    transforms.ToTensor(),
    transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ])
 
 batch_size = 8
 
 trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
 
 testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                        download=True, transform=transform)
 
 trainloader = torch.utils.data.DataLoader(trainset, batch_size=batch_size,
                                          shuffle=True, num_workers=2)
 
 testloader = torch.utils.data.DataLoader(testset, batch_size=batch_size,
                                          shuffle=False, num_workers=2)
 
 def print_model_size(mdl):
    torch.save(mdl.state_dict(), "tmp.pt")
    print("%.2f MB" %(os.path.getsize("tmp.pt")/1e6))
    os.remove('tmp.pt')

模型代碼如下,使用AlexNet是因為他包含了我們日常用到的基本層:

from torch.nn import init
 class mAlexNet(nn.Module):
    def __init__(self, num_classes=2):
        super().__init__()
        self.input_channel = 3
        self.num_output = num_classes
         
        self.layer1 = nn.Sequential(
            nn.Conv2d(in_channels=self.input_channel, out_channels= 16, kernel_size= 11, stride= 4),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=3, stride=2)
        )
        init.xavier_uniform_(self.layer1[0].weight,gain= nn.init.calculate_gain('conv2d'))
 
        self.layer2 = nn.Sequential(
            nn.Conv2d(in_channels= 16, out_channels= 20, kernel_size= 5, stride= 1),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=3, stride=2)
        )
        init.xavier_uniform_(self.layer2[0].weight,gain= nn.init.calculate_gain('conv2d'))
 
        self.layer3 = nn.Sequential(
            nn.Conv2d(in_channels= 20, out_channels= 30, kernel_size= 3, stride= 1),
            nn.ReLU(inplace=True),
            nn.MaxPool2d(kernel_size=3, stride=2)
        )
        init.xavier_uniform_(self.layer3[0].weight,gain= nn.init.calculate_gain('conv2d'))
        
 
        self.layer4 = nn.Sequential(
            nn.Linear(30*3*3, out_features=48),
            nn.ReLU(inplace=True)
        )
        init.kaiming_normal_(self.layer4[0].weight, mode='fan_in', nnotallow='relu')
 
        self.layer5 = nn.Sequential(
            nn.Linear(in_features=48, out_features=self.num_output)
        )
        init.kaiming_normal_(self.layer5[0].weight, mode='fan_in', nnotallow='relu')
 
 
    def forward(self, x):
        x = self.layer1(x)
        x = self.layer2(x)
        x = self.layer3(x)
         
        # Squeezes or flattens the image, but keeps the batch dimension
        x = x.reshape(x.size(0), -1)
        x = self.layer4(x)
        logits= self.layer5(x)
        return logits
 
 model = mAlexNet(num_classes= 10).to(device)

現在讓我們用基本精度模型做一個快速的訓練循環來獲得基線:

import torch.optim as optim 
 
 def train_model(model):
  criterion = nn.CrossEntropyLoss()
  optimizer = optim.SGD(model.parameters(), lr=0.001, momentum = 0.9)
 
  for epoch in range(2):
    running_loss =0.0
     
    for i, data in enumerate(trainloader,0):
       
      inputs, labels = data
      inputs, labels = inputs.to(device), labels.to(device)
 
      optimizer.zero_grad()
      outputs = model(inputs)
      loss = criterion(outputs, labels)
      loss.backward()
      optimizer.step()
 
      # print statistics
      running_loss += loss.item()
      if i % 1000 == 999:
        print(f'[Ep: {epoch + 1}, Step: {i + 1:5d}] loss: {running_loss / 2000:.3f}')
        running_loss = 0.0
   
  return model
 
 model = train_model(model)
 PATH = './float_model.pth'
 torch.save(model.state_dict(), PATH)

圖片

可以看到損失是在降低的,我們這里只演示量化,所以就訓練了2輪,對于準確率我們只做對比。

我將做所有三種可能的量化:

  1. 動態量化 Dynamic qunatization:使權重為整數(訓練后)
  2. 靜態量化 Static quantization:使權值和激活值為整數(訓練后)
  3. 量化感知訓練 Quantization aware training:以整數精度對模型進行訓練

我們先從動態量化開始:

import torch
 from torch.ao.quantization import (
  get_default_qconfig_mapping,
  get_default_qat_qconfig_mapping,
  QConfigMapping,
 )
 import torch.ao.quantization.quantize_fx as quantize_fx
 import copy
 
 # Load float model
 model_fp = mAlexNet(num_classes= 10).to(device)
 model_fp.load_state_dict(torch.load("./float_model.pth", map_locatinotallow=device))
 
 # Copy model to qunatize
 model_to_quantize = copy.deepcopy(model_fp).to(device)
 model_to_quantize.eval()
 qconfig_mapping = QConfigMapping().set_global(torch.ao.quantization.default_dynamic_qconfig)
 
 # a tuple of one or more example inputs are needed to trace the model
 example_inputs = next(iter(trainloader))[0]
 
 # prepare
 model_prepared = quantize_fx.prepare_fx(model_to_quantize, qconfig_mapping, 
                  example_inputs)
 # no calibration needed when we only have dynamic/weight_only quantization
 # quantize
 model_quantized_dynamic = quantize_fx.convert_fx(model_prepared)

正如你所看到的,只需要通過模型傳遞一個示例輸入來校準量化層,所以代碼十分簡單,看看我們的模型對比:

print_model_size(model)
 print_model_size(model_quantized_dynamic)

圖片

可以看到的,減少了0.03 MB或者說模型變為了原來的75%,我們可以通過靜態模式量化使其更小:

model_to_quantize = copy.deepcopy(model_fp)
 qconfig_mapping = get_default_qconfig_mapping("qnnpack")
 model_to_quantize.eval()
 # prepare
 model_prepared = quantize_fx.prepare_fx(model_to_quantize, qconfig_mapping, example_inputs)
 # calibrate 
 with torch.no_grad():
    for i in range(20):
        batch = next(iter(trainloader))[0]
        output = model_prepared(batch.to(device))

靜態量化與動態量化是非常相似的,我們只需要傳遞更多批次的數據來更好地校準模型。

讓我們看看這些步驟是如何影響模型的:

可以看到其實程序為我們做了很多事情,所以我們才可以專注于功能而不是具體的實現,通過以上的準備,我們可以進行最后的量化了:

# quantize
 model_quantized_static = quantize_fx.convert_fx(model_prepared)

量化后的model_quantized_static看起來像這樣:

現在可以更清楚地看到,將Conv2d和Relu層融合并替換為相應的量子化對應層,并對其進行校準。可以將這些模型與最初的模型進行比較:

print_model_size(model)
 print_model_size(model_quantized_dynamic)
 print_model_size(model_quantized_static)

量子化后的模型比原來的模型小3倍,這對于大模型來說非常重要

現在讓我們看看如何在量化的情況下訓練模型,量化感知的訓練就需要在訓練的時候加入量化的操作,代碼如下:

model_to_quantize = mAlexNet(num_classes= 10).to(device)
 qconfig_mapping = get_default_qat_qconfig_mapping("qnnpack")
 model_to_quantize.train()
 # prepare
 model_prepared = quantize_fx.prepare_qat_fx(model_to_quantize, qconfig_mapping, example_inputs)
 
 # training loop 
 model_trained_prepared = train_model(model_prepared)
 
 # quantize
 model_quantized_trained = quantize_fx.convert_fx(model_trained_prepared)

讓我們比較一下到目前為止所有模型的大小。

print("Regular floating point model: " )
 print_model_size( model_fp)
 print("Weights only qunatization: ")
 print_model_size( model_quantized_dynamic)
 print("Weights/Activations only qunatization: ")
 print_model_size(model_quantized_static)
 print("Qunatization aware trained: ")
 print_model_size(model_quantized_trained)

量化感知的訓練對模型的大小沒有任何影響,但它能提高準確率嗎?

def get_accuracy(model):
  correct = 0
  total = 0
  with torch.no_grad():
      for data in testloader:
          images, labels = data
          images, labels = images, labels
          outputs = model(images)
          _, predicted = torch.max(outputs.data, 1)
          total += labels.size(0)
          correct += (predicted == labels).sum().item()
 
      return 100 * correct / total
 
 fp_model_acc = get_accuracy(model)
 dy_model_acc = get_accuracy(model_quantized_dynamic)
 static_model_acc = get_accuracy(model_quantized_static)
 q_trained_model_acc = get_accuracy(model_quantized_trained)
 
 
 print("Acc on fp_model:" ,fp_model_acc)
 print("Acc weigths only quantization:", dy_model_acc)
 print("Acc weigths/activations quantization" ,static_model_acc)
 print("Acc on qunatization awere trained model:" ,q_trained_model_acc)

為了更方便的比較,我們可視化一下:

可以看到基礎模型與量化模型具有相似的準確性,但模型尺寸大大減小,這在我們希望將其部署到服務器或低功耗設備上時至關重要。


責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2009-08-05 17:03:37

C#自定義控件

2011-12-26 10:11:08

JSP

2009-07-20 14:21:52

PowerDesign

2013-08-29 14:12:52

Storm分布式實時計算

2010-08-03 13:06:15

Flex Builde

2009-07-08 15:12:48

Java Servle

2014-05-26 15:35:55

Web組件Web Compone

2009-08-10 14:16:59

ASP.NET自定義控

2010-08-03 16:13:01

FlexBuilder

2010-06-13 09:45:35

Widget開發

2013-08-29 14:28:09

StormHadoop

2010-07-27 15:53:15

2010-05-21 12:50:45

Subversion快

2011-07-21 10:29:18

iPhone 開發

2024-11-12 15:46:37

2012-05-10 08:29:46

XcodeiOSPhoneGap

2010-08-03 14:37:30

Flex入門教程

2015-02-12 15:33:43

微信SDK

2011-09-02 10:59:10

jQuery Mobi

2010-06-18 16:56:50

UML建模語言
點贊
收藏

51CTO技術棧公眾號

在线成人国产| 国产第一亚洲| 2024国产精品| 国产精品一区二区在线| 永久免费看片视频教学| 国产高清精品二区| 婷婷丁香久久五月婷婷| 日韩av高清| 国产三级三级在线观看| 在线精品一区| 最近2019年中文视频免费在线观看| 在线能看的av网站| 国产激情视频在线观看| 国产91精品免费| 国产成人精品av在线| www.97视频| 日韩精品免费一区二区夜夜嗨| 欧美在线一区二区| 久久99久久久久久| 国产小视频免费在线网址| 国产资源在线一区| 欧美中文字幕视频| 青青草免费av| 成人一区而且| 日韩精品在线观看网站| 杨幂一区二区国产精品| 巨胸喷奶水www久久久免费动漫| 亚洲综合在线观看视频| 色999五月色| 日韩大胆人体| 成人免费视频视频| 91精品美女在线| 影音先锋在线国产| 亚洲国产第一| 欧美日韩xxxxx| sm捆绑调教视频| 红桃成人av在线播放| 欧美成人猛片aaaaaaa| 日韩欧美国产片| 在线精品亚洲欧美日韩国产| 亚洲国产综合91精品麻豆| 免费看啪啪网站| 91在线直播| 久久久久亚洲综合| 久久久久九九九| 无码精品在线观看| 国产自产高清不卡| 91日本视频在线| 国产精品久久久久久久久久久久久久久久| 首页综合国产亚洲丝袜| 欧美影院在线播放| www欧美在线| 久久成人亚洲| 国产成人黄色av| 中文字幕av影视| 日韩国产欧美在线观看| 国产成人在线一区| 懂色av中文字幕| 日本欧美韩国一区三区| 国产精品福利在线观看网址| 怡红院av久久久久久久| 日韩国产欧美一区二区三区| 国产精品久久久久久搜索| 波多野结衣高清在线| 日韩高清一级片| 国产欧美精品一区二区三区介绍| 日韩国产成人在线| 美女任你摸久久| 91丨九色丨国产在线| 99精品在线看| 成人黄色在线看| 免费在线观看91| 成年网站在线| 亚洲欧洲综合另类在线| 9191国产视频| 日本电影在线观看| 欧美日韩国产影院| 亚洲色图38p| 国产高清视频一区二区| 欧美v亚洲v综合ⅴ国产v| 熟女人妻一区二区三区免费看| 动漫3d精品一区二区三区乱码| 亚洲精品久久久久久久久久久| 亚洲精品理论片| 波多野结衣在线播放一区| 久久久久99精品久久久久| 黄色在线观看免费| 国产精品普通话对白| 国产精品678| 国产日韩欧美一区二区东京热| 国产91精品免费| 日韩精品一区二区三区外面| 搞黄网站在线观看| 亚洲mv在线观看| 天天视频天天爽| 视频在线一区| 国产亚洲欧洲在线| 欧美黄色一级网站| 久久久噜噜噜久久狠狠50岁| 成人性生交大片免费看视频直播| 少妇精品视频一区二区| 国产色产综合色产在线视频| 中文字幕一区二区三区四区五区 | 国产在线观看免费视频今夜| 久久黄色影院| 97夜夜澡人人双人人人喊| 天堂а在线中文在线无限看推荐| 国产精品免费久久| 国产伦精品一区二区三区四区视频_ | 国产精品美女久久久久久久久久久 | 成人精品视频久久久久| 天天干在线观看| 国产精品不卡视频| 欧美 日韩精品| 综合成人在线| 日韩在线观看免费| 欧美成人一区二区三区四区| 国产成人在线视频网站| 欧美在线日韩精品| www.九色在线| 日韩欧美一区在线| 免费网站在线高清观看| 伊人久久婷婷| 91成人免费在线观看| 成人影院免费观看| 精品久久久久久久久久| 色偷偷中文字幕| 日韩夫妻性生活xx| 亚洲91视频| 亚洲精品一区二区三区精华液| 日韩av片在线| 视频一区二区中文字幕| 久久99国产精品| heyzo高清在线| 日韩精品一区二区三区老鸭窝| 能直接看的av| 视频一区二区欧美| 欧美精品二区三区四区免费看视频 | 国产精品高潮呻吟av| 国产亚洲欧美激情| 欧美视频第三页| 蜜桃tv一区二区三区| 97av在线播放| 亚洲人视频在线观看| 午夜精品影院在线观看| 日韩av成人网| 好看的日韩av电影| 国产精品成人一区二区三区| 亚洲区欧洲区| 日韩精品一区二区三区在线观看| 免费91在线观看| 久久www免费人成看片高清| 色一情一区二区三区四区| 亚洲wwww| 日韩午夜在线视频| 91亚洲欧美激情| 国产精品美女一区二区三区| 99国产精品久久久久久| 99久久婷婷| 91欧美精品成人综合在线观看| 国内外激情在线| 欧美一区二区三区四区高清| 日本中文在线视频| 国产在线不卡视频| 国产成人一区二区三区别| 999久久久精品一区二区| 欧美激情国产高清| 天天干天天插天天操| 色呦呦日韩精品| 青青青视频在线免费观看| 国产一区久久久| 免费成人直播| 涩涩网在线视频| 亚洲精品第五页| 在线免费看毛片| 国产精品111| 亚洲精品午夜国产va久久成人| bl动漫在线观看| 国产chinese中国hdxxxx| www在线免费观看视频| 91麻豆精品国产无毒不卡在线观看| 黄色香蕉视频在线观看| 国产丶欧美丶日本不卡视频| 成人免费在线网| 欧美精品momsxxx| 成人午夜黄色影院| 成人超碰在线| 一个色综合导航| 午夜精品久久久久久久99| 精品毛片三在线观看| 国产白丝一区二区三区| 成人免费视频网站在线观看| 国产又黄又猛又粗| 狠狠干综合网| 亚洲精品8mav| 精品丝袜久久| 91在线观看免费观看| 国产污视频在线播放| 精品国产一区二区三区久久狼黑人| 国产91免费看| 在线视频一区二区免费| 免费麻豆国产一区二区三区四区| 久久综合精品国产一区二区三区| 福利视频999| 欧美综合国产| 女人被男人躁得好爽免费视频 | 国产精品免费视频一区二区| 黄瓜视频成人app免费| 欧美福利小视频| 视频一区二区三区不卡| 日韩激情在线视频| www.黄色小说.com| 欧美三级日韩三级| 狠狠人妻久久久久久| 玉足女爽爽91| 三级黄色免费观看| 国产视频一区二区三区在线观看| 国模无码视频一区| 国产一区二区三区精品欧美日韩一区二区三区 | 日本xxxxwww| 6080yy午夜一二三区久久| 区一区二在线观看| 亚洲高清在线视频| www.99re7| 国产精品视频在线看| 精品人妻少妇嫩草av无码| 国产99一区视频免费| 午夜一区二区视频| 男人的天堂久久精品| 92看片淫黄大片一级| 亚洲精品国产日韩| 男人天堂av片| 黑人一区二区| 激情成人开心网| 欧美大片一区| 国产a级黄色大片| 欧美激情91| 成人在线免费观看网址| 天天做天天爱天天综合网| 亚洲一区精品视频| 日韩av密桃| 亚洲国产欧美一区二区三区不卡| 久久不见久久见国语| 久精品国产欧美| 全国精品免费看| 精品久久精品久久| 欧美五码在线| 蜜桃999成人看片在线观看| 天堂成人娱乐在线视频免费播放网站 | 91精品国产自产精品男人的天堂 | 91av中文字幕| 免费v片在线观看| 欧美做爰性生交视频| 精品极品在线| 日本欧美黄网站| 日韩在线观看不卡| 成人欧美一区二区三区黑人孕妇| 久久亚洲精品中文字幕| 国产精选久久久久久| 国产精品日本一区二区不卡视频| 在线亚洲一区二区| 凹凸国产熟女精品视频| 国产美女一区| 999在线免费视频| 激情久久五月天| 国产欧美视频一区| www精品美女久久久tv| 色一情一交一乱一区二区三区| 国产网站一区二区| 尤物在线免费视频| 亚洲午夜三级在线| 老熟妇仑乱一区二区av| 在线观看亚洲专区| 国产欧美熟妇另类久久久 | 欧美女同网站| 日韩在线免费av| 三级福利片在线观看| 2020欧美日韩在线视频| 日本成人福利| 国产精品jizz视频| 国产欧美久久一区二区三区| 最新中文字幕久久| 一本久道久久综合婷婷鲸鱼| 亚洲一区二区蜜桃| 国产成人精品免费| 欧洲av一区二区三区| 久久久午夜精品| 欧美肥妇bbwbbw| 精品成人av一区| 136福利视频导航| 欧美精品一区男女天堂| 国产精品一区二区婷婷| 欧美理论电影在线观看| 性高爱久久久久久久久| 亚洲最大福利视频网站| 久久99国产精品视频| 精品无码av无码免费专区| 久久国产一二区| 一级全黄裸体片| 国产欧美日韩久久| 亚洲精品视频在线观看免费视频| 欧美日韩精品一区视频| 婷婷在线免费视频| 久久精品电影一区二区| 欲香欲色天天天综合和网| 成人午夜在线观看| 精品freesex老太交| 日本阿v视频在线观看| 狠狠色丁香久久婷婷综合_中| 一起草在线视频| 一区二区三区欧美久久| 国产综合av一区二区三区| 456亚洲精品成人影院| 高清国产在线一区| 久久在线视频免费观看| 国产极品粉嫩福利姬萌白酱| 国产精品中文欧美| 青青青视频在线免费观看| 日韩欧美在线第一页| 欧洲精品久久一区二区| 欧美成人激情图片网| 欧美爱爱视频| 日本视频一区二区在线观看| 99国产一区| 国产高潮视频在线观看| 亚洲一区在线观看免费 | 精品少妇一区二区三区在线播放| 69视频在线观看| 国产精品99导航| 欧美日韩播放| 国产亚洲天堂网| 91丨porny丨蝌蚪视频| 精品视频一区二区在线观看| 欧美一区二区不卡视频| 国产午夜精品久久久久免费视| 国产精品久久久久久久久| 国产精品亚洲片在线播放| 男人日女人bb视频| 99久久精品国产导航| 免费成人深夜天涯网站| 在线观看区一区二| 国产日本在线视频| 国产精品成人免费视频| 波多野结衣在线观看一区二区| 五月天婷婷激情视频| 亚洲国产岛国毛片在线| 在线亚洲欧美日韩| 色av中文字幕一区| 视频欧美精品| 中国一区二区三区| 韩国欧美国产1区| 黄色一级片在线| 精品人在线二区三区| 欧美性爽视频| 国产在线播放一区二区| aa亚洲婷婷| 国产人妻一区二区| 欧美三级日本三级少妇99| 亚洲国产精一区二区三区性色| 青青草一区二区三区| 国产又黄又粗视频| 欧美日韩国产电影| 在线看福利影| 精品国产乱码久久久久软件| 午夜在线精品| 四虎影视一区二区| 宅男噜噜噜66一区二区66| 欧美性爽视频| 奇米888一区二区三区| 久久国产精品免费| 久草视频在线资源站| 日韩av影视在线| 国产一区二区主播在线| 国产精品h视频| 成人av网站在线观看免费| 日韩精品成人免费观看视频| 色yeye香蕉凹凸一区二区av| 日本一区二区三区电影免费观看| 99色这里只有精品| 国产欧美日韩在线| 99久久国产热无码精品免费| 97在线免费观看视频| 欧美自拍偷拍| 又色又爽又黄18网站| 色哟哟精品一区| 在线观看操人| 欧美一区2区三区4区公司二百| 国产专区欧美精品| 日韩在线视频不卡| 欧美美最猛性xxxxxx| 亚洲老女人视频免费| 在线免费黄色网| 色综合色狠狠天天综合色| 岛国中文字幕在线| 欧美精品一区在线| 国产精品一区二区不卡| 免费观看成人毛片| 久久亚洲综合国产精品99麻豆精品福利 | 国产福利久久精品| 日本亚洲免费观看|