欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

Pytorch中怎么實(shí)現(xiàn)softmax回歸

本篇文章給大家分享的是有關(guān)Pytorch中怎么實(shí)現(xiàn)softmax回歸,小編覺得挺實(shí)用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

創(chuàng)新互聯(lián)服務(wù)項(xiàng)目包括懷仁網(wǎng)站建設(shè)、懷仁網(wǎng)站制作、懷仁網(wǎng)頁(yè)制作以及懷仁網(wǎng)絡(luò)營(yíng)銷策劃等。多年來,我們專注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢(shì)、行業(yè)經(jīng)驗(yàn)、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機(jī)構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,懷仁網(wǎng)站推廣取得了明顯的社會(huì)效益與經(jīng)濟(jì)效益。目前,我們服務(wù)的客戶以成都為中心已經(jīng)輻射到懷仁省份的部分城市,未來相信會(huì)繼續(xù)擴(kuò)大服務(wù)區(qū)域并繼續(xù)獲得客戶的支持與信任!

如果采用自定義方式搭建網(wǎng)絡(luò)方式:

import torch
import torchvision
import torchvision.transforms as transforms
import matplotlib.pyplot as plt
import time
import sys
import numpy as np
import  requests

#設(shè)置訓(xùn)練集和測(cè)試集,下載在本地
mnist_train = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=True, download=True, transform=transforms.ToTensor())
mnist_test = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=False, download=True, transform=transforms.ToTensor())
batch_size = 256

if sys.platform.startswith('win'):
    num_workers = 0  # 0表示不用額外的進(jìn)程來加速讀取數(shù)據(jù)
else:
    num_workers = 4
train_iter = torch.utils.data.DataLoader(mnist_train, batch_size=batch_size, shuffle=True, num_workers=num_workers)
test_iter = torch.utils.data.DataLoader(mnist_test, batch_size=batch_size, shuffle=False, num_workers=num_workers)

num_inputs=784
#圖片為1*28*28,單通道,所以輸入為28*28=784
num_outputs=10
#最終的類別為10個(gè)類別,所以輸出是10;

w=torch.tensor(np.random.normal(0,0.01,(num_inputs,num_outputs)),dtype=torch.float)
b=torch.zeros(num_outputs,dtype=torch.float)

#使得w,b可以反向傳播
w.requires_grad_(requires_grad=True)
b.requires_grad_(requires_grad=True)

def cross_entropy(y_hat, y):
    return - torch.log(y_hat.gather(1, y.view(-1, 1)))

def accuracy(y_hat,y):
    return (y_hat.argmax(dim=1)==y).float().mean().item()
'''
這里注意下正確率計(jì)算的寫法;
對(duì)于y_hat,返回的是batch_size*10的一個(gè)矩陣,argemax(dim=1)為選擇一個(gè)維度上的最大數(shù)的索引;
所以y_hat.argmax(dim=1)返回一個(gè)batch_size*1的向量;
針對(duì)于返回的向量和y進(jìn)行諸位比較,平均化取值,即可得到該批次的正確率
'''

def sgd(params, lr, batch_size):  # 本函數(shù)已保存在d2lzh_pytorch包中方便以后使用
    for param in params:
        param.data -= lr * param.grad / batch_size # 注意這里更改param時(shí)用的param.data

def evalute_accuracy(data_iter,net):
    acc_sum,n=0.0,0
    for X,y in data_iter:
        acc_sum+=(net(X).argmax(dim=1)==y).float().sum().item()
        n+=y.shape[0]
    return acc_sum/n

num_epochs,lr=30,0.1

def softmax(X):
    X_exp = X.exp()
    partition = X_exp.sum(dim=1, keepdim=True)
    return X_exp / partition  # 這里應(yīng)用了廣播機(jī)制

def net(X):
    return softmax(torch.mm(X.view((-1, num_inputs)), w) + b)

def train(net,train_iter,test_iter,loss,num_epochs,batch_size,params=None,lr=None,optimizer=None):
    for epoch in range(num_epochs):
        train_l_sum,train_acc_sum,n=0.0,0.0,0
        for X,y in train_iter:
            y_hat=net(X)
            l=loss(y_hat,y).sum()

            if optimizer is not None:
                optimizer.zero_grad()
            elif params is not None and params[0].grad is not None:
                for param in params:
                    param.grad.data.zero_()
            l.backward()
            if optimizer is None:
                sgd(params, lr, batch_size)
            else:
                optimizer.step()  # “softmax回歸的簡(jiǎn)潔實(shí)現(xiàn)”一節(jié)將用到
            train_l_sum+=l.item()
            train_acc_sum+=(y_hat.argmax(dim=1)==y).sum().item()
            n+=y.shape[0]
        test_acc=evalute_accuracy(test_iter,net);
        print('epoch %d, loss %.4f, train acc %.3f, test acc %.3f'
              % (epoch + 1, train_l_sum / n, train_acc_sum / n, test_acc))

if __name__ == '__main__':
    print(mnist_train)
    X, y = [], []
    '''
    for i in range(10):
        X.append(mnist_train[i][0])
        y.append(mnist_train[i][1])
    show_fashion_mnist(X, get_fashion_mnist_labels(y))    
    '''
    train(net, train_iter, test_iter, cross_entropy, num_epochs, batch_size, [w, b], lr)

如果采用典型的層數(shù)搭建函數(shù),能有更加簡(jiǎn)潔的實(shí)現(xiàn)版本:

import torch
import torchvision
import torchvision.transforms as transforms
from torch import nn
from collections import OrderedDict
import matplotlib.pyplot as plt
import time
import sys
import numpy as np
import  requests

#設(shè)置訓(xùn)練集和測(cè)試集,下載在本地
from torch.nn import init

mnist_train = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=True, download=True, transform=transforms.ToTensor())
mnist_test = torchvision.datasets.FashionMNIST(root='~/Datasets/FashionMNIST', train=False, download=True, transform=transforms.ToTensor())
batch_size = 256

train_iter = torch.utils.data.DataLoader(mnist_train, batch_size=batch_size, shuffle=True)
test_iter = torch.utils.data.DataLoader(mnist_test, batch_size=batch_size, shuffle=False)

num_inputs=784
#圖片為1*28*28,單通道,所以輸入為28*28=784
num_outputs=10
#最終的類別為10個(gè)類別,所以輸出是10;

class LinearNet(nn.Module):
    def __init__(self,num_inputs,num_outputs):
        super(LinearNet,self).__init__()
        self.linear=nn.Linear(num_inputs,num_outputs)
    def forward(self,x):
        y=self.linear(x.view(x.shape[0],-1))
        return y

def evalute_accuracy(data_iter,net):
    acc_sum,n=0.0,0
    for X,y in data_iter:
        acc_sum+=(net(X).argmax(dim=1)==y).float().sum().item()
        n+=y.shape[0]
    return acc_sum/n

class FlattenLayer(nn.Module):
    def __init__(self):
        super(FlattenLayer, self).__init__()
    def forward(self,x):
        return x.view(x.shape[0],-1)
    #把1*28*28轉(zhuǎn)化為1*784

net=LinearNet(num_inputs,num_outputs)

#使用orderdict來進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)搭建
#第一層flatten層把1*28*28轉(zhuǎn)化為1*784
#第二層為實(shí)際工作層
net=nn.Sequential(
    OrderedDict(
        [
            ('flatten',FlattenLayer()),
            ('linear',nn.Linear(num_inputs,num_outputs))
        ]
    )
)

init.normal_(net.linear.weight, mean=0, std=0.01)
init.constant_(net.linear.bias, val=0)

loss=nn.CrossEntropyLoss()

optimizer=torch.optim.SGD(net.parameters(),lr=0.1)

num_epochs=10

def train(net,train_iter,test_iter,loss,num_epochs,batch_size,params=None,lr=None,optimizer=None):
    for epoch in range(num_epochs):
        train_l_sum,train_acc_sum,n=0.0,0.0,0
        for X,y in train_iter:
            y_hat=net(X)
            l=loss(y_hat,y).sum()

            if optimizer is not None:
                optimizer.zero_grad()
            elif params is not None and params[0].grad is not None:
                for param in params:
                    param.grad.data.zero_()
            l.backward()
            optimizer.step()  # “softmax回歸的簡(jiǎn)潔實(shí)現(xiàn)”一節(jié)將用到
            train_l_sum+=l.item()
            train_acc_sum+=(y_hat.argmax(dim=1)==y).sum().item()
            n+=y.shape[0]
        test_acc=evalute_accuracy(test_iter,net);
        print('epoch %d, loss %.4f, train acc %.3f, test acc %.3f'
              % (epoch + 1, train_l_sum / n, train_acc_sum / n, test_acc))


if __name__ == '__main__':
    print(mnist_train)
    X, y = [], []
    '''
    for i in range(10):
        X.append(mnist_train[i][0])
        y.append(mnist_train[i][1])
    show_fashion_mnist(X, get_fashion_mnist_labels(y))    
    '''
    train(net, train_iter, test_iter, loss, num_epochs, batch_size,None,None,optimizer)

以上就是Pytorch中怎么實(shí)現(xiàn)softmax回歸,小編相信有部分知識(shí)點(diǎn)可能是我們?nèi)粘9ぷ鲿?huì)見到或用到的。希望你能通過這篇文章學(xué)到更多知識(shí)。更多詳情敬請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

網(wǎng)站欄目:Pytorch中怎么實(shí)現(xiàn)softmax回歸
文章URL:http://chinadenli.net/article48/ihjchp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供云服務(wù)器、定制開發(fā)、ChatGPT、企業(yè)網(wǎng)站制作、做網(wǎng)站、品牌網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

小程序開發(fā)
日韩中文字幕免费在线视频| 日本福利写真在线观看| 久久99这里只精品热在线| 国产欧美日韩精品自拍| 亚洲妇女作爱一区二区三区| a久久天堂国产毛片精品| 中文字幕日韩无套内射| 国产视频福利一区二区| 精品高清美女精品国产区| 欧美黑人在线一区二区| 欧美自拍偷自拍亚洲精品| 日韩欧美第一页在线观看| 最近最新中文字幕免费| 亚洲中文字幕乱码亚洲| 中文字幕中文字幕在线十八区| 成人国产激情在线视频| 千仞雪下面好爽好紧好湿全文 | 日韩成人动画在线观看| 国产精品人妻熟女毛片av久| 欧美丝袜诱惑一区二区| 国产在线成人免费高清观看av| 亚洲精品高清国产一线久久| 搡老妇女老熟女一区二区| 久久久精品区二区三区| 国产欧美日产久久婷婷| 亚洲a码一区二区三区| 99久久国产综合精品二区| 日本不卡在线视频中文国产| 在线免费国产一区二区| 午夜福利视频日本一区| 麻豆tv传媒在线观看| 人人爽夜夜爽夜夜爽精品视频| 少妇成人精品一区二区| 日本欧美一区二区三区就| 隔壁的日本人妻中文字幕版| 精品一区二区三区三级视频| 加勒比日本欧美在线观看| 日本女优一区二区三区免费| 丁香六月婷婷基地伊人| 麻豆看片麻豆免费视频| 欧美又大又黄刺激视频|