码迷,mamicode.com
首页 > 其他好文 > 详细

pytorch实现批训练

时间:2020-02-12 18:14:31      阅读:80      评论:0      收藏:0      [点我收藏+]

标签:shuf   size   blog   enum   遇到   提取   details   detail   rda   

代码:

#进行批训练
import torch
import torch.utils.data as Data

BATCH_SIZE = 5  #每批5个数据

if __name__ == __main__:
    x = torch.linspace(1, 10, 10)  #x是从1到10共10个数据
    y = torch.linspace(10, 1, 10)  #y是从10到1共10个数据

    #torch_dataset = Data.TensorDataset(data_tensor = x, target_tensor=y)会报错
    torch_dataset = Data.TensorDataset(x,y)
    loader = Data.DataLoader(      #使我们的训练变成一小批一小批的
        dataset = torch_dataset,   #将所有数据放入dataset中
        batch_size= BATCH_SIZE,
        shuffle=True,              #true训练的时候随机打乱数据,false不打乱
        num_workers=2,             #每次训练用两个线程或进程进行提取
    )   

    for epoch in range(3):
        for step, (batch_x, batch_y) in enumerate(loader):  #利用enumerate可以同时获得索引(step)和值
            print(Epoch:, epoch, | Step:, step, | batch_x:, 
            batch_x.numpy(), | batch_y:, batch_y.numpy())

过程中遇到了问题,问题及解决办法都在https://blog.csdn.net/thunderf/article/details/94733747

pytorch实现批训练

标签:shuf   size   blog   enum   遇到   提取   details   detail   rda   

原文地址:https://www.cnblogs.com/loyolh/p/12299891.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!