最新公告
  • 欢迎您光临灯塔资源网,本站秉承服务宗旨 履行“站长”责任,做国内最专业的站长资源平台!立即加入我们
  • 一、前言

    确保安装

    • scikit-image
    • numpy

    二、Dataset

    一个例子:

    # 导入需要的包
    import torch
    import torch.utils.data.dataset as Dataset
    import numpy as np
    # 编造数据
    Data = np.asarray([[1, 2], [3, 4],[5, 6], [7, 8]])
    Label = np.asarray([[0], [1], [0], [2]])
    # 数据[1,2],对应的标签是[0],数据[3,4],对应的标签是[1]
    #创建子类
    class subDataset(Dataset.Dataset):
        #初始化,定义数据内容和标签
        def __init__(self, Data, Label):
            self.Data = Data
            self.Label = Label
        #返回数据集大小
        def __len__(self):
            return len(self.Data)
        #得到数据内容和标签
        def __getitem__(self, index):
            data = torch.Tensor(self.Data[index])
            label = torch.IntTensor(self.Label[index])
            return data, label
    # 主函数
    if __name__ == '__main__':
        dataset = subDataset(Data, Label)
        print(dataset)
        print('dataset大小为:', dataset.__len__())
        print(dataset.__getitem__(0))
        print(dataset[0])
    

    输出的结果

    我们有了对Dataset的一个整体的把握,再来分析里面的细节:

    #创建子类
    class subDataset(Dataset.Dataset):

    创建子类时,继承的时Dataset.Dataset,不是一个Dataset。因为Dataset是module模块,不是class类,所以需要调用module里的class才行,因此是Dataset.Dataset!

    lengetitem这两个函数,前者给出数据集的大小**,后者是用于查找数据和标签。是最重要的两个函数,我们后续如果要对数据做一些操作基本上都是再这两个函数的基础上进行。

    三、DatasetLoader

    DataLoader(dataset,
               batch_size=1,
               shuffle=False,
               sampler=None,
               batch_sampler=None,
               num_works=0,
               clollate_fn=None,
               pin_memory=False,
               drop_last=False,
               timeout=0,
               worker_init_fn=None,
               multiprocessing_context=None)
    

    功能:构建可迭代的数据装载器; dataset:Dataset类,决定数据从哪里读取及如何读取;数据集的路径 batchsize:批大小; num_works:是否多进程读取数据;只对于CPU shuffle:每个epoch是否打乱; drop_last:当样本数不能被batchsize整除时,是否舍弃最后一批数据; Epoch:所有训练样本都已输入到模型中,称为一个Epoch; Iteration:一批样本输入到模型中,称之为一个Iteration; Batchsize:批大小,决定一个Epoch中有多少个Iteration;

    还是举一个实例:

    import torch
    import torch.utils.data.dataset as Dataset
    import torch.utils.data.dataloader as DataLoader
    import numpy as np
    Data = np.asarray([[1, 2], [3, 4],[5, 6], [7, 8]])
    Label = np.asarray([[0], [1], [0], [2]])
    #创建子类
    class subDataset(Dataset.Dataset):
        #初始化,定义数据内容和标签
        def __init__(self, Data, Label):
            self.Data = Data
            self.Label = Label
        #返回数据集大小
        def __len__(self):
            return len(self.Data)
        #得到数据内容和标签
        def __getitem__(self, index):
            data = torch.Tensor(self.Data[index])
            label = torch.IntTensor(self.Label[index])
            return data, label
    if __name__ == '__main__':
        dataset = subDataset(Data, Label)
        print(dataset)
        print('dataset大小为:', dataset.__len__())
        print(dataset.__getitem__(0))
        print(dataset[0])
        #创建DataLoader迭代器,相当于我们要先定义好前面说的Dataset,然后再用Dataloader来对数据进行一些操作,比如是否需要打乱,则shuffle=True,是否需要多个进程读取数据num_workers=4,就是四个进程
        dataloader = DataLoader.DataLoader(dataset,batch_size= 2, shuffle = False, num_workers= 4)
        for i, item in enumerate(dataloader): #可以用enumerate来提取出里面的数据
            print('i:', i)
            data, label = item #数据是一个元组
            print('data:', data)
            print('label:', label)
    

    四、将Dataset数据和标签放在GPU上(代码执行顺序出错则会有bug)

    这部分可以直接去看博客:Dataset和DataLoader

    总结下来时有两种方法解决

    1.如果在创建Dataset的类时,定义__getitem__方法的时候,将数据转变为GPU类型。则需要将Dataloader里面的参数num_workers设置为0,因为这个参数是对于CPU而言的。如果数据改成了GPU,则只能单进程。如果是在Dataloader的部分,先多个子进程读取,再转变为GPU,则num_wokers不用修改。就是上述__getitem__部分的代码,移到Dataloader部分。

    2.不过一般来讲,数据集和标签不会像我们上述编辑的那么简单。一般再kaggle上的标签都是存在CSV这种文件中。需要pandas的配合。

    这个进阶可以看:WRITING CUSTOM DATASETS, DATALOADERS AND TRANSFORMS,他是用人脸图片作为数据和人脸特征点作为标签。

    原文链接:https://blog.csdn.net/weixin_40244676/article/details/117043973

    1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长!
    2. 分享目的仅供大家学习和交流,请不要用于商业用途!
    3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入!
    4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!
    5. 如有链接无法下载、失效或广告,请联系管理员处理!
    6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!
    7. 如遇到加密压缩包,默认解压密码为"dtmb.taobao.com",如遇到无法解压的请联系管理员!
    8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载
    声明如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性

    灯塔资源网 » Pytorch数据读取之Dataset和DataLoader知识总结

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或 联络我们.。
    你们有qq群吗怎么加入?
    当然有的,如果你是帝国cms、易优cms、和pbootcms系统的爱好者你可以加入我们的QQ千人交流群https://www.dtymz.com/page-qun.html。

    发表评论

    • 1834会员数(个)
    • 9426资源数(个)
    • 0本周更新(个)
    • 0 今日更新(个)
    • 943稳定运行(天)

    提供最优质的资源集合

    加入VIP
    开通VIP 享更多特权,建议使用 QQ 登录