博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
pytorch数据增强的具体细节
阅读量:4008 次
发布时间:2019-05-24

本文共 741 字,大约阅读时间需要 2 分钟。

在从dataloader中获取训练数据的时候(获取每个epoch的时候)pytorch会把下面Compose里面的transform都做一遍,但是由于里面有的操作有random属性(下面例子中只有RandomHorizontlFlip有随机属性,有的epoch做有的epoch不做),所以每个epoch对图片的处理方式都不尽相同,所以到达了数据增强的目的。然而每个epoch的的图片数量是不变化的。

data_transform={'train':transforms.Compose([ transforms.RandomHorizontalFlip(), transforms.Resize(image_size), transforms.CenterCrop(image_size), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]),
如果你是CenterCrop操作因为这是一个确定的操作,就是每个图片在输进模型的时候都进行中间裁剪,不论多少个epoch还是相当于在训练这100个图片,如果是0.5概率的randomCrop操作,因为这个随机属性的存在每个epoch拿到的训练数据都不尽相同(有的epoch进行了裁剪,有的epoch没有进行裁剪,但是一个epoch的训练数据都是100个),在多个epoch以后相当于你用200张图片在训练,达到了数据增强的目的。

如果是FiveCrop 和TenCrop操作又和上面的两种crop机制不一样,这两个才是是直接增加每个epoch的数据,将每个epoch中数据增加为了500张和1000张。

转载地址:http://ldzfi.baihongyu.com/

你可能感兴趣的文章
各种排序算法的分析及java实现
查看>>
SSH框架总结(框架分析+环境搭建+实例源码下载)
查看>>
js弹窗插件
查看>>
自定义 select 下拉框 多选插件
查看>>
js判断数组内是否有重复值
查看>>
js获取url链接携带的参数值
查看>>
gdb 调试core dump
查看>>
gdb debug tips
查看>>
arm linux 生成火焰图
查看>>
jtag dump内存数据
查看>>
linux和windows内存布局验证
查看>>
linux config
查看>>
linux insmod error -1 required key invalid
查看>>
linux kconfig配置
查看>>
linux不同模块completion通信
查看>>
linux printf获得时间戳
查看>>
C语言位扩展
查看>>
linux dump_backtrace
查看>>
linux irqdebug
查看>>
git 常用命令
查看>>