PTGAN 带转换模型和分割模型

目录

一、摘要:

二、MSMT17数据集介绍

三、实验流程和结果:

三、流程复现:


Paper 链接:Person Transfer GAN to Bridge Domain Gap for Person Re-Identification

https://arxiv.org/pdf/1711.08565.pdf

Dataset 链接: 

http://www.pkuvmc.com/publications/msmt17.html

一、摘要:

提出了一种针对于 ReID 的生成对抗网络 PTGAN,可以实现不同 ReID 数据集的行人图片迁移,在保证行人本体前景不变的情况下,将背景转换成期望的数据集 style。

另外本文还提出一个大型的 ReID 数据集 MSMT17,这个数据集包括多个时间段多个场景,包括室内和室外场景,是一个非常有挑战的数据集。

 

二、MSMT17数据集介绍

MSMT17数据集

  • 15 个摄像头:12个室外,3个室内
  • 采集4天,每天的天气不一样:大概是为了光线差异大一些
  • 选取每天早上,中午,下午的各3小时作为粗略的视频标注参考对象:即一天只考虑选9小时, 弃了晚上--->太黑贡献不大?
  • 在经过进一步选择后,最终版的视频只选了每个摄像头每天3个小时的视频,总共为 3*4天×15个摄像头= 180个小时
  • 所以视频时间从 9个小时 × 15个摄像头 × 4天 = 540个小时 ----->> 3个小时 × 4天 × 15个摄像头 = 180个小时

三、实验流程和结果:

实验想达到的效果:

论文公布的代码和cyclegan基本一样,但是没有提供模型和语义分割部分的代码;这也是我写这一篇比克的初衷

三、流程复现:

                                        

                      A                                                                                               B

要特别感谢这位玉树凌风的学弟,和我一起拍了一段视频,最后裁剪获得了以上小型数据集。希望学弟不要看到0-0

由于大部分RID数据集像素都很小,比较模糊,很难取得好的效果。

数据集制作流程:拍制视频->YOLOV3目标检测获取人像->人像分割(本文提供人像分割代码)->PTGAN换背景

                                       

                       A_                                                                                            B_

 

结果展示:

 

gan真个很神奇吧。

github地址:https://github.com/958099161/PTGAN

关于gan模型调参问题

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章