Opening
- Super Resolution 분야에서의 최근 SOTA 논문들의 리스트를 찾아봅시다.
- [예시답안]
- CAR : Learned Image Downscaling for Upscaling using Content Adaptive Resampler
- SAN : Second-Order Attention Network for Single Image Super-Resolution
- DBPN-RES-MR64-3 : Deep Back-Projection Networks for Single Image Super-resolution
- DRLN+ : Densely Residual Laplacian Super-Resolution
- SRGAN+Residual-in-Residual Dense Block : ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
- Papers with Code - Set14 - 4x upscaling Benchmark (Image Super-Resolution)
Check-up 항목
- SRGAN 계보에서 최근 SOTA를 달성한 논문을 찾아보고 어떤 방법으로 문제를 개선했는지 토론해 봅시다.
- [예시답안]
- ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks
- 기존 SRGAN의 문제 →"the hallucinated details are often accompanied with unpleasant artifacts."
- SRGAN은 세세한 detail들에 이상한 것들, 즉, 실제와 다른 어떠한 모양이 나타남. 논문에서는 이러한 문제를 해결하고 더 좋은 SR 이미지를 만들기 위하여 기존 SRGAN에서 3가지를 수정합니다.
- Residual-in-Residual Dense Block (RDDB)를 도입하고 Batch Normalization을 제거하며 residual scaling을 사용합니다.
- Relativistic average GAN (RaGAN)을 사용하여 Discriminator의 구조를 형성합니다. RaGAN에서는 Discriminatort가 '이미지가 진짜인지 가짜인지' 판단하지 않고 '하나의 이미지가 다른 이미지보다 더 현실적인가 아닌가'를 판단합니다.
- activation function을 거치기전의 최종 VGG feature를 사용하여 perceptual loss를 계산합니다. 기존 SRGAN에서는 activation function까지 거친 VGG feature에 perceptual loss를 계산합니다.
- ESRGAN: Enhanced Super-Resolution Generative Adversarial Networks 리뷰
Closing
- SRCNN 계보에서 최근 SOTA를 달성한 논문을 찾아보고 어떤 방법으로 문제를 개선했는지 토론해 봅시다.
- [예시답안]
- SAN : Second-Order Attention Network for Single Image Super-Resolution → 공간적 특징 상관 관계를 이용하는 것 외에도, 보다 판별적인 표현을 위해 전역 공분산 풀링을 통해 특징적 상호 의존성을 배우는 SOCA(second-order channel attention)을 적용해서, 더 나은 특징 상관관계를 학습하는 기술을 적용함
- [논문정리] Second-order Attention Network for Single Image Super-Resolution

참고자료
'성장하기' 카테고리의 다른 글
[E-18] 문자를 읽을 수 있는 딥러닝 (0) | 2021.03.11 |
---|---|
[E-17] 다음에 볼 영화 예측하기 (0) | 2021.03.09 |
[E-15] 트랜스포머로 만드는 대화형 챗봇 (0) | 2021.03.01 |
[E-14] 폐렴아 기다려라! (0) | 2021.02.25 |
[서평] 비즈니스 머신러닝 (1) | 2021.02.22 |
댓글