본문 바로가기

전체 글

(19)
Weakly-Supervised Physically Unconstrained Gaze Estimation 먼저 해당 포스팅은 CVPR 2021 논문 Weakly-Supervised Physically Unconstrained Gaze Estimation을 참고하여 작성되었음을 밝힙니다. 해당 논문은 NVIDIA에서 발표된 논문으로 물리적으로 제약받지 않는 시선 추정을 위한 비지도 학습 프레임 워크를 제안합니다. Gaze Estimation Network는 세부적으로 "look at each other"(LAEO)라는 상황에 대하여 GT 레이블 없이 시선을 추정하기 위하여 정의된 5가지 손실함수를 정의합니다. 이를 통해 Gaze Estimation Network는 점차적으로 정확한 pseudo-3D gaze 레이블 생성하게 됩니다. 1. Introduction 3D gaze estimation을 위해 존재하는..
KOALAnet : Blind Super-Resolution using Kernel-Oriented Adaptive Local Adjustment 먼저 해당 포스팅은 CVPR 2021 논문 KOALAnet : Blind Super-Resolution using Kernel-Oriented Adaptive Local Adjustment을 참고하여 작성되었음을 밝힙니다.
LSTM (Long Short-Term Memory) 먼저 해당 섹션의 포스팅들은 사이토 고키의 밑바닥부터 시작하는 딥러닝 2를 참조하여 작성되었음을 밝힙니다. 영상처리 분야와 더불어 기계 번역, 음성 인식 등 실생활에 큰 영향을 주는 기술의 근간에는 자연어 처리 분야가 활용되고 있는 것을 볼 수 있습니다. 더 나아가 멀티 모달리티 분야에서 딥러닝을 적용하여 문제를 해결하기 위해서는 자연어 처리와 시계열 데이터 처리에 대하여 추가로 학습할 필요가 있다고 생각하였기에 밑바닥부터 시작하는 딥러닝 2과 Github 레포지토리를 참조하여 공부해보고자 합니다. 3. Reference code class LSTM: def __init__(self, Wx, Wh, b): ''' Parameters ---------- Wx: 입력 x에 대한 가중치 매개변수(4개분의 가중..
RNN (Recurrent Neural Network) 먼저 해당 섹션의 포스팅들은 사이토 고키의 밑바닥부터 시작하는 딥러닝 2를 참조하여 작성되었음을 밝힙니다. 영상처리 분야와 더불어 기계 번역, 음성 인식 등 실생활에 큰 영향을 주는 기술의 근간에는 자연어 처리 분야가 활용되고 있는 것을 볼 수 있습니다. 더 나아가 멀티 모달리티 분야에서 딥러닝을 적용하여 문제를 해결하기 위해서는 자연어 처리와 시계열 데이터 처리에 대하여 추가로 학습할 필요가 있다고 생각하였기에 밑바닥부터 시작하는 딥러닝 2과 Github 레포지토리를 참조하여 공부해보고자 합니다. 1. RNN (Recurrent Neural Network)의 필요성 앞서 공부하였던 word2vec과 같이 단어의 분산 표현을 얻어내기 위한 신경망은 언어모델로 사용하였을 경우 큰 문제점이 존재합니다. 그것..
Batch Normalization : Accelerating Deep Network Training by Reducing Internal Covariate Shift 먼저 해당 포스팅은 PMLR 2015 논문 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift을 참고하여 작성하였음을 밝힙니다. 본 논문은 ICS(Internal Coveriate Shift)가 DNN(Deep Neural Network)의 효과적인 학습을 방해한다고 주장하며, 이를 해결할 수 있는 방법으로 배치 정규화(Batch Normalization)를 제안합니다. 추후에 개제된 How Does Batch Normalization Help Optimization? 논문에서 정말로 배치 정규화가 ICS 문제를 해결하는 가에 대한 의문이 제시되만, 배치 정규화가 DNN의 학습을 가속화 하며..
Word2Vec : CBOW와 Skip-Gram 먼저 해당 섹션의 포스팅들은 사이토 고키의 밑바닥부터 시작하는 딥러닝 2를 참조하여 작성되었음을 밝힙니다. 영상처리 분야와 더불어 기계 번역, 음성 인식 등 실생활에 큰 영향을 주는 기술의 근간에는 자연어 처리 분야가 활용되고 있는 것을 볼 수 있습니다. 더 나아가 멀티 모달리티 분야에서 딥러닝을 적용하여 문제를 해결하기 위해서는 자연어 처리와 시계열 데이터 처리에 대하여 추가로 학습할 필요가 있다고 생각하였기에 밑바닥부터 시작하는 딥러닝 2과 Github 레포지토리를 참조하여 공부해보고자 합니다. 1. CBOW (Continuous Bag of Words) 단어 간 유사도를 파악하기 위하여 단어를 벡터로 표현하는 방법 중 추론 기반의 기법으로 word2vec 방법이 있습니다. Word2vec는 CBOW..
The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks 먼저 해당 포스팅은 ICLR 2019 논문 The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks을 참고하여 작성하였음을 밝힙니다.
Distilling knowledge via Knowledge Review 먼저 해당 포스팅은 CVPR 2021 논문 Distilling knowledge via Knowledge Review을 참고하여 작성되었음을 밝힙니다.