본문 바로가기

분류 전체보기18

Deep Residual Learning for Image Recognition(ResNet) 논문 제목 : Deep Residual Learning for Image Recognition논문 링크 : https://arxiv.org/abs/1512.03385Abstract깊은 neural net은 학습하기가 힘들다.그래서 residual learning framework를 활용해서 더 깊은 network를 효과적으로 학습했다.Accuracy가 증가했고 optimize도 쉬워졌다.평가에 사용된 layer는 152개로 VGG net보다 8배 깊어졌다.ImageNet의 데이터셋으로 3.57%의 error를 달성했다.1. Introduction깊은 신경망은 이미지 분류에 자주 이용되었다.네트워크의 깊이가 상당히 중요하기 때문이다.그렇다면 항상 더 많은 layer를 쌓으면 더 좋은 네트워크를 얻을까?이를.. 2024. 11. 2.
Densely Connected Convolutional Networks(DenseNet) 논문 제목 : Densely Connected Convolutional Networks논문 링크 : https://arxiv.org/pdf/1608.06993.pdf이번에 리뷰할 논문은 DenseNet이다.Abstract기존의 신경망이 L개의 layer가 있을 때 L개의 connection이 있다면,DenseNet은 2L(L+1)​ 개의 connection이 있다.How?Fig. 1을 참고하자. L개의 layer가 있다면 L+(L−1)+...+1=2L(L+1)​ 이다.첫 시작이 L인 이유는 input부터 모든 layer에 connection이 생기기 때문이다.이러한 DenseNet은 아래와 같은 장점을 지닌다.기울기 소실 문제 감소견고한 feature propagationfeature 재사용 장려para.. 2024. 11. 2.
Going deeper with convolutions(GoogLeNet) 논문 제목 : Going deeper with convolutions논문 링크 : https://arxiv.org/abs/1409.4842Introduction기존과 데이터셋이 달라지지는 않았지만 성능이 향상된 이유는 새로운 아이디어, 알고리즘, 발전된 네트워크 아키텍쳐 덕분이다.또 전력과 메모리 사용량 역시 중요한 부분이다.실용적 활용을 위해 15억 번의 계산량을 넘지 않도록 했다.이번 논문에서는 efficient deep neural network architecture에 집중했다.여기서 "deep"이 2가지 의미로 사용되었다.1) 네트워크 아키텍쳐 자체가 "깊어"지는 것2) Inception module의 도입(더 deep해진 수준)Related WorkLeNet-5를 시작으로 CNN은 일반적인 구.. 2024. 11. 2.
ImageNet Classification with Deep Convolutional Neural Networks(Alexnet) 논문 제목 : ImageNet Classification with Deep Convolutional Neural Networks논문 링크 : https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf첫 논문 리뷰이다. 이제 막 읽게 되어 시간이 조금 걸리긴 했으나 9페이지(끝에 주석 페이지를 빼면 실질적으로 8페이지)뿐이라 그래도 금방 읽은 것 같다. 기본 배경지식을 쌓고 보니 술술 읽힌 것 같다.의의CNN Architecture를 사용해 ILSVRC에서 정확도를 획기적으로 높이며 주목을 받은 중요한 논문이다. 이전까지는 SVM과 같은 비-딥러닝 방식이 우세했으나 본격적으로 컴퓨터 비전에 딥러닝이 유용함.. 2024. 11. 2.