논문 읽기17 Densely Connected Convolutional Networks(DenseNet) 논문 제목 : Densely Connected Convolutional Networks논문 링크 : https://arxiv.org/pdf/1608.06993.pdf이번에 리뷰할 논문은 DenseNet이다.Abstract기존의 신경망이 L개의 layer가 있을 때 L개의 connection이 있다면,DenseNet은 2L(L+1) 개의 connection이 있다.How?Fig. 1을 참고하자. L개의 layer가 있다면 L+(L−1)+...+1=2L(L+1) 이다.첫 시작이 L인 이유는 input부터 모든 layer에 connection이 생기기 때문이다.이러한 DenseNet은 아래와 같은 장점을 지닌다.기울기 소실 문제 감소견고한 feature propagationfeature 재사용 장려para.. 2024. 11. 2. Going deeper with convolutions(GoogLeNet) 논문 제목 : Going deeper with convolutions논문 링크 : https://arxiv.org/abs/1409.4842Introduction기존과 데이터셋이 달라지지는 않았지만 성능이 향상된 이유는 새로운 아이디어, 알고리즘, 발전된 네트워크 아키텍쳐 덕분이다.또 전력과 메모리 사용량 역시 중요한 부분이다.실용적 활용을 위해 15억 번의 계산량을 넘지 않도록 했다.이번 논문에서는 efficient deep neural network architecture에 집중했다.여기서 "deep"이 2가지 의미로 사용되었다.1) 네트워크 아키텍쳐 자체가 "깊어"지는 것2) Inception module의 도입(더 deep해진 수준)Related WorkLeNet-5를 시작으로 CNN은 일반적인 구.. 2024. 11. 2. ImageNet Classification with Deep Convolutional Neural Networks(Alexnet) 논문 제목 : ImageNet Classification with Deep Convolutional Neural Networks논문 링크 : https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924a68c45b-Paper.pdf첫 논문 리뷰이다. 이제 막 읽게 되어 시간이 조금 걸리긴 했으나 9페이지(끝에 주석 페이지를 빼면 실질적으로 8페이지)뿐이라 그래도 금방 읽은 것 같다. 기본 배경지식을 쌓고 보니 술술 읽힌 것 같다.의의CNN Architecture를 사용해 ILSVRC에서 정확도를 획기적으로 높이며 주목을 받은 중요한 논문이다. 이전까지는 SVM과 같은 비-딥러닝 방식이 우세했으나 본격적으로 컴퓨터 비전에 딥러닝이 유용함.. 2024. 11. 2. Fast R-CNN 논문 제목 : Fast R-CNN논문 링크 : https://arxiv.org/pdf/1504.08083.pdf이번에 리뷰할 논문은 Fast R-CNN이다.논문 제목이 곧 모델명.. ㅋㅋㅋ 단순하지만 강렬하다.기존의 R-CNN이 상당히 느리다는 단점이 있다.GPU로 13초, CPU로 53초.. 실시간은 어림도 없고, 이미지 100장만 분석해도 1300초가 걸린다!또 기존 모델은 linear SVM, AlexNet(CNN), Bounding Box regressor 3개를 학습시켜야 해서 비효율적이다.따라서 이러한 단점들을 개선한 것이 이번 Fast R-CNN이다.한 번 살펴보자![후기]생각보다 술술 읽혀서 좋은 논문이다.구조도 깔끔하고, 단어 선택도 잘 되어있어 읽기 편했다.마지막에 저자의 질문을 바탕으.. 2024. 11. 2. 이전 1 2 3 4 5 다음