분류 전체보기 30

Artificial intelligence to estimate the tear film breakup time and diagnose dry eye disease

논문 제목 : Artificial intelligence to estimate the tear film breakup time and diagnose dry eye disease논문 링크 : https://www.nature.com/articles/s41598-023-33021-5 이번에 읽은 논문은 딥러닝을 사용한 안구건조 진단을 주제로 한 논문이다.정확도가 생각보다 낮고, 특수 장비로 측정 + 약물이 필요해서 발전 가능성이 보인다. 연구 의의 : Dry Eye Disease(DED) 진단에 딥러닝을 사용진단 장비 : SEC(Smart Eye Camera, OUI Inc.에서 개발한 스마트폰 부착형 장치) + 스마트폰 촬영진단 기준아시아 건상안 학회(ADES) 기준눈물막 파괴 시간(Tear Film B..

A soft thermal sensor for the continuous assessment of flow in vascular access

논문 제목 :  A soft thermal sensor for the continuous assessment of flow in vascular access논문 링크 : https://www.nature.com/articles/s41467-024-54942-3 1. 목적 : 혈액 투석을 받는 만성 신장 질환 환자(CKD)들이 받는 VA(Vascular Access, 혈관을 잇는 외과적 수술) 실패를 막기 위해 혈류 모니터링 2. VA 종류1)   VA fistula(동정맥루)Pros : synthetic graft보다 오래 지속, 감염 및 혈전 발생 가능성 낮음Cons : 성숙까지 몇 개월 걸림2)   synthetic graft(혈관 이식편)Pros : 며칠 내로 투석에 사용 가능Cons : 장기적 모..

Deep Compression(2016), Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding

논문 제목 : DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN CODING논문 링크 : https://arxiv.org/abs/1510.00149 이번에 읽을 논문은 Deep Compression으로, SqueezeNet에도 자주 등장하는 중요한 녀석이다.이 논문을 먼저 읽었어야 하는데.. 그 와중에 또 참여하신 Song Han 교수님.. 역시 TinyML 대가 다우시다.[후기]CSR 기법, Codebook을 쓴다는 발상이 획기적이다. 특히 Codebook method는 여러 압축에서 쓰일 수 있을 것 같다.1. Introduction로컬 기기에서 딥러닝 모델이 돌아간다면 pri..

SqueezeNet(2016) AlexNet-Level Accuracy with 50x Fewer Parameters and <0.5MB Model Size

논문 제목 : [SQUEEZENET] ALEXNET-LEVEL ACCURACY WITH50X FEWER PARAMETERS AND 논문 링크 : https://arxiv.org/abs/1602.07360 이번에 읽을 논문은 TinyML의 시조격인 SqueezeNet이다.기존 AlexNet을 대폭 축소한 모델을 발표해서 경량화의 중요성을 보여준다.[후기]SqueezeNet + Simple Bypass + Deep Compression까지 했다면 가볍고 더 정확도 높은 모델을 만들었을텐데 아쉽게도 그런 언급은 없다.Squeeze Layer 발상 자체가 신박하다.1. Introduction And Motivation작은 모델은 통신 오버헤드(연산에 필요한 시간, 메모리 등)가 작아 효율적 학습이 가능새로운 모..

Pruning

Neural Network를 빠르고 가볍게 만드는 방법 중 하나는 Pruning(가지치기)이다.Pruning이란 쉽게 말해서 node들을 가지치기하듯 잘라내서 가볍게 만들면서, 정확도 감소는 적게 만드는 기법이다.본 강의에서는 그러한 기법들의 장,단점과 사용법에 대해서 알려준다.Pruning 분류먼저 Pruning을 크게 분류해보자면 아래와 같이 분류할 수 있다.좌측으로 갈수록 불규칙하고, 우측으로 갈수록 규칙적이다.불규칙의 장점은 압축율이 높다는 점, 그리고 redundant weight들을 찾기가 쉽다는 점이다.단점이라면 저렇게 무작위로 되어있으므로 weight 크기 자체를 압축하기가 어렵다.규칙의 장점은 즉각적으로 속도를 높일 수 있다는 점이다.단순히 pruning해서도 그렇지만, 불필요한 weig..

VGGNet(2015), Very Deep Convolutional Networks For Large-Scale Image Recognition

논문 제목 : Very Deep Convolutional Networks For Large-Scale Image Recognition논문 링크 : https://arxiv.org/pdf/1409.1556.pdf이번에 리뷰할 논문은 VGGNet이다.원래 AlexNet-VGGNet-GoogLeNet.. 등의 순으로 소개했어야 하는데아무래도 구조가 간단해서 미루고 미루다보니 이제 한다.사실 구조만 보면 단순하기도 하고, ILSVRC 2등이라 크게 매력적이지 않을 수 있다.하지만 단순하기에 여러 model들의 BackBone으로 자주 쓰이고,당시 1등인 GoogLeNet보다 훨씬 간단한데 어떻게 저런 좋은 성적을 냈는지 살펴봐야 한다.그래서 이 논문을 리뷰하게 되었다.간략하게 핵심 위주로 살펴보자.Abstrac..

Pre-activation ResNet(2016), Identity Mappings in Deep Residual Networks

논문 제목 : Identity Mappings in Deep Residual Networks논문 링크 : https://arxiv.org/pdf/1603.05027.pdf이번 논문은 Pre-activation ResNet이다.지난 논문(WRNs)을 읽으며 Pre-activation을 무진장 많이 언급하길래,대체 뭘 했길래 이 논문에서는 저녀석의 성능을 뛰어넘을려고 애를 쓸까 하는 생각이 들었다.논문 공부법 - "참고 문헌을 따라간다"에 입각하여 이 논문도 읽게 되었다.후기 :중간 실험에서 conv3x3->conv3x3 2개 로 좁혀나가는 과정이 마음에 들었다.Gating은 죄다 실패한게 좀 웃프긴 했다.Pre-activation이 성공한 이유가 직관적으로 이해가 되니 되게 신기했다.아.. 이래서 되는구나..

Wide Residual Networks(2017)

논문 제목 : Wide Residual Networks논문 링크 : https://arxiv.org/pdf/1605.07146.pdf이번에 리뷰할 논문은 Wide Residual Network이다.여태 보던 논문 형태랑 조금 다르게 시원시원하고 글자도 큼직하다.기존의 ResNet보다 넓이를 더 넓힌 모델이다.나름 ResNet의 후속작으로 유명하기에 리뷰하게 되었다.매번 논문을 너무 자세하게 리뷰하다보니 너무 오래 걸린다.물론 내 말로 정리하다보니 이해도가 높아지고 추후 복습 시 유용하게 쓰일 것 같지만,그걸 감안해도 너무 오래 걸린다..따라서 최대한 요약해서 써볼 예정이다.후기 : CIFAR, SVHN, COCO에서 SOTA 성능을 냈지만 ImageNet에서는 못 내서 아쉽..전반적으로 너비 넓히는게 짱..

Inception-v2, v3(2015), Rethinking the Inception Architecture for Computer Vision

논문 제목 : Rethinking the Inception Architecture for Computer Vision논문 링크 : https://arxiv.org/pdf/1512.00567.pdf이번에 리뷰할 논문은 Inception-v2, v3에 대한 논문이다.기존에 중요도가 높은 Inception-v1, v4만 하고 넘어가려 했으나Inception-v2,v3에서도 읽어볼만한 부분(label smoothing 등등)들이 있어서 가볍게 읽어보려 한다.구현은 하지 않고 내용 위주로 리뷰할 예정이다.읽으면서 "즉"이 무쟈게 많이 등장할텐데, 이번 논문 표현이 좀 모호하고 복잡해서 내 나름대로 요약한 것이다.후기 : 정말 괄호와 "즉", 주석이 난무하는 글이었다.수식도 너무 많고, 기억도 잘 나지 않아 하나하..

Inception-v4(2016), Inception-ResNet and the Impact of Residual Connections

논문 제목 : Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning논문 링크 : https://arxiv.org/pdf/1602.07261v2.pdfAbstract매우 깊은 convolutional network는 이미지 인식 성능에 중요한 역할이다.특히 Inception 구조, residual 연결은 최근 성능 향상에 큰 영향을 주었다.이 논문에서 Inception network를 residual로 학습하면 훨씬 빨라짐을 알 수 있었다.또한 residual이 없는 expensive inception network보다 약간 더 성능이 좋았다.적절한 activation scaling이 매우 넓은 residual I..