본문 바로가기

Image Classification8

[Tensorflow] Image Classification Part 4 - Fine Tuning Image Classification - Fine Tuning (미세조정) 딥러닝에서 파인튜닝(FIne Tuning)이란? Pre-Trained 모델의 파라미터를 목적에 맞게 미세하게 조정하는 방법을 의미합니다. 모델의 특정 층(layer)을 동결(freezing)하고 새로 추가한 층과 함께 재학습시킵니다. Part3에서 학습한 전이학습 모델 중 DenseNet121과 MobileNet이 가장 유의미한 결과를 나타 냈기에, 두 모델을 기반으로 Fine Tuning을 진행해 보았습니다. Outline: 1. 데이터셋 다운로드 : 33개 자동차 모델 (현대, 기아, 제네시스, 쌍용, 르노) 데이터셋 다운로드 후 경로지정 2. 데이터 분할 : 지정한 경로로 부터 학습용 데이터(Training data)와 평가.. 2023. 4. 13.
[Tensorflow] Image Classification Part 3 - Transfer Learning2 Image Classification - Transfer Learning(전이학습) 다양한 전이학습 모델 중 이미지 분류에 적합한 4가지 CNN 모델을 테스트해 보았습니다. DenseNet121, MobileNet, ResNet50, VGGNet16 1. 데이터셋 다운로드 : 33개 자동차 모델 (현대, 기아, 제네시스, 쌍용, 르노) 데이터셋 다운로드 후 경로지정 2. 데이터 분할 : 지정한 경로로 부터 학습용 데이터(Training data)와 평가용 데이터(Valididation data)를 분리 3. 하이퍼 파라미터 설정: Epochs, Batch size, Learning rate 설정 4. 전이학습 : 사전학습 된 DenseNet121, MobileNet, ResNet50, VGGNet16 모.. 2023. 4. 7.
[Tensorflow] Image Classification Part 2 - Transfer Learning Image Classification - Transfer Learning 이미지 분류에서 전이학습(Transfer Learning)을 활용한 CNN 모델링(Modeling) 및 학습결과를 분석해 보겠습니다. 우선 전이학습이란? 방대한 데이터를 기반으로 사전 훈련된 모델(Pre-Trained Model)의 가중치와, bias를 불러와 새로 학습시킬 모델에 적용해 보는 기계학습 방법 중 하나입니다. 다양한 전이학습 모델 들 중 MobileNet을 기반으로 테스트해 보았습니다. 다음으로, layer 및 hyper parameter를 customize 하여 CNN 이미지 분류 모델을 설계해 보았습니다. 1. 데이터셋 다운로드 : 33개 자동차 모델 (현대, 기아, 제네시스, 쌍용, 르노) 데이터셋 다운로드 후 .. 2023. 3. 29.
[Tensorflow] Image Classification Part 1 - Data Mining Image Classification(이미지 분류) 이미지 분류는 컴퓨터 비전(Computer Vision, CV)에서 많이 사용되는 분야입니다. 이미지 분류의 진행과정은 다음과 같습니다. 1. 이미지 데이터 설정 : 33개 자동차 모델 (현대, 기아, 제네시스, 쌍용, 르노) 2. 데이터 수집 : 구글 이미지에서 Selenium library를 활용해 Crawling 진행 후 모델별 directory로 저장 3. 전처리 : 수집한 이미지 데이터에서 불필요한 이미지 제거 4. 학습 : directory별 33개의 클래스 설정 후 학습 5. 평가 및 시각화 : 학습 후 모델을 평가 하고 시각화 6. 최종 결론 Code Practice : 아래 Colab과 Git 링크를 통해 어떻게 구현되었는지 구체적으로 .. 2023. 3. 15.
[PyTorch] Vision Transformer(ViT) 논문구현 Vision Transformer Paper Implementation with PyTorch : "An image is worth 16x16 words: Transformers for image recognition at scale(2020)" Code Practice : 아래 Colab 과 Git 링크를 통해 어떻게 구현되었는지 구체적으로 확인해 보실 수 있습니다. Description Vision Transformer(ViT)는 CNN이 아닌 Transformer만을 사용하여 이미지를 분류합니다. 여기서 Transformer의 Self-Attention과 Self embedding을 차용했습니다. ViT의 메커니즘은 다음과 같습니다. 먼저 input 이미지를 패치 단위로 분할하고, 각 패치를 lin.. 2023. 2. 16.
[PyTorch] GoogLeNet 논문구현 GoogLeNet (InceptionV1) Paper Implementation : "Going deeper with convolutions.(2014)" Code Practice : 아래 Colab과 Git 링크를 통해 어떻게 구현 되었는지 구체적으로 확인해 보실 수 있습니다. Description GoogLeNet의 특징: 1. GoogLeNet Architecture: GoogLeNet은 네트워크의 depth와 width를 늘리면서도 내부적으로 Inception Module을 활용해 computational efficiency를 확보하였습니다.VGGNet은 깊은 네트워크(deeper network)로 AlexNet보다 높은 성능을 얻었지만, 파라미터 측면에서 효율성이 떨어집니다.반면 GoogLeNe.. 2023. 2. 7.