분류 전체보기 (47) 썸네일형 리스트형 [Paper Review] [CV] Going deeper with convolutions 1. Introduction지금까지 딥러닝으로 이미지 인식과 객체 감지의 품질이 많이 좋아졌다.주로 새로운 아이디어나 알고리즘, 개선된 네트워크 아키텍처 덕분에 좋아졌다고 할 수 있다. 그리고 모바일 및 임베디드 컴퓨팅의 지속적인 확장으로 전력과 메모리 사용의 중요성도 증가했다.이로 인해 GoogLeNet 모델은 매개 변수 수가 12배나 적으면서도 정확도는 더 높았다. 본 논문에서는 Inception이라는 코드명을 가진 효율적인 딥 뉴럴 네트워크 구조에 집중한다.Inception이라는 모델은 NIN 논문과 'We need to go deeper' 라는 문장에서 유래한다.여기서 'deeper'는 Inception 모듈로 새로운 수준의 조직을 도입한다는 의미와 네트워크 깊이를 증가시키는 직접적인 의미이다.2.. [Paper Review] [CV] Visualizing and Understanding Convolutional Networks 1. Introduction이 논문에서는 특정 계층의 feature maps을 활성화하는 입력 자극 (input stimuli)을 시각적으로 나타내는 기법을 소개한다. 이 시각화 기법은 다층 디컨볼루션 네트워크 (deconvolutional network, deconv) 를 사용해서 특징 활성화(feature activation)를 다시 입력 픽셀 공간에 투영하는 방식으로 구현된다. 또한 분류기의 출력에 대한 민감도 분석을 수행해 입력 이미지의 일부를 가려보면서 분류에서 중요한 부분을 분석한다. 1.1 관련 연구 해석신경망의 동작 방식을 직관적으로 이해하기 위해 feature를 시각화하는 것은 일반적인 연구 방식이다.하지만 이는 주로 첫 번째 층에만 적용 되고 더 높은 계층에는 어려움이 있다.이러한 문제.. [Paper Review] [CV] Very Deep Convolutional Networks for Large-Scale Image Recognition(VGG) 1. Introduction본 논문에서는 Convnet 아키텍처의 깊이를 주요 연구 대상으로 삼는다.기존의 Convnet 구조에서 다른 주요 하이퍼파라미터는 고정하고 convolutional layers 개수를 점진적으로 증가하는 방식을 적용한다. 2. ConvNet Configurations2.1 Architecture입력 및 전처리 : 224X224 RGB 이미지전처리 : 각 픽셀에서 훈련 세트의 평균 RGB 값을 뺌컨볼루션 연산 : 3X3stride = 1padding = 1Max-pooling : 2X2 윈도우, stride 2컨볼루션 층 뒤에는 3개의 Fully Connected LayerReLU 활성화 함수 사용 2.2 ConfigurationsTable 1- 네트워크 별로 기본 설계를 따르지.. [Paper Review] [CV] Network In Network 1. IntroductionCNN은 컨볼루션 레이어와 풀링 레이어로 쌓여있다.컨볼루션 레이어는 선형 필터 (GLM) 를 이용해 feature을 추출하고 비선형 활성화 함수로 feature map을 생성한다.선형 필터는 선형 분리가 가능한 데이터에만 잘 작동하며, 현실의 데이터는 대부분 비선형적인 구조를 가지므로 CNN의 표현력이 제한된다. NIN 구조는 GLM 대신 MLP를 사용해 비선형 특징 추출이 가능하도록 개선한다.NIN에 mlpconv와 Global Average Pooling (GAP)을 사용한다. 2. Convolutional Neural Networks기존 CNN은 컨볼루션 레이어와 공간적 풀링 레이어를 쌓은 구조이다.컨볼루션 레이어는 선형 필터를 사용하여 특징을 추출한 후, ReLU 활성화.. [Paper Review][CV] ImageNet Classification with Deep ConvolutionalNeural Networks 1. Introduction현재 객체 인식 방법은 머신러닝 방법을 필수적으로 사용한다.성능을 더 향상시키려면 더 많은 양의 데이터셋, 강력한 모델 학습, 과적합 방지 기술을 사용해야 한다.이 논문에서는 대규모 CNN과 고성능 GPU를 결합하여 객체 인식에서 최고의 성능을 기록했다. 2. The Dataset1,500만 개의 라벨링된 이미지로 구성된 ImageNet 데이터를 사용한다. ImageNet에서는 Top-1 Error Rate, Top-5 Error Rate 두 가지 오류율을 보고한다.Top-1 Error Rate : 모델이 예측한 가장 높은 확률의 라벨이 정답이 아닌 확률Top-5 Error Rate : 모델이 예측한 상위 5개의 라벨 중 정답이 없는 경우의 확률 ImageNet에 다음과 같은 .. [Paper Review][CV] GradientBased Learning Applied to DocumentRecognition II. Convolutional Neural Networks for Isolated Character Recognition경사하강법으로 학습된 다층 신경망은 대규모 데이터를 학습할 수 있기 때문에 이미지 인식 작업에서 유망적이다.전통적인 패턴 인식 모델에서는 fully connected된 다층 신경망이 feature를 기반으로 분류 작업을 한다.그러나 더 흥미로운 방법은 feature를 추출하는 단계에서도 학습을 최대한 하는 것이다. 1. 기존 fully connected 신경망의 한계- 매우 큰 입력 이미지- 학습 데이터 부족- 메모리 요구 사항- 변형에 대한 취약성 2. 이미지 전처리의 한계문자 이미지나 2D, 3D 신호들은 신경망의 고정된 입력 크기에 맞게 정규화를 해야 한다.하지만 손글씨 같은 데.. [Machine Learning][3] 분류 (2) 4. 다중 분류이진 분류기는 두 개의 클래스를 구별하지만 다중 분류기는 둘 이상의 클래스를 구별할 수 있다. 이진 분류기를 여러 개를 사용해 다중 클래스로 분류하는 기법도 있다.데이터를 분류할 때 각 분류기의 결정 점수 중에서 가장 높은 것을 클래스로 선택하면서 진행한다.이것을 OvR 전략 또는 OvA라고 한다. 또 다른 전략은 각 데이터의 조합마다 이진 분류기를 훈련시킨다. 예를 들어 0과 1 구별, 0과 2 구별 등으로 훈련시킨다.이를 OvO 전략이라고 한다.OvO 전략의 장점은 각 분류기의 훈련에 구별할 두 클래스에 해당하는 샘플만 있으면 된다는 것이다.서포트 벡터 머신 같은 알고리즘은 훈련 세트 크기에 예민해 OvO를 선호한다.from sklearn.svm import SVCsvm_clf = SV.. [Machine Learning][3] 분류 (1) 1. MNISTMNIST 데이터셋 각 이미지에는 어떤 숫자를 나타내는지 레이블 되어 있다.from sklearn.datasets import fetch_openml# 사이킷런 1.2에서 추가된 parser 매개변수 기본값이 1.4 버전에서 'liac-arff'에서 'auto'로 바뀝니다.# 'auto'일 경우 희소한 ARFF 포맷일 때는 'liac-arff', 그렇지 않을 때는 'pandas'가 됩니다.# 이에 대한 경고를 피하려면 parser='auto'로 지정하세요.mnist = fetch_openml('mnist_784', as_frame=False) sklearn.datasets 패키지에는 세 가지 함수가 있다.- fetch_openml() : 실전 데이터셋 다운로드- load_* : 소규모 데이.. 이전 1 2 3 4 5 6 다음