프로그래밍/스파르타 코딩클럽 6

스파르타 - 가장 쉽게 배우는 머신러닝 - 4주차

Convolutional Neural Networks (합성곱 신경망) 합성곱(Convolution)은 예전부터 컴퓨터 비전(Computer Vision, CV) 분야에서 많이 쓰이는 이미지 처리 방식으로 계산하는 방식은 다음과 같다. 입력데이터와 필터의 각각의 요소를 서로 곱한 후 다 더하면 출력값이 된다. Filter, Strides and Padding : 5x5 크기의 입력이 주어졌을 때, 3x3짜리 필터를 사용하여 합성곱을 하면 3x3 크기의 특성맵(Feature map)을 뽑아낼 수 있다. 필터(Filter 또는 Kernel)를 한 칸씩 오른쪽으로 움직이며 합성곱 연산을 하는데, 이 때 이동하는 간격을 스트라이드(Stride)라고 한다. 그런데 이렇게 연산을 하게 되면 합성곱 연산의 특성상 출..

스파르타 - 가장 쉽게 배우는 머신러닝 - 3주차

Deep Neural Networks 구성 방법 딥러닝에서 네트워크의 구조는 크게 3가지 : Input layer(입력층), Output layer(출력층), Hidden layers(은닉층) 은닉층은 완전연결 계층 (Fully connected layer = Dense layer)으로 이루어져 있다. 기본적인 뉴럴 네트워크(Deep neural networks)에서는 보통 은닉층에 중간 부분을 넓게 만드는 경우가 많다. (입력4 - 은닉층8 - 은닉층16 - 은닉층8 - 출력층3) 활성화 함수(비선형 함수)를 어디다가 넣어야하는지도 중요한데, 보편적인 경우 모든 은닉층 바로 뒤에 위치한다. 딥러닝의 주요 개념 batch와 iteration : 전체 데이터를 모두 메모리에 올릴 수 없으니 (batch)씩..

스파르타 - 가장 쉽게 배우는 머신러닝 - 2주차

논리 회귀 (Logistic regression) 출력값을 이진 클래스(Binary class)로 나눌 때 사용한다. 가설은 Logistic function(=Sigmoid function)을 사용한다. 가로축을 라벨(클래스)로 표시하고 세로축을 확률로 표시한 그래프를 확률 분포 그래프라고 한다. 확률 분포 그래프의 차이를 비교할 때는 Crossentropy 라는 함수를 사용하게 되는데. 임의의 입력값에 대해 우리가 원하는 확률 분포 그래프를 만들도록 학습시키는 손실 함수다. 다항 논리 회귀 (Multinomial logistic regression) 여러개의 클래스로 나누는 방법을 다중 논리 회귀 (Multinomial logistic regression)이라 한다. 원핫 인코딩 : 다항 분류 (Mul..

스파르타 - 가장 쉽게 배우는 머신러닝 - 1주차

머신러닝의 회귀와 분류 회귀(Regression) : 출력값이 연속적인 소수점(float)으로 예측하게 하도록 푸는 방법을 회귀라고 한다. 분류(classification) : 출력값을 이진 클래스(Binary class)로 나눌 수 있다면 이진 분류(Binary classification), 여러 클래스로 나눌 수 있다면 다중 분류(Multi-class classification, Multi-label classification)라고 부른다. 머신러닝의 3가지 종류 지도 학습(Supervised learning) : 회귀와 분류 문제가 대표적인 지도 학습에 속한다. 지도 학습은 기계에게 입력값과 출력값을 전부 보여주면서 학습한다. 그런데 대부분 입력값에 해당하는 데이터는 있어도 출력값(정답)에 해당하는..