neural network

ConvNet (CNN) 이해하기

지난 시리즈에서는 뉴럴넷 중 가장 단순한 형태인 MLP, dense (fully connected) layer만을 사용하는 뉴럴넷과 이를 학습시키는 방법에 대해서 살펴보았다. MLP를 사용하면 효과적으로 비선형 함수를 모사할 수 있었고 이 덕분에 기존의 선형함수 기반 모형에 비해 훌륭한 성능을 낼 수 있었다.

(1) 선형 분류기
(2) 퍼셉트론과 신경망
(3) 학습에는 왕도가 없다
(4) 디테일

그러나 실제 데이터를 올바르게 분류하거나 회귀할 때에는 이보다는 복잡한 구조가 필요한 경우가 있다. 다음의 몇 가지 상황을 생각해보자.

1) MLP에서는 별도의 feature engineering 없이 raw feature 곧바로 입력층에 넣었었다. 붓꽃 데이터, 또는 데이터의 차원이 크지 않은 경우에는 raw feature를 전부 사용해도 모형의 파라미터 수가 크지 않았기 때문에 학습 과정에서 문제가 생기지 않았고 성능도 좋았지만, 이미지와 같은 데이터에서는 문제가 달라진다.

이미지 데이터를 예시로 들어보자. 가로 48픽셀, 세로 48픽셀의 컬러(RGB) 이미지 데이터를 생각해보자. 이미지의 각각의 픽셀을 하나의 feature 사용해서 MLP 입력층에 넣을 있을 것이다. 이렇게 feature engineering 없이 픽셀의 raw value 전부 입력으로 넣는다면, 뉴럴넷이 감당해야 하는 feature 차원수는 48 \times 48 \times 3 = 6912 된다. 겨우 가로세로 48픽셀밖에 안되는 저화질 이미지였는데도 feature 차원이 7000 달한다. Feature 갯수가 이렇게 많아지게 되면 컴퓨팅 속도가 저하되고 오버피팅의 위험이 생길 있다.

2) MLP에서는 샘플이 등장한 맥락을 고려하지 않았다. , 샘플들이 정렬되어 있는 순서가 중요하지 않았다. 그러나 주식 일별 종가, 문장 속 단어와 같은 데이터에서는 각 샘플의 앞 뒤로 어떤 샘플들이 있었는지의 정보(‘문맥’)도 중요하다. 이 경우엔 MLP만으로는 충분히 좋은 성능을 발휘할 수 없다.

이번 시리즈에서는 전통적인 dense layer 외에 이미지 등의 데이터를 처리하기 위해 새로이 고안된 뉴럴넷의 레이어에 대해서 살펴보고자 한다. 시작은 convolutional neural network (CNN; ConvNet) 구성하는 레이어들이다.

 

  • 2-D CONV layer
    • Convolution 연산
    • 수학/신호처리학적 의미
  • RELU layer
  • POOL layer
  • 일반적인 ConvNet 구조
  • ConvNet 개선하기
    • 1×1 convolution (InceptionNet)
    • Dense CONV 표현하기
    • 변형된 convolution

 

Convolutional (CONV) layer

앞의 예시에서 이미지의 픽셀을 그대로 feature 사용하는 것은 좋지 않은 방법이라는 것을 언급했었다. 대신 이미지로부터 독특한 특성만을 뽑아내어 feature 사용한다면 좋은 성능을 있을 것이다. 과정을 feature extraction이라고 하고, 이미지에서 feature extractor 동작하는 레이어가 바로 convolutional layer이다.

Convolutional layer 가지 가정을 전제로 한다.

  1. Local connectivity: 이전 레이어의 모든 뉴런과 연결되는 MLP에서와는 달리 CONV layer는 이전 레이어의 뉴런 중 일부와만 연결된다. 즉 이미지의 모든 픽셀과 연결되는 대신 이미지 중 일부분의 픽셀과만 연결된다.
  2. Spatial invariance: 이미지의 한 부분의 데이터 분포는 다른 부분에서의 데이터 분포와 다르지 않다. , 이미지의 분포적인 특성은 어느 부위에서든 동일하다고 가정하는 것이다.

Dense layer에서 입력 샘플을 1차원의 벡터 데이터로 보았다면, Convolutional layer 입력 샘플을 3차원의 텐서(Tensor) 데이터로 인식한다. Convolutional layer 입력 3차원 데이터를 적절히 변형해서 또다른 3차원 데이터를 출력한다.

스케치

Convolutional layer 하는 일을 자세히 살펴보자.

  1. 먼저 이미지에서 특징적인 부분을 추출하는 데에 사용될 필터(또는 커널)가 정의되어야 한다. 필터 크기는 이미지 크기보다 작거나 같다. 필터는 인풋 이미지를 시작부터 끝까지 차례차례 훑으면서(마치 sliding window처럼) 이미지 픽셀 값에 필터 값을 곱해 더한 값을 출력한다.
  2. 필터가 이미지를 얼마나 자세히 훑으면서 지나갈지를 결정해야한다. 이것을 stride라고 한다. Stride 1로 정의된 경우, 필터는 이미지 위를 한 번에 한 픽셀씩 이동하면서 자세히 훑는다. Stride 10으로 정의된 경우, 필터는 이미지 위를 한 번에 10픽셀씩 이동하면서 대충 훑는다. (가로방향 stride와 세로방향 stride를 다르게 설정할 수도 있다)

스케치

f_{ij}는 필터의 ij열 값, x_{ij}는 인풋 이미지의 ij열 값이다.

convolutional layer는 필터를 일정 간격씩 이미지 위에서 이동시키면서 필터 값을 이미지 픽셀값에 곱하여 더한 값을 출력한다. 출력된 feature map의 픽셀 하나는 인풋 이미지 중 3×3만큼의 정보를 바탕으로 결정된 값이다. feature map receptive field 크기는 3×3이 된다는 뜻이다. 인풋 이미지 중 3×3만큼을보고‘ Feature map의 픽셀 하나의 값을 계산했다는 의미다.

애니메이션으로 살펴보면 이해가 쉽다. 파란색은 인풋 이미지, 초록색은 필터이다.

1*VVvdh-BUKFh2pwDD0kPeRA@2x

초록색 필터가 이미지를 칸씩(stride=1) 돌아다니면서 곱의 합을 출력하는 것을 있다. 이렇게 출력된 (convolved feature 또는 feature map; 붉은색) 추출된 이미지의 특징이라고 생각하여 feature 사용할 있다.

필터 하나 하나의 feature map 만들어지므로, 필터 n개를 사용하는 CONV layer 출력은 depth=n 갖는 텐서가 된다. 만약 32×32짜리 컬러(depth=3) 이미지 하나가 필터 10개를 사용하는 CONV layer 통과하면 출력 depth 10 된다.

1*BSLjlJf31gj98ABJMCt3-g@2x

수학/신호처리학에서의 cross-correlation

주의해야할 것은 수학에서 정의하는 convolution 연산과는 다른 연산이라는 것이다. 오히려 뉴럴넷에서의 convolution 연산은 수학/신호처리에서의 cross-correlation 같다.

신호처리에서 cross-correlation은 두 신호간의 유사성을 잴 때에 사용되는 연산이라고 한다. 때문에 뉴럴넷에서의 convolution convolution filter input image 사이의 유사성을 측정해서 출력하는 연산이라고 생각할 수 있다. 필터와 이미지의 패턴이 유사하다면 절대값이 큰 값을, 그렇지 않다면 작은 값을 반환하는 것이다.

예를 들어, 아래처럼 우상에서 좌하로 향하는 사선 모양의 convolution filter는 이미지 내에서 사선 모양이 있는 부분(주로 이미지의 윤곽선)을 보면 큰 값을 출력한다. 아래 돌고래 이미지에서 우상좌하 사선 모양의 윤곽선이 도드라지게 추출된 것을 확인할 수 있다.

실제 ConvNet에서는 필터를 우리가 직접 정해주지 않고 알고리즘이 데이터를 바탕으로 문제 해결에 적합한 형태가 되도록 학습해나간다.

Zero padding

이미지에 필터를 적용할 때, 아무리 촘촘히(stride=1) convolution을 해도 출력된 feature map의 가로세로 크기는 원본 이미지에 비해 반드시 작아질 수 밖에 없다. 원본 이미지와 가로세로 크기가 같은 feature map을 얻기 위해서는 필터를 적용하기 전에 입력 이미지에 처리를 해주어야 한다.

1*W2D564Gkad9lj3_6t9I2PA@2x

단순하고도 널리 사용되는 방법이 바로 zero padding, 즉 원본 이미지의 상하좌우를 0값으로 둘러싸는(padding) 방법이다. 아무 정보가 없는 0값으로 이미지를 패딩함으로써 feature map의 가로세로 크기를 인풋과 같게 유지하면서 convolution layer를 깊게 쌓을 수 있다.

 

ReLU layer

CONV layer 통해서 이미지로부터 추출한 feature map에서 양의 값만을 활성화시키는 레이어다. ReLU layer에서는 feature map에서 특히나 두드러지는 특징을 다시 추출한다.

사실 별도의 layer라고 칭하기는 뭣하고, CONV layer activation function으로 ReLU 사용한 것이라 이해하면 쉽다.

output_19_0

ReLU activation 적용 후 우상좌하 사선 모양의 윤곽선이 매우 잘 추출되었다.

 

POOL layer

수많은 이미지를 처리하는 과정에서 필연적으로 맞딱뜨릴 수 밖에 없는 것이 바로 메모리 문제다. 특히나 CONV layer는 원본 이미지의 가로세로 크기를 유지하면서 depth를 수백~수천 수준으로 키우기 때문에 메모리를 많이 먹는 레이어다. 이때문에 이미지와 feature map의 가로세로 크기를, 특징은 유지하되 적절한 수준으로 다운샘플링하여 메모리를 절약할 필요가 있다. 다운샘플링 방법 중 ConvNet에서는 pooling을 사용한다.

가장 빈번히 사용되는 풀링은 max pooling이다. Max pooling pool region 내에서 가장 수치가 위치의 값만을 가져온다.

1*GksqN5XY8HPpIddm5wzm7A

2×2 pool size, stride 2 max pooling 적용한 모습이다. 2×2 pool region 내에서 가장 수치가 값만을 샘플링한 것을 있다.

Weakly-supervised localization 등의 문제를 해결할 때에는 average pooling 사용하기도 한다. Average pooling 해당 pool region 내의 모든 값을 평균내어 가져온다.

돌고래 이미지의 예시에 2×2 max pooling (stride 2) 적용한 결과, 아래와 같이 feature map 특징은 유지하면서 이미지 크기를 1/4 축소할 있었다.

output_20_0

 

ConvNet 일반적인 구조

일반적으로 ConvNet의 구조는 다음과 같이 표현할 수 있다.

\{(CONV + RELU) \times n + POOL \} \times m + (Dense \times k)

여기서 CONV + RELU + POOL feature extractor 역할을 하고 Dense layer classifier 또는 regressor 역할을 한다. 이미지 분류 문제를 예시로 들자면, CONV + RELU + POOL 인풋 이미지로부터 분류에 사용할만한 특징적인 feature 추출하고 Dense layer 추출된 feature 입력받아 이미지를 적당한 카테고리로 분류한다.

이 때 얕은(입력층에 가까운) CONV layer일수록 단순한 특성윤곽선, 음영 등을 추출하고 깊은(출력층에 가까운) CONV layer일수록 복잡한 특성동물 모양, 특정 색상 조합 등을 추출한다.

2012 ILSVRC에서 우승한 AlexNet이 유행시킨 구조라 할 수 있겠다. 딥러닝을 사용해서 효과적으로 이미지를 분석할 수 있다는 것을 보여준 첫 사례다.

1*qyc21qM0oxWEuRaj-XJKcw

그림에서 있듯, 5개의 CONV layer 3개의 dense layer 사용하여 최종적으로 1000 카테고리에 대한 softmax 값을 출력한다. AlexNet 대해서는 이후 기회가 자세히 다루도록 한다.

 

ConvNet 개선하기

1×1 convolution

어느 모형에서나 파라미터 수가 지나치게 많아지는 것은 overfitting 컴퓨팅 속도 저하를 의미하기에 좋지 않다. convolution 연산에 사용되는 파라미터 (필터값 ) 줄이기 위해서 1×1, 1xn 또는 nx1 convolution 사용할 있다.

n \times n \times 3 형태의 인풋 이미지에 receptive field 3×3 되도록, 128개의 필터를 사용해서 convolution 한다고 가정해보자. 단순히 3×3 filter 사용할 수도 있다. 경우 필요한 파라미터 수는 3 \times 3 \times 3 \times 128 = 3456개이다.

반면 1×1 > 1×3 > 3×1 순서로 convolution 한다면? 필요한 파라미터 수는 (3 \times 1 \times 1 \times 128) + (1 \times 1 \times 3 \times 128) + (1 \times 3 \times 1 \times 128) = 384 + 384 + 384 = 1152 뿐이다. 같은 크기의 receptive field 유지하면서 파라미터 수를 거의 1/3 수준으로 줄였다!

inception-v4-fig-5

구글에서 개발한 GoogLeNet에서 바로 이 방법을 활용한 Inception 구조를 사용한다.

Dense layer CONV layer 표현하기

Dense layer CONV layer 차이점은 local connection 뿐이다. Dense layer에서는 이전 레이어의 모든 뉴런이 다음 레이어의 모든 뉴런과 연결되어 있는 반면(그래서 fully connected layer라고도 불린다), CONV layer에서는 이전 레이어의 일부분만이 다음 레이어의 뉴런과 연결되어 있다.

그럼 CONV layer에서 이전 레이어의 모든 뉴런을 다음 레이어와 연결시킨다면? 즉 인풋 이미지의 일부분에만 필터를 적용시키지 않고 이미지 전체에 이미지와 동일한 크기의 필터를 적용시킨다면? Dense layer와 동일한 연산을 하는 CONV layer를 만들 수 있다. 계산해보면 파라미터 수도 일치한다.

스케치

Dense layer CONV layer로 대체함으로써 인풋 이미지 크기를 고정하지 않아도 된다는 이익을 얻을 수 있다. 사전에 정의된 크기의 이미지를 인풋하지 않으면 오류를 뿜는 Dense layer와는 달리, CONV layer는 사전 정의된 것보다 큰 이미지를 인풋해도 오류 없이 연산을 해낸다. (다만 3차원 텐서 형태로 출력하기는 한다)

1*wRkj6lsQ5ckExB5BoYkrZg

Fully Convolutional Network (FCN)이 바로 이 구조를 처음 제안한 모형이다.

특수한 Convolution

외에도 위에서 정의한 것과는 다른, 서로다른 문제에 특화된 특수한 convolution 사용할 수도 있다. 예를 들어 atrous convolution 구멍이 숭숭 뚫린 듯한 모양의 필터를 사용해서 receptive field 더욱 향상시킨다. Deconvolution Convolution 연산을 역으로 수행해 추출된 feature map 원본 이미지에 가까운 형태로 되돌린다.

특수한 convolution 연산들에 대해서는  페이지를 참고하면 좋다.

 

참고

인공신경망 이해하기 (4) 디테일

지금까지의 글에서는 머신러닝의 기초와 신경망의 구조 및 학습에 대해서 다루어보았다. 그러나 중간중간추후에 기회가 된다면 자세히 다루겠다고 미뤄둔 내용들이 있다.

(1) 선형 분류기
(2) 퍼셉트론과 신경망
(3) 학습에는 왕도가 없다

이번 글에서는 지금까지 다룬 뼈대에 살점을 붙여보려고 한다. 자주 등장하는 개념을 위주로 정리해보려 했다. 여기서부터는 신경망을 포함한 머신러닝 학습의 디테일이다.

 

  1. 정규화
    1. Ridge regularization
    2. Lasso regularization
    3. Elastic Net regularization
    4. Dropout
    5. DropConnect
  2. 수치적 최적화
    1. 일반 경사하강법
    2. 모멘텀 경사하강법
    3. 적응형 학습률 방법
  3. 데이터 전처리
    1. 센터링과 스케일링
    2. minmax 표준화
    3. 주성분 분석 (PCA)

 

정규화

정규화의 개념과 학습에서의 역할에 대해서는 이 글에서 언급했었다 ((1) 선형 분류기정규화 손실 추가하기). 간단히 다시 정리하자면, 분류기가 데이터에서 분류문제와 상관이 없는 노이즈까지 학습하지 않도록 제약을 두는 것을 말한다.

정규화 방법들의 디테일에 대해서 살펴보기 전에 가중치 행렬과 편향 벡터를 다시 들여다보자. 다음은 신경망의 한 층만을 식으로 나타낸 것이다. 선형 분류기의 판별함수와도 같은 식이다.

스케치

스케치 재활용 장난아니다..는 생각은 접어두고, 이 식 XW + b은 다음과 같이 더욱 간단히 줄일 수 있다. 두 식의 계산 결과는 완전 동일하다.

스케치

 

무슨 짓을 한걸까? feature 행렬 X의 열에 1열벡터를 추가해주었고 가중치 행렬 W와 편향 벡터 b를 합쳐서 하나의 큰 가중치 행렬로 만들었다. 이처럼 feature 행렬의 마지막 열에 1벡터를 추가해서 가중치와 편향을 하나의 벡터로 나타내는 기술을 “feature 행렬을 증강시킨다 (feature matrix augmentation; design matrix augmentation)”고 한다.

표기 및 구현상의 편의성을 이유로 실제 알고리즘을 코딩할 때는 증강된 버전을 많이 사용한다. 이제부터 말하는 가중치 행렬 W는 모두 증강된 가중치 행렬이다. , 가중치 w_{ij} 뿐만 아니라 편향 정보 b_k도 포함하고 있는 행렬이다. 편의상 편향 정보도 $w_{ij}$라고 호칭하겠다.

스케치

이제 우리의 가중치 행렬은 이렇게 생겼다.

 

Ridge 정규화 (L2 정규화)

이미 선형 분류기를 구현하는 과정에서 차례 다룬적이 있는 Ridge 정규화법 가중치 행렬 W 모든 성분 w_{ij} 제곱합 R(W) = \sum_{\forall (i, j)} w_{ij}^2 제약하는 정규화법이다. 제곱값(2차항) 제약하기 때문에 L2 정규화라고도 부른다.

스케치

Ridge 정규화된 가중치행렬은 전체적으로 고르고 작은 값을 선호하게 된다. 튀는 값이 있거나 전체적으로 가중치의 크기가 커지면 정규화 손실 R(W)의 값이 커진다.

 

Lasso 정규화 (L1 정규화)

가중치의 제곱합 \sum_{\forall (i,j)} w_{ij}^2 제약하는 Ridge 정규화와 달리 Lasso 정규화 가중치의 절대값의 R(W) = \sum_{\forall (i,j)} |w_{ij}| 제약한다. 1차항인 절대값항을 제약하기 때문에 L1 정규화라고도 널리 불린다.

Lasso 정규화된 가중치행렬은 중요한 feature에 연결된 가중치값을 제외하고는 작은 가중치값을 가지도록 제약하는 경향이 있다. 그래서 Lasso 정규화 강도를 점차 늘리면 가중치값이 분류 문제 해결에 중요한 feature 순서대로 0 되는 을 확인할 수 있다. 이를 그래프로 나타내면 다음과 같다.

output_7_0

feature에 대응하는 가중치값이 0으로 수렴하는 속도를 보여주는 이 플롯을 Lasso path라고 한다. 선형 분류기나 회귀분석에서는 Lasso path를 사용해서 feature 중요도를 판단하기도 한다. 더 천천히 0이 되는 가중치의 feature일수록 더 중요한 feature인 것이다. 그림의 경우는 X_4가 가장 중요한 feature라고 판단할 수 있다.

 

Elastic Net 정규화

1차항(Lasso) 2차항(Ridge) 모두 사용해서 정규화를 수도 있다.

R(W) = \alpha \sum_{\forall (i,j)} w_{ij}^2 + (1-\alpha) \sum_{\forall{(i,j)}} |w_{ij}|

여기서 \alpha [0, 1] 구간 내의 값으로 1차항 제약과 2차항 제약 사이의 밸런스를 조정하는 역할을 한다. \alpha=0 때는 Lasso 정규화와 동일해진다 (2차항 정규화항이 0 되어 사라진다). 반대로 \alpha=1 때는 Ridge 정규화와 동일해진다 (1차항 정규화항이 0 된다).

 

그래서 써야하나요

셋 중 무슨 정규화를 사용할지 고민이라면 그냥 Ridge를 쓰면 된다. 튀는 값을 불호하는 Ridge의 특성상 덜 공격적인 가중치값을 얻을 수 있다.

신경망 모형의 경우엔 주로 Ridge 정규화와 함께 아래에서 설명할 Dropout 기법을 사용해서 정규화한다.

 

Dropout

지금껏 설명한 다른 정규화법과 달리 Dropout은 신경망 기반 모형에 특화된 정규화 방법이다. Dropout의 직관은 이렇다: 각각의 뉴런은 매 학습에서 p의 확률로 활성화될 수도 있고 그렇지 않을 수도 있다.

스케치

이렇게 학습시킨 신경망의 분류결과는 마치 비슷하지만 서로다른 여러개의 신경망 모형들의 분류 결과를 평균내는 과 유사한 형태가 된다. 신경망 여러개의 결과가 평균내졌기 때문에 일반적이지 않은 분류 결과를 제거하는 정규화의 효과를 가진다.

Dropout을 사용하면 학습 과정에서 각 뉴런의 활성화 확률이 p이므로 활성화 기댓값은 E(a) = p \times f(XW) + (1-p)\times0 = p \times f(XW)이다. 즉, Dropout을 사용하지 않았을 때의 활성화함수값 f(XW)에 비해 크기가 p의 비율로 작아진다.

Test set에서 성능평가를 할 때에는 모든 뉴런이 활성화된 상태에서 분류를 하므로 활성화함수값을 학습할 때와 같은 크기로 조정해줘야 한다. 성능평가시의 활성화함수값에 \times p를 해주면 학습시의 활성화함수값과 같은 크기로 조정된다.

Test set에서 성능평가시에 활성화함수값의 크기를 조정해줘야하는 귀찮음때문에 새로운 방법이 고안되었다. 새로운 방법에서는 활성화함수값의 크기를 학습시에 \div p로 조정해준다. 이렇게 하면 학습시 활성화함수의 기댓값은 E(a) = \{p \times f(XW) + (1-p)\times0\} \div p = f(XW)가 되므로, 성능평가시에는 별도의 활성화함수값 조정을 해주지 않아도 된다.

이 방식을 inverted Dropout이라고 하며, 일반적으로 dropout을 사용했다고 하면 열에 아홉은 inverted dropout을 사용했다는 말이다. inverted가 아닌 dropout은 잘 사용하지 않는다.

 

DropConnect

Dropout 유사한 방법으로 DropConnect라는 방법이 있다. epoch마다 랜덤하게 뉴런의 출력 죽여버리는 Dropout 달리 DropConnect epoch마다 뉴런의 입력 랜덤하게 죽인다.

스케치

DropConnect 사용하면 특정 뉴런을 완전히 죽이지는 않고 일부 연결만 죽일 수도 있다. 따라서 DropConnect Dropout 포함하는, 더 일반적인 개념이라 있겠다.

 

 

수치적 최적화

수치적 최적화 역시 처음 선형 분류기를 학습시킬 때 언급했었다. 수치적 최적화는 손실함수값 L을 최소로 만드는 가중치값 W를 찾기 위해 사용됐었다. 지금까지는 경사하강법(또는 SGD)을 사용해서 수치적 최적화를 진행했었다.

 

일반 경사하강법

일반 경사하강법은 그라디언트의 반대 방향으로 가중치를 움직이며 최적의 가중치값을 찾는 방법이다.

W_{new} = W_{old} - \eta \frac{\partial L}{\partial W}

계산 시간과 메모리를 절약하기 위해서 확률적 경사하강법(SGD)를 사용할 수도 있었다. 매 학습에서 가중치 하나만으로 그라디언트를 계산하는 SGD는 아래와 같이 표현된다.

W_{new} = W_{old} - \eta \frac{\partial L}{\partial w_{ij}}

일반 경사하강법은 손실함수의 최저점 주변에서 가중치 값이 진동하는 특징이 있다.

 

모멘텀 경사하강법

모멘텀 경사하강법은 물리학적인 관점에서 경사하강법을 재해석한 방법이다.

손실함수 모양의 곡선에 공을 굴러 떨어뜨린다고 생각해보자. 공의 위치에너지와 운동에너지를 생각해볼 수 있다. 모멘텀 경사하강법에서는 그라디언트를 공의 위치에너지라고 생각한다. 최초의 운동에너지는 0이라고 본다.

  1. 위치에너지(= \frac{\partial L}{\partial W_{old}}) 운동에너지 v 변환된다.
    • v_{new} = \mu \times v_{old} - \eta \frac{\partial L}{\partial W_{old}}
    • 여기서 새로운 하이퍼 파라미터 \mu이 등장한다. m모멘텀이라고 부른다. 실제로는 마찰계수와 비슷한 역할을 한다 (업데이트 전의 속도 v_{old}를 감소시킨다).
  2. 1.에서 업데이트된 운동에너지만큼 가중치가 움직인다.
    • W_{new} = W_{old} + v_{new}
  3. 손실 함수가 수렴할 때까지 반복한다.

 

Nesterov 모멘텀 경사하강법

Nesterov는 모멘텀 경사하강법에 대한 좀 특이한(?) 개선법을 내놓았다.

을 이미 관측한 시점에서 가속도와 속도를 계산하면, 과거의 속도를 이용해서 미래의 공의 위치를 결정하는 것이므로 진짜 현실세계에서 떨어지고 있는 공의 물리적 성질과는 약간의 차이가 있을 것이다. 따라서 굴러가는을 더 현실에 가깝게 물리학적으로 모델링하려면 앞으로 공이 움직일 위치(W_{ahead}) 속도(\frac{\partial L}{\partial w_{ahead}})를 예측해서 공의 위치(가중치값 업데이트 W_{new})를 결정해야 한다.

Nesterov의 모멘텀 경사하강법은 이렇게 진행된다.

  1. 가까운 미래의 공의 위치 W_{ahead} 예측한다.
    • W_{ahead} = W_{old} + (m \times v)
  2. 가까운 미래의 위치 W_{ahead}에서의 그라디언트( 위치에너지; \frac{\partial L}{\partial W_{ahead}}) 계산한다.
  3. 위치에너지 \frac{\partial L}{\partial W_{ahead}} 운동에너지 v 변환시킨다.
    • v_{new} = \mu \times v_{old} - \eta \frac{\partial L}{\partial W_{ahead}}
  4. 운동에너지만큼 가중치를 움직인다.
    • W_{new} = W_{old} + v_{new}

모멘텀 경사하강법들은 일반 경사하강법에 비해 훨씬 빠른 속도로 손실함수의 최저점에 도달한다. 하지만관성때문에 손실함수의 최저점이 되는 값을 지나쳐버렸다가 되돌아오는(“overthrow”되는) 성질이 있다.

 

적응형 학습률(adaptive learning rate) 방법

모멘텀 경사하강법이 경사를 타고 내려오는 속도를 변형시켜 개선시켰다면, 적응형 학습률 방법은 학습 도중에 학습률 \eta를 변형시켜서 개선시킨다 – 그래서 이름이 적응형 학습률(adaptive learning rate)이다.

적응형 학습률 방법은 매 학습에서의 그라디언트 정보를 캐시(cache)라는 변수에 차곡차곡 “기억”해둔다. 그리고 캐시를 이용해서 학습률 \eta를 조정해 나간다. 학습이 진행되어 그라디언트가 작아져도 학습 속도가 느려지지 않도록 조정해주며 가중치를 fine-tuning하는 데에 도움이 된다.

Adagrad라고 이름붙은 방법은 다음과 같이 학습률 \eta를 조정한다.

  1. 그라디언트를 이용해서 캐시를 업데이트한다.
    • cache_{new} = cache_{old} + (\frac{\partial L}{\partial w_{old}})^2
  2. 학습률 \eta 조정(업데이트)한다.
    • \eta_{new} = \frac{\eta_{old}}{\sqrt{cache_{new}}}
  3. 가중치 W 업데이트한다.
    • W_{new} = W_{old} - \eta_{new} \frac{\partial L}{\partial W}

제프리 힌튼이 제시한 RMSProp이라는 방법에서는 캐시가 시간이 지남에 따라 정보를 조금씩잊어버린다”.

  1. 그라디언트를 이용해서 캐시를 업데이트한다. , 캐시는 이전 정보의 일부를 잊어버린다. decay rate \gamma만큼의 정보만 기억한다.
    • cache_{new} = \gamma \times cache_{old} + (1 - \gamma) \times (\frac{\partial L}{\partial w_{old}})^2
  2. 학습률 \eta 조정(업데이트)한다.
    • \eta_{new} = \frac{\eta_{old}}{\sqrt{cache_{new}}}
  3. 가중치 W 업데이트한다.
    • W_{new} = W_{old} - \eta_{new} \frac{\partial L}{\partial W}

 

실제 학습 시 각 방법의 움직임 특징을 보이기 위해서 움짤을 만들어봤다.

ezgif-5-72ec1ba217

이 애니메이션도 유명하다 (출처).

 

 

데이터 전처리

분류기에 학습을 시키기 전에 입력 데이터를 학습에 알맞게 변형시키는 과정을 일컬어 전처리(preprocessing)라 부른다. 전처리는 주로 학습 데이터의 본질만을 남겨두고, 학습에 방해가 되는 요소를 제거하는 역할을 한다.

예를 들어 붓꽃 분류 문제에서, 꽃받침 길이는 cm 단위로 측정되어 있는데 꽃받침 너비는 mm 단위로 측정되었다면 어땠을까? mm 단위로 측정된 값들이 대체로 cm 단위로 측정된 값보다 큰 수치로 기록되어 있을 것이고 이는 가중치의 업데이트에 좋지 않은 영향을 미칠 것이다.

전처리 과정에서는 이처럼 단위 차이에 의한 영향, 최대최소값의 차이에 의한 영향, 평균값의 차이에 의한 영향, 분포도 차이에 의한 영향 등 데이터의 본질과는 무관한 영향을 제거한다.

전처리시 주의해야할 점은 전처리 통계량(데이터 평균, 데이터 분산, eigenvalue, eigenvector, …)은 모두 training set에서만 계산되어야 한다는 것이다. 이에 대해서는 ‘(3) 학습에는 왕도가 없다‘ 에서 다루었다.

 

센터링(centering) 스케일링(scaling)

가장 간편하고 보편적인 전처리는 데이터를 평균 0, 분산 1을 따르도록 변형시키는 것이다. 이 중 평균을 0으로 만드는 과정을 센터링(centering)이라고 하고 분산을 1로 만드는 과정을 스케일링(scaling)이라고 한다.

굳이 하나를 고른다면 스케일링보다는 센터링이 훨씬 중요하다고 한다.

 

Minmax 표준화

데이터의 분포를 유지한 채로 모든 관측값이 일정 구간 (주로 [0, 1]) 사이에 존재하도록 변형하고 싶다면 minmax 표준화를 사용할 수 있다.

X_{normalized} = \frac{X - \min(X)}{\max(X) - \min(X)}

변형한 데이터는 모두 [0, 1] 사이의 값을 갖게 된다. 이 방법은 데이터를 센터링하지는 않기 때문에 신경망에 사용하기엔 부적합할 수 있다.

 

주성분 분석 (Principal Component Analysis; PCA)

주성분 분석은 상관관계가 존재할 수도 있는 데이터셋을 서로 독립인 성분(주성분)의 데이터셋으로 분리해주는 테크닉이다.

PCA 데이터의 공분산 행렬(covariance matrix) \Sigma 특이값 분해(singular-value decomposition; SVD)시키는 과정과 동일하다. 혹은 데이터의 상관 행렬(correlation matrix) R 고유값 분해(eigen-value decomposition)시키는 과정과 동일하다.

상관관계가 존재하는 데이터 X PCA를 통해서 세 행렬의 곱으로 분해할 수 있다.

X = Z_s D^{1/2} U^T, 따라서 Z_s = XUD^{-1/2}

여기서 Z_s 평균이 0이고 분산이 1이며 모든 차원이 서로 독립(full-rank) 데이터이다. D Z 차원의 분산의 행렬이다. 동시에 X eigenvalue 대각성분으로 가지는 대각행렬이기도 하다. U 회전행렬이다. 동시에 X eigenvector matrix이기도 하다.

스케치

이를 기하적으로 해석해보면 이렇다: 모든 차원이 서로 독립이고 표준화된 데이터 Z_s 차원간 상관관계가 존재하는 데이터 X U만큼 회전시키고 D^{-1/2} 표준화시켜서 얻을 있다. 과정에서 얻은 Z_1, Z_2 또는 Z_{s_1}, Z_{s_2} 주성분(principal component; PC)라고 부른다.

데이터를 센터링, 스케일링하는 대신 PCA PC를 사용해도 된다. 한 차원의 PC만으로도 대부분의 데이터 분산을 설명할 수 있다면 아예 데이터의 차원을 축소해도 된다. 그림의 경우 Z_1만으로도 대부분의 데이터 분산을 설명할 수 있으므로 Z_2 차원을 버리고 1차원으로 데이터를 축소시켜도 된다.

주저리 주저리 설명하긴 했지만 신경망 모형에서는 주로 PCA보다 센터링 + 스케일링을 선호한다고 한다.

 

여기까지 Batch Normalization 하나만 빼고 대강의 살은 붙였다.

다음 글에서는 신경망에 적용시킬 수 있는 특수한 층(layer) 구조에 대해서 다뤄보겠다. 이 내용을 다루면서 Batch Normalization도 다룰 생각이다.

 

 

참고

  • 이 글은 CS231n 강의록을 매우 많이 참고했다. 원 강의록을 읽어보시기를 강하게 추천드린다.
  • Adaptive learning rate method 내용은 이 페이지도 참고했다.
  • 첫 번째 수치적 최적화 비교 GIF를 만드는 과정에서 최적화할 함수 모양을 설정할 때 이 페이지를 참고했다.
  • 두 번째 수치적 최적화 비교 GIF는 CS231n에서 가져왔으나 원 출처가 따로 있다.
  • PCA 내용은 “Analyzing Multivariate Data” (Lattin et al., 2002)를 참고했다.

인공신경망 이해하기 (3) 학습에는 왕도가 없다

지금까지 선형 분류기를 통해 머신러닝의 기초를 짚어보았다. , 일부 특수한 비선형 문제를 해결하기 위해 사용되는 커널 트릭을 아주 간단히 다루었으며 신경망 기초 이론을 이야기하면서 2층 신경망을 직접 구현해서 대부분의 비선형 문제를 해결할 수 있다는 것을 보였다.

(1) 선형 분류기
(2) 퍼셉트론과 신경망

이번 글에서는 신경망(을 포함한 머신러닝 모델)을 학습시키고 성능을 평가할 때 주의해야 할 점들에 대해 포괄적으로 다뤄보고자 한다.

 

  1. Train set / test set
    1. Label skew 주의하기
  2. 하이퍼 파라미터 결정하기
    1. 결정해야 하는 하이퍼 파라미터
      1. 학습률 (learning rate)
      2. 정규화 강도 (regularization strength)
      3. ..
    2.  좋은 하이퍼파라미터 값 찾기
  3. 모형을 학습시키기 전에
    1. 초기 가중치, 편향 설정
    2. 데이터 전처리
    3. 초기 그라디언트 체크
    4. 초기 손실함수 체크
    5. 의도적 과적화
  4. 모형을 학습시키는 중에
    1. 손실함수 모니터링
    2. training set acc. vs. test set acc.
  5. 구현

 

Training set / Test set

앞서 과적화(overfitting) 현상에 대해 짧게 언급한 적이 있다. 모형이 데이터를 지나치게 학습한 나머지, 실제 카테고리 분류와는 관련이 없는 노이즈까지 학습해버리는 현상을 말한다.

사람 사진을 보고 남자인지, 여자인지, 혹은 둘 다 아닌지 성별을 구별해주는 모형을 학습시킨다고 해보자. 그런데 하필, 학습에 사용한 데이터에서 남자 사진은 모두 배경에 의자가 함께 찍혀있었다고 가정해보자.

제대로 학습된 모형이라면 이목구비의 생김새, 배치, 머리카락의 모양, 길이 등을 학습해서 성별을 구별할 것이다. 그러나 과적화된 모형은 배경에 의자가 있는지(카테고리 구분과 관련 없는 노이즈)를 보고 성별을 구별한다.

이러한 오버피팅 문제를 해결하기 위해서 정규화 손실항 R(W) 손실함수 L 추가한다는 것을 이야기했었다. , 정규화의 세기는 정규화 강도 (regularization strength) \lambda 사용해서 조절한다는 것도 이미 이야기한 있다.

여기서 의문이 생긴다. 정규화를 했어도 오버피팅이 일어날 있다. 오버피팅이 일어나지 않았는지 어떻게 확신할 있을까? 다른 말로 풀어보면 이렇다: 학습시킨 분류기가 학습에 사용한 데이터 외에 다른 데이터에도 일반적으로 동작한다는 것을 어떻게 확인할 있을까?

답은 간단하다. 직접 테스트를 해보는 수밖에 없다. 그리고 테스트를 하기 위해 우리는 가지고 있는 모든 데이터 중 일부만을 학습에 사용해야 한다. 전체 데이터를 두 조각으로 쪼개어 한 조각은 테스트 용으로 남겨둬야 한다는 말이다.

e18489e185b3e1848fe185a6e1848ee185b512.png

쪼갠 데이터 중 학습에 사용하는 데이터셋을 training set, 학습에는 사용하지 않고 테스트시에만 사용하는 데이터셋을 test set이라고 한다. 데이터를 쪼개는 비율은 정해져 있지는 않지만 일반적으로 train:test = 4:1, 7:3, 9:1 등을 많이 사용한다.

 

카테고리가 치우치지 않도록 쪼개야 한다

데이터를 쪼개는 과정에서 카테고리(라벨) 데이터셋의 카테고리가 종류로 치우칠 있다. 예를 들어,  붓꽃 데이터를 training set test set으로 쪼개는 과정에서 training set에는 setosa 종과 versicolor 종의 데이터만, test set에는 verginica 종의 데이터만 포함될 있다. 이런 경우 training set, test set 모두 데이터가 불완전하므로 제대로 학습 테스트를 수가 없다.

따라서 항상 train/test 데이터셋 쪼개기를 수행할 때에는 카테고리가 한 쪽으로 치우지지 않도록 조심을 기해야 한다.

가장 간편하면서도 많이 사용하는 방법은 전체 데이터를 랜덤 셔플한 다음 train/test set 쪼개는 이다.

e18489e185b3e1848fe185a6e1848ee185b513.png

(그럴 일은 많지 않겠지만) 극히 낮은 확률로 랜덤 셔플한 후 쪼개었음에도 카테고리가 치우칠 수 있다. 이런 상황을 방지하기 위해 아예 층화 추출(stratified sampling)을 해도 된다. 층화추출법은 전체 데이터에서 각 카테고리의 비율을 유지하며 샘플링하는 기법이다. 그러나 오히려 층화추출에 의해 test set의 카테고리가 치우치는 경우가 있어서 그냥 랜덤 셔플 후 샘플링 방법을 사용하는 것이 다수이다.

e18489e185b3e1848fe185a6e1848ee185b514.png

Train set은 최종 테스트(모형 성능평가)를 위해 가만히 남겨두고, training set만 가지고 놀도록 하자. 이제 학습에 사용할 데이터셋은 준비가 됐다.

 

하이퍼 파라미터 결정

결정해야 하는 하이퍼 파라미터

하이퍼 파라미터(hyper-parameter)는 머신러닝에서 분류기 등 모형의 학습 양상을 결정하는 중요한 수치이다. 분류기를 학습하는 과정에서 업데이트되는 파라미터(parameter; 우리가 다루었던 가중치 W와 편향b이 여기에 속한다)와 달리, 하이퍼 파라미터는 분류기를 학습하기 전에 결정되고, 학습 과정에서는 일반적으로 업데이트되지 않는다그래서 hyper라고 부른다.

본격적으로 모형을 학습하기 전 우리가 정해야 하는 하이퍼 파라미터는 이런 것들이 있다.

학습률 (learning rate; \eta)

가장 먼저 살펴볼 하이퍼 파라미터는 학습률 \eta이다. 이녀석은 가중치를 업데이트할 때 등장했었다.

W_{new} = W_{old} - \eta \frac{\partial L}{\partial W}

b_{new} = b_{old} - \eta \frac{\partial L}{\partial b}

학습률 \eta의 값을 크게 설정할수록 한 번의 업데이트에서 가중치값이 변화하는 폭이 커진다 (학습 속도가 빨라진다). 반대로 \eta의 값을 작게 설정할수록 가중치값의 변화폭이 작아진다.

빨리 학습한다는 것이 듣기에는 좋아보이지만 경사하강법의 원리를 생각한다면 마냥 좋은건 아니다. \eta가 너무 크면 경사를 올바르게 타고 내려가지 못해서 이상한 값으로 가중치 W가 수렴해버릴 수 있기 때문이다.

그럼 아예 학습률을 아주 작게 설정해버리면? 학습에 너무 많은 시간이 걸려서 효율이 떨어진다. 가중치 W가 덜 좋은 값(non-optimum)으로 수렴해버리는 경우도 있다.

e18489e185b3e1848fe185a6e1848ee185b515.png

따라서 적절한 학습률을 설정하는 것이 모형 가중치의 수렴과 학습 효율에 중요하다고 하겠다.

신경망의 경우엔 처음에는 큰 학습률을 사용했다가, 일정 정도 이상 학습을 한 이후에는 학습률을 작게 조정하는 경우도 있다. 이러한 기술을 학습률 분해(learning rate decay)라고 한다. 가장 많이 사용하는 학습률 분해 테크닉은 다음과 같다.

\eta = \gamma^t \eta_0

여기서 \eta_0 초기에 설정한 학습률이고, \gamma [0, 1] 사이의 , t 학습 기간이다. 방법을 사용하면 일정 학습 기간 t마다 \gamma 비율로 초기 학습률이 점점분해되어작아진다. 일정 학습 기간마다 같은 비율로 학습률을 분해시킨다고 해서 방법을 step decay라고 하고 \gamma 분해율(decay rate)이라 부른다.

학습률을 분해시킬 때는 분해율 \gamma 분해기간 t 추가로 결정해줘야 한다. 다시말해 \gamma, t 하이퍼파라미터이다.

정규화 강도 (regularization strength; \lambda)

정규화의 세기를 정해주는 정규화 강도 \lambda도 하이퍼 파라미터다.

정규화 강도를 너무 세게 하면 데이터로부터 오는 손실이 무시될 수 있다 (데이터로부터 거의 학습을 하지 않는 underfitting 현상이 발생한다). 반대로 정규화 강도를 너무 약하게 하면 데이터의 노이즈까지 학습하는 오버피팅이 발생할 수 있다.

Dropout이라는, 신경망 모형에서 자주 사용하는 정규화 방법에선 뉴런이 특정 확률(p)로 활성화될 수도 있고 안 될 수도 있다. 이 때 뉴런이 활성화될 확률 p도 학습 전 결정해야하는 하이퍼 파라미터이다. Dropout에 대해서는 다른 글에서 자세히 살펴보기로 한다.

외의 하이퍼 파라미터

  • RNN에서 뉴런의 unfold 횟수
  • CNN에서 filter 크기 stride
  • 경사하강법 외의 다른 최적화 방법에 필요한 하이퍼파라미터

등등이 많지만 주로 초기 학습률 \eta_0, 학습률 분해율 \gamma 분해기간 t, 정규화 강도 \lambda 모형의 성능과 수렴에 중요한 영향을 미치기에 글에서는 자세히 다루지 않겠다.

 

좋은 하이퍼파라미터 찾기

validation set 만들기

결정해야하는 하이퍼 파라미터의 종류를 알았으니 이젠 그 값을 결정할 차례다. 어떤 값이 좋은 값인지는 어떻게 알 수 있을까? 다른 방법이 없다. 테스트를 해봐야 한다.

이 때 주의해야 할 것은 test set으로는 하이퍼 파라미터 테스트를 하면 안된다는 것이다. Test set으로 테스트한 하이퍼 파라미터를 사용하겠다는 것은 모형의 학습에 test set을 사용하겠다는 것과 같은 말이다. (Test set은 최종 모형의 성능 평가를 할 때, 딱 한 번만 사용해야 한다!)

e18489e185b3e1848fe185a6e1848ee185b516.png

대신 training set을 다시 한번 쪼개어 하이퍼 파라미터 테스트용 데이터셋을 만들기로 한다. training set을 쪼개어 만든 하이퍼 파라미터 테스트용 데이터셋을 우리는 validation set이라고 부른다. 만든 validation set에 다양한 하이퍼 파라미터 세팅을 시험해보면서 우수한 성능을 내는 값을 선택하면 된다.

Cross-validation (CV)

데이터를 여러개의 fold 나눈 다음 validation set 만드는 방법도 있다.

e18489e185b3e1848fe185a6e1848ee185b517.png

방법을 k-fold cross-validation이라고 한다. 주로 3 또는 5-fold CV 많이 사용한다.

Random search

Validation set에 시험해볼 하이퍼 파라미터 값은 어떻게 정할까? 정답: 무작위로 정한다. 그렇다고 완전 무작위로 하지는 않고 보통 다음과 같은 가이드라인을 따른다.

  1. 처음에는 큰 범위에서 무작위로 선택한다.
  2. 짧게 (1~3회 정도) 학습시킨다. 여기서 학습한다함은 가중치를 업데이트시킨다는 것이다.
  3. 좋은 성능을 내는 범위로 범위의 크기를 좀 줄여서 무작위로 선택한다.
  4. 길게 (5~10 정도) 학습시킨다.
  5. 범위를 조금 더 줄여서 무작위로 선택한다.
  6. 더욱 길게 학습시킨다.

이렇게 큰 범위에서 점점 좁은 범위로 하이퍼 파라미터 값을 선택해 나가면서 좋은 값을 fine-tuning할 수 있다. 최종적인 후보 값을 선택한 후에는 손실함수값이 수렴할 때까지 끝까지 학습을 시킨다.

 

모형을 학습시키기 전에

모형을 학습시키는 코드를 짜기 전에 고려해야 하는 문제가 몇 가지 있다. 첫째는 학습을 시작하기 전 모형을 구성하는 파라미터(W, b ) 등의 초기 값들을 어떻게 설정할 것인지에 대한 문제이고, 둘째는 모형이 올바르게 구현되었는지를 확인하는 문제이다..

 

초기 가중치 W 설정

학습 이전 초기 가중치는 평균이 0인 임의의 작은 수로 설정하는 것이 보편적이다.

W = np.random.randn((D, K)) * .01

그런데 뉴런에 입력되는 데이터의 feature 차원에 따라 판별함수값 s = XW + b = \sum w_ix_i + b_i 크기가 제각기 달라지므로, 판별함수값의 크기가 표준편차 1 갖도록 feature 차원수 n으로 표준화를 해준다.

W = np.random.randn(n) * .01 / np.sqrt(n)

ReLU 활성화 함수로 갖는 신경망층의 경우 \div \sqrt{n/2} 표준화해주면 된다고 증명돼있다.

W = np.random.randn(n) * .01 / np.sqrt(n/2.)

요즘은 batch normalization(BatchNorm; BN)이라는 방식을 사용하는 것이 거의 필수가 되었다. BatchNorm 대해서는 나중에 기회가 되면 다루기로 한다. 간단하게 정리해보자면

  • BN layer라는 표준화층을 모든 뉴런의 판별함수와 활성화함수 사이에 추가한다.
  • 표준화 과정에 사용되는 파라미터도 수치적 최적화(경사하강법 등) 과정에서 업데이트되도록 한다.
  • 시간이 지남에 따라 은닉층의 출력이 특정 방향으로 shift되는 것을 막을 수 있다.

 

초기 편향 b 설정

초기 편향은 간단히 영벡터로 설정해준다.

b = np.random.zeros((1, K))

 

입력 데이터 표준화

분류기에 입력시킬 데이터(train set, test set, validation set 모두) 또한 전처리(preprocessing) 해주어야 한다. 평균이 0, 표준편차가 1 되도록 모든 관찰값을 정규화해준다.

x_mean = np.sum(x, axis=0) / x.shape[0]   # 표본평균

x_std = np.std(x, axis=0)              # 표본표준편차

x_normalized = (x - x_mean) / x_std

주의할 점은 표본평균과 표본표준편차를 계산할 test set, validation set 사용하면 안된다 것이다. 표본평균/표준편차는 training set으로만 계산해야한다. Training set에서 계산한 값들로 validation set, test set표준화해주면 된다.

 

초기 손실함수값 체크

손실함수에서는 두 가지 사항을 확인해야한다.

  • nan이 아닌 값을 반환하는가
  • 예상되는 값과 비슷한 값을 반환하는가

구현한 손실함수가 학습 이전에 nan을 반환하거나 예상되는 값과 다른 값을 반환한다면 구현한 코드에 문제가 있을 가능성이 크다.

 

초기 그라디언트 체크

분석적으로 계산한(역전파로 계산한) 그라디언트가 수치적으로 계산한 그라디언트와 일치하는지 체크한다. 수치적으로 그라디언트는 미분의 정의(f^\prime (x) = \lim_{h \to 0} \frac{f(x+h) - f(x-h)}{2h}) 사용해서 계산할 있다.

분석적 그라디언트가 수치적 그라디언트와 일치하는지의 여부는 아래 에러함수의 값으로 판단한다.

\frac{|f^\prime_N - f^\prime_A|}{\max(|f^\prime_N|, |f^\prime_A|)}

여기서 f^\prime_N, f^\prime_A는 각각 수치적 그라디언트, 분석적 그라디언트이다. 그라디언트의 크기에 대한 상대적인 오류 비율이라는 의미에서 이 에러함수를 relative error라고 칭한다.

  • Relative error 값이 1e-7 이하이면 아무 문제 없다.
  • 1e-4 정도의 에러는 문제가 있을 수도 있다. ReLU처럼 미분불가능한 구간이 있는 경우엔 이정도 오류는 괜찮다. 미분불가능한 구간이 없는 경우엔 문제가 있는 에러 크기이다.
  • 1e-4 이상의 에러는 문제가 있다. 분석적 그라디언트를 잘못 계산했을 수 있다.

 

의도적 과적화

Training set에서 작은 크기의 샘플을 추출한 다음 이걸 모형에 학습시켜서 의도적으로 과적화를 유도한다. 의도적으로 과적화시켰음에도 100%에 가까운 accuracy를 얻을 수 없다면 이 모형으로는 해당 분류 문제를 해결할 수 없다. 즉 분류기 설계가 잘못됐거나 분리가 불가능한 데이터이다.

모든 사항을 확인했다면 이제 모형을 학습시키면 된다.

 

모형을 학습시키는 도중에

모형을 학습시키는 중에도 모형이 데이터를 잘 학습하고 있는지 체크할 필요가 있다. 머신러닝 모형의 학습양상은 손실함수값의 수렴과 test set에서의 accuracy를 확인함으로써 파악할 수 있다.

 

손실함수 모니터링

가중치 W와 손실함수 L는 머신러닝 모형의 내부를 보여주는 창이다. 특히나 손실함수는 은닉층 학습양상이 직관적이지 않은(블랙박스) 신경망 기반 모형의 학습양상을 파악하는 데에 큰 도움이 된다.

스케치

매 학습단계(epoch)에서의 손실함수값을 통해서 우리는

  • 학습률이 적절히 잘 설정되었는지
  • 학습이 잘 되었는지, 되다 만 것은 아닌지

등을 판단할 수 있다.

(1) 학습률이 너무 경우 손실함수 L 최적의 값이 아닌 값으로 수렴할 있다. 경우 학습률 \eta 작게 설정해야 한다.

(2) 학습률이 너무 작은 경우 손실함수 $\latex L$이 수렴하는 데에 훨씬 오랜 epoch가 필요하다. 컴퓨팅 파워와 시간이 충분하다면 epoch를 늘려보자. 그렇지 않다면 \eta 값을 조금 더 크게 설정해보는 것도 방법이다.

 

Test set accuracy 모니터링

학습단계에서 training set에서의 accuracy test set에서의 accuracy 비교하면

  • 오버피팅이 되었는지 (정규화 강도를 조절해야 하는지)
  • 언더피팅이 되었는지 (학습이 덜 되었는지, 분류기가 너무 단순하지는 않은지)

등을 판단할 수 있다.

e18489e185b3e1848fe185a6e1848ee185b519-e1524062685380.png

(1) test acc train acc 비해 너무 낮다면 오버피팅의 가능성이 크다. 경우에는 정규화 강도 \lambda 값을 키워볼 필요가 있다.

(2) test acc train acc와 거의 같다면 언더피팅을 의심해볼 수 있다. 이 경우 손실함수가 잘 수렴했는지, sub-optimal 값으로 수렴한 것은 아닌지 살펴보아야 한다. 손실함수에 문제가 없음에도 이런 현상이 나타났다면 모형이 해당 분류문제를 해결하기엔 너무 단순한 것일 수 있다. 파라미터 갯수를 늘려서 새로 모형을 만들어보자. 신경망의 경우 뉴런 수를 늘리거나 은닉층을 하나 추가해서 파라미터 갯수를 늘릴 수 있다. 물론, 그냥 문제가 쉬워서 test set에서도 성능이 좋게 나오는 걸수도 있다. 이 경우엔 두 accuracy 모두 1에 가깝게 나올 것이다.

 

구현

사실 이전 글에서 구현했던 분류기에는 지금까지 다뤘던 내용이 상당히 이미 코드에 포함되어 있다. 여기서는 나선형 데이터를 분류하는 2-layer NN을 구현하는 과정에서 초기 가중치 설정과 train/test set 분리, test set accuracy 모니터링을 추가로 코드로 구현해보았다.

왼쪽열 그래프들은 붓꽃 분류문제에서의 accuracy, 손실함수값이고 오른쪽 그래프들은 나선형 데이터 분류문제에서의 acc와 손실함수값이다. training set만으로 학습을 마친 뒤 decision hyperplane을 training set과 test set에 각각 덧씌워 그려보았다.

 

여기까지 살펴 보았듯이 머신러닝 모형을 학습시키는 데에는 왕도가 없다. 파라미터 초기화를 잘 해주고 세심히 하이퍼 파라미터를 조정한 다음 학습 과정을 유심히 지켜보며 문제가 생기지는 않는지 계속 모형을 관찰하며 어루만져 주어야 한다.

이제야 제대로 된 학습과 테스트까지 다루었다다음 글에서는 지금껏 자세히 다루지 않았던 내용들(경사하강법 이회의 수치적 최적화 방법, Ridge 외의 정규화 방법 등)을 차례차례 다뤄보고자 한다.

 

참고

  • 이 글은 CS231n 강의록을 매우 많이 참고했다. 원 강의록을 읽어보시기를 강하게 추천드린다.
  • 코드는 이 노트북에 있다.

인공신경망 이해하기 (2) 퍼셉트론과 신경망

이전 글에서는 분류 문제를 해결하기 위해 간단한 선형 분류기를 만드는 데에 필요한 요소들을 다루었다. 이제 우리는 분류기(모형)를 학습시키기 위해서는 판별함수 s, 정규화 손실항이 포함된 손실함수 L 필요함을 알고 있다. 또한 학습 과정에서 최적화 과정(SGD )을 통해 손실이 작아지는 방향으로 가중치 W와 편향 b의 값을 반복적으로 업데이트할 수 있다.

직선(또는 hyperplane)으로 서로 다른 카테고리의 영역을 구획짓는 가장 단순한 형태의 선형 분류기를 만들어 학습시킨 결과, 붓꽃 분류 문제를 92.7% accuracy로 성공적으로 분류해낼 수 있었다. 그러나 직선으로 구획지을 수 없는 분류 문제에서는 매우 낮은 성능을 보였다.

이번 글에서는 직선으로 구획지을 수 없는 분류 문제를 해결하는 분류기를 다루면서 신경망 이론에 (드디어!) 발을 들이고자 한다.

 

  1. 계속 선형 분류기를 고집하기
  2. 선형 분류기를 넘어서
    1. 퍼셉트론과 활성화 함수
    2. 다중층 퍼셉트론
  3. 신경망 학습시키기
  4. 2층 신경망 구현

 

선형 분류기를 고집하기 (커널 트릭)

선형 분류기(linear classifier)라는 이름은 판별함수값이 가중치 w_i feature x_i 선형 조합으로 표현될 있었기 때문에 붙은 이름이었다. 약간의 꼼수를 쓰면, 선형 분류기가 곡선적으로 판별하도록 변형시킬 있다.

붓꽃 분류 문제로 돌아가보자. 붓꽃 데이터에는 4차원의 feature(x_1: 꽃받침 길이, x_2: 꽃받침 너비, x_3: 꽃잎 길이, x_4: 꽃잎 너비) 존재했다. 여기에 추가로 다섯 번째 feature x_5 추가해보자. 다섯 번째 feature 꽃잎 길이의 제곱, x_5 = (x_3)^2이다.

이제 우리의 feature 데이터는 5차원이 되었다. 데이터의 차원이 바뀌었을 뿐, 여전히 판별함수의 식은 s = XW + b로 동일하다. 판별함수 식이 여전히 선형조합의 형태이므로 이 분류기 또한 여전히 선형 분류기라고 할 수 있다.

스케치

 

그러나 내부를 들여다보면 이 선형 분류기는 직선적으로 카테고리를 구획짓지는 않는다.

번째 관찰의 번째 카테고리의 판별함수값을 보면 s_{i1} = \sum_{j} w_{ji} x_{ij} + b_i = w_{1i} x_{i1} + w_{2i} x_{i2} + w_{3i} x_{i3} + w_{4i} x_{i4} + w_{5i} x_{i5} + b_i이고 x_5 = (x_3)^2이므로, 판별함수는 다음과 같은 이차식(, 곡선 또는 곡면) 형태 띄게 된다.

s_{i1} = w_{5i} (x_{i3})^2 + w_{1i} x_{i1} + w_{2i} x_{i2} + w_{3i} x_{i3} + w_{4i} x_{i4} + b_i

단순히 판별함수에 학습시키는 인풋 데이터를 변형함으로써 곡선적으로 분류하는 선형 분류기를 만들 수 있는 것이다. 인풋 데이터를 일정 규칙에 따라 변형시켜주는 함수를 커널 함수(kernel function)라고 하며 커널 함수를 사용해서 곡선적으로 분류하는 선형분류기를 만드는 것을 ‘커널 트릭(kernel trick)을 사용한다’고 한다.

XOR 문제

‘exclusive OR (XOR)’라고 불리는 다음과 같은 문제가 있다. 이런 형태의 데이터는 하나의 함수만으로는 분류가 불가능하다.

스케치

하지만 다항(polynomial) 커널을 사용해서 feature를 변형하면 직선적으로 분류가 가능해진다. 다항 커널을 사용해서 변형한 feature 값에 softmax 선형 분류기를 구현한 다음, 변형하기 이전 원래 feature 값에 판별 hyperplane을 나타내보면 아래처럼 곡선적으로 분류가 되었음을 확인할 수 있다.

poly_softmax

 

 

선형 분류기를 넘어서

똑같은 선형 분류기를 사용해도 단순히 인풋 데이터를 변형하기만 해도 몇몇 형태의 곡선적 데이터는 성공적으로 분류할 수 있다. 그러나 커널 트릭은 근본적인 해결책은 되지 못한다. 분류기의 형태는 여전히 단순 선형조합만으로 표현되므로, 커널 트릭으로 해결할 수 있는 곡선적 분류 문제는 극히 일부이다. 따라서 우리는 모든 경우에도 높은 성능을 내는 비선형 분류기(non-linear classifier)를 구현할 필요가 있다.

어떤 형태의 곡선적 또는 비선형 문제든지 모두 학습이 가능하도록 고안된 분류 모형 인공신경망(Artifical Neural Network; ANN)이다.

퍼셉트론

인공신경망에 다이빙하기 전에 퍼셉트론의 개념을 다룰 필요가 있다. 퍼셉트론(perceptron; 또는 그냥 neuron이라고도 )은 시신경세포를 수학적으로 비유/모델링하는 과정에서 탄생한 분류기이다. 실제 시신경세포의 작용과는 (당연히) 큰 차이가 있다. 입력 정보의 강도에 따라 출력 여부가 결정된다는 점(, 출력이 thresholding된다는 점)에 착안해서 만들어진 분류기라고 이해하면 좋다.

스케치

퍼셉트론 하나의 판별함수는 다음과 같이 식으로 나타낼 수 있다.

s = f(XW + b)

가중치 W feature X의 선형조합 XW + b에 함수 f를 씌운 형태이다. 여기서 함수 f는 출력의 여부 및 세기를 결정(뉴런으로 비유하자면 활성화 여부와 정도를 결정)한다고 해서 활성화 함수(activation function)라고 부른다. 활성화 함수로는 항상 비선형 함수를 사용한다.

활성화 함수를 softmax 함수로 설정하고 손실함수를 cross-category loss(L_i = - \sum_{j} p_{y_i} log{p_j}) 설정한 퍼셉트론은 앞서 구현한 softmax 분류기와 동일한 분류기가 된다. 비슷한 방법으로 손실함수를 max-margin loss 설정하면 퍼셉트론은 서포트 벡터 머신이 된다. 결국 퍼셉트론은 선형 분류기에 약간의 비선형 트윅(활성화 함수) 가한, 선형 분류기의 연장이다.

로지스틱 함수 외에도 쌍곡탄젠트 함수 등 몇 가지 활성화 함수가 제시되어 있지만 일반적으로 가장 많이 사용하는건 ReLU(Rectified Linear Unit)라는 녀석이다. ReLU activation을 식으로 나타내면 다음과 같고, 이는 0 이상 강도의 신호만을 출력하게 하는 0-역치값(zero-threshold) 역할을 한다.

스케치

다중층 퍼셉트론: 신경망

, 다시 XOR 문제로 돌아가보자. 지금까지의 내용을 정리해보면 이렇다.

  1. XOR 문제는 하나의 판별함수로는 분류할 수 없는 문제다 (두 개 이상의 함수가 필요하다).
  2. 퍼셉트론은 시신경세포에 대한 매우 단순한 수학적 모형이다.
  3. 퍼셉트론은 선형 분류기에 비선형 변형을 가한 출력값을 반환한다 (비선형 함수값을 준다).

이 내용을 보고 이렇게 생각해볼 수 있다:

  1. 그럼 함수 두 개 이상을 만들면 되겠네.
  2. 신경뭉치(더 나아가서, )처럼 퍼셉트론을 여러개 연결시키면 어떨까?
  3. 퍼셉트론은 곧 비선형 함수 한 개니까, 퍼셉트론 뭉치는 두 개 이상의 함수의 조합이겠네.
  4. 그럼 퍼셉트론 뭉치로 XOR 포함한 비선형 분류 문제를 해결할 있겠다!

이렇게 해서 퍼셉트론을 여러 쌓아 하나의 거대한 비선형 분류기를 만들 있다. 이를 다중층 퍼셉트론(multi-layer perceptron; MLP) 또는 신경망(Neural Network; NeuralNet; NN)이라고 부른다.

신경망은 다음과 같은 구성으로 이루어져 있다.

스케치

  • 입력층(input layer): 학습 데이터 feature를 입력받는 층이다. Feature의 차원 수(붓꽃 데이터의 경우 4)만큼의 뉴런 갯수를 가진다. 입력 층은 MLP 당 하나 뿐이다.
  • 은닉층(hidden layer): 입력층과 출력층 사이의 모든 층을 뜻한다. 입력층에서 입력받은 raw data에 대해 다수의 비선형 판별함수가 학습되는 층이다. 그림의 신경망에는 각각 6개 뉴런을 가지는 2개의 은닉층이 있다.
  • 출력층(output layer): 데이터에 대해 각 카테고리에 대응하는 판별함수값을 출력하는 층이다. 카테고리 수(붓꽃 데이터의 경우 3)만큼의 뉴런 갯수를 가진다. 출력층도 입력층과 같이 MLP 당 하나 뿐이다. 출력층에 있는 뉴런은 활성화함수를 가지지 않는 경우가 일반적이다.
  • 신경망은 “n-층 신경망”과 같이 층 갯수로 이름을 붙인다. 이 때 입력층은 갯수를 셀 때 포함하지 않는다. 그림의 신경망은 3 신경망이다.
  • 같은 층에 있는 뉴런끼리는 연결되어 있지 않다.
  • 한 층에 있는 뉴런은 다음 층에 있는 모든 뉴런과 연결된다.
  • 뉴런의 출력은 방향(출력층 -> 은닉층1 -> 은닉층2 -> … -> 출력층)으로만 전파된다.

은닉층이 하나 있는 2-layer neural net 식으로 다음과 같이 표현할 있다.

s = hW_2 + b_2 = f(XW_1 + b_1)W_2 + b_2

일반적인 n-layer neural net 다음과 같이 표현 가능하다.

s = h_{n-1}W_n + b_n = f_{n-1}(h_{n-2}W_{n-1} + b_{n-1})W_n + b_n = ...

활성화함수의 중요성이 여기서 드러난다. 비선형 활성화함수가 매 층 사이에 존재하지 않는다면 위의 식은 결국 가중치와 feature의 선형조합으로 정리된다. 다시 말해 활성화함수가 없다면 신경망은 선형 분류기와 동일해진다. 활성화함수가 신경망 분류모형에 비선형성(non-linearity)를 제공한다고 이해할 수 있는 대목이다. 이론적으로 하나 이상의 은닉층을 갖는 신경망으로 존재하는 모든 비선형 함수를 근사할 있음이 증명되어 있다.

Feature 데이터는 입력층 -> 은닉층 -> 출력층의 순서로 전파되어 판별함수값 s로 변환되며, 이 과정을 일컬어 ‘feed-forward’라고 한다.

 

신경망 학습시키기

신경망을 학습시키는 데에도 선형 분류기를 학습시킬 때와 마찬가지로 손실함수값 L를 계산하고, 손실함수값 L의 가중치 W에 대한 그라디언트를 계산해야한다. 계산한 그라디언트의 반대 방향으로 반복적으로 가중치를 업데이트하면 우수한 성능을 내는 신경망 분류기를 얻을 수 있을 것이다.

그런데 신경망에서의 그라디언트 계산은 선형 분류기에 비해 복잡하다. 한 차례 편미분으로 쉽게 그라디언트를 구할 수 있었던 선형 분류기에서와 달리, 신경망의 손실함수는 가중치 W로 직접 편미분하기에는 식이 복잡하다.

그래서 신경망의 그라디언트는 미분의 연쇄법칙(chain rule)을 사용해서 단계적으로 계산한다.

선형 분류기의 예시

비교적 단순한 예시부터 살펴보자.

앞서 구현한 선형 Softmax 분류기는 은닉층이 없는 신경망이라고 생각할 있다. 손실함수로 softmax 손실 + Ridge 정규화 손실(L = \sum_i L_i + \alpha R(W), L_i = - \log{\frac{e^{f_{y_i}}}{\sum_j e^{f_j}}}, R(W) = \sum_i \sum_j w_{ij}^2 + \sum_k b_k^2) 둔다고 , 선형 분류기의 feed-forward 아래와 같이 왼쪽(입력측)에서 오른쪽(출력층) 방향으로 일어난다.

Image

그라디언트의 계산은 feed-forward반대 방향으로 일어난다: 출력층에서 입력층의 방향으로 단계적으로 계산된다.

Image

연쇄법칙에 의해 \frac{\partial L}{\partial W} = \frac{1}{N} \sum_i \frac{\partial L_i}{\partial W} + \frac{\partial R(W)}{\partial W} = \frac{1}{N} \sum_i \frac{\partial L_i}{\partial f} \frac{\partial f}{\partial W} + \frac{\partial R(W)}{\partial W} 그라디언트를 계산할 있다.

2-layer Neural Net 예시

신경망에서도 똑같은 방법으로 역전파할 수 있다. 그림은 좀 더 복잡하다.

Image

이처럼 연쇄법칙을 사용해서 단계적으로, 출력층에서 입력층 방향으로 그라디언트 값을 전파하는 계산법을 역전파(back-propagation; backprop)이라고 한다.

 

2-layer Neural Net 구현

붓꽃 분류 문제

판별함수(신경망 구조)와 손실함수도 정의했고 그라디언트 계산법도 알았으니 이제 직접 붓꽃 종을 분류하는 신경망을 구현해볼 시간이다. 선형 분류기를 구현했을 때와 마찬가지로 붓꽃 측정치 중에서 2개의 차원(꽃받침 길이, 꽃잎 길이)만을 사용했다.

  • 데이터 손실로 softmax loss 가지고
  • 정규화 손실로 Ridge 정규화항을 가지며,
  • 2개 뉴런이 있는 입력층 하나와
  • 100개 뉴런이 있는 은닉층 하나와
  • 3개 뉴런이 있는 출력층을 가지는,
  • back-propagation으로 그라디언트를 계산하여 가중치를 업데이트하는

2층 신경망을 구현한 코드는 아래와 같다.

def train_nn(x, y, D, K, reg=.001, eta=.05, epochs=5000):
    # initialize weights
    W1 = np.random.randn(D, 100) * 0.01
    b1 = np.zeros((1, 100))
    W2 = np.random.randn(100, K) * 0.01
    b2 = np.zeros((1, K))

    # training process
    losses = []

    for epoch in range(epochs):
        h = np.maximum(0, x.dot(W1) + b1) # hidden layer
        f = h.dot(W2) + b2 # final layer

        # backprop to hidden layer
        p = np.exp(f) / np.sum(np.exp(f), axis=1, keepdims=True)
        dhidden = p.copy()
        dhidden[range(x.shape[0]), y] -= 1
        dhidden /= x.shape[0]
        dW2 = (h.T).dot(dhidden) + reg * W2
        db2 = np.sum(dhidden, axis=0, keepdims=True)

        # backprop the activation (relu)
        drelu = (dhidden).dot(W2.T)
        drelu[h <= 0] = 0

        # backprop to input layer
        dW1 = (x.T).dot(drelu) + reg * W1
        db1 = np.sum(drelu, axis=0, keepdims=True)

        # update weights
        W1 -= eta * dW1; b1 -= eta * db1
        W2 -= eta * dW2; b2 -= eta * db2

        # compute loss
        data_loss = -np.sum(np.log(p[range(x.shape[0]), y])) / x.shape[0]
        reg_loss = 0.5 * reg * (np.sum(W2**2) + np.sum(W1**2))
        loss = data_loss + reg_loss
        losses.append(loss)
        if epoch % 1000 == 0:
            print("{}: loss={}".format(epoch, loss))
 
    return W1, b1, W2, b2, losses

output_19_1

학습시킨 신경망으로 붓꽃 종을 분류한 결과 96% accuracy를 얻을 수 있었다 (선형 분류기에서는 92.7%였다).

자동으로 그라디언트를 계산해주는 Tensorflow등의 프레임워크를 사용하면 더 간단히 구현할 수 있다. 거기에 Keras와 같은 high-level 프레임워크를 사용하면 훨씬 더 간단히 구현할 수 있다. 그냥 구현은 남에게 맡기고 간단히 체험만 해보고싶다면 구글에서 제공하는 웹페이지에서 클릭 몇 번으로 간단한 신경망을 학습시킬 수 있다.

비선형 데이터 분류 문제

붓꽃 분류 문제는 선형 분류기로도 쉽게 해결할 수 있었다. 신경망은 비선형 분류 문제에서 더욱 빛난다. 선형 분류기를 사용했을 때는 엉망진창으로 분류되던 데이터가 신경망을 사용한 분류에서는 매우 높은 accuracy (~99%)로 해결되는 것을 확인할 수 있다.

지금까지 가장 단순한 신경망 구조인 MLP를 이용해서 비선형 분류 문제를 해결해 보았다. 다음 글에서는 신경망 구조를 학습시킬 때 주의깊게 살펴야 하는 점들에 대해 다루어보겠다.

 

참고

  • 이 글은 CS231n 강의록을 매우 많이 참고했다. 원 강의록을 읽어보시기를 강하게 추천드린다.
  • polynomial kernel을 사용한 softmax classifier 및 2-layer neural net를 구현한 전체 코드는 이 노트북에서 확인할 수 있다.
  • 애니메이션을 만들어보면 decision hyperplane이 학습되고 있는 상황을 확인할 수 있다. 꽤 재미지고 신기하다.

Animated GIF-downsized_large

 

인공신경망 이해하기 (1) 선형 분류기

인공지능이 알파고의 형태로 대중에 모습을 드러내 굉장한 충격을 가져다 준 이후, 인공지능에 대한 관심은 그야말로 폭발했다. 조류 인플루엔자, 어도비 일러스트레이터의 약자로 더 자주 쓰였던 AI는 대부분의 경우 인공지능을 뜻하게 되었다.

그러나 단순한 신경망 구조는 생각보다는 어렵지 않은 개념임에도 인공지능이라는 단어에서 오는 중압감과 다소 투박하게 표현된 수식 때문인지, 엔지니어 분야 밖의 대중적인 개념이 되는 데에는 실패한 듯하다.

여기서는 인공지능에 접점이 없었던 사람을 대상으로 현대 인공지능의 시작과 끝이라 할 수 있는 인공신경망(artificial neural network; ANN)의 개념을 여러 글에 거쳐 풀이해보고자 한다. 작성자 본인도 부족한 학생인지라 되도록 직관으로 이해가능하게 작성하려고 노력했다.

  1. 해결하고자 하는 문제
  2. 직선적 판별
  3. 올바른 분류법을 ‘배우기위해서 필요한 것들
    1. Weight과 bias
    2. Loss function
    3. Regularization
    4. Gradient descent optimization
  4. 선형 분류기 (중 softmax 분류기) 구현
  5. 비선형 분류기의 필요성

 

들어가기 전에

쉽게 설명하겠다는 명목 하에 개념 설명에 필수적인 내용을 빼먹는 건 설명의 본분을 다하지 않는거라 생각한다. (슬프게도?) 주제가 주제이다보니 제대로 이해하기 위해서는 수학과 컴퓨팅에 대한 기초가 필요하긴 하다.

행렬 연산, 미분에 대한 기초가 있으면 이해에는 큰 어려움이 없을 거라 생각한다. 덧붙여 기하적 해석이 가능하면 더욱 좋다. , 어떤 것이든 사용하는 데에 불편함이 없는 프로그래밍 언어가 하나 있으면 좋다. 여기서는 코드가 필요한 경우 Python 2.7.x 문법과 패키지를 사용했다.

 

해결하고자 하는 문제

여기서 신경망으로 풀어보려 하는 문제는 분류(classification). 분류 문제는 이전의 관찰 데이터를 바탕으로 새로운 관찰이 어떤 카테고리에 속하는지를 예측하는 문제다. 이 때 이전의 관찰 데이터에는 각각의 관찰이 어떤 카테고리에 속한 것이었는지에 대한 정보(라벨)가 함께 제공되어야 한다.

  • 스팸 메일 예측이 분류 문제의 대표적인 예시다. 지금까지 받은 모든 메일들(이전의 관찰 데이터)을 바탕으로 새로 온 메일(새로운 관찰)이 스팸인지 아닌지를 분류하는 것이다. 이 때, 지금까지 받은 메일들이 스팸인지 아닌지(‘라벨이라 한다)는 알고있어야 한다(라벨 정보가 있어야함).
  • 동식물의 종을 맞추는 문제도 분류 문제의 일종이다. 붓꽃과에 속하는 3개 식물종의 꽃잎 너비와 길이, 꽃받침 너비와 길이에 대한 측정치(이전의 관찰 데이터)를 바탕으로 새로 관찰한 붓꽃과 식물(새로운 관찰) 3개종 중 어느 종일지를 추측할 수 있다. 역시나 각각의 측정치(특징또는 ‘feature’라 부른다)가 어떤 식물종의 개체로부터 측정된 것인지에 대한 정보(라벨)는 알고 있어야 한다.

스케치

아주 단순화한 분류 문제의 해결 흐름은 다음과 같다.

  1. 이전의 관찰 데이터를 준비한다.
  2. 이전 데이터를 바탕으로 각 카테고리에 속한 관찰들의 특징을 알고리즘이학습한다‘.
  3. 알고리즘이 학습한 내용을 바탕으로 새로운 관찰이 어떤 카테고리에 속할지 예측한다.

위에서 언급한 붓꽃과 식물의 측정 문제를 통해서 기계학습의 기초와 신경망 이론을 다룰 것이다. 이제 관찰 데이터는 준비가 됐고, 올바르게 종을 분류하는 분류기를 만들 시간이다.

 

가장 단순한 분류법 – 직선적 분류

꽃잎, 꽃받침 길이와 너비라는 수치 데이터를 보고 종을 분류하는 문제에서, 가장 먼저 단순하게 생각해 볼 수 있는 분류기는 직선적으로 데이터를 구획해주는 놈이다.

스케치

, 직선(데이터가 3차원인 경우는 평면, 4차원 이상의 데이터에서는 hyperplane)을 그어 서로 다른 라벨을 지닌 데이터를 분리해주는 것이다.

데이터를 구획해주는 직선(또는 평면, 또는 hyperplane) 함수를 우리는 판별 함수 (decision function) 부른다. 각 관찰에 대한 판별함수값은 판별 점수(decision score), 또는 클래스 점수(class score; 관찰이 해당 클래스=카테고리에 속할 가능성)라고 부르기도 한다.

선형 판별함수는 우리가 익히 알고 있는 다음과 같은 꼴의 식으로 표현할 수 있다.

s = wx + b (2차원 데이터에서, 직선 판별함수의 경우)

s = w_1x_1 + w_2x_2 + b (3차원 데이터에서, 평면 판별함수의 경우)

여기서 s 관찰 값에 대한 판별 점수, x 관찰의 features 데이터, w, b 각각 판별함수의기울기절편이다.

이 판별함수를 고차원에 대해 일반화해서 다음과 같이 행렬식으로 간단히 표현할 수 있다.

s = XW + b

스케치

 

 

여기서 s 관찰 값에 대한 판별 점수 행렬, X 관찰한 features 행렬, W, b 각각 판별함수의기울기‘(?) 행렬과절편‘(?) 벡터이다.

직선의 경우기울기절편이라 표현하는 것이 직관적이나, hyperplane에서는 표현이 직관적이지 않으므로 이제부터는 W가중치 (weight)’ 행렬, b편향 (bias)’ 벡터라 부르기로 한다.

위의 판별함수는 데이터의 차원만 다를 뿐, 모두 가중치 w_i feature x_i의 선형조합의 꼴로 표현할수 있으므로 선형 판별함수라 할 수 있다.

, 이제 우리는 다음과 같이 선형 분류기의 뼈대를 만들었다.

s = XW + b

이제는 이 분류기가 붓꽃 종을 올바르게 예측할 수 있도록 각 붓꽃 종의 특징을 판별함수에학습시킬차례다.

가중치와 편향을 이해하기

가중치 w_i “i번째 feature가 라벨의 예측에 끼치는 영향이라고 해석할 수 있다. i번째 가중치값 w_i의 값의 절대값이 클 수록 i번째 feature가 예측에 미치는 영향이 크다고 할 수 있고, 따라서 i번째 feature가 라벨의 예측에 중요한 정보라고 판단할 수 있다. 또한 가중치값의 부호에 따라 예측에 미치는 영향이 양의 영향인지, 음의 영향인지 알 수 있다.

편향 b_i에 대한 해석은 가중치에 비해서는 덜 명확하다. 편향 b_i 값은 i번째 feature x_i의 값이 0일 때 예측되는 라벨의 값으로 이해할 수 있다. 분류기 식에서 편향을 제거한다면 (즉 위의 붓꽃 예시에서 b_i = 0, i = 1,2,3,4 이면) 판별함수는 항상 원점을 지나는 형태일 것이다. 따라서 편향은 기하적으로는 판별함수가 원점을 지나지 않아도 되도록 해주는 역할을 한다고 이해할 수 있다.

우리가 세운 선형 분류기 식에서, X는 관측된 데이터이므로 마음대로 바꿀 수 있는 값이 아니다. 대신분류기가 데이터 x_i를 보고 학습함에 따라 새로운 관찰을 더 정확히 분류할 수 있는 방향으로 가중치 w_i와 편향 b_i의 값이 변하게 된다. 기하적으로는 더 정확히 판별 직선(혹은 평면, 또는 hyperplane)을 긋는 방향으로 기울기와 절편 값이 변한다고 이해할 수 있다.

스케치

그렇다면 어떻게 해야 더 분류를 잘 하는 방향으로 가중치와 편향 값을 변화시킬 수 있을까? 어떻게 해야 선형 분류기를 학습시킬 수 있을까?

손실 함수 (loss function)

선형 분류기가 학습을 하고 있는지, 즉 더 나은 방향으로 선형 분류기의 가중치와 편향 값이 변하고 있는지를 판단하기 위해서는 분류기의 성능을 평가하는 손실 함수(loss function)를 설정해야 한다.

손실 함수는 분류기의 성능이 낮을수록 손실 함수 값이 커지는 특성을 가져야 한다 (분류기의 성능이 높을수록 손실 함수 값이 작아져야 한다). 결국 손실 함수의 값이 크다는 것은 분류기가 카테고리를 잘 예측하지 못하고 있다는 것을 의미한다그래서 이름이손실 함수!

손실 함수를 어떻게 설정하느냐에 따라 선형 분류기의 특성이 달라진다.

판별함수값을확률이라고 생각하기

각 샘플의 판별함수값을 해당 카테고리에 속할확률이라고 해석할 수 있다. 이 때 샘플이 k번째 카테고리에 속했을 확률 p_k는 다음과 같다.

p_k = \frac{e^{s_k}}{\sum_{j} e^{s_j}}

여기서 s_k는 해당 샘플의 k번째 카테고리에 대응하는 판별함수값이다. p_k [0, 1] 사이의 값을 가지므로 일종의확률또는확신의 정도라고 해석할 수 있다.

계속해서 i번째 샘플의 손실 L_i은 다음과 같이 설정할 수 있다.

L_i = - \log{{e^{s_{y_i}}} \over {\sum_{j} e^{s_j}}} = - \log{p_{y_i}}

여기서 s_{y_i} i번째 샘플의 진짜 라벨(실제 속해있는 카테고리)의 판별함수값, s_j j번째 카테고리의 판별함수값이다. 따라서 i번째 샘플의 손실 L_i카테고리를 올바르게 예측했을 확률의 로그값에 음수를 취한 것이다.

최종적으로 전체 샘플 N개의 손실 L은 각 샘플의 손실의 평균치로 계산한다.

L = \frac{1}{N} \sum_{i} {L_i} = - \frac{1}{N} \sum_{i} \log{{e^{s_{y_i}}} \over {\sum_{j} e^{s_j}}} = - \frac{1}{N} \sum_{i} \log{p_{y_i}}

손실함수 L의 값은 따라서 카테고리를 올바르게 예측했을 확률의 로그값의 평균에 음수를 취한 것이라 해석할 수 있다. 이 값은 분류기가 샘플들의 카테고리를 잘 예측할 때 작아지고 예측 성능이 나쁠수록 커진다.

여기서 f(x_i) = \frac{e^{x_i}}{\sum_{j} e^{x_j}} 꼴의 함수를 softmax 함수라고 부르기에 손실함수를 softmax 손실함수 칭한다. Softmax 손실함수를 사용하는 선형 분류기는 Softmax 분류기(‘다중 클래스 로지스틱 회귀라고도 ) 된다.

당연히, softmax 손실함수 외에도 수많은 손실함수가 존재한다. 일례로 max-margin 손실함수를 사용하는 선형 분류기는 서포트 벡터 머신(support vector machine; SVM) 된다.

다른 손실함수는 차차 다루기로 하고 여기서는 softmax 손실을 사용하기로 한다.

정규화 손실 추가하기

feature:label 데이터쌍만으로 손실함수를 만들면 학습시킨 데이터에서만 높은 성능을 내도록 분류기가 필요 이상의 학습을 하게 될 수도 있다. 학습 데이터에서 실제 카테고리 예측과는 상관이 없는 노이즈까지 학습하는 이 현상을 과적화(overfitting)라 한다.

스케치

따라서 오버피팅이 발생하지 않도록 손실함수에 제약을 줘야한다. 되도록 단순한 형태의 판별함수가 되도록 손실함수에 제약을 주는 것을 정규화한다(regularize)고 한다.

가장 단순한 정규화는 가중치의 제곱합이 커질수록 손실함수가 커지도록 다음의 정규화 손실 R(w) 항을 손실함수에 추가하는 것이다.

R(w) = \sum_{i} \sum_{j} w_{ij}^2 + \sum_{k} b_k^2

여기서 w_{ij}는 가중치 행렬 W i j열 성분, b_k는 편향 벡터 b k번째 성분이다. 이 방식을 Ridge 정규화 (또는 L2 정규)라고 하며 전체적으로 고르고 작은 값의 가중치로 이루어진 가중치 행렬을 선호하는 방향으로 분류기를 정규화한다.

Ridge 최적화를 적용한 최종 손실함수는 다음과 같이 표현된다.

L = \frac{1}{N} \sum_{i} L_i + \lambda R(w)

여기서 \lambda 0 이상의 값으로 정규화 강도 (regularization strength)라고 하며 정규화 손실과 데이터 손실 사이의 균형을 맞추는 역할을 한다. \lambda 값이 클수록 정규화의 강도가 강해진다.

Ridge 외에도 Lasso, Elastic Net 다양한 정규화 방법이 있다. 이에 대해서는 추후에 살펴보기로 한다.

손실함수를 설정한 후엔 선형 분류기를 학습시키면 된다.

 

수치적 최적화 – 경사 하강법

분류기를 학습시킨다는 것은 손실함수값을 작게 만드는 가중치, 편향값을 찾는 것을 의미한다. 이상적인 가중치, 편향의 값은 손실함수를 최소로 하는 값(arg\max_{w} L)이다. 분류기를 학습시킨다는 것은손실함수에 대한 W, b의 최적화 문제이다.

많은 경우 손실함수를 분석적으로 최적화하는 것은 어렵다. 손실함수에 미분불가능한 구간이 존재하거나 분석적으로 해를 구하기 복잡할 수 있기 때문이다 (아예 전역해가 존재하지 않을 수도 있다). 대신 수치적으로 손실함수를 최적화할 수 있다.

수치적 최적화의 가장 단순한 형태는 경사 하강법(gradient descent optimization)이다. 손실함수 L W b 대해 편미분하여 경사(gradient; 증가율과 같은 개념) \frac{\partial L}{\partial W} \frac{\partial L}{\partial b} 계산한 다음, 경사의 반대 방향으로 가중치를굴러 떨어뜨리는것이다.

스케치

편의상 그림에서는 오목함수의 예시를 보였지만 미분불가능한 구간이 있는 함수도 이 방법으로 최적화할 수 있다.

가중치를굴러 떨어뜨려서새로운 값으로 업데이트하는 과정을 식으로 표현하면 다음과 같다.

W_{new} = W_{old} - \eta \frac{\partial L}{\partial W}

b_{new} = b_{old} - \eta \frac{\partial L}{\partial b}

여기서 \eta학습률(learning rate)라고 부르고 가중치 값을 얼마나 크게 이동할 것인지를 결정하는 역할을 한다. 손실함수가 로컬 최솟값으로 수렴할 때까지 가중치 업데이트를 반복하면 수치적 최적화를 수행할 수 있다.

실제로 가중치 업데이트를 할 때는 제한된 메모리를 이유로 위와 같이 전체 가중치 값 전체 W를 사용하는 대신 이 중 일부만을 무작위로 선택해서 경사를 계산, 업데이트 하는 경우가 대부분이다. 매 업데이트 시에 가중치 중 하나 W_{ij}만을 선택해서 경사를 계산하는 경우, 다음과 같이 식으로 표현할 수 있다.

W_{new} = W_{old} - \eta \frac{\partial L}{\partial W_{ij}}

b_{new} = b_{old} - \eta \frac{\partial L}{\partial b_{k}}

이 방법을 확률적 경사하강법 (Stochastic gradient descent; SGD)이라 한다. 이 경우 경사의 정확도는 일반 경사하강법보다 떨어지지만 훨씬 적은 메모리로 빠르게 경사를 계산해낼 수 있고, 실시간으로 새로이 추가된 관찰값을 이용하여 가중치를 업데이트할 수 있다는 장점이 있다.

이 외에도 단순 경사 하강법보다 훨씬 좋은 수치적 최적화 방법들이 다수 있으나 추후에 다루기로 한다.

붓꽃 데이터의 예시에서는 메모리가 크게 필요치 않으므로 둘 중 어떤 방법을 선택하든 문제없다.

 

여기까지 선형 분류기를 만들고 학습시키는 데에 필요한 최소한의 내용을 다루었다. 이제는 직접 분류기를 구현해보자.

 

선형 분류기 구현

  1. 선형 판별함수(s = XW + b) 사용하고,
  2. Softmax 손실함수(L_i = - \frac{1}{N} \sum_{i} \log{{e^{s_{y_i}}} \over {\sum_{j} e^{s_j}}})
  3. Ridge 최적화(R(w) = \sum_{i} \sum_{j} w_{ij}^2 + \sum_{k} b_k^2)를 적용하여 손실함수를 설정했으며,
  4. 경사하강법으로 가중치를 업데이트하는

붓꽃 분류기를 구현한 결과는 아래와 같다. 전체 4차원의 feature 중 2차원(꽃받침 길이, 꽃잎 길이)만을 feature로 사용했다.

N = 150 # number of samples per class
D = 2 # feature dimension
K = 3 # number of classes

reg = 0.05 # regularization strength
eta = 0.05 # learning rate

# initialize weights (and bias)
W = np.random.randn(D, K) * 0.01
b = np.zeros(K)

# training process
losses = []
for epoch in range(1000):
    # construct linear decision function
    s = X.dot(W) + b

    # compute gradients (backpropagation / chain rule)
    p = np.exp(s) / np.sum(np.exp(s), axis=1, keepdims=True)
    I = np.zeros(p.shape)
    I[range(X.shape[0]), y] = 1
    df = (p - I) / X.shape[0]

    dW = (X.T).dot(df)
    dW += reg * W
    db = np.sum(df, axis=0)

    # update weights by gradient descent
    W -= eta * dW
    b -= eta * db

    # calculate and print loss
    data_loss = -np.sum(np.log(p[range(X.shape[0]), y])) / X.shape[0]
    reg_loss = np.sum(0.5 * reg * (W**2))
    loss = data_loss + reg_loss
    losses.append(loss)
    if epoch % 100 == 0:
        print "{}: loss={}".format(epoch, loss)
SoftmaxClass

그림의 각 데이터 포인트의 색은 진짜 붓꽃 종, 배경에 칠해진 색은 선형 분류기가 예측한 각 붓꽃 종의 영역이다.

그 결과 92.7%의 accuracy를 획득할 수 있었다.

(편의상 training set, testing set, validation set을 분리하지 않고 모든 데이터를 학습시켰다. 제대로 구현하고 성능평가 하려면 학습 전 데이터셋 분리부터 해야한다.)

 

비선형 분류기의 필요성

현실의 데이터가 직선적으로 분류 가능한 경우는 매우 드물다. 직선으로 구획하기 어려운 데이터에서 선형 분류기의 성능은 정말이지 처참하다.

커널 트릭(kernel trick) 등 학습 데이터를 변형하는 방법을 포함해 비선형 데이터를 효과적으로 분류-예측하기 위해 다양한 방법들이 연구되어왔다. 이 글 시리즈의 핵심 개념인 ANN 역시 비선형 함수를 표현하기 위해 고안된 방법 중 하나다.

다음 글에서는 직선적이지 않은 분류 문제를 다루는 것으로 시작해서 신경망의 개념과 함께 신경망을 이용한 간단한 비선형 분류기를 구현하기까지를 건드려보겠다.

 

참고