딥러닝의 핵심인 **인공신경망(Artificial Neural Network, ANN)**은 인간의 뇌 구조에서 영감을 받아 만든 수학적 모델입니다. 수많은 데이터를 학습하여 패턴을 찾아내고, 이를 바탕으로 예측이나 분류를 수행하죠.
1. 인공신경망의 기본 구조
인공신경망은 크게 세 가지 종류의 층(Layer)으로 구성됩니다.
- 입력층 (Input Layer): 외부로부터 데이터를 받아들이는 층입니다. (예: 이미지의 픽셀 값, 텍스트 데이터 등)
- 은닉층 (Hidden Layer): 입력된 데이터의 특징을 추출하고 복잡한 연산을 수행하는 층입니다. 딥러닝(Deep Learning)이라는 이름은 이 은닉층이 여러 개(Deep) 쌓여 있다는 데서 유래했습니다.
- 출력층 (Output Layer): 최종적인 연산 결과를 내보내는 층입니다. (예: 고양이일 확률 90%, 개일 확률 10%)
2. 신경망의 단위: 퍼셉트론 (Perceptron)
뇌에 '뉴런'이 있다면, 인공신경망에는 퍼셉트론이 있습니다. 하나의 퍼셉트론 안에서는 다음과 같은 일이 일어납니다.
- 가중치(Weight) 곱하기: 각 입력 데이터에 중요도인 '가중치'를 곱합니다.
- 편향(Bias) 더하기: 결과값에 유연성을 주기 위해 일정한 수치를 더합니다.
- 활성화 함수(Activation Function): 합산된 값을 다음 층으로 보낼지 말지 결정합니다. (예: ReLU, Sigmoid 함수 등)
비유하자면? 여러 친구의 조언(입력)을 듣는데, 평소 신뢰하는 친구의 말(높은 가중치)을 더 비중 있게 받아들여 최종 결정을 내리는 과정과 비슷합니다.
3. 학습방법 (핵심 원리)
인공신경망은 처음에는 아무것도 모르는 상태에서 시작합니다. 반복적인 학습을 통해 똑똑해지는 과정은 다음과 같습니다.
- 순전파 (Forward Propagation): 데이터를 입력받아 결과값을 예측합니다. 처음엔 틀린 답을 내놓을 확률이 높습니다.
- 손실 함수 (Loss Function): 정답과 예측값의 차이(오차)를 계산합니다. 이 오차가 작을수록 성능이 좋은 모델입니다.
- 역전파 (Backpropagation): 오차를 줄이기 위해 결과층에서 거꾸로 돌아가며 각 노드의 가중치를 수정합니다.
- 경사하강법 (Gradient Descent): 오차를 최소화하는 방향으로 가중치를 조금씩 업데이트하는 수학적 기법입니다.
4. 인공신경망의 의의
인공신경망이 혁신적인 이유는 사람이 직접 "이건 귀 모양이 뾰족하니까 고양이야"라고 규칙을 정해주지 않아도, 데이터만 충분하다면 컴퓨터가 스스로 특징을 찾아낸다는 점에 있습니다.
'AI' 카테고리의 다른 글
| 분류 모델의 성능을 평가 (0) | 2025.12.22 |
|---|---|
| AI 분류(Classification) 모델 (0) | 2025.12.22 |
| 머신러닝(Machine Learning)과 딥러닝(Deep Learning) (0) | 2025.12.22 |
| 인공신경망 중에서 가장 대표적인 두 모델인 CNN과 RNN (0) | 2025.12.22 |
| AI 에서 텍스트 분류 (0) | 2025.12.22 |