1. CNN (Convolutional Neural Network, 합성곱 신경망)
"공간을 보는 눈"
CNN은 이미지의 공간적인 정보를 유지하면서 특징을 추출하는 데 특화되어 있습니다. 일반적인 신경망은 이미지를 1차원으로 쫙 펼쳐서 입력하기 때문에 "눈과 코의 위치 관계" 같은 정보가 무너지기 쉬운데, CNN은 이를 방지합니다.
- 핵심 원리: **필터(Filter/Kernel)**를 사용합니다. 돋보기를 들고 이미지를 구석구석 훑으며 특징(선, 면, 질감 등)을 찾아내는 방식입니다.
- 주요 구성 요소:
- 합성곱 층(Convolutional Layer): 필터를 거쳐 이미지의 특징 맵(Feature Map)을 생성합니다.
- 풀링 층(Pooling Layer): 데이터의 크기를 줄여 핵심 정보만 남기고 계산량을 줄입니다.
- 주요 용도: 이미지 분류, 사물 탐지(Object Detection), 자율 주행 차량의 시각 시스템 등.
2. RNN (Recurrent Neural Network, 순환 신경망)
"순서를 기억하는 뇌"
RNN은 데이터의 **순서(Sequence)**와 문맥이 중요한 데이터를 처리하는 데 최적화되어 있습니다. 이전 단계의 계산 결과가 다시 다음 단계의 입력으로 들어가는 '순환(Recurrent)' 구조를 가집니다.
- 핵심 원리: **기억력(Hidden State)**이 있습니다. 예를 들어, "나는 학교에..." 다음에 올 단어를 예측할 때, 앞에서 나온 "나는"이라는 단어를 기억하고 있어야 적절한 예측이 가능합니다.
- 주요 구성 요소:
- 순환 구조: 현재 입력값($x_t$)과 이전 상태의 기억($h_{t-1}$)을 함께 연산합니다.
- 개선 모델: 기본 RNN은 뒤로 갈수록 앞의 내용을 잊어버리는 문제(기울기 소실)가 있어, 이를 보완한 LSTM이나 GRU가 주로 쓰입니다.
- 주요 용도: 번역기, 챗봇(자연어 처리), 주가 예측(시계열 데이터), 음성 인식 등.
3. 한눈에 비교하기
| 구분 | CNN | RNN |
| 특징 | 데이터의 공간적 특징 추출 | 데이터의 시간적/순차적 특징 추출 |
| 데이터 예시 | 사진, 영상 | 문장, 음성, 주식 차트 |
| 핵심 키워드 | 필터(Filter), 합성곱(Convolution) | 기억(Memory), 순환(Loop) |
| 비유 | 숲 전체를 훑으며 나무의 모양을 찾기 | 소설을 읽으며 앞뒤 맥락을 파악하기 |
'AI' 카테고리의 다른 글
| 분류 모델의 성능을 평가 (0) | 2025.12.22 |
|---|---|
| AI 분류(Classification) 모델 (0) | 2025.12.22 |
| 머신러닝(Machine Learning)과 딥러닝(Deep Learning) (0) | 2025.12.22 |
| 인공신경망의 구조와 작동 원리 (0) | 2025.12.22 |
| AI 에서 텍스트 분류 (0) | 2025.12.22 |