📕 딥러닝
Transformer Model
자연어 처리(NLP)와 기타 머신 러닝 작업에서 사용되는 딥러닝 모델 구조
📕 주요 개념과 구조 🤔
Self-Attention Mechanism(자체 주의 메커니즘)
- Transformer의 핵심 아이디어는 Self-Attention이다.
- 예를 들어,
- "I went to the bank to deposit money"에서 "bank"라는 단어는 문맥에 따라 "강둑"이 아닌 "금융기관"을 의미한다는 것을 Self-Attention이 문맥적 정보를 학습한다.
Encoder-Decoder 구조
- Encoder와 Decoder로 구성된다.
- Encoder: 입력 문장의 특징을 학습하고 표현(벡터)을 생성하고, 주로 문장 이해에 사용된다.
- Decoder: Encoder의 출력을 사용해 새로운 문장을 생성하고, 주로 문장 생성이나 번역에 사용된다.
멀티헤드 어텐션 (Multi-Head Attention)
- 여러 Attention 헤드를 병렬 로 실행해 입력 데이터의 다양한 의미를 동시에 학습한다.
- 예를 들어,
- 한 헤드는 단어의 문법적 관계를, 다른 헤드는 문맥적 의미를 학습할 수 있다.
Position Embedding (위치 임베딩)
- Transformer는 순서를 고려하지 않는 모델이기 때문에 입력 데이터의 순서 정보를 보완하기 위해 각 단어에 위치 정보를 추가한다.
📕 Transformer 모델의 장점 🤔
병렬 처리 가능
- RNN(Recurrent Neural Network)과 달리 입력 데이터를 순차적으로 처리하지 않고 한 번에 병렬로 처리할 수 있어 학습 속도가 빠르다.
긴 문맥 학습 가능
- Self-Attention을 통해 긴 문장이나 문서의 모든 단어 관계를 학습할 수 있다.
범용성
- 번역, 텍스트 생성, 요약, 질문 답변 등 다양한 NLP 작업에 적합하다.
- 컴퓨터 비전(예: Vision Transformer)과 음성 처리 등에도 확장되었다.
📕 대표적인 Transformer 기반 모델 🤔
GPT (Generative Pre-trained Transformer)
- OpenAI에서 개발한 언어 생성 모델이다.
- 주어진 문맥에서 다음 단어를 예측하는 방식으로 작동한다.
BERT (Bidirectional Encoder Representations from Transformers)
- Google에서 개발한 언어 이해 모델이다.
- 양방향으로 문맥을 이해하여 텍스트의 의미를 학습한다.
T5 (Text-to-Text Transfer Transformer)
- Google에서 개발한 모델로, 모든 NLP 작업을 *"텍스트 입력 → 텍스트 출력"* 으로 처리한다.
ViT (Vision Transformer)
- Transformer를 컴퓨터 비전에 적용한 모델이다.
'🔥 공부 > ⚙️ AI' 카테고리의 다른 글
[⚙️AI] 딥러닝_On-premise란? (0) | 2025.01.27 |
---|---|
[⚙️AI] 딥러닝_Cloud란? (0) | 2025.01.27 |
[⚙️AI] 딥러닝_Prompt Engineering이란? (2) | 2025.01.27 |
[⚙️AI] 머신러닝_데이터 전처리 (0) | 2024.12.23 |
[⚙️AI] 머신러닝의 구성요소, 학습, 데이터 불러오기, 데이터 처리 (2) | 2024.12.20 |