Table of Contents
Table of Contents
๐ ์์ธ ์ ๋ฆฌ
#Classical NLP
#- ML๋ก ํ
์คํธ๋ฅผ ์ดํดํ๋ ค๋ ์๋
- ์์ฐ์ด ์ฒ๋ฆฌ๋ ํ
์คํธ์ ํจํด์ ์ปดํจํฐ์๊ฒ ์ด๋ป๊ฒ ๋จน์ด๊ณ / ์ฒ๋ฆฌ๋ฅผ ํ ๊ฒ์ด๋?
- NLP์ ์ญ์ฌ
- ๊ท์น ๊ธฐ๋ฐ NLP
- Rule Base: ์ฌ์ ์ ๋ง๋ค์ด๋ ๊ท์น์ ๊ธฐ๋ฐํด ์ฒ๋ฆฌํ์
- nltk/wordnet: ์ ์์ด ์ฌ์ (์์๋ฌ์ค) ๊ธฐ๋ฐ์ผ๋ก ๋จ์ด์ ์๋ฏธ๋ฅผ ์ธ์
- ๋น์ธ๊ณ
- ์ ์ ์ด๊ณ
- ๋ชจ๋ ์ํฉ ํํ์ด ๋ถ์กฑํ๋ค
- ํต๊ณ ๊ธฐ๋ฐ NLP
- Corpus(๋ง๋ญ์น)์์ ํ
์คํธ์ ๊ท์น์ ์ฐพ์
- ๋จ์ด์ ๋ฒกํฐํํ
- ๋ถํฌ ๊ฐ์ค
- ๋จ์ด์ ์๋ฏธ๋ ์ฃผ๋ณ ๋จ์ด์ ์ํด ํ์ฑ๋๋ค
- Cosine ์ ์ฌ๋…
- ํ์ง๋ง ๋จ์ด ๋ฒกํฐ๊ฐ ๋๋ฌด ๊ณ ์ฐจ์์ด๋ค
- SVD๋ก ์ฐจ์์ถ์๋ฅผ ํ๊ธฐ์, ๊ณ์ฐ๋์ด ๋๋ฌด ๋ง๋ค
- ๊ฒฐ๊ตญ ํฐ Corpus ์์์ ๋ค์ํ ๋จ์ด๋ค์ ์๋ฏธ๋ฅผ ๋ฒกํฐํํด์ผํ๋๋ฐ
- Corpus๊ฐ ์ปค์ง๋ฉด ํ๋ค๋ค
NN Based NLP
#- Word2vec
- Neural Network๋ฅผ ์ฌ์ฉํด์ ๋จ์ด๋ฅผ ์๋ฒ ๋ฉํ์
- Cbow
- Continuous Bag of words
- ์ฃผ์ ๋จ์ด๋ก ๊ฐ์ด๋ฐ ๋จ์ด ์์ธก
- you say goodbye and I say hello
- you, goodbye -> say
- say, and -> goodbye
- goodbye, I -> and
- …๋ฅผ ๋ง์ถ๋๋ก…
- ๋จ์ด๋ค์ id๋ก ๋ฐ๊พผ ํ, ์ํซ๋ฒกํฐ๋ฅผ ์ ๋ต์ผ๋กํด์ ์์ ํ, softmax, ์ถ๋ ฅ, ์ญ์ ํ..
- Skipgram
- ์ค๊ฐ๋จ์ด ํ๊ฐ๋ก ์ฃผ๋ณ n๊ฐ๋จ์ด์ context ์์ธก
- ์๋ฌดํผ ๊ทธ ๊ฒฐ๊ณผ ๊ฐ ๋จ์ด๋ณ Embedding์ ๊ตฌํ ์ ์๋ค (๋ฒกํฐํ ๋๋ค)
Sequential & Contextual NLP
#- Language Model
- Word2vec๊น์ง๋ ์์, ์ฅ๊ธฐ ๋ฌธ๋งฅ ๊ณ ๋ ค ์์ด ๋จ์ด๋ค์ embeddingํ๋ค.
- ๋ฌธ๋งฅ์ ์์ฐ์ค๋ฌ์์ ํ๊ฐํ๊ณ ์์ฐ์ค๋ฌ์ด ๋ค์ ๋จ์ด๋ฅผ ์์ธกํ๋ ๋ชจ๋ธ์ ๋ง๋ค์!
- RNN
- one to many: ์ฒซ ๋จ์ด ์
๋ ฅ์ ๋ํด ๋ฌธ์ฅ ์์ธก
- many to one: ๊ฐ์ label ์์ธก
- many to many: ๊ธฐ๊ณ๋ฒ์ญ
- ๋ฑ๋ฑ ์ฌ๋ฌ๊ฐ์ง ๋ชจ๋ธ์ ๋ง๋ค ์ ์๋ค!
- ๋ฌธ์ : ๊ธฐ์ธ๊ธฐ ์์ค / ํญ๋ฐ
- ์ํ์ค๊ฐ ๋๋ฌด ๊ธธ๋ฉด ๋ท์ชฝ ๋จ์ด๋ฅผ ์์ธกํด์ ๋์จ ์ค์ฐจ์ ์ญ์ ํ๊ฐ ์์ชฝ์ ๊ฑฐ์ ๋ฐ์๋์ง ๋ชปํ๋ค.
- LSTM
- ์๋ Weight๊ฐ ์ฌ๋ผ์ง๋๊ฒ๊ฐ์์, Gate๋ฅผ ๋ฌ์์ ๊ฐ์ ธ์ค๊ฒ ํ๊ฒ ๋ค!
- GRU
- LSTM์ด ๋๋ฌด ๋ณต์กํ๋๊น ์กฐ๊ธ ๊ฐ์ํํ์
Transformer Attention
#- Seq2Seq
- ์
์ด ์๋ ์ํคํ
์ณ
- ์์ ์ํคํ
์ณ ๋๊ฐ๋ฅผ ๊ฒฐํฉ (์ธ์ฝ๋ / ๋์ฝ๋)
- ๋ชจ๋ ๋ฌธ์ฅ์ ๋๊น์ง ๋ค์ ํ ํ๋์ ์์ ํ ๋ฌธ์ฅ ์์ฑ
- ์
๋ ฅ๊ณผ ์ถ๋ ฅ ์ํ์ค์ ๊ธธ์ด๊ฐ ๋ฌ๋ผ๋ ๋๋ค!
- ๋ฒ์ญ์ ๊ฐ์ฅ ๋ง์ด ์ด๋ค
- ๋ฌธ์
- ๋จ๊ณ์ ์ฐ์ฐ์ด ๋๋ฌด ๋๋ฆฌ๋ค
- ๊ธด์ํ์ค์์ ์ ๋ณด๊ฐ ์ถฉ๋ถํ ์ ๋ฌ๋์ง ์๋๋ค
- Transformer
- ๊ฐ์ ์
- RNN๊ณ์ด ์
๋ฐฐ์ -> Transformer block ์ฌ์ฉ
- ํฌ์ง์
๋ ์ธ์ฝ๋ฉ - ์ํ์ค ๋น์์ฐจ์ ์
๋ ฅ -> ๋ณ๋ ฌ์ฒ๋ฆฌ
- Self attention - ๊ธด ๋ฌธ์ฅ์ ์ฅ๊ธฐ๋งฅ๋ฝ
- Encoder + Decoder ๊ตฌ์กฐ๋ ๊ทธ๋๋ก ๊ตฌํํ์์!
- Attention
- seq2seq์์์ Attention
- ๋ฒ์ญํ ๋ ๋จ์ด “์ ๋ณด"์ “imformation"์ ๊ด๊ณ๊ฐ ํฌ์ง ์์๊น?
- ์ด ์ ์๊ฐ Attention Score
- ๋ฌธ๋งฅ ์ ํ ํ ํฐ๊ณผ ๊ด๋ จ์ด ๋์ ๋ค๋ฅธ ํ ํฐ์ ์๋ฒ ๋ฉ๊ณผ์ ๊ด๋ จ๋๋ฅผ ๊ตฌํ๊ฒ ๋ค!
- ๋งฅ๋ฝ๊ณผ ํฌ์ง์
๋์ผ๋ก ํด๊ฒฐํ์
- Self Attention
- ๋ค๋ฅธ ํ ํฐ์์ ํ์ํ ์ ๋ณด๋ฅผ ์ ํ์ ์ผ๋ก ์ง๊ณํด ํ์ฌ ํ ํฐ ํํ์ ๊ฐฑ์
- Multi Head Attention
- ์ฌ๋ฌ ์ข
๋ฅ์ ๊ด๊ณ๋ฅผ ๋ณ๋ ฌ์ ์ผ๋ก ํฌ์ฐฉํด ์ง๊ณ ์ ํธ์ ๋ค์์ฑ ์ฆ๊ฐ
- Transformer ๋ณํ
- Encoder & Decoder
- ์ธ์ฝ๋๋ง ์๋ผ์ฐ๋ฉด BERT
- ๋์ฝ๋๋ง ์๋ผ์ฐ๋ฉด GPT
- LLM์ ๋ณดํต ๋์ฝ๋ ๋ฒ ์ด์ค
- BERT ๊ณ์ด
- GPT ๊ณ์ด
- Generative Pretrained Transformer
- LLM
- Pretrain
- ์ง์ + ๋ฌธ๋ฒ์ ์ผ๋ก ๋ง๊ฒ ๊ธ์ฐ๊ธฐ ์ต๋
- ๋ฐ์ดํฐ์
corpus๊ฐ์๊ฒ์
- ํ ํฌ๋์ด์ ์ด์
ํด์
- ์๋ฒ ๋ฉ + ํฌ์ง์
๋ ์ธ์ฝ๋ฉ์ ํ๊ณ
- Masked ๋ฉํฐํค๋ ์ดํ
์
์ ๋จน์ฌ์
- Loss๋ฅผ ๊ณ์ฐํ๊ณ ์ญ์ ํ๋ฅผ ํ๊ฒ ๋ค!
- Post Train
- Pretrain ํ์๋ ๊ธ์ ์์ฐ๋๋ฐ ์ง๋ฌธ -> ๋๋ต์ด๋, ํ ๋ฃจ์๋ค์ด์
๋ฐฉ์ง๋ฑ์ด ์๋๋ค.
- ๋๋ฉ์ธ ํนํ ์ง์ + ์ ํธ ๋ฐ ์ง์์ ๋ง๊ฒ ํ๋
- Supervised Fine Tuning
- ex) instruction Tuning
- ์ง์๋ฅผ ๋ณด๋ฉด ์ด๋ฐ ํํ๋ก ๋ตํ๋๋ก ํ์ต
- Reinforcement Learning
- ex) RLHF, GRPO…
- ์ง์๋ฅผ ๋ฐ๋ฅด๋, ์ฌ๋ ์ทจํ์ ๋ ๋ง๊ฒ ๋ค๋ฌ๊ธฐ
- Agent
- LLM ์ธ์ด๋ชจ๋ธ์๊ฒ Tool์ ๋ถ์ฌ
โ์ง๋ฌธ ์ฌํญ
#๐ ์ฐธ๊ณ ์๋ฃ
#