diff --git "a/_posts/2023-12-03-\355\232\250\354\234\250\354\240\201\354\235\270 LLM \355\225\231\354\212\265\354\240\204\353\236\265.md" "b/_posts/2023-12-03-\355\232\250\354\234\250\354\240\201\354\235\270 LLM \355\225\231\354\212\265\354\240\204\353\236\265.md" index 7e23b285..dc5f14a3 100644 --- "a/_posts/2023-12-03-\355\232\250\354\234\250\354\240\201\354\235\270 LLM \355\225\231\354\212\265\354\240\204\353\236\265.md" +++ "b/_posts/2023-12-03-\355\232\250\354\234\250\354\240\201\354\235\270 LLM \355\225\231\354\212\265\354\240\204\353\236\265.md" @@ -52,10 +52,9 @@ Quantization이란? 기존의 언어모델의 파라미터는 Float32로 표현되었는데, 이를 FP16, BF16, FP8, NF4 등 같은 Low bit로 압축을 한다. -![Alt text](image.png) - -![Alt text](image-1.png) +![image](https://github.com/momozzing/KLUE-TOD/assets/60643542/04672591-7ef7-48d4-94c9-6edfef2a35a1) +![image](https://github.com/momozzing/KLUE-TOD/assets/60643542/105db370-8b01-481e-8551-2ce1cdeb9df3) ## **Parameter-Efficient Fine-Tuning (PEFT)**