‘LLMflation’이 뭘까요?
LLMflation은 대규모 언어 모델(LLM) + 인플에이션(Inflation)에서 나온 말이다.
LLM의 추론 비용도 급격히 감소하고 있으며, 이를 LLMflation이라고 부른다.
현 추세에 따르면, 동일한 성능의 LLM 추론 비용은 매년 약 10배씩 감소하고 있다.
일정 비용으로 처리할 수 있는 토큰 수가 급격한 증가한다는 것이다.
이는 AI 혁명의 지속적인 발전을 예고하기도 한다.
LLM 비용 감소 분석 방법은,
- MMLU (언어 이해력) 점수 사용 : 모델 성능을 비교하기 위해 MMLU 벤치마크 사용
( MMLU 42점 달성을 기준으로 보면 지난 3년간 LLM 비용이 무려 최대 1,000배나 감소) - 역사적 가격 데이터 수집 : OpenAI, Anthropic, Meta Llama 등 주요 모델 제공자의 데이터를 기반으로 추론 비용 비교
- 토큰 가격의 평균화: 입력 및 출력 토큰의 가격 차이를 평균화하여 계산
- 로그 축적 분석: 연간 비용 감소율을 명확히 하기 위해 로그 그래프를 활용
LLM 비용 감소의 주요 원인은,
- GPU의 비용/성능 향상 (Better cost/performance of the GPUs)
- 모델 양자화 (Model Quantization)
- SW 최적화 (Software Optimization) : 계산요구량 감소, 메모리 대역폭 병목현상 해소
- 더 작은 모델 및 효율성 향상 (Smaller Models)
- 더 나은 지시 기반 튜닝(Better Instruction Tuning) : 인간 피드백 강화 학습(RLHF), 직접 선호 최적화(DPO)
- 오픈소스 생태계 : 비용 절감, 생태계 강화
따라서 LLMflation 현상은 AI 산업의 중요한 전환점으로, 지속적인 비용 절감을 통해 새로운 가능성을 열어주고 있다. 추론 비용이 계속 하락함에 따라, 대규모 언어 모델은 더 많은 사용자에게 접근 가능해지고, AI 기술의 발전 속도도 가속화될 것이다.##

Comments
Post a Comment