LLM 인프라의 미래: 모델 크기보다 '추론 최적화'가 핵심인 이유 | StartupSchool