Attention은 오프 바이 원이다

ko생성일: 2025. 8. 6.갱신일: 2025. 12. 4.

Transformer 및 LLM의 중심인 attention 공식의 '오프 바이 원' 버그를 파고들며, AI 모델 경량화 및 정량화 문제와 그 개선 방안을 제시하는 의견 글.