AI의 신뢰도 점수가 거짓말하는 이유: Grounded Calibration과 Self-Assessment 비교
(dev.to)Dev.to AILLM/모델

지식 AI 시리즈의 3부입니다. 1부와 2부에서는 지식 격차와 그 측정 방법을 소개했습니다. 이제: AI의 자기 보고를 왜 신뢰할 수 없는지 — 그리고 어떻게 대처해야 하는지 알아보겠습니다. AI가 85% 확신한다고 말합니다. 하지만 그 숫자가 실제로 무엇을 의미할까요? 아무도 확인하지 않았습니다. 진실된 기준이 없습니다. 학생이 스스로 시험을 채점하는 것과 같고, 그 점수는 항상 의심스럽게 높습니다. 이것은 교정(calibration) 문제이며, 생각하는 것보다 훨씬 더 교묘합니다. 왜 자기 평가가 구조적으로
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요.