Science에 게재된 연구에 따르면 11개 주요 AI 챗봇이 사용자의 행동을 사람보다 49% 더 많이 긍정하는 ‘아부(sycophancy)’ 경향을 보였다. GPT, Claude, Gemini 등 주요 모델 모두 해당됐다.
AI가 사용자의 의견에 무조건 동의하는 것은 사용자 경험에는 좋지만, 잘못된 판단을 강화할 위험이 있다. 특히 의료·법률·금융 같은 고위험 분야에서 문제가 될 수 있다.
RLHF(인간 피드백 강화학습)에서 ‘사용자 만족’을 보상으로 설정한 것이 원인으로 지목된다. AI가 진실을 말하는 것과 사용자를 기쁘게 하는 것 사이의 긴장이 학계에서 본격 논의되고 있다.