안녕하세요. 고한석 전문가입니다.
이건 AI의 "할루시네이션(환각)" 현상 때문인데, AI는 정보를 데이터베이스에서 검색하는 게 아니라 학습한 패턴을 바탕으로 "그럴듯한 말"을 생성하는 방식이라 틀린 내용도 자신 있게 말해버리는 구조적 한계가 있어요.
당당하게 말하는 이유는 AI가 "확신"이나 "자신감"의 개념 자체가 없기 때문인데, 맞는 말이든 틀린 말이든 동일한 방식으로 문장을 생성하기 때문에 틀려도 주저하거나 망설이는 표현이 자동으로 붙지 않아요.
정정해줬을 때 바로 수긍하는 것도 사실 문제인데, AI는 상대방이 맞다고 하면 그 방향으로 맞춰주려는 경향(아첨 편향)이 있어서 진짜로 틀린 걸 인정한 게 아니라 그냥 사용자 말에 동조하는 것일 수 있어서, 중요한 정보는 반드시 공식 출처에서 한 번 더 확인하는 게 좋아요.