안녕하세요. 서종현 전문가입니다.
말씀하신 것처럼 같은 질문에도 답변이 일관되지 않거나 정밀한 상담에 한계를 느끼시는 것은 현재 대규모 언어 모델(LLM)의 특성에서 비롯되는 부분입니다.
챗 GPT와 같은 LLM은 학습된 데이터를 바탕으로 다음에 올 가장 확률 높은 단어를 예측하여 답변을 생성하는 확률 언어 모델입니다. 사람처럼 내용을 이해하고 추론하여 일관된 논리를 펼치는 방식과는 차이가 있습니다. 그렇기 때문에 동일한 질문을 하더라도 미세한 확률적 차이로 인해 매번 다른 답변이 나올수있고, 간혹 사실과 다르거나 조작된 정보를 그럴듯하게 생성하는 할루시네이션(환각)현상이 발생하기도 합니다. 이는 LLM방식의 한계이기도 합니다. 따라서, 광범위한 정보 탐색, 아이디어 발상, 초안 작성 등에는 매우 유용하지만, 고도로 정밀하거나 사실 여부의 정확성이 매우 중요한 전문적인 상담 분야에서는 아직 한계가 있을수있습니다. 중요한 정보는 항상 다른 출처를 통해 재확인 하시는것이 좋습니다. 프롬포트를 구체적으로 작성하시거나, 대화의맥락이 길어져 답변이 어긋난다면 새로운 대화창에서 다시 질문하시는 것도 도움이 될수있습니다.