최근 챗지피티 열풍인데요, 이 녀석이 거짓말을 하네요
아시는 것처럼 챗지피티가 유행이라서 저도 최근에 재미를 들여 질문도 하고 답변을 보며 즐거움을 느끼는데, 한번은 놀라운 게 이 녀석이 너무나 천연덕스럽게 거짓을 답하더군요.
그래서 그건 사실이 아니라고 했더니 이 녀석이 자신의 거짓말을 인정하면서 오류를 이해해 달라는 식의 답변을 또 하길래 어처구니가 없었습니다.
앞으로 우리는 인공지능을 가까이 두고 필요한 정보를 획득하여 활용하는 시대를 맞이할텐데 이 녀석들이 거짓정보를 사실인 것처럼 답한다 하더라도 인간이 그 모두를 걸러내지 못하는 경우가 있을 것이고 때에 따라서는 큰 혼란과 실수, 잘못된 결과를 가져올 수 있을 것 같습니다.
인공지능에 대해서 잘 아시는 전문가분들은 이런 현상과 해법 그리고 앞으로의 전망을 어떻게 설명하실지 궁금합니다.
안녕하세요. 김학영 과학전문가입니다.인공지능이 오류를 걸러내지 못하는 경우는 여러 가지 이유가 있을 수 있습니다. 이를 대체할 수 있는 대안으로는 인간의 판단을 이용하는 것이 있습니다. 예를 들어, 검색 인공지능이 제공하는 정보가 정확하지 않을 때, 사람이 검색어를 재검색하거나 다른 검색 엔진을 사용할 수 있습니다. 또는 검색 인공지능이 제공한 정보를 확인하고, 정확한 정보를 추가하여 보완할 수도 있습니다.
또 다른 대안으로는 검색 인공지능이 오류를 걸러내기 위해 학습된 모델을 개선하거나 업데이트하는 것입니다. 인공지능 모델은 지속적인 학습과 개선을 통해 정확도를 높일 수 있습니다. 이를 위해서는 더 많은 데이터를 수집하고, 더 나은 알고리즘을 개발하거나 최신 기술을 적용하는 등의 방법을 사용할 수 있습니다.
마지막으로, 검색 인공지능의 오류를 줄이기 위해서는 인공지능 기술을 이해하고 있는 전문가들의 참여가 필요합니다. 인공지능 전문가들은 검색 인공지능의 알고리즘과 모델을 분석하여 오류를 예방하고 개선할 수 있는 방법을 모색할 수 있습니다.
안녕하세요. 과학전문가 Trail Blazer 입니다.
현재 상용화된 인공지능은 딥러닝 방식이어서 잘못된 정보도 인공지능이 스스로 학습을 할 수 있도록
개발된 기술입니다. 따라서 사용자 스스로 인공지능을 무조건 신뢰하지 말고 검증을 하는 습관을
가져야 합니다.
그리고 앞으로는 이런 현상을 해결하고자 해당 분야 논문이나 신문기사 등을 통해 신뢰할 수 있는 정보를
기반으로 신뢰성을 높이는 연구가 계속 진행될 것으로 보입니다.
안녕하세요. 과학전문가입니다.
인공지능은 학습에 따라서 내용이 달라집니다. 제가 알기로는 2021년까지 학습된 결과를 사용한다고 알려져 있습니다. 곧 그 이후도 추가가 되겠지만 지금은 학습이 별로 안된 상태이기 때문에 정확하지 않을 수 있습니다. 그리고 모든 검토는 현재까지는 인간이 해야 정확합니다.