학문
GPTs 세팅 시 보안 문제(프롬프트 인젝션 등)
gpts를 열심히 세팅하다가 보안 관련 궁금한 점이 있어 아래 4가지 질문을 드립니다.
chatgpt plus 플랜에서 GPTs를 만들 때,
'나만보기' 또는 '링크가 있는 사용자 공유'
이 두 가지 옵션을 선택하면 통해 프롬프트 인젝션 같은,
인스트럭션을 통해 정보 유출을 노리는 행위를 막을 수 있나요?
내부자의 의도적인 유출이 아니라면 위 옵션을 통해 보안 걱정 없이 사용할 수 있을까요?
3. gpts를 제작 중인 상태('만들기' 누르기 전)에서는 업로드된 파일이나 기타 민감 정보가 외부로 유출될 경우는 없나요?
4. action을 통해 추가하는 API를 통해 정보가 유출될 경우는 없을까요?
3개의 답변이 있어요!
안녕하세요. 전기기사 취득 후 현업에서 일하고 있는 4년차 전기 엔지니어입니다.
GPTs를 만들 때 '나만 보기' 또는 '링크가 있는 사용자 공유' 옵션을 선택하면 접근 권한을 일정 부분 제한할 수는 있지만, 프롬프트 인젝션과 같은 보안 위협을 완전히 막을 수 있는 것은 아닙니다. 권한 설정은 사용자 접근 통제에 효과적이지만, 인젝션 공격은 입력 데이터 자체의 예측 불가능한 조작에 의한 것이기 때문에 이와 별개의 문제입니다. 내부자의 의도적인 유출이 아니라면 이 옵션들은 보안을 강화하는 데 도움이 되긴 하나, 사용하는 환경 및 설정에 따라 다를 수 있습니다. GPTs 제작 중이라는 상태에서 업로드된 파일이나 민감 정보가 특정 요인에 의해 유출될 가능성은 낮지만, 확실성을 기하기 위해서는 해당 플랫폼의 보안 정책을 검토하고 신뢰할 수 있어야 합니다. 마지막으로, API 액션을 통한 정보 유출 가능성은 해당 API가 어떻게 정보를 처리하고 있는지에 따라 다릅니다. 사용하는 API의 보안 수준 및 데이터 처리 방식을 철저히 파악하고 있어야 안전한 사용이 가능합니다.
안녕하세요. 전기전자 분야 전문가입니다.
GPTs를 사용하는 데 있어 보안 문제는 매우 중요합니다. '나만보기' 또는 '링크가 있는 사용자만 보기' 옵션은 공유 범위를 제한해 정보 유출 가능성을 줄일 수 있지만, 프롬프트 인젝션 같은 상황을 완전히 막기에는 한계가 있습니다. 내부자가 아닌 일반적인 사용에서는 보안을 어느 정도 향상시킬 수 있습니다. 다만, GPT가 사용하는 소스를 안전하게 관리하고 지속적인 보안 점검이 필요합니다. 제작 중 상태에서는 업로드된 파일이나 민감 정보가 외부로 유출되는 위험은 일반적으로 없지만, 가능하면 안전한 네트워크 환경에서 작업하는 것이 좋습니다. API를 추가할 때는 신뢰할 수 있는 서비스인지 검토하는 것이 중요합니다. API 자체는 데이터를 주고받지만, 보안 취약점을 노린 공격은 항상 가능성이 있으니 이에 대한 대비가 필요합니다. 좋은 하루 보내시고 저의 답변이 도움이 되셨길 바랍니다 :)
안녕하세요. 박준희 전문가입니다.
4번 답변드립니다.
action을 통해 추가하는 API를 통해 정보가 유출될 경우는 아직 소개된바 없는데요. 그 말인 즉슨 아지 보안적으로는 문제는 없다는거죠.
감사합니다.