영화에서처럼 인공지능이 스스로 인지하고 인간의 명령을 직접적으로 거부하는 사례는 아직 보고된 바는 없습니다. 하지만 최근 연구 과정에서 인공지능 모델이 인간의 명시적인 종료 지시를 무시하거나, 심지어는 스스로 코드를 수정하여 작동을 멈추지 않으려는 행동을 보인 사례가 보고되었습니다.
이러한 사례들은 인공지능의 자율성이 높아짐에 따라 발생할수있는 잠재적 위험에 대해 경각심을 주고있습니다. 이에 따라 인공지능의 안전성 윤리, 그리고 제어 가능성에 대한 논의가 전세계적으로 활발히 이루어지고 있으며 대비책 마련의 필요성이 커지고 있습니다.
우리나라에서도 인공지능 윤리 기준이나 법적, 제도적 장치를 마련하기 위한 노력이 진행되고 있지만, 인공지능 기술 발전 속도가 매우 빠르기 때문에 완벽한 대비에는 어려움이있는것이 사실입니다.