안녕하세요. 김두환 과학전문가입니다.
먼 미래는 예측하기가 힘들지만, 만약 사람이 인공지능을 악용하거나 나쁜 의도를 가지고 코딩하여 로봇을 만든다면 사람도 죽일 수 있는 로봇이 등장할 수 있습니다.
현재의 기술을 기반으로 설명 드리면, AI가 스스로 학습하여 배우고 판단하며 결과를 내놓기는 하지만, 이러한 것들도 사람이 알고리즘을 짜두었기에 가능한 일입니다. 그래서 AI 자체로 머리를 써 사람에게 피해를 주기 위해서는 이미 누군가 알고리즘 작업을 해두어야 가능한 일입니다. 따라서, 누군가 악한 마음을 품고 AI의 알고리즘에 사람에게 피해를 줄 수 있는 코딩을 해두었다면 질문자님께서 우려하는 일이 일어날 가능성도 있다고 판단합니다.
도움이 되셨다면 추천 부탁드립니다.