방송·미디어
AI동영상이 실제랑 거의 같던데 그것으로 인해 피해사례가 아주 많을까요??
AI동영상으로 실제 동영상처럼 조작해서 많은 피해사례까 일어나고 있을거 같은데 그것으로 억울하게 당했거나 피해를 당한 사람이 지금 많아지고 있나요?? ㅠㅠ 그러면 너무 불쌍하고 안타까운거 같아요.. 진짜 그러진 않겠죠?? 만약 진짜 그런거라면 너무너무 기분이 속상하고 안타깝네요 ㅠ
2개의 답변이 있어요!
AI 영상은 실제와 유사한 수준으로 발전하면서 딥페이크 기술을 악용한 사기, 명예훼손, 성범죄 등의 피해가 급증하고 있으며, 특히 보이스피싱과 음란물 합성, 기업 사기 사례는 사회적 신뢰를 위협할 만큼 심각한 문제로 대두되고 있습니다.
안녕하세요~석산화입니다~
딥페이크 범죄 피해가 1년 새 약 3배(227%) 폭증했으며 피해 영상물 삭제 요청 건수도 30만 건을 넘어섰습니다. 특히 10대 20대 등 젊은 층에서 합성·편집 피해가 급증하고 있습니다. 일반인 피해자도 많아지는 추세입니다. 과거에는 유명인 위주로 피해가 일어났으나 최근에는 일반인을 음해하거나 개인의 사생활을 침해하는 사례 전 연인 관계에서 보복 심리로 딥페이크 성적 영상이 제작되는 사례도 증가하고 있습니다. 해외 서버에 업로드되는 피해 영상도 급증하여 서울시 등에서는 AI를 통한 영상 유포 감지 삭제 지원이 2022년 2509건에서 지난해 14256건으로 468% 증가했습니다. 3년간 총 3650명의 피해자가 지원받았습니다.