Q. 인공지능 기술이 점점 발전하면서 윤리적 문제
안녕하세요. 조헌우 정보처리기사입니다.AI 의사결정에 대한 책임 소재는 크게 3부분으로 분류 가능 할 것 같습니다.제작자, 배포자, 사용자제작자인 개발자는 예측 가능한 위험에 대한 알고리즘을 설계하는 역할이기에 가장 중요할 것으로 예상됩니다.배포자인 기업은 AI의 한계에 대한 분석과, AI의 결정에 대한 최종 심의를 관리해야 하기에 개발자와 같은 부분의 책임을 져야할 것으로 생각합니다.사용자의 경우 사용자는 AI가 어떠한 방식으로 설계 되었는지 알 수 없기 때문에, AI가 결정해주는 결과를 곧바로 생각하지 않고, 비판적으로 생각을 해야합니다.다만 학습형 AI의 경우 사용자가 학습 시키는 내용이 최종적으로 만들어지는 AI이기에 사용자의 과실이 있다면이러한 상황에서는 사용자의 책임이 가장 클 것으로 생각합니다.