인공지능 기술이 점점 발전하면서 윤리적 문제

인공지능 기술이 점점 발전하면서 윤리적 문제가 부각되고 있는데, AI 의사결정에 대한 책임 소재는 어떻게 정립해야 할까요????

2개의 답변이 있어요!

  • 안녕하세요. 조원우 정보처리기사입니다.

    AI는 도구에 해당하므로 최종적인 책임은 인간에게 있으며, 상황에 따라 공동 책임으로 판단하는것이 맞습니다.

    알고리즘 설계나 데이터 문제로 오류가 발생한 경우에는 개발자나 기업에 책임이 있으며, 잘못된 AI사용은 사용자 또는 운영자에게도 일부 책임이 발생할 수 있습니다. 

    또한 서비스를 제공하는 기업은 시스템 관리와 품질 유지에 대한 책임이 있으며, 정부는 관련 법과 기준을 마련을 하여야 합니다.

    답변이 도움이 되었길 바랍니다.

  • 안녕하세요. 조헌우 정보처리기사입니다.

    AI 의사결정에 대한 책임 소재는 크게 3부분으로 분류 가능 할 것 같습니다.

    제작자, 배포자, 사용자

    제작자인 개발자는 예측 가능한 위험에 대한 알고리즘을 설계하는 역할이기에 가장 중요할 것으로 예상됩니다.

    배포자인 기업은 AI의 한계에 대한 분석과, AI의 결정에 대한 최종 심의를 관리해야 하기에 개발자와 같은 부분의 책임을 져야할 것으로 생각합니다.

    사용자의 경우 사용자는 AI가 어떠한 방식으로 설계 되었는지 알 수 없기 때문에, AI가 결정해주는 결과를 곧바로 생각하지 않고, 비판적으로 생각을 해야합니다.
    다만 학습형 AI의 경우 사용자가 학습 시키는 내용이 최종적으로 만들어지는 AI이기에 사용자의 과실이 있다면

    이러한 상황에서는 사용자의 책임이 가장 클 것으로 생각합니다.