예전에 제가 올렸던 글의 답변이 꽤나 인상깊었는데 비슷한 맥락인 것 같습니다. 인공지능에 관한 윤리가 여러가지가 있겠습니다만 이 답변의 경우 AGI(범인공지능)으로 한정됩니다. 기술적 가능성은 차치하고서라도 인류가 어디까지 허용할 것인지, 그 권력을 누가 가질 것인지가 핵심인 것 같네요.
(이미지가 붉은 색이 많아서 조금 놀라실 수 있습니다.)
국제적으로 유명한 인공지능 컨퍼런스 중 한 곳(ICML)에서 AI 무기의 사용 우려에 대한 내용으로 발표된 포스터입니다. AI 무기의 예측불가능성이 결국 국제적인 AI 연구 협력을 매우 감소시킬 것이기 때문에 대학들에서 이를 위한 윤리연구가 필요하다라는 것입니다. 제가 생각했을 때 사회적 결단과 권력이 가장 부정적인 형태로 현재 나타나는 예시 중 하나라고 생각이 듭니다.