기사 링크: http://media.daum.net/foreign/america/view.html?cateid=1043&newsid=20081126113517556&p=yonhap&RIGHT_TOPIC=R5


글쎄요...전쟁 로봇으로 하여금 도덕적 행동을 하도록 만든다...이거 꽤 난감한 문제네요.


전장에서 행해지는 모든 행동에 대해서 어떤 윤리적 기준을 적용시키는 것이 과연 가능한 일일까요?

또, 만약 그런 단일한 가치체계가 있다고 하더라도, 로봇이 그 명시된 법칙을 올바로 상황에 적용시킬 수 있을지도 의문입니다.

초고속으로 결정을 내려야 하는 전장 상황에서, 특정 공격이나 작전이 기준에 부합하지를 검토하고 판단한다는 것은 매우 어려운 과제니까요.

만약 로봇이 자신에게 주어진 윤리적 지침을 준수하다가, 혹시 임무 달성에 실패라도 하게 된다면, 누가 이에 대해서 책임을 질까요?

민간인에게 절대로 피해가 가지 않도록 프로그래밍된 로봇이 과연 실제 전쟁에서 쓸모가 있을지도 의구심이 듭니다.


저는 개인적으로 전쟁 로봇을 만드는 과정에서 윤리적 측면이 실제로 고려될 지에 관해서는 조금 회의적인 입장입니다만....

전쟁의 희생자를 조금이라도 줄이기 위해서는 위와 같은 고민이 반드시 필요하다고 봅니다.

...뭐, 이런 고민을 해야 한다는 것 자체가 비극이긴 하지요.