로봇 3원칙은 이제 일종의 클리셰입니다. 


인공지능이 인간을 살해한다는건 인간 노예의 하극상과는 비교할 수도 없는 일이죠. 


하지만 이건 따지고보면 고도로 발전된 비살상용 인공지능에만 해당된다고 볼 수도 있습니다. 


이건 말귀를 알아듣는 노예에게 주인을 해쳐선 안된다는 교육을 하는 것과 비슷합니다. 


하지만 그런 수준의 인공지능이 아니라면? 


어쩌면 순수한 살상 병기용 인공지능이 등장한다면 오히려 그런 제약을 애초에 고려조차 안 할 가능성도 있을 거 같습니다. 


이를테면 "경계선 안에 들어오는 모든 생명체중 야생동물은 살상하지 않고 인간만 골라서 발포하는" 인공지능이 달린 센트리건 같은 거요. 


언뜻 생각하기에 역설적으로 이런 원시적인(?) 수준의 인공지능에게는 인간 살상의 제약을 걸 필요성 자체가 느껴지지 않습니다. 


윤리적인 자가판단을 한다기보다는 그저 프로그램으로서의 도구에 더 가깝게 느껴지기 때문입니다. 


무인화나 자동화가 가속화되는 요즘 전장의 추세를 고려할 때 어찌보면 실제로는 인공지능의 인간 살상을 허락하느냐 아니냐보다는 어느 수준 혹은 어떤 목적의 인공지능을 기준으로 허하고 불허하느냐의 문제가 될 지도 모릅니다. 


아이로봇 같은 로봇만 상상하던 SF 시절과 오늘날의 무인기 같은 것들을 비교해보면 로봇 3원칙보다는 오히려 일정한 틀 안에서 살상 목적에 특화된 로봇 터미네이터? 이 더 현실적으로 가능성이 높을지도요. 


복합적인 판단을 내리는 인공지능이 아니라면 로봇 그 자체는 도구이니 결국에는 효율성의 문제만 남기 때문입니다. 총은 효율적인 살인무기이지만 총이 효율적인 것과 사악한 것과는 별개인 것처럼. 


상당히 디스토피아적인 전망처럼 보이는데 왠지 현실적으로는 로봇 3원칙보다는 그런 방향으로 발전하지 않을까요? 물론 정말 인간과 구분하기 힘든 수준의 인공지능이 만들어져서 쓰이게 된다면야 얘기가 다르겠지만.