SF / 과학 포럼
SF 작품의 가능성은 어떻게 펼쳐질 수 있을까요? 그리고 어떤 상상의 이야기가 가능할까요?
SF에 대한 가벼운 흥미거리에서부터 새로운 창작을 위한 아이디어에 이르기까지...
여기는 과학 소식이나 정보를 소개하고, SF 속의 아이디어나 이론에 대한 의견을 나누며, 상상의 꿈을 키워나가는 곳입니다.
( 이 게시판은 최근에 의견이나 덧글이 추가된 순서대로 정렬됩니다. )
로봇 3원칙은 이제 일종의 클리셰입니다.
인공지능이 인간을 살해한다는건 인간 노예의 하극상과는 비교할 수도 없는 일이죠.
하지만 이건 따지고보면 고도로 발전된 비살상용 인공지능에만 해당된다고 볼 수도 있습니다.
이건 말귀를 알아듣는 노예에게 주인을 해쳐선 안된다는 교육을 하는 것과 비슷합니다.
하지만 그런 수준의 인공지능이 아니라면?
어쩌면 순수한 살상 병기용 인공지능이 등장한다면 오히려 그런 제약을 애초에 고려조차 안 할 가능성도 있을 거 같습니다.
이를테면 "경계선 안에 들어오는 모든 생명체중 야생동물은 살상하지 않고 인간만 골라서 발포하는" 인공지능이 달린 센트리건 같은 거요.
언뜻 생각하기에 역설적으로 이런 원시적인(?) 수준의 인공지능에게는 인간 살상의 제약을 걸 필요성 자체가 느껴지지 않습니다.
윤리적인 자가판단을 한다기보다는 그저 프로그램으로서의 도구에 더 가깝게 느껴지기 때문입니다.
무인화나 자동화가 가속화되는 요즘 전장의 추세를 고려할 때 어찌보면 실제로는 인공지능의 인간 살상을 허락하느냐 아니냐보다는 어느 수준 혹은 어떤 목적의 인공지능을 기준으로 허하고 불허하느냐의 문제가 될 지도 모릅니다.
아이로봇 같은 로봇만 상상하던 SF 시절과 오늘날의 무인기 같은 것들을 비교해보면 로봇 3원칙보다는 오히려 일정한 틀 안에서 살상 목적에 특화된 로봇 터미네이터? 이 더 현실적으로 가능성이 높을지도요.
복합적인 판단을 내리는 인공지능이 아니라면 로봇 그 자체는 도구이니 결국에는 효율성의 문제만 남기 때문입니다. 총은 효율적인 살인무기이지만 총이 효율적인 것과 사악한 것과는 별개인 것처럼.
상당히 디스토피아적인 전망처럼 보이는데 왠지 현실적으로는 로봇 3원칙보다는 그런 방향으로 발전하지 않을까요? 물론 정말 인간과 구분하기 힘든 수준의 인공지능이 만들어져서 쓰이게 된다면야 얘기가 다르겠지만.
간단히 생각해서 지뢰를 따져보죠.
인간이 직접 터뜨리지 않아도 누군가 밟으면 터집니다.
비인도적이라곤 하지만 아직도 씁니다.
로봇도 그렇게 쓰이지 말라는 법은 없다고 생각합니다.
지금도 무인 조종형 드론을 띄우지만
자동 판단에 의한 조종, 조준, 피아식별, 까지도 일사천리가 되겠죠.
방아쇠를 당기느냐 마느냐만 인간에게 달려 있는 상황도 금방 올 겁니다.
문제는 그 정도가 되면 지금의 군인들과 별로 다를 바 없겠죠.
상관의 명령에 따라서 발포하니까요.
두번째 변종이야기를 조금 더 확장하면..
지뢰와 비슷하죠. 피아식별장치를 통해 아군이라는 밴드가 없으면 무조건 공격을 하는 것으로 기억합니다.
지뢰는 그나마 '지뢰부설지역'이라는 표지판이라도 세워놓지만, 이것도 장마 등으로 유실되서 사고가 자주 일어나죠.
사이도니아님 말씀대로 피아식별-조준까지 기계가 다 해주고 트리거는 인간이 당긴다고 해도 이게 완전 자동화와는 다릅니다. 먼저 인간이라는 존재가 최종 확인을 하기 때문에 한번 더 판단하는 안전장치가 되고, 둘째로 오인으로 인해 사고가 났을때 책임을 물을 수 있습니다.
21세기는 군인이 '명령이라서 했다' 라는 말이 변명이 되지 않는 시대잖아요.
무인기나 무인 차량도 프로그램만 얹어 놓으면 자동 살상 병기가 될 수 있으니까 윤리적인 장벽만 해제된다면 인류(라기보단 미국이지만)는 바로 로봇을 통한 전쟁을 할 준비가 된 것 같기도 합니다. 하지만 사람들의 거부감이 남아 있는 한은, 그리고 사람들이 정부에 대해 발언권을 가지고 있는 한은 방아쇠를 당길 권한까지 소유한 로봇들이 '공식적으로' 나오기는 쉽지 않겠네요.
사실 인간이 살상용로봇을 불허할 것인가...라는 전제에 대해서는 좀 부정적입니다.
그것이 불허할 필요가 없다거나 그런 것이 아니라,
발달된 인공지능이 나오고 그 인공지능에 '살상결정권'을 주는냐 아니냐가 아니라 전쟁무기가 자동화되어가는 과정에서 사람보다 더 빠른 반응속도를 보이고 오발확률이 더 적은 어떤 기술이 등장한다면 자연스럽게 논란이 되기도 전에 채용될 것이라고 생각됩니다.
'지뢰'와는 조금 다른 것이 지뢰는 기본적으로는 특정 지역에 심어지는 것이고 수동형 방어무기죠.
(현실적으로는 비에 떠내려가 엉뚱한 곳에서 사고를 치거나 오랫동안 제대로 제거되지 않다가 아무것도 없는 줄 알았는데
뻥 터지거나 하기는 하지만...)
로봇이 그처럼 쓰인다고 한다면, 어떤 의미로는 이미 쓰이는 곳이 있을 법 합니다.
능동적으로 이동하면서 적을 찾아 공격하는 병기가 아니라 특정지역에 자리잡은 무인방어시설...
동작센서 연동형 기관총발사기라거나...
(영화 속에서나 자주 보이는 것인지 실제로 이런 것들을 쓰는 곳이 있는지는 잘 모르겠지만...)
아무래도 일단은 미니건 터렛같은 것들은 제한구역(연구시설 내부의 보안레벨이 높은 곳이라거나)에 대한 방어용부터 시작되지 않을까 싶습니다.
그것도 평시에는 보안프로토콜에 유난히 어긋나는 행동(cctv에 대고 총을 쏜다거나 경고에도 불구하고 틀린 비밀번호를 반복입력한다거나...)에 반응하도록하되 특수상황(시설에 경보가 울린다거나하는)에서는 자동식별하여 살상이 가능하도록 작동하는 식의 형태를 떠올릴 수 있을 것 같아요.
그런데 이런 방어장치들이 점차 발달되고 인간 경비병에 의한 오발사고보다 오히려 오발사고가 적은 상황,
게다가 졸거나 딴짓하거나 하지도 않으니 실제 경비능력도 높게 나오다보면 점차 그 활용범위가 제한레벨이 낮은 곳으로까지
나오게 되지 않을까 싶습니다.
...그러다보면 실제로 능동적인 공격장비에도 이러한 살상결정권을 부여하게 될 지도 모르겠어요.
언제나 넘어서는 안될 선을 넘게되는 건 갑작스러운 등장보다도 점차 익숙해지고 그것에 젖어가는 과정에서 쉽게 발생하니까요.
제한된 구역에서의 방어장비에서 일반화된 방어장비로,
그리고 민간에 공개되지 않는 비밀임무의 능동전투장비에서 일반적인 능동전투장비로... 서서히 서서히... @ㅅ@
단순 목적의 인공지능이 비교적 만들기 쉬울 겁니다. 그러나 전장이라는 복잡한 상황에서 피아 식별이 가능하려면, 인공지능의 논리만으로 힘들지 않을까요. 사람도 오발을 수도 없이 내는 마당에 기계라고 오류가 없을까요. 자칫 잘못하면 아군까지 휘말리는 대량 살상으로 이어질 수도 있고요. 살인용 인공지능은 반발이 엄청나게 클 것 같습니다. 독가스처럼 비윤리적인 수단으로 간주하지 않을지…. 물론 비윤리적 수단이라고 해도 써먹을 국가들은 죄다 써먹긴 합니다만. 그걸 차지하고, 어쨌든 반대 목소리가 많을 듯하군요.