SF / 과학 포럼
SF 작품의 가능성은 어떻게 펼쳐질 수 있을까요? 그리고 어떤 상상의 이야기가 가능할까요?
SF에 대한 가벼운 흥미거리에서부터 새로운 창작을 위한 아이디어에 이르기까지...
여기는 과학 소식이나 정보를 소개하고, SF 속의 아이디어나 이론에 대한 의견을 나누며, 상상의 꿈을 키워나가는 곳입니다.
( 이 게시판은 최근에 의견이나 덧글이 추가된 순서대로 정렬됩니다. )
기사 링크:
http://www.msn.com/ko-kr/news/world/%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5-%ED%95%99%EC%8A%B5%EB%8A%A5%EB%A0%A5-%EC%9D%B8%EA%B0%84%EC%97%90-%EC%8A%B9%EB%A6%AC%E2%80%A6ai-%EC%B4%88%EC%9D%B8%EC%8B%9C%EB%8C%80-%EC%98%A4%EB%82%98/ar-AAghm8w
인공지능의 학습능력이 인간을 뛰어넘었다는 연구결과가 나와서 주목된다.
10일(현지시간) 뉴욕타임스(NYT)에 따르면 매사추세츠공과대학(MIT)과 토론토대학 연구팀은 이날 사이언스 저널을 통해
컴퓨터 시각 프로그램이 탑재된 기계장치가 사람보다 더 뛰어난 학습능력을 보인 연구결과를 발표했다.
'원샷(one shot)'이라고 불리는 이 기계장치에 탑재된 인공지능(AI) 프로그램은 다양한 종류의 언어를 빠르게 습득한 후
이를 일반화 할 수 있는 능력을 갖추고 있다.
연구팀은 이 능력이 사람이 특정 개념을 배우고 이해하는 것과 유사한 능력이라고 설명했다.
'베이지언 프로그램 학습(BPL)'이라고 불리는 새로운 접근 방식은 현재 다수의 기계 학습 기술에 사용되는 '심화 신경망(DNW)'
방식과는 다른 것으로 알려졌다.
<그림 1> 인공지능이 글자를 보고 따라쓰는 과정
<그림 2> 인공지능이 해결해야 하는 문제는 크게 4가지로 분류된다:
i) 예제를 딱 한번만 보고 그것이 어디에 속하는지 올바르게 분류하기
ii) 예제를 본 다음 그것과 비슷한 예제들을 만들어보기
iii) 예제를 보고 그것을 개별 부분으로 나누기
iv) 기존의 예제들을 하나로 조합하여 새로운 예제를 만들어내기
<그림 2> 어느 것이 사람이 쓴 문자이고, 어느 것이 인공지능이 쓴 문자일까?
답: 왼쪽에서 오른쪽으로 1, 2, 2, 1, 1, 1
신경망은 사람의 말 소리, 물체의 이미지 등을 학습하는 데 있어 학습 대상을 많은 수의 샘플에 노출시키는 훈련법을 사용해 단련된다.
이는 생물학적 뉴런의 습관을 본떠 만들어진 방식이다.
반면 이번에 공개된 소프트웨어는 필체를 분석해서 해당 문자를 그릴 수 있는 경우의 수를 도출해 낸 후 기억하는 방식으로 학습을 한다.
이로 인해 사람이 손으로 쓴 문자 샘플을 몇 번 혹은 단 한 번만 본 후에도 이를 학습하는 능력을 보여준다.
연구팀이 공개한 실험자료에 따르면 원샷이 그려낸 문자와 사람이 쓴 문자는 구분해 내기 매우 어려울 정도로 비슷하다.
연구팀은 세계 문자제공 사이트인 옴니글롯(omniglot)에 게재된 50개 언어 1623개의 수기 문자를 토대로 연구 데이터를 추출한 후
자신들이 개발한 베이지언 접근법과 다른 프로그래밍 모델을 비교했다.
그 결과 원샷은 샘플을 한 차례 보여준 후 그 문자가 무엇인지를 맞추는 실험에서 에러율 3.3%를 기록해 다른소프트웨어를 사용한
장치들을 압도했다. 아울러4.5%를 기록한 사람으로 구성된 집단보다도 더 나은 능력치를 보였다.
이번 실험을 이끈 조슈아 테넌바움 MIT 교수는 "원샷이 뭔가를 배우는 과정은 컴퓨터보다 빠를 정도로 놀라웠다"며 "아이들은
선행지식을 토대로 때론 매우 적은 정보를 가지고도 학습을 이뤄낸다"고 말해 원샷을 어린이에 비유했다.
인공지능의 뛰어난 능력은 '이미지네트 대규모 시각인식 대회(ILSVRC)'라는 경연대회에서도 확인됐다.
이 대회에서 우승한 베이징의 '마이크로소프트연구소' 팀의 컴퓨터는 사진을 1000개의 세부 범주와 맞추는 부문에서는 오류를
합격기준의 2분의 1 수준으로 줄였다. 4만여장의 사진 속 물체를 200개의 범주로 분류하는 부문에서는 모든 물체를 정확하게
감지해내면서 두 부문 모두에서 우승을 차지했다.
MIT-토론토대 연구팀과 마이크로소프트연구소가 공개한 인공지능 소프트웨어의 능력은 모두 사람의 것을 넘어섰다는 점에서
주목을 끈다.
이같은 인공지능의 개발은 최근 자동차 안전시스템이나 자동운전시스템의 개발, 비디오게임의 개발, 인터넷 검색능력 향상 등
분야의 활성화에 힘입어 다양한 산학협력을 이끌어내고 있다.
토요타 자동차는 지난달 스탠퍼드대학의 인공지능과 로봇공학 연구에 5년 동안 수십억 달러 규모의 투자를 약속했다.
일부 공학박사과정 학생들은 교수보다 더 높은 연봉을 받으며 연구기관에 취직하기도 한다.
그러나 컴퓨터과학자들은 이같은 능력의 향상에도 불구하고 아직 '생각하는 기계'의 출현이나 인공지능을 인간지능과 직접
비교하기에는 시기상조라고 말했다.
오렌 에치오니 앨런 인공지능재단 이사장은 "'초인적인 능력'이라는 표현은 매우 조심해서 사용해야 한다"며 "아직까지는
레인맨에서 보여준 더스틴 호프먼의 모습에나 붙일 수 있는 표현"이라고 말했다.
달리 말하자면 '직관'과 관계 된 문제라고 할 수 있겠죠. 저도 위의 예제에서 시험삼아 '어느 쪽이 기계가 쓰고 어느 쪽이 사람이 썼는가'를 해봤는데, 간단히 정답을 다 맞췄거든요,
예시로 주어진 도형/모양을 봤을 때, 사람의 경우에는 '좀 삐져나온 부분'이라든지, '펜 끝이 걸려서 뭉툭한 부분'이라든지, 이런 식으로 어떻게 확실히 정의하기 애매한 '특징'을 보고 그것이 정말로 그 글자의 일부분인지 아닌지 직관적으로 유추를 해낼 수 있는 반면, 기계가 한 작업의 경우에는 인간인 제 눈으로 봤을 때에는 '저건 글자의 일부분이 아니라 걍 펜이 좀 삐져나온 부분'이라고 쉽게 알아챌 부분을 가늠하지 못하여 크게 과장 된 형태로 그려내는게 보이죠.
저도 이쪽 분야 지식은 일천한지라 걍 줏어들은 바에 의하면 흔히 인공지능의 인식능력을 연구하는 사람들은 이 문제를 "B-8의 문제"라고 한다네요. 사람 눈은 B와 8 정도의 차이는 굳이 복잡하게 생각할 필요도 없이 어지간해서는 매우 쉽게 구분을 하거든요. 설령 알아보기 대단히 애매하게 필기로 쓰여져있다고 해도 모양만으로 해석하기가 힘들다면, 역시 직관적으로 '맥락적 의미'를 파악해서, 이게 숫자를 쓴건지 문자를 쓴건지 쉽게 파악을 하죠.
그런데 기계로서는 B와 8이 어떻게 다른건지, 저 각도가 몇 도 이상이면 B가 되고 몇 도 아래면 8이 되고.. 그런 식으로 정해서 프로그래밍 할 수 있는 부분이 아니다 보니까 '종합적 이해', '맥락의 이해', '직관적 이해' 이런 능력을 어떤 식으로 기계로 재현해야 하는건지 꽤 어렵다고 하더라구요.
인공지능을 학습시키는 방법은 (인간이 인식하기엔 이미 하나의 카테고리 안에 드는)유사한 대상들을 압도적으로 많이 입력해 주고 거기서 카테고리를 짓게 만드는 겁니다.
하지만 원샷은 하나의 대상을 인지하는 것만으로도 다른 유사한 대상을 같은 카테고리 안에 넣는 능력이 있다는 거죠. 즉, 원문을 못 봐서 확신할 수는 없지만, 예제를 딱 '한 번'만 보여준다는 게 아니라 딱 '하나'만 보여준다는 이야기일 가능성이 높습니다.
뭐 그 자체만으로도 지금까지 나온 인공지능에 비해 굉장한 발전인데 인간보다 낫기까지 하다니 놀랍네요.
인공지능, 그러니까 전자적 기억장치를 갖춘 기계에 '딱 한 번' 보여준 다는 것이 무슨 의미인지 모호하군요. '전자적 기록'의 차원에서는 한 번 보여주나 두 번 보여주나(혹은 수백번이라도) 같은 것 아닌지 ... 그게 아니라 '여러 개가 아닌 단 하나의 샘플을 깊이 분석해서' 라는 뜻일까요?