SF / 과학 포럼
SF 작품의 가능성은 어떻게 펼쳐질 수 있을까요? 그리고 어떤 상상의 이야기가 가능할까요?
SF에 대한 가벼운 흥미거리에서부터 새로운 창작을 위한 아이디어에 이르기까지...
여기는 과학 소식이나 정보를 소개하고, SF 속의 아이디어나 이론에 대한 의견을 나누며, 상상의 꿈을 키워나가는 곳입니다.
( 이 게시판은 최근에 의견이나 덧글이 추가된 순서대로 정렬됩니다. )
출처: https://techxplore.com/news/2019-01-closer-self-aware-machinesengineers-robot.html
An image of the deformed robotic arm in multiple poses as it was collecting data through random motion. Credit: Robert Kwiatkowski/Columbia Engineering
변형된 로봇팔이 다양한 포즈를 취하면서 우발적인 움직임을 통해 데이터를 수집하고 있다. 사진제공: Robert Kwiatkowski/Columbia Engineering
Robots that are self-aware have been science fiction fodder for decades, and now we may finally be getting closer. Humans are unique in being able to imagine themselves—to picture themselves in future scenarios, such as walking along the beach on a warm sunny day. Humans can also learn by revisiting past experiences and reflecting on what went right or wrong. While humans and animals acquire and adapt their self-image over their lifetime, most robots still learn using human-provided simulators and models, or by laborious, time-consuming trial and error. Robots have not learned simulate themselves the way humans do.
지난 수십년간 자의식이 있는 로봇은 SF에서나 볼 수 있는 개념이었지만, 이제 우리는 이에 한 발자국 더 가까워졌다. 인간에게는 스스로를 상상할 수 있는 능력이 있다. 예를 들면 햇살이 비치는 따뜻한 어느 날에 해변가를 거니는 것처럼 미래의 시나리오 속에 있는 자신을 그려내는 능력 말이다. 또한 인간은 과거의 경험을 되돌아보고, 무엇이 올바르거나 잘못되었는지 고찰한다. 인간의 동물은 삶을 살면서 자기-이미지를 형성하며 적응시키지만, 대다수의 로봇들은 여전히 인간이 제공하는 시뮬레이터와 모델을 사용하여 학습하거나, 노력과 시간이 많이 드는 시행착오를 통하여 배운다. 현재까지 로봇은 인간처럼 스스로를 시뮬레이션하는 법을 배우지 못했다.
Columbia Engineering researchers have made a major advance in robotics by creating a robot that learns what it is, from scratch, with zero prior knowledge of physics, geometry, or motor dynamics. Initially the robot does not know if it is a spider, a snake, an arm—it has no clue what its shape is. After a brief period of "babbling," and within about a day of intensive computing, their robot creates a self-simulation. The robot can then use that self-simulator internally to contemplate and adapt to different situations, handling new tasks as well as detecting and repairing damage in its own body. The work is published today in Science Robotics.
콜럼비아엔지니어링 연구진은 아예 백지 상태에서, 다시 말해 물리학이나 기하학, 운동역학에 관한 사전지식이 전혀 없는 상태에서 스스로가 무엇인지 학습할 수 있는 로봇을 개발해내는데 성공했다. 처음에 로봇은 자신의 형태, 즉 자신이 거미처럼 생겼는지, 뱀처럼 생겼는지, 아니면 팔처럼 생겼는지 전혀 모른다. 그러나 일종의 “옹알이”를 잠시 수행한 다음 애략 하루 정도의 계산과정을 거치면 로봇은 자가모델을 만들어낸다. 이후 로봇은 이 자가모델을 활용하여 다양한 상황에 대해 고찰 또는 적응하거나, 자신의 몸이 입은 손상을 탐지 및 수리하는 등 새로운 과제를 수행할 수도 있다. 해당 연구는 오늘 사이언스 로보틱스지에 게재되었다.
콜럼비아 엔지니어링에서 개발한 자기상상 기능을 갖춘 로봇의 작동 개요도
a) 로봇이 랜덤으로 움직이면서 행위-감각 쌍 자료를 수집한다.
b) 자신이 수집한 자료와 부합하는 자기모델을 학습한다.
c) 자기모델을 사용하여 다양한 과제를 수행한다.
d) 자신의 몸이 예전의 자기모델과 맞지 않음을 감지한다.
e) 새로운 자료에 기반하여 자기모델을 수정한다.
f) 수정된 자기모델을 사용하여 과제를 수행한다.
To date, robots have operated by having a human explicitly model the robot. "But if we want robots to become independent, to adapt quickly to scenarios unforeseen by their creators, then it's essential that they learn to simulate themselves," says Hod Lipson, professor of mechanical engineering, and director of the Creative Machines lab, where the research was done.
지금까지 로봇들은 인간이 모델을 해주어야만 작동할 수 있었다. “그러나 로봇이 독자적으로 임무를 수행하거나 그 제작자들이 예상하지 못한 상황에 빠르게 적응할 수 있으려면 스스로를 시뮬레이션하는 법을 배워야 합니다”라고 해당 연구가 진행되었던 크리에이티브 머신즈 랩의 소장이자 기계공학교수인 호드 립슨은 말했다.
콜럼비아 엔지니어링에서 개발한 자기상상 기능을 갖춘 로봇 소개 동영상
For the study, Lipson and his Ph.D. student Robert Kwiatkowski used a four-degree-of-freedom articulated robotic arm. Initially, the robot moved randomly and collected approximately one thousand trajectories, each comprising one hundred points. The robot then used deep learning, a modern machine learning technique, to create a self-model. The first self-models were quite inaccurate, and the robot did not know what it was, or how its joints were connected. But after less than 35 hours of training, the self-model became consistent with the physical robot to within about four centimeters. The self-model performed a pick-and-place task in a closed loop system that enabled the robot to recalibrate its original position between each step along the trajectory based entirely on the internal self-model. With the closed loop control, the robot was able to grasp objects at specific locations on the ground and deposit them into a receptacle with 100 percent success.
해당 연구를 위해 립슨과 그 박사과정생 로버트 퀴앗코브스키는 4D 자유도를 가지는 로봇팔을 사용했다. 처음에 로봇은 랜덤하게 움직이면서 대략 1천개의 궤도를 수집하였다. 참고로 궤도 각각은 1백개의 점으로 구성된다. 그 다음에 로봇은 기계학습 방법 중 하나인 딥러닝을 사용하어 자기모델을 구축한다. 이렇게 생겨난 첫 자기모델은 상당히 부정확하며, 로봇은 여전히 자기 자신이 어떻게 생겨먹었는지, 관절은 어떻게 연결되어 있는지 모른다. 하지만 35시간의 훈련을 거치고 나면 로봇의 자기모델은 현실의 물리적인 로봇 몸체와 약 4cm 오차 내에서 일치하게 된다. 이러한 자기모델은 물건 옮기기 과제를 폐루프 체계 내에서 수행할 수 있었으며, 이 덕분에 로봇은 온전히 그 내부적인 자기모델에만 의존하여 경로상의 각 구간들 사이에서 자신의 원래 위치를 리캘리브레이션할 수 있었다. 이러한 폐루프 제어를 통해 로봇은 지면의 특정 위치에 있는 물체를 붙잡아 용기에 100%의 성공률로 옮길 수 있었다.
Even in an open-loop system, which involves performing a task based entirely on the internal self-model, without any external feedback, the robot was able to complete the pick-and-place task with a 44 percent success rate. "That's like trying to pick up a glass of water with your eyes closed, a process difficult even for humans," observed the study's lead author Kwiatkowski, a Ph.D. student in the computer science department who works in Lipson's lab.
아무런 외부적 피드백이 없이 온전히 내부적인 자기모델에만 의존하여 과제를 수행해야 하는 개루프 시스템에서도 로봇은 44%의 성공률로 물건 옮기기 과제를 수행할 수 있었다. “이는 마치 눈을 감고 물이 들은 컵을 붙잡아 옮기는 것과 비슷합니다. 이는 인간에게도 힘든 일이죠”라고 해당 논문의 수석저자이자 상기 연구소의 컴퓨터과학과 박사과정생인 퀴앗코브스키가 말했다.
The self-modeling robot was also used for other tasks, such as writing text using a marker. To test whether the self-model could detect damage to itself, the researchers 3-D-printed a deformed part to simulate damage and the robot was able to detect the change and re-train its self-model. The new self-model enabled the robot to resume its pick-and-place tasks with little loss of performance.
자기모델링을 할 수 있는 이 로봇은 마커로 글을 쓰는 등의 다른 과제들도 수행할 수 있었다. 자가모델이 스스로에게 가해진 손상을 탐지할 수 있는지 실험하기 위해 연구진은 3차원 인쇄된 변형 부품을 사용하며 로봇이 마치 손상된 것처럼 꾸몄고, 그러자 로봇은 변형이 일어난 것을 감지하고 자기모델을 변경하였다.
An image of the intact robotic arm used to perform all of the tasks Credit: Robert Kwiatkowski/Columbia Engineering
과제들을 수행하는 로봇팔의 사진 / 사진제공: 로버트 퀴앗코브스키, 콜럼비아 엔지니어링
Lipson, who is also a member of the Data Science Institute, notes that self-imaging is key to enabling robots to move away from the confinements of so-called "narrow-AI" towards more general abilities. "This is perhaps what a newborn child does in its crib, as it learns what it is," he says. "We conjecture that this advantage may have also been the evolutionary origin of self-awareness in humans. While our robot's ability to imagine itself is still crude compared to humans, we believe that this ability is on the path to machine self-awareness."
데이터과학연구소의 회원이기도 한 립슨은 자기상상 기능이 로봇들을 전문인공지능의 제약에서 해방시켜 더 광범위한 기능을 수행하도록 만드는데 핵심적인 요소라고 말했다. “이는 마치 신생아가 요람에서 자기 자신의 몸에 대해 배우는 것과 비슷하다고 할 수 있습니다”라고 그는 말했다. “우리는 이러한 능력이 또한 인간의 자의식 형성에 있어 진화론적 원인이 되었다고 추측하고 있습니다. 비록 저희가 개발한 로봇의 자기상상 능력은 아직 인간에 비해 조잡한 수준이지만, 우리는 이러한 능력이 기계 자의식 형성에 필요한 하나의 요소라고 생각합니다”.
Lipson believes that robotics and AI may offer a fresh window into the age-old puzzle of consciousness. "Philosophers, psychologists, and cognitive scientists have been pondering the nature self-awareness for millennia, but have made relatively little progress," he observes. "We still cloak our lack of understanding with subjective terms like 'canvas of reality,' but robots now force us to translate these vague notions into concrete algorithms and mechanisms."
또한 립슨은 로봇과학과 인공지능이 의식의 오래된 문제에 대해 새로운 관점을 제시할 것으로 확신했다. “수천년에 걸쳐 많은 철학자들과 심리학자, 인지과학자들은 자의식의 본질에 관해서 고민해왔지만 별다른 성과가 없었습니다”라고 그는 말했다. “우리는 여전히 ‘현실의 캔버스’ 같은 주관적인 개념으로 스스로의 몰이해를 감추고 있지만, 오늘날 로봇들은 이러한 추상적인 개념들을 구체적인 알고리즘과 기제들로 번역하도록 우리를 압박하고 있습니다”.
Lipson and Kwiatkowski are aware of the ethical implications. "Self-awareness will lead to more resilient and adaptive systems, but also implies some loss of control," they warn. "It's a powerful technology, but it should be handled with care."
립슨과 퀴앗코프스키는 그로 인한 도덕적 파급효과에 관해서도 알고 있다. “자의식은 좀 더 안정적이고 적응성 있는 시스템의 개발로 이어지겠지만, 이는 또한 제어의 상실을 의미하기도 합니다”라고 이들은 경고했다. “이는 매우 강력한 기술이므로 조심스럽게 다루어야 합니다”.
The researchers are now exploring whether robots can model not just their own bodies, but also their own minds, whether robots can think about thinking.
현재 연구진은 로봇이 자신의 신체뿐만 아니라 자기 자신의 정신까지도 모델링할 수 있는지, 즉 사고에 관하여 사고할 수 있을지를 연구하고 있다.