로봇은 인간을 모방해 외부환경을 인식하고 상황을 판단해 자율적으로 동작하는 기계를 의미한다. 크게 산업용 로봇과 서비스용 로봇으로 구분된다. 로봇 산업은 부품 및 소재 산업, 소프트웨어, 서비스 콘텐츠등을 포함하며, 과거의 로봇산업이 기계 산업 중심이었다면 지금 그리고 앞으로는 기계 산업, 전자 산업, IT 산업이 융합되는 형태를 전개될 것이다.
로봇 시장은 금융위기 이후 제조 분야에서 비용절감의 요구로 산업용 로봇 수요가 급증했다면, 현재는 후쿠시마 원전사태, 노령화 문제 등으로 서비스용 로봇 수요가 급증하고 있는 추세다.
국제로봇연맹(IFR)은 2016년 부터 2019년까지 전 세계 전문 서비스용 로봇 시장 규모가 231억 달러(33만 3,200대)에 달할 것으로 전망했다. 특히 물류(Logistic)용 로봇은 전체 시장 중 53%를 차지하면서 가장 두드러진 성장세를 보이며 약 17만 5,000대의 자동 이송 차량(automated guided vehicles)이 보급될 전망이다. 한편 국방 로봇(7만 4,800대)과 필드 로봇(3만 4,600대)은 전문 서비스용 로봇 전체시장 중 33% 정도에 해당한다.
의료용 로봇은 8,150대가 보급되며 로봇 슈트를 포함한 외골격 제품도 6,600대가 판매될 것으로 예측된다. 이밖에 전시장, 마트, 박물관 등에서 고객을 대상으로 각종 안내 서비스를 제공하는 서비스용 로봇은 6,500대 이상, 재난구조 및 안전용 로봇과 수중 로봇은 각각 700대 가량 보급될 전망이다.
개인 및 가정용 서비스 로봇도 2019년까지 지속성장할 것으로 보인다. 이 가운데 청소용 로봇, 특히 진공청소 및 바닥청소 로봇은 2019년까지 2,970만 대가 판매되며, 잔디 깎기 로봇(91만 500대), 가사용 로봇(3,000만 대)의 공급도 두드러져 개인 및 가정용 서비스 로봇 시장 규모는 132억 달러에 달할 것으로 보인다.
이 밖에 동반자 로봇, 개인 비서 로봇, 휴머노이드형 로봇등은 8,100대, 엔터테인먼트 및 레저용 로봇은 1,100만 대, 노약자 및 장애인 지원 로봇은 3만 7,500대의 시장을 형성할 전망이다. IFR은 전문 서비스 로봇시장에서는 미국이 55%의 시장 점유율을 기록하며 주도해 나갈 것으로 봤으며, 유럽(38%)과 아시아(7%)가 그 뒤를 이을 것으로 내다봤다.
서비스용 로봇의 급성장을 전망한 곳은 IFR 뿐만이 아니다. 일본의 국립연구개발 법인 신에너지산업기술종합개발기구(NEDO)는 일본 내 서비스 로봇이 2020년에는 1조 엔(약 14조 1,800억 원)으로 산업용 로봇과 비슷한 규모가 될 것이며, 2035년의 로봇 산업 전체 규모는 9.7조엔(약 101조 5,460억 원)으로 이 중 서비스 로봇이 5조 엔(약 52조 900억 원)을 기록하며 산업용 로봇의 2배 이상의 시장 규모에 도달할 것이라고 전망했다.
로봇, 감옥에서 탈출하다
서비스용 로봇에서 가장 이슈로 부각되는 요인은 바로 안전성이다. 과거에는 인간의 안전성을 위해 산업용 로봇에는 안전 펜스를 설치하도록 했지만 최근에는 사람과 로봇이 생산라인에서 협조하며 함께 일할 수 있는 협업로봇의 등장으로 안전 펜스가 필요 없는 시대가 됐다. 이러한 흐름은 일상생활에서 안전성을 확보한 서비스용 로봇의 개발에도 영향을 끼쳐 제품화가 급속히 진행되고 있다.
이와 함께 기술적인 진전도 이뤄지고 있다. 최근 클라우드, 무선 네트워크, 하드웨어 성능, AI, 음성 및 화상 인식, OS 등이 발전하면서 이러한 요소기술을 결합과 제작비용 감소로 더욱 다양한 기능이 가능한 서비스용 로봇이 등장하고 있다.
이러한 기술을 통해 공장에서만이 아니라 일상생활과 작업이 자동화된다면 인간은 더 가치가 높은 활동에 전념할 수 있을 것이다. 과거 로봇업계는 일상적인 작업의 자동화에는 관심이 없었다. 지금까지 로봇은 고도로 산업화된 생산환경에만 적용한다고 한정해 생각했기 때문이다. 하지만 이제 더 이상 로봇은 감옥에 갇혀 있는 존재가 아니다. 바야흐로 제약의 감옥에서 해방돼 인간과 가장 친밀한 공간을 함께하는 시대다.
서비스용 로봇의 혁신은 크게 두 가지 방향에서 진행되고 있다. 첫째는 정보의 향상, 복잡한 작업의 실현, 다양한 환경에서의 작동 가능성이다. 둘째는 에코 시스템에 의해 혁신의 진입장벽이 낮아지면서 로봇의 교육과 훈련이 용이해졌다.
조작이나 모션 등의 알고리즘은 로봇 에코 시스템 내에서 인공지능, 기계학습, 컴퓨터 비전, 3D 센서 등 핵심 로봇기술이 뒷받침해주고 있다. 또한 인지, 조작, 상호작용 기술로 과거 인간이 고민했던 로봇의 진화를 가능케 하고 있다. 특히 인지는 로봇이 현실에서 인식, 이해, 계획, 탐색을 할 수 있는 능력을 말한다.
인지 능력의 개선은 다양하고 동적인 움직임을 가능하게 하며 복잡한 환경에서도 자율적으로 작업할 수 있음을 의미한다. 조작 능력은 환경에서 물체를 조작하기 위한 정확한 제어와 손재주를 의미한다. 조작 능력이 크게 발전한다는 것은 로봇이 할 수 있는 작업의 종류가 훨씬 다양해짐을 뜻한다. 상호작용은 로봇이 인간에게 배우는 인간과 협업하는 능력을 말한다. 음성 및 화상 인식 기술의 발전으로 의사소통 능력이 향상되면 로봇과 인간이 점점 함께 작업할 기회가 더욱 많아질 것이다.
자율학습 방식은 서비스용 로봇이 성공적으로 시장에 연착륙하기 위한 가장 필요하고 중요한 기술에 속한다. 또한 모듈형 플랫폼의 등장으로 로봇과 관련한 개발작업 과정이 혁신적으로 단순화된다. 플랫폼은 로봇과 관련한 공통적인 기술 과제를 수평적인 방법으로 해결책을 제시할 수 있는 도구다. 이에 엔지니어가 표준 요소 및 구성 요소의 차별화에 집중할 수 있는 환경이 만들어진다.
이에 대해 브레인 코퍼레이션(Brain Corporation)의 유진 이즈히케비치(Eugene Izhikevich) CEO는 “로봇의 진화는 전기, 통신, 인터넷을 결합한 만큼 임팩트가 있다. 앞으로 로봇은 기업의 생산성을 좌우하는 큰 동력이 될 것”이라고 예측했다.
어포던스를 통한 인지 능력 향상
인지는 지적 존재가 정보를 받아 처리하는 과정이다. 이는 단독으로 작동하는 능력이 아닌 여러 능력이 결합되어 나타난다. 로봇공학에서도 마찬가지다. 로봇공학에서의 인지는 지각, 이해, 모션, 자율학습 등의 결합을 의미한다. 따라서 인지는 서비스 로봇이 어떻게 제약적인 환경에 대응하고, 경험에서 배운 새로운 지식을 그와 유사한 상황에 적용하는가의 문제를 해결하는 열쇠가 된다.
환경을 정확히 감지하고 물체를 인식하는 것은 로봇공학에서 큰 과제였다. 2D 센싱은 환경 정보를 매핑해 물체를 인식하는 방식으로 정확성에는 한계가 있었다. 하지만 마이크로소프트의 키넥트(Kinect)와 같은 저가의 3D 거리 측정 센서가 등장함에 따라 인식력은 2D에서 3D로 진화했다. 3D 센서는 지각정보를 통해 환경 토폴로지(배치, 형상등)를 모델링하고 물체를 인식하게 된다. 이 정보는 로봇이 자신의 위치를 추정하는 동시에 목표를 향한 행동 계획을 작성하고 다른 물체나 사람을 피하며 환경이 변한 경우에는 필요에 따라 실시간으로 계획을 수정하거나 업데이트할 수 있도록 한다.
인지를 위해서는 토폴로지뿐만 아니라 환경이나 물체가 과연 무엇을 의미하는 지를 이해할 수 있는 세부정보가 필요한 경우가 많다. 이에 로봇 개발자들은 어포던스(affordance)라는 어떤 행위와 연결 지을 수 있는 다양한 환경과 상황을 종합적이고 객관적으로 관찰해 나아가는 태도를 이용해 이해 프로세스를 향상시키고 인지와 행동을 구현할 수 있다는 사실을 깨달았다.
예를 들어 찻잔의 손잡이는 인간이 화상을 입지 않고 찻잔을 들어 올릴 수 있음을 의미하는데, 이 차를 마시려는 행위는 인간에게 어포던스가 된다. 로봇에게 이 프레임워크는 지각과 이해를 사용해 환경의 어포던스를 찾아내고 가능한 조작과 모션 중 사용할 수 있는 것을 선별한 후 목적을 달성하기 위해 최종 행위를 결정할 수 있는 데에 이용하는 것을 의미한다.
수많은 변수, 자율학습으로 문제 해결
서비스용 로봇의 행동 장소는 사무실, 가정, 학교, 병원, 창고 등 공업화되지 않는 환경이다. 제조업에 활용되는 서비스용 로봇도 마찬가지다. 여기서 문제는 발생한다. 공장 내의 일정한 프로세스로 움직이는 공정과는 달리 이외의 환경에서는 상당히 많은 변수가 존재한다. 즉 일어날 수 있는 모든 환경에 대응하도록 로봇을 프로그래밍해야 하는데, 이는 현실적으로 매우 어려우며 가능하더라도 엄청난 비용을 투입해야 한다.
이러한 과제를 해결하기 위해 현재 신경회로망이나 기계학습 기술이 발전하면서 로봇 업계는 르네상스를 맞고 있다고 해도 과언이 아니다. 자율학습과 피드백 프로세스를 바탕으로 지금까지와는 다른 접근방식이 연구되고 있는 것이다. 학습이 가능한 OS는 이제 시작 단계다. 이미지, 말하기, 음성, 행동 등을 구현하기 위해 빅데이터를 기반으로 로봇을 교육시키는 기술은 이미 알파고를 통해 그 가능성을 확인할 수 있었다.
현재로서는 로봇이 실제 환경에서 안전성의 문제없이 작동하려면 대용량의 데이터를 감지, 수집, 저장, 실시간 처리 및 이해할 수 있는 고급 알고리즘을 통한 학습 기반의 접근방식이 적합하다. 자율 학습을 통해 로봇은 어떤 상황에서 어떤 행동을 취하고 어떤 결과가 예상되는 지를 배우게 된다.
자율학습 이외에 인간의 인지 능력을 모방해 패턴화한 기계학습 형식에 근거한 심층학습도 새로운 방법으로 대두되고 있다. AI와 이미지 및 물체인식 기술의 발전은 심층학습을 통해 음성인식, 물체인식 등의 작업에서 소프트웨어 정확성을 높이는 데 큰 역할을 한다. 심층학습 알고리즘은 클라우드 수준의 컴퓨터 처리 성능을 요구하기 때문에 로봇을 클라우드에 연결한 클라우드 로봇의 등장을 예견해 볼 수 있다.
이 클라우드 로봇은 클라우드를 통해 지식을 공유하는 범위와 횟수를 점차적으로 증가시키고 이를 통해 경험을 쌓게 된다. 클라우드에 있는 다양한 능력을 보유함으로써 지금까지 학습한 최신의 지식을 활용해 새로운 로봇을 투입할 때 다시 처음부터 로봇을 학습시켜야 할 시간적, 물리적 낭비요인을 없앨 수 있다. 즉 1대의 로봇이 학습한 정보를 클라우드에 저장하게 되고, 클라우드에 저장된 모든 지식은 다른 클라우드 로봇에게도 인계할 수 있다는 의미다.
에코 시스템이 서비스용 로봇 진화에 큰 기여할 것
로봇 산업에서는 로봇을 만들기 위해 벤더나 연구실, 기업 등이 각자 고유의 하드웨어나 소프트웨어 등 구성 요소를 개발하는 것이 일반적이었다. 5년 전만 하더라도 제품을 작동하기 위한 소프트웨어는 기업이 자체적으로 처음부터 개발할 수밖에 없었다. 하지만 지금은 새로운 로봇에 대한 아이디어를 초기 단계가 아닌 상당히 진행된 단계에서 출발해 구현해낼 수 있는 대규모 커뮤니티들이 존재한다.
대표적인 예가 오픈 리소스 로보틱스 재단(Open Source Robotics Foundation, OSRF)이다. OSRF에서는 학술기관, 정부 연구소, 기업에서 널리 사용하는 리눅스(Linux) 기반의 로봇운영체제인 ROS(Robot Operating System)을 지원하고 있다. ROS는 로봇 애플리케이션을 개발할 때 필요한 하드웨어 추상화, 하위 디바이스 제어, 일반적으로 사용되는 기능의 구현, 프로세스간의 메시지 패싱, 패키지 관리, 개발환경에 필요한 라이브러리와 다양한 개발 및 디버깅 도구 등을 제공하고 있다. 특히 로봇에 필요한 하드웨어와 고유의 센서, 카메라, 모터도 추상화되기 때문에 엔지니어는 이 문제에 대해 고민할 필요가 없다.
유럽에는 공개형 휴머노이드 프로젝트인 iCub가 있다. iCub는 이탈리아의 IIT(Istituto Italiano di Tecnologia)에서 개발한 휴머노이드 로봇으로 현재 전 세계적으로 20개 이상의 연구소에서 iCub를 채택해 연구를 진행하고 있다. 특히 iCub에서는 전자회로, 하드웨어 설계도, 소프트웨어 등 관련 자료를 공개하고 있으며, 소프트웨어는 GPL(General Public License) 기반으로 공개되고 있다.
EU와 벨기에(K.U.Leuven), 프랑스(LAAS Toulouse), 스웨덴(KTH Stockholm)이 협력해 진행하고 있는 실시간 제어 중심의 플랫폼 개발 프로젝트인 OROCOS(Open Robot Control Software)도 있다. 2001년 9월부터 본격화된 OROCOS는 범용 무료 소프트웨어를 개발하고 로봇 제어를 위한 로봇 플랫폼에 필요한 독립적인 소프트웨어 프레임워크 개발을 목표로 삼고 있다. 특히 애플리케이션 개발을 위해 실시간 툴킷(real-time toolkit), 키네마틱스(kinematics), 다이내믹 라이브러리(dynamics library), BFL(Bayesian Filtering Library) 등 C++ 라이브러리를 지원하고 있다.
또한 로봇 인식을 위한 오픈 소스 컴퓨터 비전(Open Source Computer Vision: OpenCV)과 포인트 클라우드 라이브러리(Point Cloud Library: PCL)와 같은 알고리즘 라이브러리도 널리 사용되고 있다. 인텔이 발표한 OpenCV는 컴퓨터 비전을 위한 오픈 소스 코드를 제공하고 있으며, PCL은 기하학적 좌표에 3D 배열을 통해 물체를 인식하는 알고리즘을 지원하고 있다. 로봇의 동작을 위한 소프트웨어를 테스트할 수 있는 시뮬레이션 환경을 제공하고 있는 OSRF의 가제보(Gazebo)는 하드웨어가 아닌 소프트웨어로 테스트할 수 있기 때문에 신속한 개발이 가능하다.
인간과 같은 손재주가 가능할까?
서비스용 로봇의 발전에는 동작 측면에서 몇 가지 과제가 있다. 하나는 물체가 미끄러지거나 파손되지 않도록 관절의 힘을 적절히 조절하는 것이고, 다른 하나는 특정 환경에서 원하는 작업을 수행하기 위해 잡은 물체를 정확히 이동시키는 것이다. 예를 들어 식탁에 놓인 컵에 음료를 부은 후 이 컵을 다시 거실의 테이블로 이동시키려면 로봇은 인간의 손과 손가락 기능을 하는 관절을 정확히 제어해야만 한다. 이 기능에는 지각, 행동, 학습 능력과 같은 인지 기술과 모션 제어 기술이 동시에 필요하기 때문에 상당한 기술적 발전이 필요한 부분이다.
특히 인간의 수준에 가깝게 로봇이 진화하려면 어떤 물체라도 잡을 수 있고 물건을 부딪치거나 손상시키지 않고 이동할 수 있는 이른바 손재주가 필요하다. 이때 로봇은 무언가를 잡고 어느 정도의 힘을 가해야 하며 어떻게 방향을 바꿔야 하는 지를 판단할 수 있어야 한다. 만약 물이 담긴 컵의 방향을 잘못 인식해 거꾸로 잡는다면, 뒤처리는 인간의 몫이 될 수밖에 없을 것이다.
현재 로봇의 작업은 단순한 수준에서만 제공되고 있다. 지금까지 로봇은 인간에 의한 원격 조종을 통해 물건을 들고, 전동 드릴을 구동하며, 복잡한 수술을 하는 도구로 사용돼 왔다. 하지만 서비스용 로봇의 손재주가 원하는 수준으로 실현되기 위해서는 손가락이 있는 촉각 물리 시뮬레이터가 중요하다. 이러한 손재주 기술의 향상과 함께 자율학습이 결합된다면 앞으로 로봇은 복잡한 수작업 능력을 갖게 될 것이며 더욱 발전할 수 있는 계기가 될 것이다.
사물인터넷(IoT) 등장 전까지만 해도, 기술은 물질적 생산성 향상이 최우선 목표였다. 로봇으로 따지면, 로봇의 물리적 움직임을 보완함으로써 생산성 향상이라는 목표를 실현해 왔다고 볼 수 있을 것이다. 하지만 이제는 디지털, 나아가 연결성 관점으로 변화하고 있다.
기술은 인지 처리, 커뮤니케이션 능력과 보안을 강화하는데 초점이 맞춰졌다.
즉 정보의 분석과 이를 통해 원하는 능력을 얻음으로써 생산성을 향상시키는 것이다. 그리고 앞으로는 아날로그와 디지털을 융합한 기술이 중요해질 것이다. 폭넓은 정보의 수집과 처리, 똑똑한 물체의 동작과 이동, 사물을 인식하고 인간을 해치지 않는 안전성을 가능하게 해 새로운 기회를 만들어 가야한다.
IoT로 인해 저비용의 고성능 센서가 등장하고 있고, 3D 프린팅 기술이 발전하고 있으며, 고집적화로 모션제어가 다양한 방식으로 가능해지고 있다. 이에 따라 앞으로 자율학습이 가능하고 클라우드와 연결된 서비스용 로봇은 이동이나 물리적 작업 능력을 보유함에 따라 다양한 분야에서 활용되면서 세상의 생산성은 크게 향상될 것으로 전망된다.
상호작용 가능한 로봇 연구 활발
그렇다면 로봇은 얼마나 인간과 상호작용(Interaction)하게 될까? 인간과 로봇 간에는 작업 영역을 공유해야 한다.
이는 서비스용 로봇도 마찬가지다. 따라서 상호 인터렉션 센싱이 필수 기술로 인식되고 있다. 물리적 상호작용의 경우에는 근접, 토크, 힘, 접촉 등 실시간 센싱 기술을 기본으로 하고 있다. 그리고 앞으로는 음성, 시각, 촉각, 사회적 방법등 인간에게는 자연스럽지만 로봇에게는 고난위도인 센싱 기술을 통해 로봇은 인간과 상호작용하게 될 것이다.
이는 단순히 키보드나 마우스를 사용한 프로그램 제어에 그치지 않는다. 언어 기반솔루션은 인간이 소리로 명령이나 지시를 내릴 수 있고, 시각 기반 솔루션은 로봇이 인간의 표정, 몸짓, 눈의 움직임을 이해하고 반응하며 해석할 수 있도록 진화하고 있다. 또 사회적 상호작용의 발전을 위해서는 감정을 모델화하고 비언어적인 방법으로 인간의 마음 상태를 알 수 있도록 하는 기술도 끊임없이 연구중이다. 뇌와 컴퓨터를 연결해 장애인이 의도한대로 로봇을 움직일 수 있도록 하는 기술도 연구 중이다.
SF 영화에서나 볼 수 있는 로봇의 등장은 아직 먼 미래의 이야기에 불과하나 로봇이 안전하게 동작할 수 있는 기술적 전환점은 가까워지고 있다. 과거에 비해 현재의 로봇은 더 많은 복잡한 일을 해낼 수 있다. 앞으로는 지금보다 더 많은 작업을 수행하게 될 것이다.
매우 장기적인 관점에서 서비스용 로봇은 이제 시작단계에 불과하다. 앞으로 몇 년 내에 기술적 과제를 얼마나 극복할 수 있을 지가 관건이 될 것이다.
● 참고문헌
- Service robots: The next big productivity platform, PwC
- 로봇산업의 국내외 동향 및 전망, KDB산업은행
- 금융위기 이후 급성장하는 로봇산업 현황과 주요국 동향, KB국민은행
|
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>