본문 바로가기
상상발전소/문화기술

⑱ 스마트기기 확산 견인하는 ‘상황인지 3D GUI’ 개발기업, 디지털아리아를 방문하다

by KOCCA 2013. 6. 11.

 

▲ 사진1 <디지털 아리아> 곽광웅 선임연구원

  

내가 깜빡 잊고 기억하지 못하는 부분을 누군가가 신경 써서 챙겨준다면? 내가 관심 있어 하는 분야의 소식을 누군가가 꼼꼼히 일러준다면? 생각만으로도 편하고 여유로워질 것 같습니다. 만약 이런 것들을 "기기"가 해준다면 어떨까요? 우리들의 생활패턴과 상황에 맞춰 서비스를 제공하는 기술이 한창 개발 중에 있습니다. 그것을 가능하게 하는 것, 바로 국내기업 "디지탈아리아"의 힘인데요. 한국콘텐츠진흥원의 R&D 지원과제를 받은 디지탈아리아의 곽광웅 선임 연구원님을 만나 뵙고, 이러한 혁신적인 기술에 대한 이야기를 나누고 왔습니다.

 

2000년도에 설립된 "디지탈아리아"는 휴대폰을 비롯한 각종 디지털 기기에서 최적화된 멀티미디어 소프트웨어를 연구하고 개발하는 기업입니다. 그 중에서도 GUI플랫폼에 대해 항상 연구하고 있는데요. 사실 소프트웨어를 연구·개발하다보니 일반 사용자가 직접적으로 디지탈아리아의 기술을 접하기는 어렵습니다. 하지만 그 가운데 일반 사용자들이 많이 접했던 것이, 바로 핸드폰입니다. 삼성전자의 햅틱시리즈부터 시작하여 아몰레드폰, 코비 등 피쳐폰 시절의 모든 삼성전자의 핸드폰에 디지탈아리아의 GUI가 탑재되어 있었습니다. 삼성전자의 휴대폰을 사용한 사람이라면 디지탈아리아의 기술을 사용하고 있었던 것이죠.


더 소개해드리기에 앞서, 여기서 한 가지 생소한 용어가 눈에 띄지 않나요?


"GUI"는 그래픽 유저 인터페이스(Graphic User Interface)의 약자입니다. 쉽게 말해서 화면에 보이는 모든 것을 말합니다. 윈도우 창을 보면 우측 상단에 [_][ㅁ][x] 모양의 버튼이 있는데요. 창을 종료하고 싶으면 [X]버튼을, 종료는 하지 않되 시야에 안 보이게 하려면 [_]버튼을 눌러 최소화시키면 됩니다. 이처럼 사용자가 이해하고 사용하기 쉽게 그래픽으로 나타낸 것을 GUI라고 합니다. GUI의 전 단계는 CLI(Command-Line Interface)로 명령어를 "입력"하는 방식입니다. 예를 들면 MS의 DOS처럼 말이죠. GUI는 "그래픽"을 이용하는 은유적인 기호라고 할 수 있습니다.

 

 

 

 ▲ 사진2 <디지털 아리아>의 로고

 

디지탈아리아는 GUI솔루션을 가지고 있는 국내기업입니다. 한국콘텐츠진흥원의 지원을 받은 과제는 "상황인지 기반의 스마트 3D입체 GUI기술 개발"입니다. 상황인지는 사용자가 처한 상황에 맞춰 사용자에게 적합한 특정 서비스를 제공하는 기술을 말합니다. 때문에 상황인지를 "인공지능"이라고 넓게 볼 수도 있는데요. 상황인지 기반은 숭실대 산학협력단 고일주 교수님과 공동으로 진행하는 연구입니다. 곽광웅 선임연구원님은 상황인지가 융합을 해야만 살아남을 수 있다고 하셨습니다. 디지탈아리아의 GUI솔루션이 상황인지와 결합된다면 사용자에게 편리함과 즐거움을 줄 것이라고 생각했다고 하는데요. 그 상황에서 GUI엔진을 업그레이드하는 것에 콘텐츠진흥원과 함께 하면 굉장한 시너지를 받을 수 있다는 생각에 지원했다고 합니다.


기존의 콘텐츠가 3D로 제작이 되어있으면 디지털아리아가 그것이 입체3D로 나올 수 있도록 만들어줍니다. 상황인지기반 서비스에 엔진이 돌아가면서 상황인지 기반이 "어떤 GUI를 보여줘라"라는 내용을 알리면 디지탈아리아가 개발한 엔진이 상황인지에서 보내주는 정보를 실제 GUI에 뿌리는 것입니다. 이러한 것을 가지고 지원과제를 진행하고 있습니다.

 

▲ 사진3 사용자를 인식하는 모습

  

상황인지와 GUI에 대한 설명을 드렸으니 이번에는 이것을 어떻게 사용하는지 한 번 알아볼까요?


상황인지 엔진은 반복된 데이터와 주기적인 실험을 통해 데이터가 누적되면서 정확해집니다. 때문에 많은 데이터가 쌓이기 전까지는 사용자가 원하지 않는 정보가 제공될 수도 있는데요. 아예 사용자에 대한 정보가 0에서부터 시작하면 자리 잡는 데까지 더 많은 시간이 걸리게 됩니다. 그래서 개인에 대한 정보를 어떻게 수집해야할 지 고민이 많았다고 합니다. 대부분의 사람들이 스마트폰을 가지고 있다고 가정했을 때, 스마트폰에 있는 정보를 스마트TV와 링크를 통해 자동으로 정보를 가져오는 방법을 고안해냈습니다. 스마트폰이 없는 사람들은 스마트TV에 사용자 정보를 직접 입력하는 방법도 있는데요. 이것은 개인정보를 입력하는 데 있어서 스마트폰이 간편하고 빠르기 때문에 좋은 것이지, 스마트폰이 없어도 정보를 입력하는 데 문제는 없답니다.

 

기기와 사용자의 거리에 따라 화면의 메뉴의 크기도 달라집니다. 사용자가 TV에 가까이 다가가면 3D입체 메뉴박스가 뒤로 물러나게 되고, TV로부터 멀어지면 3D입체 메뉴박스가 사용자에게 다가옵니다. 3D입체기술이기 때문에 메뉴가 사용자를 따라오도록 만들어서 사용자에게 보다 집중을 요구하는 것이죠. 이러한 방법으로 시의성을 높였습니다.

 

 

▲ 사진4 3D입체 스마트TV 촬영한 사진

 

손을 움직여서 스마트TV의 커서인 손모양의 아이콘을 이동시킬 수 있습니다. 여기서의 "클릭"은 "호버링(hovering)"입니다. 호버링이란 지정한 몇 초 동안 콘텐츠 위에 커서를 가만히 놓으면 선택이 되는 것인데요. 허공에서는 마우스처럼 클릭을 할 수 없기 때문에 이 방법을 도입했다고 합니다. 

 

▲ 사진5 어린이용 메뉴의 화면

 

▲ 사진6 붉은 색으로 불이 밝혀진 현장 

 

 콘텐츠의 테두리에 노란색으로 띠가 둘러져 있는데요. 이것은 사용자가 좋아하는 색으로 변경이 가능합니다. TV의 좌측에 스탠드 조명이 붉은 색으로 켜져 있습니다. 이 역시 스마트TV에 사용자가 인식되면서 그것과 연결된 조명에 불이 들어오고, 인식된 사용자가 설정한 색상으로 나타나는 것입니다. 이러한 세심한 것까지 사용자에게 맞춤화 되었습니다. 

 

▲ 사진7 어린이 메뉴의 모빌기능

 

어린이용 메뉴에는 "모빌"기능이 있습니다. 모빌 기능이란 화면 우측에 있는 줄을 잡아당기면 메뉴의 다음페이지로 넘어가는 것인데요. 이것은 기존의 NUI를 어린이가 따라가기에는 어렵기 때문입니다. 그래서 UI도 보기 좋게 가져가고, 어린이에게 편하게 다가갈 수 있는 방법으로 나온 기능입니다.
할아버지가 사용자일 경우 손떨림 등의 현상이 일어날 수 있기 때문에 가만히 기다려야하는 호버링은 어렵습니다. 그래서 할아버지의 성향을 고려하여 "마그네틱"처럼 콘텐츠 가까이에 손을 가져가면 자동으로 커서가 움직일 수 있도록 설정했습니다.


CLI, GUI에 이어 NUI라는 새로운 용어가 등장했습니다. NUI는 내추럴 유저 인터페이스(Natural User Interface)의 약자로 직접적이고 자연스러운 행동기반의 UI를 말합니다. 애플의 음성인식 서비스인 siri나 리모컨을 이용하여 게임하는 wii 모션플러스 등이 대표적인 NUI입니다. 음성일수도 있고, 눈의 움직일 수도 있고, 모든 것들이 되는 포괄적인 것인데요. 그 중 손동작이 NUI의 대명사라고 할 수 있습니다.

 

▲ 사진8 할아버지 사용자의 메인화면

 

 

그럼 이 상황인지를 사용하는 예를 들어볼까요?


저는 김연아 선수를 좋아해서 검색도 하고 영상도 봅니다. 이러한 정보를 스마트TV가 수집하고 서버가 되어 사용자에게 맞춤형 서비스를 제공해주는데요. 예를 들면 TV채널에서 방송하는 콘텐츠를 알려주는 것입니다. 사용자가 김연아를 좋아하는 것을 알게 되고, TV에서 김연아와 관련된 것을 검색합니다. 방송 목록에 김연아가 뜨면 상황인지 엔진이 이 정보를 사용자에게 알려줍니다. "김연아 경기가 있는데 예약 녹화를 하시겠습니까?" 사용자가 승낙을 하면 자동으로 TV는 김연아의 경기를 녹화하게 되는 것이죠. 사용자가 집에 들어오는 순간 스마트TV가 사용자의 표정과, 눈 등을 인식하여 녹화했던 시청할 수 있는 상태인가를 판단해서 김연아의 경기를 보여줍니다. 물론 완벽하게 사용자의 니즈에 맞춰 개발되기까지는 먼 미래의 이야기이기는 합니다만, 이러한 상황인지 기반 기술이 성공적으로 개발된다면 여가생활도 즐기고 시간을 효율적으로 다룰 수 있는 편리한 삶이 되지 않을까요?


이런 상황인지 기반 기술은 어플리케이션이 아니라 자체적으로 기기 내에 탑재되어 있는 것입니다. 물론 앱을 통해서도 할 수 있으나 한계가 있는데요. "상황인지"의 실시간 자동화의 문제입니다. 앱으로 하게 될 경우 사용자가 매번 실행시켜야 합니다. 그렇지만 디지탈아리아가 추구하는 상황인지는 사용자가 의식하지 않아도 사용자의 상황에 맞춰 자동적으로 항상 돌아가고 서비스를 제공하는 것입니다.

 

▲ 사진9 3D입체 아바타

 

입체3D플랫폼 기술개발을 하면서 사용자에게 좀 더 친숙하게 다가갈 수 있는 방법으로 3D아바타를 만들었습니다. 이것은 숭실대학교 오경수 교수님과 함께 개발한 것인데요. 3D입체아바타를 통해 사용자에게 UI를 보다 친근하게 느껴질 수 있게 했습니다.

  

 

▲ 사진10 겉보기에는 평범한 거울같은 '스마트 미러'


"스마트 미러"라고 들어보셨나요? 상황인지 기반의 3D입체기술은 스마트TV에서만 일어나는 것이 아닙니다. 화장대 거울에 탑재된 렌즈가 사용자를 인식하여 사용자에게 알맞은 정보를 보여준다면 어떨까요? 20대 여성이 화장을 하고 있으면 화장품에 대한 콘텐츠가 디스플레이 되는 것입니다. 현관의 스마트미러 앞에 출근 준비 중인 아버지가 인식되었을 때, 디스플레이 화면에 차키는 챙겼는지, 필요한 서류는 챙겼는지, 오후에 비가 오는데 우산을 준비했는지 등의 정보가 나타나게 되는 것이죠. 인식된 사용자 개개인에 맞춘 정보를 디스플레이해서 사용자가 잃어버리지 않도록 “리마인드”하는 것을 상황인지 엔진이 제공해줍니다.

 

 

▲ 사진11 이것은 거울? 아니면 컴퓨터?


스마트미러는 거울처럼 사용할 수도 있으면서, 콘텐츠가 디스플레이 되는 디바이스입니다. 사용자에 따라 콘텐츠의 위치도 달라집니다. 전신거울일 경우 어린 아이가 인식되면 그의 눈높이에 맞춰 콘텐츠가 아래쪽에 위치할 것이고, 그 다음에 키가 큰 어른이 인식되면 아래에 있던 콘텐츠는 위로 올라오게 되는 것이죠. 이러한 것도 전부 GUI입니다.

 

▲ 사진12 스마트미러에 얼굴을 가까이했을 때, 멀리했을 때

 

스마트미러에 콘텐츠가 띄어집니다. 그 상황에서 거울에 얼굴을 가까이한다면 그것은 거울을 보고 싶은 것이지 띄어진 정보를 보고 싶은 것이 아닙니다. 그래서 사용자의 얼굴이 거울에 다가올수록 중앙에 있던 정보들은 각 사이드로 벌어집니다. 그리고 나중에는 콘텐츠가 아예 사라지게 되지요. 다시 얼굴을 거리에서 거리를 두면 사라졌던 콘텐츠들이 다시 나타나게 됩니다. 말 그대로 "스마트"한 거울입니다.


개발하면서 많은 어려움이 있었다고 합니다. 사용자에게 어떻게 해야 좋은 방법으로 서비스를 제공할 수 있을까에 대한 고민이 많았다고 하는데요. 상황인지와 GUI를 어떻게 연계시켜야 할지, 정책적인 부분도 신경써야하니 많이 힘드셨다고 합니다. 그래서 많은 노력과 연구를 하신 끝에 아직은 개발 중이지만 훌륭한 기술이 나오게 된 것 같습니다.

"저는 CT(문화기술)를 발전시키고 싶습니다. 아직은 우리나라의 문화기술이 높은 수준은 아니라고 생각합니다. 그러나 콘텐츠진흥원도 도움을 주고 있고, 국내의 여러 기업도 많은 노력을 하고 있기 때문에, 그런 부분이 계속 발전되고 나아간다면 우리나라가 문화강국으로 나아가는 데는 큰 무리가 없지 않을까 생각합니다."


상황인지를 기반으로 한 3D입체 GUI플랫폼의 상용화는 아직 입니다. 상용화를 위해 국내 LG전자뿐 아니라 중국의 콩카그룹 등에 컨택을 하고 있는 중이라고 하는데요. 해외에서 관심이 많은 기술이라고 합니다. 상황인지 스마트TV가 나오는 것은 내년으로 예상하고 있으나, 일반 소비자가 시중에서 구매할 수 있는 것은 내후년 정도라고 합니다.


나에게 편리함과 즐거움까지 주는데다 친절하기까지 한 상황인지 기반의 3D입체 GUI플랫폼! 나 자신에게 맞춤화된 정보가 내가 시간과 수고를 들여 직접 찾아볼 필요 없이 바로 제공된다면 굉장히 좋을 텐데요. 이것과 함께 생활할 미래를 생각하면 설레고 든든합니다. 사용자의 상황에 맞춘 똑똑한 기술로 우리 앞에 하루 빨리 찾아오길 기대합니다. 디지탈아리아의 곽광웅 선임연구원님과의 즐거운 인터뷰였습니다.

 

◎ 사진출처

- 1-12 직접 촬영(사진은 3D입체 스마트TV를 촬영한거라 겹쳐 보입니다)

 

◎ CT포럼 2013 리포터 이희원