[애플 AI칩] 3. 애플의 3D 아바타/모델 

애플(Apple) AI칩 개발동향과 3년 내 출시할 제품/서비스 예측

[요약] 구글(Google)이 알파고(AlphaGo)라는 인공지능(AI) 컴퓨터 프로그램 덕분에 AI 기술의 선두주자로 알려져 있지만, 구글의 단점은 클라우드 베이스의 AI이다(이를 Edge->Cloud AI라 함). 반면 애플(Apple)은 온디바이스(on-device)의 AI 제품을 개발하고 실제 제품에 적용하고 있다는 점에서 구글을 능가하고 있다. 왜냐하면 이제 블록체인 개념의 Cloud->Edge가 도래하고 있기 때문이다. 

2017년에 애플이 자체 개발하고 디자인한 ‘Neural Engine + 최초로 애플이 디자인한 GPU(그 전까지는 Imagination Technologies가 디자인) + M11 + Face ID + Touch ID를 지원하는 네 개의 에너지효율 요소’를 통합한 A11 Bionic Chip을 iPhone X에 탑재해 런칭했다. (1) 많은 기업들이 AI칩에 도전하고 있지만 이는 업계 최초로 애플이 AI칩 분야의 선두주자임을 증명한 것이다. (2) 그 결과 애플은 어느 날인가 퀄컴(Qualcomm)과 인텔(Intel)과 삼성(Samsung)을 위협할 수도 있을 것이다.  

애플은 HAS(Hardware+AI+Software)라는 개념의 독자적으로 디자인하고 통합된 하드웨어와 독자적인 뉴럴엔진의 A11 Bionic Chip과 독자적인 OS 플랫폼을 구축한 유일한 기업이다. 따라서 현재 TrueDepth 카메라와 Dot Projector 기반으로 서비스하고 있는 Face ID와 Animoji를 뛰어넘어 향후 Cloud<->Edge를 선도할 수 있을 것으로 전망된다. 

애플과 애플이 인수한 프라임센스의 특허를 분석한 결과, 앞으로 3년 이내에 애플은 뉴럴엔진·AI Chip 베이스의 트루뎁스 카메라 기술과 도트 프로젝트 기술을 활용해 (1) 3D Animoji를 2018년에 나만의 Memoji로 업데이트하고 최종 3D 아바타/모델로 업그레이드하여 출시할 것으로 예측되고, (2) 다양한 콘텐츠와 서비스(Mac, TV, 전기차(EV)/자율차(AV) 등) 중심의 3D UI/UX의 AR/VR로 확대 출시 될 것으로 예측되며, (3) Mac OS/iOS가 3D GUI의 OS/App/Safari로 업그레이드 될 것으로 예측된다.  


[글 싣는 순서]
1. 뉴럴엔진의 인공지능 칩(A11 Bionic Chip)
 1-1. 배경(Background) – Edge<->Cloud를 위한 AI Chip 개발이 필요
 1-2. 애플(Apple)의 뉴럴엔진/네트워크와 A11 Bionic Chip
  1-2-1. 애플과 애플이 인수한 프라임센스의 특허분석 
   1-2-1-1. Face ID와 뉴럴 네트워크
   1-2-1-2. 트루뎁스(TrueDepth) 적외선 카메라
   1-2-1-3. 3차원 맵을 위한 도트 프로젝터(Dot Projector)
  1-2-2. 2017년 9월 WWDC에서 공개된 A11 Bionic Neural Engine 
   1-2-3. 유럽특허청에 등록한 상표 – 뉴럴엔진(Neural Engine)
   1-2-4. 애플의 아이폰 8/8 플러스/X에 탑재된 A11 Bionic Chip
   1-2-5. A11 Bionic Chip이 탄생하기 전까지의 여정
 1-3. 인사이트 종합

2. 특허분석으로 예측하는 3년 내 애플이 출시할 제품과 서비스
 2-1. 애플의 3D 아바타/모델

 2-2. 애플의 3D UI/UX의 AR/VR
  2-2-1. 3D UI/UX의 AR/VR for Mac/TV
  2-2-2. 3D UI/UX의 AR/VR for Car/EV/AV
 2-3. 애플의 3D GUI의 OS/App/Safari
  2-3-1. 3D GUI의 OS/App
  2-3-2. 3D GUI의 브라우저(Safari) 


2. 특허분석으로 예측하는 3년 내 애플이 출시할 제품과 서비스
2-1. 애플의 3D 아바타/모델


애플의 아바타 관련 특허를 분석한 결과 앞으로 3년 이내에 애플은 뉴럴엔진·AI칩 베이스의 트루뎁스 카메라 기술과 도트 프로젝트 기술을 활용해 현재의 3D 애니모지(Animoji)를 2018년에 나만의 Memoji로 업데이트하고 최종 3D 아바타/모델(Avatar/Model)로 업그레이드하여 출시할 것으로 예측된다.

사용자의 감정 상태를 반영한 아바타(Avatars Reflecting User States) – 사용자의 감정 상태를 반영한 아바타 기술은 2010년으로 거슬러 올라간다. 2010년 6월 1일에 출원하고(12/791,643), 2011년 12월 1일에 출원서가 공개되고(20110296324), 2014년 4월 8일에 특허를 획득하고(8,694,899), 2014년 1월 24일에 다시 개량 출원하여(14/163,697), 2014년 5월 22일에 공개되고(20140143693), 2017년 5월 16일에 특허를 획득하고(9,652,134), 2017년 5월 10일에 다시 개량 출원하여(15/591,723), 2017년 12월 14일에 출원서가 공개되었다(20170357417). 

따라서 사용자가 원하는 상태(States: facial expressions, body language, and/or presentation theme)의 아바타들을 생성/수정/편집하여(이를 큐레이션이라 함), 사용자의 감정(happy, angry, sad, etc)을 텍스트나 채팅/이맬 등 커뮤니케이션에 활용할 수 있고, 기타 디자이너나 아티스트들은 "Avatars + Virtual"을 통해 미래의 2D~3D를 연구할 수 있으며, 원하는 아바타를 여러 개의 온라인 회의에 보낼 수 있어 글로벌 협력이 가능해 생산성을 높일 수 있다. 

▲ 애플의 공개된 출원서의 Fig.1(20170357417, 14 Dec 2017). Image: USPTO

Fig.1은 아바타 오퍼레이팅 환경 100을 설명하는 그림으로 다양한 버추얼 환경에서 사용자들은 사용자들을 나타내는 다양한 개인화된 아바타를 생성하고 아바타를 이용하여 커뮤니케이션 한다. 또한 동시에 아바타는 사용자들의 감정 상태를 나타내 감정에 따라 다양한 아바타를 사용할 수 있다.

102는 아바타 서버, 114는 사용자들의 디바이스, 112는 네트워크로 사용자들은 채팅 앱이나 온라인 게임을 통해 커뮤니케이션 한다. 106은 아바타를 정의하는 데이터베이스, 104는 아바타 생성기(ex, Photo Booth-like engine), 107은 사용자 감정 상태를 정의하는 데이터베이스이다. 감정 상태는 행복(Happiness), 놀람(Surprise), 조킹(Joking), 와우(Wow), 특별 감정(:-), 게임에서 승리 또는 하이 스코어, 생일 등인데 사용자가 감정 상태의 키워드나 특별한 이벤트를 다양하게 정의 할 수 있다.

▲ 애플의 공개된 출원서의 Fig.6A(20170357417, 14 Dec 2017). Image: USPTO

Fig.6A는 사용자 감정 상태를 정의하는 데이터베이스로 사용자가 정의한 키워드(Keyword, 예: Happy)에 따라 사용자가 정의한 아바타가 Trigger 된다. 예를 들어 사용자가 텍스트 메시지나 이맬에 Happy State인 “:-) 또는 ^o^ 또는 am happy”를 입력했을 때, 전통적인 이모티콘인 방긋 웃는 얼굴 대신에, 사용자가 정의한 Happy State인 아바타의 A1이 Trigger된다. 사용자는 상태 추가(Add a State), 상태 수정(Edit a State) 기능을 통해 다양한 아바타를 큐레이션(Curation) 할 수 있다. 

▲ 애플의 공개된 출원서의 Fig.6B(20170357417, 14 Dec 2017). Image: USPTO

Fig.6B는 사용자가 더 나아가 아바타의 모양이나 크기 등을 큐레이션 하는 것을 설명하는 그림이다. 이때 오른쪽 상단에 있는 648의 요소 픽커(Element picker)가 중요하다. 이는 사용자가 아바타를 수정할 때 특별한 요소들(Particular elements)인 face, skin tone, eyes, nose, hair, shirt, hat, background, 기타)을 제공하여 보다 상세한 아바타를 수정/편집하게 해준다. 하단에 있는 654의 조정 슬라이더(Adjusting slider)에 있는 656의 지시(indicator)를 오른쪽으로 밀면 확대되고, 왼쪽으로 밀면 축소된다.

또한 오른쪽 상단에 있는 674의 두 번째 요소 픽업하기에는 아바타에 액세서리/옷/모자/기타 주제를 입힐(accessories, clothing items, and presentation themes) 수 있는 요소들이 있다. 또한 사용자는 아바타 서버에 자신의 사진을 업로드하고 애플의 Photo Booth의 Edit 기능을 통해 아바타를 생성하고 큐레이션 할 수도 있다. 

이러한 감정을 나타내는 아바타를 특별히 Face Message라 하는데, 향후 3D 아바타로 업그레이드되어 디지털인증서류와 디지털 꽃/음악/비디오를 배달하고 서명을 받아오는 Agent 역할을 할 수 있을 것으로 기대된다. 또한 Siri와 결합하면 상대방에게 Voice Mail/Message를 전달하고 답장을 받아올 것이며 SNS/비디오컨퍼런싱/게임 어플에 사용되는 3D 아바타들로 발전할 것으로 보인다. 

아바타 수정 환경과 애니매이션(Avatar editing environment & Animation) – 사용자가 아바타를 다양하게  큐레이션 할 수 있고 애니매이션할 수 있는 이 기술은 2010년으로 거슬러 올라간다. 2010년 4월 7일에 가출원하고(61/321,840), 2011년 4월 7일에 출원하여(13/082,035), 2011년 10월 13일에 출원서가 공개되고(20110248992), 2017년 2월 21일에 특허를 획득했다(9,576,400).

▲ 애플 특허의 Fig.1A~1D(9,576,400, 21 Feb 2017). Image: USPTO

Fig.1A~1D까지는 고객화 아바타들을 생성하기 위한 아바타 수정 환경을 설명하는 예들의 그림이다. 100은 디바이스 혹은 웹 페이지로 아바타 수정 앱을 불러오고, 104는 사용자 인터페이스, 102는 디스플레이이다. Fig.1A에서 106은 디폴트로 뜨는 블랭크 얼굴(blank face)의 아바타 혹은 사용자가 사전에 찍은 사진이 뜰 수도 있어, 그 다음 부터 제공되는 다양한 요소들(elements)을 사용하여 아바타를 큐레이션 할 수 있다.

사용자는 110의 카테고리 픽커(category picker)로부터 112의 ‘Eyes’ 카테고리를 선택하면, 그 부분이 반짝여 선택 상태를 알려주고 동시에 116의 요소 픽커에는 120에 사용할 다양한 눈의 요소들이 나타나 터치로 큐레이션을 할 수 있다. 118은 제어 영역(control region)으로 ‘Eyes’가 나타나고 ‘취소’나 ‘작업완료’ 버튼이 있다. 114는 칼러 픽커(Color picker)로 색을 골라 큐레이션할 때 사용한다. Fig.1B는 ‘Nose’, Fig.1C는 ‘Hair’, Fig.1D는 ‘Mouth’을 큐레이션하는 수정 환경들의 예들이다. 요소들은 2D이나 3D 모델로 렌더링할 수 있다.

▲ 애플 특허의 Fig.2A와 2B(9,576,400, 21 Feb 2017). Image: USPTO

Fig.2A는 116의 요소 픽커를 사용하여 큐레이션을 하는 것을 설명하는 그림이다. 116을 터치하면 200처럼 요소 픽커가 9개의 그리드(gird)로 나타난다. 이 경우 사용자는 110의 카테고리 픽커에서 112의 ‘Hat’ 카테고리를 선택한 경우이다. 9개의 그리드 셀들은 3차원 효과를 내기 위해 빛과 그림자 등의 3차원 모델의 스냅샷을 포함할 수 있다. Fig.2B는 114의 칼러 픽커를 사용하는 예의 그림이다. 칼러 픽커를 선택하면 9개의 기본 색들이 그리드로 204와 같이 나타난다. Fig.2B의 경우 사용자가 ‘Black’을 선택한 경우인데, 그러면 Fig.2A의 200의 그리드에는 서로 다른 검은색의 모자들이 디스플레이된다. 눈, 코, 입에 따라 실제 사람의 특징처럼 서로 다른 색의 그리드가 나타난다.

▲ 애플 특허의 Fig.5A~5C(9,576,400, 21 Feb 2017). Image: USPTO

Fig.5A~5C는 사용자가 직접 큐레이션할 수 있는 매뉴얼 수정(Manual editing) 환경을 제공하는 그림으로 500a와 500b는 사용자가 직접 눈의 크기를 동그란 원 안에서 조절하고(resize) 늘피고(stretch) 방향을 설정할 수(orienting) 있으며, 500c는 직사각형 안에서 코를, 500d는 직사각형 안에서 입을 큐레이션할 수 있다.

▲ 애플 특허의 Fig.6A~6B(9,576,400, 21 Feb 2017). Image: USPTO

Fig.6A와 6B는 아바타를 애니매이션할 수 있는 요소들을 제공하는 그림이다. Fig.6A의 602 아바타의 눈동자는 606a의 커서를 내려다보고 있는데 아바타 애니매이션 엔진(Avatar animation engine)에서 제공하는 눈동자 혹은 눈썹 요소를 이용하여 애니매이션 할 수 있다. Fig.6B의 602 아바타는 오른쪽의 커서(606b)를 바라보고 있는데 그림처럼 애니매이션할 수 있다. 이 같이 사람의 얼굴표정을 시뮬레이트(모방)하는 애니매이션을 할 수 있는데 행복, 슬픔, 기쁨, 놀람 등을 표현할 수 있고 몸의 다리에도 적용할 수 있는데 예를 들면 댄싱 아바타이다.

Fig.7A는 아바타 수정 환경과 애니매이션 환경을 가능케 하는 소프트웨어 아키텍쳐(구조)이다. 702는 아바타 수정 앱과 애니매이션 앱, 712는 아바타 애니매이션 엔진, 714는 아바타 수정 환경, 706은 큐레이션 서비스, 708은 OS 708과 같은 O/S, 710은 하드웨어이다.

▲ 애플 특허의 Fig.7A(9,576,400, 21 Feb 2017). Image: USPTO

아바타에 개인화 색을 칠하기(Personalizing colors of user interfaces) – 앞의 특허가 칼러 픽커(Color icker)를 사용하여 원하는 색을 선택하여 아바타를 다양하게 큐레이션했다면, 본 특허는 색을 칠할 수 있는 칼러 스킴(Color schemes)을 제공하는 사용자 인터페이스를 제공하는 기술로, 본 특허도 앞의 특허와 같이 2010년 4월 7일에 가출원하고(61/321,716), 2011년 4월 7일에 출원하여(13/081,334), 2011년 10월 13일에 출원서가 공개되고(20110252344), 2017년 1월 10일에 특허를 획득했다(9,542,038).

▲ 애플 특허의 Fig.2C와 2G(9,542,038, 21 Feb 2017). Image: USPTO

Fig.2C는 204의 칼러 휠(Color wheel) 형태의 칼러 픽커를 나타내는 그림으로 10개의 색들이 원 그리드로 나타나고, 사용자는 터치하여 색을 선택할 수 있다. Fig.2G는 사용자가 110의 카테고리 픽커에서 112의 ‘Hat’을 선택하고 요소 픽커에서 ‘220의 카우보이’ 모자를 선택한 경우인데, 114의 칼라 픽커를 터치하면 218의 칼러 픽커 인터페이스가 나타나고, 222의 메뉴가 나타나 선택하여 터치하면 224의 크레용 박스가 나타난다. 그러면 원하는 크레용을 사용해 모자에 색을 칠할 수 있다.

▲ 애플 특허의 Fig.8A(9,542,038, 21 Feb 2017). Image: USPTO

Fig.8A는 아바타 수정 환경과 고객화 아바타에 색칠하기 환경을 가능케 하는 소프트웨어 아키텍쳐(구조)이다. 802는 아바타 수정과 색 칠하기 앱, 812는 칼러 고객화 엔진, 814는 아바타 수정 환경, 816은 아바타 데이터, 806은 큐레이션/색칠하기 서비스와 라이브러리, 808은 OS 708과 같은 O/S, 810은 하드웨어이다.

아이폰에서의 생성 및 수정(Avatar creation and editing) – 앞의 특허들이 iPad용이나 Mac용에 적합한 것이라면 곧 출시될 차세대 iPhone에 적용할 수 있는 본 기술은 2016년 9월 23일에 가출원하고(62/399,294), 2017년 9월 22일에 출원하여(15/713,490), 2018년 3월 29일에 출원서가 공개되었다(20180091732).

또한 12명의 발명자가 공동으로 개발했으며 무려 78페이지에 달하는 출원서이다. 따라서 최근에 출원했다는 점에서 2018~2019년에 출시될 것으로 예측된다. 또한 본 특허 출원서와 똑같은 날에 가출원하고(62/399,241) 똑같은 날에 출원하고(15/712683), 똑같은 날에 출원서가 공개된 ‘아바타 데이터의 전송(Transmission of avatar data, 20180089880, 29 Mar 2018)’이라는 공개된 출원서를 보면 iPhone에서의 아바타의 데이터 전송을 다루고 있다는 점에서 2018~2019년에 출시될 것으로 예측된다.

특히 아이폰의 i메시지에 사용할 아바타를 트루뎁스 카메라를 이용해 본인의 사진을 찍고 사용자 인터페이스를 통해 쉽게 수정/편집할 수 있다는 점에서 획기적인 아바타 앱 서비스라 할 수 있으며, 다른 메신저나 SNS에서도 그대로 사용할 수 있다는 점이다. 자세한 설명 없이 그림을 따라가며 살펴보기로 한다.

▲ 애플의 공개된 출원서의 Fig.6C~6D(20180091732, 29 Mar 2018). iPhone에서 프로파일 사진, 즉 아바타를 만드는 방법. 모노그램을 사용 할 수도 있고 사진을 사용할 수도 있음. 기존에 사진이 없다면 트루뎁스 카메라를 이용해 새로 찍을 수도 있음. Image: USPTO

▲ 애플의 공개된 출원서의 Fig.6E~6F(20180091732, 29 Mar 2018). iPhone에서 제공되는 인터페이스를 통해 사진을 View Finder 내의 공간에 잘 위치하도록 조정함. 또는 트루뎁스 카메라와 연결하는 인터페이스를 제공하여 밝은 곳의 원 안에 잘 맞추도록 함. 인터페이스는 머리를 좌우로 돌려 옆모습을 아바타로 사용하기도 함. Image: USPTO

▲ 애플의 공개된 출원서의 Fig.6K~6L(20180091732, 29 Mar 2018). iPhone에서 제공되는 인터페이스를 통해 얼굴의 스킨 톤(skin-tone)을 조정함. 그 다음 고객화 머리, 옷, 기타 악세서리, 기타 기능을 제공하는 인터페이스를 통해 아바타를 큐레이션 함. Image: USPTO

▲ 애플의 공개된 출원서의 Fig.9C~9D(20180091732, 29 Mar 2018). 예를 들어 iPhone에서 제공되는 인터페이스를 통해 머리를 단장하는 모습임. Image: USPTO

▲ 애플의 공개된 출원서의 Fig.9G~9H(20180091732, 29 Mar 2018). 큐레이션이 다 끝나면 당신의 아바타가 준비되었다는 메시지가 뜨고 혹은 Siri가 대답해주고 당신의 아바타를 친구들이 보게 될 것이라는 메시지와 함께 언제나 아바타 앱을 통해 아바타를 수정할 수 있다는 메시지도 고 함께 보여줌. Image: USPTO

▲ 애플의 공개된 출원서의 Fig.12I~12J(20180091732, 29 Mar 2018). 실제 iPhone의 iMessage를 이용해 친구와 메시지를 주고받는 모습임. 아래에는 감정이나 문맥을 인식해 그에 해당하는 이모티콘, 애니모지, 다양한 아바타, 애니메이션, 장면의 그림이 나타나고 본인이 클릭하여 문자와 같이 보낼 수도 있고, 문자를 보내면 인공지능이 분석해 해당 그림을 자동으로 선택해 보낼 수도 있음. Image: USPTO

자산들(asset)을 3D 모델/아바타에 올리는(입히는) 방법(placing an asset on a three-dimensional model) – 애플의 3D 모델/아바타 관련 기술도 2010년으로 거슬러 올라간다. 2010년 9월 28일에 출원하고(12/892,636), 2012년 3월 29일에 출원서가 공개되고(20120079377), 2016년 12월 13일에 특허를 획득했다(9,519,396). 

또한 디스플레이된 자산에 색을 칠하기(Changing Colors of Displayed Assets)라는 기술을 2010년 9월 28일에 출원하고(12/892,624), 2012년 3월 29일에 출원서가 공개되었는데(20120075328) 별도로 소개하지 않고 본 특허(9,519,396)에 내용이 있으므로 색칠하기는 생략하기로 한다.

여기서 자산들이란 모자(hat), 눈(eyes), 안경(glasses), 얼굴(face), 눈썹(eyebrows), 머리카락(hair), 입(mouth), 귀(ears), 코(nose), 코밑수염(mustache), 턱수염(beard), 보석(jewelry)과 반창고(Band-Aids) 등의 악세서리(accessories)나 옷(clothing)이나 용해성 유기물감(Photo Booth on steroids) 등으로 이들을 3차원 모델, 즉 3D 아바타에 입히고 색을 칠하는 방법을 기술한 것이다. 

또한 나를 표현하는 3차원 아바타뿐만 아니라 비디오 게임이나 교육 등에 등장하는 나 혹은 다른 사람들이나 동물, 사물을 3차원 모델로 창조할 수 있는 앱으로 향후 LCD/OLED를 넘어 Movable, Heads-Up, Video projector & 3D Holographic Displays에 적용할 수 있다.

▲ 애플 특허의 Fig.1(9,519,396, 13 Dec 2016). Image: USPTO

Fig.1은 3D 모델을 나타낸 그림으로 100은 디스플레이, 190은 iPad 등의 디바이스, 110은 모델, 102는 백그라운드(배경)이다. 모델 110은 사람, 나를 표현하는 아바타, 동물, 장소, 상상속의 그 무엇(an imaginary being)이 될 수도 있다. 사용자들은 자산 바(asset bar, 120)를 통해 원하는 자산들(assets)을 선택하여 모델 110을 창조할 수 있는데, 일련의 모자를 입힐 수도 있고 안경을 씌울 수도 있으며 원하는 물감을 선택해 색을 칠 할 수도 있다.

예를 들어 사용자가 120의 자산 바를 선택하고 122의 머리(Hair) 유형을 선택하면 디바이스 190은 다양한 종류의 메뉴 혹은 리스트 등 옵션(options)을 제공한다(그림에선 안보임). 사용자는 112의 머리 자산(hair asset)을 선택해 모델에 적용한다. 또한 동시에 자산의 사이즈(Size), 모양(Shape), 스타일(Style) 등을 선택할 수 있고, 140의 컬러 메뉴를 통해 Color Options을 선택하고 다양한 색깔을 골라 혹은 색을 칠해 모델을 꾸밀 수 있다.

▲ 애플 특허의 Fig.2A &amp; 2B(9,519,396, 13 Dec 2016). Image: USPTO

Fig.2A와 2B는 자산 바(120)로부터 이동시키고 방향을 설정하고 위치를 정할 수 있는 여러 자산들을 이용하는 그림으로 예를 들면 안경 자산(glasses  asset 212)로부터 안경을 선택하여 2A는 210의 모델의 코에 건(입힌) 것이고 2B는 이마에 입힌 것이다. 사용자들은 자산 바로부터 원하는 스타일을 드래그하던지 아니면 방향 지시 혹은 방향 지시 인터페이스를 통해 모델을 꾸밀 수 있다. 

3D 자산들(3D asset)을 3D 모델/아바타에 통합하는 방법(integrating a three-dimensional asset with a three-dimensional model) – 이번에는 앞서 살펴본 2차원 자산들이 3차원 자산들로 바뀌고 3차원 자산들을 3차원 모델/아바타에 통합하는 기술에 관한 것으로 아직 특허를 획득하지 못했지만, 필자가 보기엔 중요한 기술이다. 2010년 9월 28일에 출원하고(12/892,643), 2012년 3월 29일에 출원서가 공개되었다(20120089378). 

각각의 자산은 3차원이므로 베이스(기본) 표면(base surface)과 돌출부(protrusion) 혹은 베이스로부터 연장되는 돌출부(a projection extending from the base)를 포함하고 있다. 일단 모델의 특정 위치에 하나의 자산이 입혀지면, 베이스 표면의 주변을 정의하는 하나 이상의 정점이 모델의 외부 표면상에 투영 될 수 있다(one or more vertices defining a periphery of the base surface can be projected onto an external surface of the model). 

그런 다음 자산의 하나 이상의 부분이 변형되어 자산의 외부 표면과 모델 외부 표면 사이의 원활한 전환이 이루어질 수 있다(Then, one or more portions of the asset can be deformed to provide a smooth transition between the external surface of the asset and the external surface of the model). 경우에 따라 자산의 내부의 빈 공간(구멍, 공동)을 정의하기 위해 모델의 외부 표면을 관통하는 구멍이 포함될 수 있다. 이때 2번째 자산이, 예를 들어 아이(눈) 소켓 자산에 입혀진 안구 자산과 같이, 공동(구멍)에 배치될 수도 있다.

▲ 애플 특허의 Fig.3A &amp; 3B(20120089378, 29 Mar 2012). Image: USPTO

Fig.3A와 3B에서 300은 3차원 모델이고, 310은 외부 표면(external surface), 302는 기본 구조(foundation structure)이다. 기본 구조는 다양한 형태를 지닐 수 있는데, 구형(sphere), 난형(ovoid), 입방형(cuboid), 다각형 체적(polygonal volume)이 될 수도 있다. 그리고 자산은 3차원이므로 코 자산인 328은 3A처럼 튀어나온 돌출형이 될 수도 있고 3B처럼 구멍이 될 수도 있다. 이렇듯 3차원의 자산을 이용하여 3차원 모델을 꾸밀 수 있다.

 

차원용 소장/교수/MBA/공학박사/미래학자

아스팩미래기술경영연구소(주) 대표, (전)국가과학기술심의회 ICT융합전문위원회 전문위원, 국토교통부 자율주행차 융복합미래포럼 비즈니스분과 위원, 전자정부 민관협력포럼 위원, 국제미래학회 과학기술위원장

 

 

[정리 이새잎 기자 ebiz@itnews.or.kr]