[애플 AI칩] 5. 3D UI/UX의 AR/VR for Car/EV/AV

애플(Apple) AI칩 개발동향과 3년 내 출시할 제품/서비스 예측

[요약] 구글(Google)이 알파고(AlphaGo)라는 인공지능(AI) 컴퓨터 프로그램 덕분에 AI 기술의 선두주자로 알려져 있지만, 구글의 단점은 클라우드 베이스의 AI이다(이를 Edge->Cloud AI라 함). 반면 애플(Apple)은 온디바이스(on-device)의 AI 제품을 개발하고 실제 제품에 적용하고 있다는 점에서 구글을 능가하고 있다. 왜냐하면 이제 블록체인 개념의 Cloud->Edge가 도래하고 있기 때문이다.

2017년에 애플이 자체 개발하고 디자인한 ‘Neural Engine + 최초로 애플이 디자인한 GPU(그 전까지는 Imagination Technologies가 디자인) + M11 + Face ID + Touch ID를 지원하는 네 개의 에너지효율 요소’를 통합한 A11 Bionic Chip을 iPhone X에 탑재해 런칭했다. (1) 많은 기업들이 AI칩에 도전하고 있지만 이는 업계 최초로 애플이 AI칩 분야의 선두주자임을 증명한 것이다. (2) 그 결과 애플은 어느 날인가 퀄컴(Qualcomm)과 인텔(Intel)과 삼성(Samsung)을 위협할 수도 있을 것이다.

애플은 HAS(Hardware + AI + Software)라는 개념의 독자적으로 디자인하고 통합된 하드웨어와 독자적인 뉴럴엔진의 A11 Bionic Chip과 독자적인 OS 플랫폼을 구축한 유일한 기업이다. 따라서 현재 TrueDepth 카메라와 Dot Projector 기반으로 서비스하고 있는 Face ID와 Animoji를 뛰어넘어 향후 Cloud<->Edge를 선도할 수 있을 것으로 전망된다. 

애플과 애플이 인수한 프라임센스의 특허를 분석한 결과, 앞으로 3년 이내 애플은 뉴럴엔진·AI Chip 베이스의 트루뎁스 카메라 기술과 도트 프로젝트 기술을 활용해 (1) 3D Animoji를 2018년에 나만의 Memoji로 업데이트하고 최종 3D 아바타/모델로 업그레이드하여 출시할 것으로 예측되고, (2) 다양한 콘텐츠와 서비스(Mac, TV, 전기차(EV)/자율차(AV) 등) 중심의 3D UI/UX의 AR/VR로 확대 출시 될 것으로 예측되며, (3) Mac OS/iOS가 3D GUI의 OS/App/Safari로 업그레이드 될 것으로 예측된다.

[글 싣는 순서]
1. 뉴럴엔진의 인공지능 칩(A11 Bionic Chip)
  1-1. 배경(Background) – Edge<->Cloud를 위한 AI Chip 개발이 필요
 1-2. 애플(Apple)의 뉴럴엔진/네트워크와 A11 Bionic Chip
   1-2-1. 애플과 애플이 인수한 프라임센스의 특허분석 
    1-2-1-1. Face ID와 뉴럴 네트워크
   1-2-1-2. 트루뎁스(TrueDepth) 적외선 카메라
   1-2-1-3. 3차원 맵을 위한 도트 프로젝터(Dot Projector)
   1-2-2. 2017년 9월 WWDC에서 공개된 A11 Bionic Neural Engine 
    1-2-3. 유럽특허청에 등록한 상표 – 뉴럴엔진(Neural Engine)
    1-2-4. 애플의 아이폰 8/8 플러스/X에 탑재된 A11 Bionic Chip
    1-2-5. A11 Bionic Chip이 탄생하기 전까지의 여정
 1-3. 인사이트 종합 

2. 특허분석으로 예측하는 3년 내 애플이 출시할 제품과 서비스
 2-1. 애플의 3D 아바타/모델
 2-2. 애플의 3D UI/UX의 AR/VR
   2-2-1. 3D UI/UX의 AR/VR for Mac/TV
   
2-2-2. 3D UI/UX의 AR/VR for Car/EV/AV
  2-3. 애플의 3D GUI의 OS/App/Safari
   2-3-1. 3D GUI의 OS/App
   2-3-2. 3D GUI의 브라우저(Safari)  


2-2-2. 3D UI/UX의 AR/VR for Car/EV/AV

자동차 환경에 따라 스스로 구성하는 자율 최적화(AUTOMATIC CONFIGURATION OF SELF-CONFIGURABLE ENVIRONMENTS) – 순수 애플의 기술로 애플은 운전자에게 본인 자동차나 렌터카의 좌석, 거울, 기후 관리, 라디오를 환경에 따라 운전자에게 최적화하여 구성해주는 시스템 기술에 도전하고 있는데, 2012년 1월 30일에 출원하고(13/361,277), 2013년 8월 1일에 출원서가 공개되었다(20130197674).

▲ 애플의 공개된 출원서의 Fig.2와 3(20130197674, 1 Aug 2013). Image: USPTO

Fig.2와 Fig.3는 사용자의 키, 다리의 길이, 눈의 위치에 따라 좌석이 앞뒤로 움직이고 거울의 각도가 자동으로 조절되는 것을 설명하는 그림이다. 

자율차를 응시와 제스처로 제어하기(GESTURE BASED CONTROL OF AUTONOMOUS VEHICLES) – 순수 Apple의 기술로 2016년 9월 21일에 가출원하고(62/397,805), 2017년 9월 19일에 정식으로 출원하고(15/709,389), 2018년 3월 22일에 출원서가 공개되었다(20180079427).

▲ 애플의 공개된 출원서의 Fig.1(20180079427, 22 Mar 2018). Image: USPTO

Fig.1은 승객이나 운전자가 응시와 제스처로 자율차의 경로를 변경하는(trajectory changes) 운행상의 시스템 환경 100을 설명하는 그림이다. 110 사람의 의지에 따라 143의 손이 움직이고, 141은 이러한 움직임(제스쳐)을 사전에 정의한 3차원 상호작용 존 혹은 제스쳐 감지 존이며, 151은 움직임이나 행동 등의 제스쳐를 감지하는 감지기이고 153은 응시나 음성 등을 감지하는 감지기이다. 

185는 이러한 상호작용을 최종적으로 인지하는 상호작용 관리 디바이스이다. 120은 디스플레이로 AR/VR 헤드셋이 될 수도 있고 글라스가 될 수도 있으며 3D 유리창이나 스크린이 될 수도 있으며 스마트폰이나 랩탑이 될 수도 있다. 110의 사람이 120의 디스플레이를 응시하고 125의 오퍼레이션 옵션을 응시하면 153의 감지기(트루뎁스 카메라)가 눈동자의 움직임을 감지하여 121 혹은 122 혹은 123을 응시하는지 감지하여 좋아하는 이미지 혹은 아이콘 하나를 선택하는 것이다. 

이때 122를 응시하면 127의 옵션 선택 표시인 별표가 122에 나타나 122가 선택되었다는 것을 알리는 것이다. 그리고 143의 손을 좌우로 움직이면 127의 옵션이 좌우로 움직이면서 경로를 좌측 혹은 우측 차선으로 변경하는 것이다. 

▲ 애플의 공개된 출원서의 Fig.2(20180079427, 22 Mar 2018). Image: USPTO

Fig.2는 이를 가능하게 하는 자율차 환경을 구성하는 요소들을 설명하는 그림인데 특히 뒷 좌석에 사람이 타고 있어 L0~L5 중 L4나 L5 수준의 자율차이다. 221은 날씨, 도로 상태 등의 외부 환경 데이터를 수집하는 외부를 바라보는 카메라이고 222는 내부의 사람을 바라보는 트루뎁스 카메라 혹은 음성을 감지하는 마이크로폰이다. 

▲ 애플의 공개된 출원서의 Fig.3A(20180079427, 22 Mar 2018). Image: USPTO

Fig.3A와 3B는 자율차가 고속도로를 달리고 있는데 갑자기 다른 차량이 중앙선으로 끼어 들어와 저속을 하고 있는 시나리오이다. 따라서 중앙 차선을 달리던 자율차는 3가지 옵션 중 하나를 선택해야 한다. 손을 왼쪽으로 움직이면 327의 표시가 왼쪽으로 움직여 좌측 차선으로 이동하고, 오른쪽으로 움직이면 오른쪽 차선으로 이동하는 것을 설명하는 그림이다. 

▲ 애플의 공개된 출원서의 Fig.3B(20180079427, 22 Mar 2018). Image: USPTO

단지 3B의 327의 표시가 오른쪽에 표시되어야 하는데 왼쪽에 잘못 표시되어 있다. 좌측-중앙-우측 차선의 화살표의 길이는 자율차의 속도를 나타내는데, 중앙 차선을 그대로 유지할 경우 저속을 해야 하고, 좌-우측 차선으로 변경할 경우 가속을 해서 끼어든 차량을 추월하는 경우이다.

▲ 애플의 공개된 출원서의 Fig.4a~4c(20180079427, 22 Mar 2018). Image: USPTO

Fig.4a~4c는 사전에 정한 몇 번의 제스쳐가 사전에 정한 시간(t, 초)에 반복되었는지를 규정하는 제스처의 포로토콜을 정하는 방법을 설명하는 그림이다. 차선을 변경하기 때문에 잘못된 제스쳐나 실수로 인한 제스쳐는 사고로 이어질 수 있기 때문에 이러한 프로토콜은 대단히 중요하다. 

4a는 상호작용 존에 손이 감지되고 정해진 시간(t, 초)보다도 더 짧은 시간에 움직임이 없는 경우 세션의 시작으로 정하는 것이다. 4b는 정해진 시간 안에 오른쪽으로 이동하라는 제스쳐가 n-번(3번) 반복되는 경우 실제로 차선을 변경하고, 4c는 정해진 시간 안에 왼쪽으로 n-번(3번)의 제스쳐가 감지되면 종료로 간주하는 것이다.   

▲ 애플의 공개된 출원서의 Fig.6(20180079427, 22 Mar 2018). Image: USPTO

Fig.6는 610의 지율차가 611의 도로를 달리는데 왼쪽에 646의 백화점과 647의 식당, 오른쪽에 648의 도서관과 649의 주유소가 등장해 어느 곳을 둘러야 하는지를 결정하는 머신러닝이나 인공지공 알고리즘을 설명하는 그림이다. 

이때 데이터가 필요한데, 승객이나 운전자의 프로파일, 자율차 사용 이력, 어느 곳을 가장 많이 방문했는지의 기록, 기호, 시간과 날씨 등의 데이터 등이 필요하다. 이러한 데이터를 분석하여 관심 예측(Predicted Interest)과 관련성 점수(releavance score)를 0~1로 나타내고 620의 디스플레이에 랭킹 순으로 보여주는 것이다. 이때 화살표의 길이는 시간과 거리를 나타낸다.

▲ 애플의 공개된 출원서의 Fig.7(20180079427, 22 Mar 2018). Image: USPTO

Fig.7은 제스쳐 상호작용의 시작과 종료를 나타내는 타임라인으로 702는 승객이나 운전자의 우선순위가 낮은 경우인데, 720A의 디스플레이에는 회색의 백그라운드 모드로 처리되고, 704는 상호작용 세션이 시작되어 706의 우선순위가 높아 720B에는 선택 지시가 전경 모드로 나타나고, 708은 종료 세션이고, 710은 종료가 되어 다시 백그라운드 모드가 나타난다. 

▲ 애플의 공개된 출원서의 Fig.10(20180079427, 22 Mar 2018). Image: USPTO

Fig.10은 이 기술을 자율차뿐만 아니라 소매점의 일반 방 혹은 집의 방에도 적용할 수 있다는 것을 설명하는 그림이다.

입체사진을 이용한 적응형 차량 AR 디스플레이(ADAPTIVE VEHICLE AUGMENTED REALITY DISPLAY USING STEREOGRAPHIC IMAGERY) – 순수 애플의 기술로 2016년 9월 23일에 가출원하고(62/398,927), 2017년 9월 22일에 정식 출원하고(15/713,274), 2018년 3월 29일 출원서가 공개되었다(20180089899). 

이 특허출원서는 최근에 출원했다는 점과 애플이 자율차를 개발하고 운행 테스트를 하고 있다는 점에서 현실화할 가능성이 매우 높다.  

AR 시스템은 사전에 생성된 세상의 3D 모델(re-generated 3D model)을 레버리지하여 움직이는 자동차 앞에서 세상의 AR 장면을 볼 수 있도록 3D 그래픽 콘텐츠로 렌더링(생성) 할 수 있다. 이를 위해 AR 시스템은 3D Tiles과 같은 사전에 생성된 3D 데이터를 클라우드 스토리지에서 받아, 자동차의 센서들(GPS, 카메라, 레이더, 라이더 등)이 센싱한 로컬 데이터에 증강시켜(augment), HUD 혹은 유리창에 투영하여 운전자에게 보여줌으로써, 운전자는 센서들이 잡은 실제 장면이 그늘이 졌는지, 빌딩이나 숲에 가려 안 보이는지, 그 장면의 물체가 무엇인지, 교통표지판은 무엇을 의미하는지, 옆 연못에는 무슨 물고기가 사는지, 그 장면의 먼 거리의 영역에는 무엇이 있는지 등을 판단 할 수 있어 (1) 운전자가 주위 환경을 잘 이해하여 운행의 안전을 도모할 수 있고, (2) 쨈 있게 운전할 수 있도록 해준다.

▲ 애플의 공개된 출원서의 Fig.2(20180089899, 29 Mar 2018). Image: USPTO

Fig.2는 적응 AR 시스템과 디스플레이를 설명하는 그림으로 점선을 중심으로 10은 클라우드 환경이고 20은 실제 환경인 자동차 혹은 자율차로, 자율차 내에 있는 122의 AR 시스템이 클라우드에 접속한다. 114의 데이터 입력은 사전에 자동차 혹은 자율차의 센서들이 잡아낸 사진 혹은 이미지, 아니면 개인들이 스마트폰으로 찍은 사진이나 이미지 데이터가 입력되고, 그러면 102의 3D 데이터 시스템에서 이를 컴퓨팅하여 지면과 물체의 3D mesh maps, 질감, 다른 기하학, GPS 좌표, 고도, 시간 스탬프 등을 생성한다. 이렇게 생성된 3D 데이터는 110에 저장되고 서비스하기 위해 104의 전방 서버가 필요하다. 

20의 자동차 혹은 자율차를 보면 130은 카메라, 레이더, 라이다 같은 센서들이고, 이들이 잡아낸 데이터가 132이다. 140은 지역화 요소로 GPS나 지역 추적 시스템이나 컴파스(나침반)로, 이들이 센싱한 데이터가 142이며, 150은 가속도계 등의 센서이며, 124는 콘트롤러인 프로세서로, 리얼 타임 센서 데이터에 글라우드의 3D 데이터를 겹쳐(증강시켜) 최종 125의 가상 이미지를 생성한다. 160은 유리창 같은 표면 혹은 스크린의 디스플레이로, 122의 AR 시스템에서 생성된 가상 이미지를 126의 프로젝터를 통해 디스플레이로 투영하게 된다. 

▲ 애플의 공개된 출원서의 Fig.3A(20180089899, 29 Mar 2018). Image: USPTO

Fig.3A는 사전에 생성된 클라우드의 3D mesh map을 자율차의 센서들이 리얼타임으로 센싱한 데이터에 겹쳐(합쳐, 증강시켜) 가상 이미지를 생성하는 그림이다. 32는 라이다(LiDar)가 실시간으로 센싱한 2D~3D 데이터(하얀 포인트 클라우드, white point cloud)이고, 34는 클라우드의 3D 데이터인 3D tiles인데 빌딩, 사물 등이 오버래핑되어 있다. 32의 라이더 센서 데이터는 자율차의 전방. 측방, 후방 사물들의 깊이, 방향, 고도, 조명 등이 포함되어 지는데, 그림에서는 전방의 사물들이다. 보통 라이다는 전방 200~300미터의 사물들을 2D~3D로 스캔할 수 있지만, 자율차의 속도 방향 및 날씨 조건에 따라 36A와 36B처럼 음영지역, 즉 스캔이 안 된(폐쇄된, 막힌, occlusion) 곳도 있어 제한적이다. 따라서 음영지역을 3D 데이터(mesh map)를 겹쳐서 투영함으로써 운전자가 볼 수 있도록 한다. 

▲ 애플의 공개된 출원서의 Fig.3B(20180089899, 29 Mar 2018). Image: USPTO

Fig.3B는 콘트롤러에서 3D mesh map 데이터를 로컬 데이터인 센서 데이터에 증강시키는 작업을 하는 그림이다. 보이는 경로(Visible route)는 라이다 센서 데이터이고, 안 보이는 경로와 먼 거리 경로는 3D mesh map 데이터이다.

▲ 애플의 공개된 출원서의 Fig.3C(20180089899, 29 Mar 2018). Image: USPTO

Fig.3C는 이런 과정을 거처 생성된 버추얼 콘텐츠(가상 이미지)로, 보이는 경로는 ‘Route 12’라는 가상 이미지, 안 보이는 경로의 산은 ‘Mount Jones’라는 가상 이미지, 먼 거리 경로는 ‘Mount Smith’라는 가상 이미지를 유리창에 보여주고, 동시에 각각의 경로에 다다르는 ‘시간’, 경로를 지나가는 ‘시간’, 경로의 ‘방향’, 경로의 ‘속도’ 등의 가상 이미지나 텍스트를 투영해 AR 환경을 만들어 운전자에게 보여주는 것이다.  

▲ 애플의 공개된 출원서의 Fig.6(20180089899, 29 Mar 2018). Image: USPTO

Fig.6는 리얼 월드 장면에 가상 이미지를 160의 영역에 투영한 적응 AR 디스플레이의 그림이다. 검정색 원으로 보여주는 영역은 가까운 거리로 센서가 감지하는 영역이고, 점선 원은 센서가 감지 못하는 음영지역이며, 실선의 원은 너무 멀어 센서가 감지할 수 없는 영역으로 안 보이는 영역이다. 이런 방식으로 유리창에 투영하여 보여줄 수도 있다.  

▲ 애플의 공개된 출원서의 Fig.8(20180089899, 29 Mar 2018). Image: USPTO

Fig.8은 적응 AR 디스플레이에서 환경에 맞게 적응하는 가상 이미지를 보여주는 그림이다. 오른쪽 코너에는 태양 빛(Sun)이 있다. 가상 이미지 A를 투영하는 800 건물의 표면은 정상(surface normal)이어서, 즉 유리(glass)여서 빛을 받아 반사하는 강도가 높다. 따라서 유리에 가상 이미지를 투영하면 운전자는 직사광선 반사 혹은 섬광(glare)을 받아 가상 이미지를 볼 수도 건물을 볼 수도 없다. 잘못하면 시야를 잃어 사고가 날 수도 있다. 따라서 이런 환경에서는 유리에 투영할 수가 없으므로 가상 이미지를 태양 빛이 반사되지 않는 다른 지역으로 쏘아주거나 칼러/강도/크기를 수정하여 쏘아 운전자가 보도록 하는 것이다. 

가상 이미지 B는 파랑색인데, 운전자 전방이므로 이는 하늘이다. 따라서 하늘도 파랑색이므로 파랑색과 대조되는 색으로 투영하던지 다른 영역에 쏘아주는 것이다. 가상 이미지 C도 태양에 근접해 있으므로 위치를 변경하여 쏘아주는 것이다.

전기차(Elctric Vehicle)/자율차(Autonomous Vehicle)를 위한 증강현실 디스플레이(Augmented virtual display) – 이것도 순수 애플의 기술로 2016년 9월 23일에 가출원하고(62/399,140), 2017년 9월 22일에 정식 출원하고(15/713,421), 2018년 3월 29일 출원서가 공개되었다(20180089900). 

이 특허출원서는 최근에 출원했다는 점과 애플이 자율차를 개발하고 있다는 점에서 현실화할 가능성이 매우 높다.

VR은 사용자로 하여금 인공지능 환경과 상호작용 경험을 가능토록 하는데 예를 들면 실제로 가상환경에서 물리적인 느낌을 받게 하는 것이다. 구체적인 예를 들어 입체장면(streoscopic scenes)을 사용자에게 디스플레이 해주어 깊이 있는 환상(illusion of depth)을 체험하도록 하고, 동시에 컴퓨터는 콘텐츠를 리얼타임으로 장면을 바꾸어 주면서 장면 내에서 사용자가 움직이는 환상을 제공하는 것이다. 비슷하게 AR은 물리적인 환경에 가상 이미지를 겹쳐 보여줌으로써 생산성을 높이는 것이다. 

자동차를 탄 승객들은 자동차에서 디바이스를 사용해 작업을 할 경우 자동차의 움직임에 따라 멀미(motion sickness)를 야기시킬 수 있다. 이때 VR 시스템은 승객이 경험하는 물리적인 움직임과 매치되는 시각적인 큐(자극, visual cues)를 증강 혹은 가상 뷰(virtual views)로 제공할 수 있다. 

예를 들어 VR 시스템은 가상 이미지를 투영하여 그 콘텐츠가 멀리 떨어진 객체라 할지라도 실제 외부 환경에서 안정화되고 고정된 것처럼 보이게 할 수 있다. 그러므로 VR 시스템은 생산성을 높여 줄 수 있는데, 예를 들어 승객들은 멀미 없이 자동차를 타고 작업(일)을 할 수 있기 때문이다. 또한 VR 시스템은 자동차의 가속도와 움직임을 가상 경험의 가속도와 움직임과 매치시킴으로써 움직이는 자동차 안에서 가상 경험을 고양시킬 수 있다.

▲ 애플의 공개된 출원서의 Fig.1(20180089900, 29 Mar 2018). Image: USPTO

Fig.1은 자동차 안에서 HMD(Head mounted device)를 착용한 승객을 포함하는 VR 시스템을 설명하는 그림이다. 100은 VR 시스템, 110은 콘트롤러, 112는 다양한 VR 투영 기술 중의 하나를 수행하는 HMD 헤드셋, 190은 승객, 192는 자동차 안에서 일을 할 수 있는 사용자 디바이스, 116은 3차원 공간의 가상 이미지, 114는 3D 버추얼 뷰이다. 3차원 효과를 생성하기 위해 114의 3D 버추얼 뷰 내의 서로 다른 깊이(depths)와 거리(distances)에 있는 116의 가상 이미지는 두 개의 이미지 안에서 좌우로 이동한다. 

이때 콘트롤러와 HMD와 사용자 디바이스는 연결되어 있고, 사용자 디바이스의 출력은 콘트롤러로 보내지고, 그러면 가상 이미지가 생성되고, 그다음 가상 이미지의 프레임(frames)이 HMD로 제공되어 승객이 HMD를 통해 보는 것이다. 이때 만약 실제 환경에 투영되면 가상 이미지는 자동차 앞의 수 미터 거리에서 고정된 것처럼 보이고, 만약 가상 환경에 투영되면 승객 앞에 고정된 것처럼 보여, 어떤 경우에도 멀미를 일으키지 않는다는 것이다. 

▲ 애플의 공개된 출원서의 Fig.2(20180089900, 29 Mar 2018). Image: USPTO

 
Fig.2는 승객이 HMD 착용 없이 똑같은 216의 가상 이미지를 220의 프로젝터를 통해 자동차의 유리창인 208로 투영해 290의 승객이 보면서 사용자 디바이스를 이용해 멀미 없이 작업을 하는 것이다. 이때 투영의 해상도나 질을 높이기 위해 208의 창문은 파장 가이드 기술 혹은 홀로 그래픽 기술 등을 포함할 수 있다.

▲ 애플의 공개된 출원서의 Fig.8(20180089900, 29 Mar 2018). Image: USPTO

Fig.8은 자동차 안의 실제 물리적인 시스템과 가상 이미지 시스템이 융합해 승객에게 동조화 물리 효과(Synchronized physical effects)를 제공하는 것을 설명하는 그림이다. 자동차 안의 물리적인 시스템으로 706의 오디오 708의 공조(HVAC, heating, ventilation, air conditioning), 730의 액티브 시트, 702의 브레이킹/가속페달/조향장치 등을 제어하는 자동차제어시스템, 그리고 버추얼을 제공하는 710의 VR 콘트롤러와 720의 HMD가 있다. 그리고 이때 710의 VR 콘트롤러와 자동차 안의 물리적인 시스템들은 신호를 주고받는다. 

따라서 승객들은 동조화 물리 효과를 체험할 수 있는데, 예를 들어, 가속이 되면 의자가 뒤로 제쳐지고 속도가 줄면 앞으로 제쳐진다. 가속에 따라 중력을 느끼는 것이다. 여기에 가상 이미지의 내용에 따라 공조시스템이 동조화 작동할 수 있고 오디오시스템도 동조화 배경 음악 등을 제공할 수 있다. 

▲ 애플의 공개된 출원서의 Fig.11B(20180089900, 29 Mar 2018). Image: USPTO

Fig.11B는 VR 시스템에서 제공하는 승객과 옆에 앉은 가상의 저자 혹은 토크 쇼 진행자이다. 승객은 HMD를 쓰고 가상의 저자를 불러내 책에 관한 내용을 토론할 수도 있고 책을 읽어 줄 수도 있다. 가상의 토크 쇼 진행자와 토크 쇼를 진행할 수도 있다. 

차원용 소장/교수/MBA/공학박사/미래학자 

아스팩미래기술경영연구소(주) 대표, (전)국가과학기술심의회 ICT융합전문위원회 전문위원, 국토교통부 자율주행차 융복합미래포럼 비즈니스분과 위원, 전자정부 민관협력포럼 위원, 국제미래학회 과학기술위원장 

[정리 이새잎 기자 ebiz@itnews.or.kr]