구글 I/O 2017, 모바일 퍼스트에서 AI 퍼스트로

maxresdefault

구글은 5월 17일부터 19일까지 3일간 마운틴 뷰 본사에서 열린 ‘구글 I/O 2017’ 개발자 컨퍼런스에서 수많은 새로운 제품과 기능을 발표했다. 

첫 날 순다 피차이(Sundar Pichai) 구글 CEO는 기조연설 ‘모두를 위한 인공지능’이라는 주제로 모바일 퍼스트(mobile-first) 세계에서 AI 퍼스트(AI-first)를 선언했다. 

피차이 CEO는 “현재 안드로이드 월간 활성 기기수는 20억 개 이상이며, 유튜브는 10억 명이 넘는 총 사용자 수와 매일 10억 시간이 넘는 시청 시간을 기록하고 있다. 또한, 전 세계 사용자들은 구글 지도를 이용해 매일 10억 킬로미터 이상의 길찾기를 하고 있다”라며, “컴퓨팅의 새로운 전환으로 모바일 퍼스트에서 AI 퍼스트로의 전환이다”라고 말했다.

특히 딥 러닝 분야의 발전으로 인해 구글은 이미지, 사진, 영상 및 음성을 가존과 다른 방식으로 카메라는 ‘볼 수’ 있으며, 스마트폰에게 말을 걸고 답을 얻을 수 있는 음성인식과 컴퓨터 비전은 키보드나 멀티 터치스크린 만큼이나 컴퓨팅에 중요해지고 있다고 강조했다.

이어 구글렌즈와 64개의 기기들을 11.5 페타플롭 머신러닝 슈퍼컴퓨터인 TPU 팟으로 연결해 머신러닝을 위해 맞춤 제작된 클라우드 TPU, DNA 염기순서와 같은 기초 과학을 도울 수 있는 구글 AI(Google.ai)에서 출시된 새로운 인공지능 도구, 유튜브를 보며 텐서플로우 사용법을 독학한 한 학생의 사례, 일자리 서비스 ‘구글 포 잡스(Google for Jobs)’ 등을 설명했다.  

특히 현재 신경망을 설계하기 위해서는 엄청난 시간이 소모될 뿐만 아니라, 전문 기술을 필요로 하기 때문에 기계학습 모델의 디자인을 단순화를 목적으로 AutoML이라 불리는 접근법을 구축해 신경망이 또 다른 신경망을 설계할 수 있도록 했다고 발표했다. 

또한 구글은 인접 림프절로 전이되는 유방암을 발견하는 알고리즘을 개선하기 위해 머신러닝을 활용했을 뿐만 아니라 인간 유전자의 기본요소들을 순서화하는 데에 있어서 인공지능이 시간과 정확성을 향상시켜주는 것을 확인했다고 강조했다.

피차이는 “진정으로 AI 퍼스트 세계에 진입하기까지는 아직 갈 길이 멀지만 많은 사람들이 활용할 수 있도록 기술에 대한 접근성을 모두에게 제공한다”라고 말했다.

구글 렌즈, 구글 어시스턴트, 구글 홈, 차세대 TPU 하드웨어 등 구글이 공개한 새로운 제품과 기능들을 살펴보자. 

lens

구글 어시스턴트, 구글 홈, 구글 렌즈
구글 어시스턴트(Google Assistant)는 이미 1억 개의 기기에서 사용되고 있다. 구글 홈(Google Home)은 이제 서로 다른 목소리들을 구분해 사용자들이 구글 홈과 상호 작용할 때 더욱 개인화된 경험을 제공한다. 여기다 스마트폰 카메라를 도구로 활용해 작업을 처리할 수 있도록 컴퓨터 비전 기반의 구글 렌즈(Google Lens)가 이미지를 인식하고, 해당 정보를 사용자에게 제공한다.

가령 라우터 뒤쪽에 있는 길고 복잡한 와이파이 비밀번호를 보기 위해 친구의 책상 아래로 기어 들어가면 스마트폰은 그 비밀번호를 인식하고, 자동으로 로그인을 시켜준다. 즉 알아서 도와주는 것으로 진정한 개인비서의 출발점이다. 구글은 먼저 구글 렌즈 기능을 구글 어시스턴트와 구글 포토에 도입할 예정이다.

한편, 구글 어시스턴트가 iOS 용 앱으로 출시한다고 공식 발표했다. 스캇 허프만(Scott Huffman), 구글 어시스턴트 엔지니어링 담당 부사장은 “구글 어시스턴트가 이미 1억대가 넘는 안드로이드(Android)를 사용하는 기기에서 사용할 수 있다고 밝혔다. 구글 어시스턴트가 iOS 용 앱은 북미지역에 한정된 것이지만 애플의 시리에 강력한 도전장을 던진 셈이다. 향후 벌어질 두 회사간 인공지능 첨병들의 전쟁에 관심이 쏠리는 대목이다.

구글 어시스턴트는 올 여름 프랑스어, 독일어, 브라질(포르투갈어), 일본어를 시작으로 연말까지 이탈리아어, 스페인어, 한국어가 지원될 예정이다. 

20

구글 클라우드 차세대 TPU(Tensor Processing Unit)
구글 클라우드 2세대 TPU(Tensor Processing Unit)는 기존에는 내부 컴퓨팅 작업에 사용되었으나 현재는 외부 컴퓨팅 작업까지 처리하고 있다. 구글 클라우드 플랫폼을 통해 업그레이드된 TPU는 머신러닝 모델의 학습 및 실행이 모두 가능하다.

최대 180테라플롭(Teraflops)에 달하는 부동 소수점 연산 성능을 제공하는 TPU는 따로 사용하는 경우에도 뛰어난 성능을 보이지만 함께 사용하는 경우 더 좋은 성능을 보이도록 설계됐다. 각 TPU에는 맞춤 고속 네트워크가 포함되어 있어 ‘TPU 팟(TPU pod)’이라고 하는 머신러닝 슈퍼컴퓨터를 구축할 수 있다. TPU 팟은 차세대 TPU 64개를 갖추고 있으며, 최대 11.5 페타플롭의 연산 성능을 제공하기 때문에 대규모 머신러닝 모델을 학습시키는 데 필요한 시간이 단축된다.

구글의 대규모 번역 모델을 훈련시키는데 기존 최고급 상용 GPU 32개를 사용했을 때는 하루가 꼬박 걸렸지만, TPU 팟의 1/8만 사용해도 같은 정확도로 훈련시키는데 반나절 밖에 걸리지 않는다.

클라우드 TPU는 형태와 규모에 구애받지 않고 모든 가상 머신에 연결해 스카이레이크(Skylake) CPU, 엔비디아(NVIDIA) GPU 같이 다른 유형의 하드웨어와도 함께 사용할 수 있다. 사용자는 깃허브(GitHub)에서 오픈소스 머신러닝 프레임워크인 텐서플로(TensorFlow)로 클라우드 TPU를 프로그래밍할 수 있다. 또한 CPU, GPU 또는 클라우드 TPU에서 최소한의 코드 변경만으로도 손쉽게 머신러닝 모델을 학습시킬 수 있는 고급 API도 도입할 예정이다.

또한 구글은 텐서플로 리서치 클라우드(TensorFlow Research Cloud) 도입한다. 개방형 머신러닝 연구를 더욱 가속화하기 위해, 머신러닝 연구원들이 텐서플로 리서치 클라우드를 통해 클라우드 TPU 1,000개를 무료로 사용할 수 있도록 지원할 예정이다.

VR/AR 기술을 구현하는 데이드림(Daydream)과 탱고(Tango) 및 개발자 도구
탱고는 VR/AR의 핵심 기술로 스마트기기가 움직임을 감지하고, 깊이 및 공간을 인식한다. 데이드림의 새로운 독립형 VR 헤드셋이 외부 센서 없이 작동 가능하도록 지원하는 위치 추적 기술인 월드센스(WorldSense)는 탱고에서 파생된 기술이다.

탱고는 스마트폰 상에서도 AR을 구현해준다. 탱고를 사용하는 기기는 실내 방향 정보를 알려주고 주변 공간에 디지털 사물을 합성해 보여줄 수 있다. 예를 들면, 가구를 구매하기 전에 침실에 배치된 모습을 미리 확인하거나, 거실에 기상천외한 인터랙티브 공간을 꾸미거나, 주방에 공룡 이미지를 띄워 놓고 공부하는 일이 가능하다. 또한 학생들은 익스피디션 AR(Expeditions AR)을 통해 토성의 고리나 화산 폭발 같은 디지털 콘텐츠를 교실에서 바로 볼 수 있다.

데이드림은 구글의 모바일 VR 플랫폼으로 호환되는 스마트폰은 8가지이지만, 올해 안에 삼성 갤럭시 S8, S8+를 비롯한 LG, 모토로라, 에이수스 기기에서도 사용할 수 있게 된다. 구글의 파트너사에 의해 개발된 새로운 기기인 독립형 헤드셋도 올해 하반기에 데이드림에 추가될 예정입니다. 독립형 헤드셋은 사용하기가 매우 쉽고, 파트너들이 센서와 디스플레이 같은 요소를 VR에 최적화시킬 수 있도록 설계돼 있다. 뿐만 아니라 이용 가능한 앱도 150개가 넘는다.

곧 출시되는 헤드셋용 2.0 업데이트인 데이드림 유프라테스(Daydream Euphrates)로는 VR 콘텐츠를 더욱 재미있게 즐기고 다른 사람들과 공유할 수 있다. 내가 보고 있는 콘텐츠를 캡처하고 공유할 뿐만 아니라 가상세계를 거실에 구현하는 일도 가능하다. 게다가 곧 같은 가상공간에서 다른 사람들과 함께 유튜브 동영상을 VR로 감상하고 실시간 채팅을 하며 소감을 공유할 수 있다.

개발자들을 위해 구글은 도구와 웹을 지원한다. 인스턴트 프리뷰(Instant Preview)를 통해 개발자가 컴퓨터에서 항목을 변경하면 단 몇 초 만에 헤드셋에서 변경 사항이 반영된 것을 확인할 수 있다. 또한 유명한 프랑스 화가의 이름을 딴 쇠라(Seurat)라고 하는 새로운 도구를 사용하면 모바일 VR 헤드셋에서 최고의 Hi-Fi 화면을 실시간으로 렌더링할 수 있다. 이는 개발자가 모바일 GPU로 데스크톱 수준의 그래픽을 실현할 수 있다. 

루카스필름(Lucasfilm)의 자회사로, 차세대 몰입형 사용자 환경을 구축하는 데 주력하고 있는 ‘ILMxLAB’은 쇠라 덕분에 스타워즈의 장면을 모바일 VR 헤드셋에서 영화관 수준의 품질로 제공했다. 

구글은 웹을 통해 개발자들이 데스크톱, 스마트폰, VR/AR 지원 기기 등 모든 기기에 초창기부터 웹VR 표준을 지원해 왔다. 올해 여름에는 VR로 웹을 검색할 수 있도록 하는 크롬 VR(Chrome VR)이 데이드림에 추가될 예정이다. 여기에 추가로 웹을 위한 AR도 지원할 수 있는 AR API가 포함된 크로미움(Chromium) 빌드를 곧 평가판으로 출시할 예정이다. 많은 기대 부탁드립니다.

의료분야의 머신러닝
구글 머신러닝은 2016년 한 해 동안 의사가 림프절로 전이된 유방암을 발견하고 당뇨성 망막증을 검사하는데 사용해 왔다. 구글은 이 연구결과를 실제 의료기기에 적용하기 위해 구글 모회사인 알파벳 산하의 베릴리 생명공학(Verily Life Sciences) 및 생체의학 분야의 다른 파트너들과 협력하고 있다. 현재 당뇨병 환자들의 실명을 방지하기 위한 기기도 그 중 하나다.

이제 구글은 더욱 향상된 머신러닝 기술을 제공하려고 합니다. 머신러닝은 환자의 입원 여부, 입원 기간을 예상하는 것은 물론 요로감염증, 폐렴, 심부전 등의 질병 치료이후 불구하고 건강이 악화되는지를 예측할 수 있는 수준까지 발전했다. 

머신러닝의 발전으로 인해 식별 정보가 제거된 의료 기록, 즉 개인 식별 정보가 제외된 기록에서 패턴을 찾아 다음 상황을 예측하고 그 상황이 일어나기 전에 환자에게 필요한 사항을 미리 준비할 수 있다. 

구글은 현재 UC 샌프란시스코, 스탠포드 약대, 시카고 대학 등 세계 최고의 연구원 및 생물연구학자들과 파트너십을 체결해 머신러닝과 임상 전문 지식으로 환자의 상태를 호전시키고 비용이 많이 발생하는 것을 피하면서 생명을 구할 수 있는 방법에 대해 연구하고 있다.  

의료계에서 머신러닝 활용은 매우 시급하다. 미국에서는 매년 의료관련 감염으로 인한 사망자 수가 99,000명, 의약품 사고로 인한 사상자는 770,000명이 넘으며, 예기치 않은 재입원으로 인한 비용이 170억 달러(한화 약 19조 910억)에 달하고 있다. 다른 국가의 상황도 마찬가지로 매년 전 세계에서 4천300만 명이 의료 과실로 인한 피해를 입고 있으며 대부분의 사고가 중진국과 후진국에서 발생하고 있다. 

구글은 의료 분야 데이터는 매우 복잡해서 해당 데이터의 유효성과 기술 개발을 하는 데만 1년이 걸렸으며, 앞으로 몇 개월에 걸쳐 연구결과가 엄격하게 진행되었는지 임상 심사가 이뤄질 예정이라고 밝혔다.   

또한, 구글은 기관마다 서로 다른 데이터 표시 방법을 일원화하고 있다. 병원마다 데이터를 기록하는 방식이 달라서 여러 병원의 통계를 모으는 일은 매우 어렵다. 게다가 데이터 호환성과 표준의 부재로 일일이 사람의 손이 필요해 많은 시간이 필요하다. 하지만 구글은 의료분야 오픈 데이터 표준(FHIR)을 기반으로 구글의 딥러닝 기술로 이 절차를 자동화할 수 있다는 것이다.

특히 이 연구과정에서 의료기관들은 환자 데이터를 공유하기 전에 개인정보 보호를 위해 환자의 식별 정보를 적절히 제거한 다음 구글 클라우드 인프라를 이용해 해당 환자 데이터를 HIPAA 개인정보 보호 규칙을 철저히 준수하고 있으며, 해당 환자기록은 구글의 사용자 데이터와 따로 분리해 보관되며 파트너십 연구 프로젝트에만 사용된다고 설명했다. 

[이강민 기자  kangmin@itnews.or.kr]