X-ABNI+α, 이를 융합 유기칩·MC·데이터 주권화 도전

- 4차 산업혁명을 주도할 15개 국가 R&D 프로젝트 제안 1

필자를 비롯한 국제미래학회 집필위원 20명이 서술한 <대한민국 4차 산업혁명 마스터플랜, 376페이지>이 광문각을 통해 2017년 12월 6일 발간되었다. 본 책은 우리나라가 추진해야 할 제4차 산업혁명을 17개 산업 군과 15개 국가 R&D 프로젝트를 도출하여 제안하고 있다. 이중 필자가 집필한 <대한민국 4차 산업혁명을 주도할 15개 국가 R&D 프로젝트 제안 세부 내용(215페이지~304페이지)>을 최근에 다시 업데이트하여 소개하고자 한다. 본 내용은 이중 첫 번째인 <지능정보사회 -> X-ABNI+α, 이를 융합한 유기칩 및 MC, 데이터의 주권화에 도전>에 관한 것이다.

목차                
1. 지능정보사회 – 국내외 기술/서비스 현황분석/진단                         
1-1. 국내외 기술/서비스 현황분석/진단                          
1-1-1. 음성 인식률 – 95%가 한계                              
1-1-2. 사진의 사물/얼굴 인식률 – 95%가 한계                      
1-1-3. 사진에 찍힌 사람의 감정 인식률 – 90%가 한계                  
1-1-4. 동영상 속의 사물 인식률 – 90%가 한계                      
1-1-5. 알파고의 한계 – 멀티태스킹 불가, 설명 불가, 1MW의 슈퍼컴퓨터          
1-1-6. IBM Watson & 뉴로모픽칩의 한계, 고체칩->유기체칩으로 전환          
1-1-7. 2017 AI지수(AI Index) 보고서- 아직 5살 어린이 지능에도 못 미친다           

1-2. (1) 99.5%의 X-ABNI+α, (2) 이를 융합한 X-ABNI+α의 유기칩+마이크로컴퓨터(MC), (3) 개인정보 은행/신탁에 도전                                  
1-2-1. 99.5%의 X-ABNI+α에 도전                              
1-2-2. Edge<->Cloud를 위한 X-ABNI+α칩 개발이 필요                
1-2-3. 저-전력의 X-ABNI+α의 유기칩에 도전                      
1-2-4. IoT/IoB를 위해 이를 융합한 마이크로컴퓨터(MC)에 도전                
1-2-5. 대한민국은 이제 스마트데이터 국가다                         
1-2-6. 네트워킹/디스플레이 컴퓨팅, 스마트 시티의 현실화                 
1-2-7. 개인정보의 주권화 및 활용촉진을 위한 개인정보 은행/신탁에 도전        

1-3. 기대효과 및 성과활용                                  
※ 참고문헌                              
           


1. 지능정보사회 -> 국내외 기술/서비스 현황분석/진단
    
1-1. 국내외 기술/서비스 현황분석/진단

현재 국내외 인공지능 수준은 2.0 세대로 음성/얼굴/사진/사물/감정 등 인식률은 90~95%의 수준이어서 실제 고객 맞춤식 서비스를 못하는 실정이며, 만약 5%가 실수를 했을 경우 고객이나 기업 입장에서 리스크(Risk)가 크므로 다양한 분야로의 대중화에 어려움이 있는 것으로 분석되고 있다. 2.0 세대의 인공지능 분석을 통해 3.0 세대의 새로운 기회를 찾아보자.

1-1-1. 음성 인식률 – 95%가 한계
미국 시장에서 아마존의 에코가 2014년 출시한 이래 2017년 Q3까지 누계 2,000만대가 팔렸으며(VoiceBot.ai, 27 Oct 2017), 포브지는 포리스터 리서치의 자료를 인용하면서 아마존의 에코가 2017년까지 누계 2,200만대가 팔릴 것으로 예상 보도했다(Forbes, 29 Oct 2017). 따라서 아마존과 구글이 미국 AI 스피커 시장의 94%를 장악한 가운데 아마존 에코의 점유율은 69%, 구글 홈이 25%, 기타가 6% 라고 보이스보트가 미국의 공영방송 NPR과 에디슨리서치(Edison Research)의 미국 내 '스마트 오디오 리포트(Dec 2017)' 보고서를 인용하여 보도했다(VoiceBot.ai, 10 Jan 2018). 구글은 이를 만회하고자 라스베가스에서 열린 2018 CES에 처음으로 참가하여 ‘Hey Google’을 적극 홍보하기도 했다.   

▲ 아마존의 에코와 구글의 홈. Image: Amazon &amp;amp; Google

‘17년 미국 CES와 독일 IFA에서 대단히 인기를 끌었던 아마존(Amazon)의 알렉사(Alexa)가 탑재된 스마트 스피커인 에코(Echo)를 분석한 결과 단점은 다음과 같다. (1) 음성인식률 95%가 한계이다. (2) 고객이 누구인지 신원(이름)을 인식하지 못한다. 따라서 일반적으로 누구나 대화가 가능해, TV에서 나오는 광고의 소리를 듣고 주문하기도 한다. 애플의 시리도 TV 아나운서의 말에 대답한다. (3) 한 번에 한 사람만 인식하고 대화함으로 인간처럼 멀티 사용자와 멀티-대화가 불가능하다. 여러 사람의 멀티-웃음도 감지하지 못한다. (4) 인간은 오감으로 사람의 음성을 인식하지만, 오로지 일반 음성모델로 인식한다. (5) 인간처럼 실제적인 얼굴 표정 등 감정을 인식/표현하지 못하고 멀티태스킹이 불가능 하다. (6) 항상 켜져 있어야 함으로 보안/해킹에 취약하다.

KT의 기가지니(GiGA Genie), SKT의 누구(NuGu), 네이버의 웨이브(Wave)와 그다음 버전인 프렌즈(Friends), 카카오의 카카오미니(KaKaOmini), 삼성전자의 빅스비(Bixby)도 마찬가지 실정이며 스마트 데이터가 부족해 인식률이 에코(Echo)보다 낮다. 
Google은 ‘17년 4월에 6명의 신원(이름)을 인식하는 구글 홈을 선보였으나 두 번의 반복적인 “OK Google”과 “Hey Google”로 학습시켜 뉴럴 네트워크가 본인의 음성을 인식하지만, 그 대신 스마트기기의 모든 데이터(예, 일정/전화번호 등)를 오픈해야 한다. 따라서 음성 인식률에 데이터를 추적하여 초기의 고객 맞춤식 서비스를 하고 있어 아마존의 에코와 차별화는 있으나, (1) 6명의 멀티 사용자들(multiple users)과 동시에 대화할 수 없고, (2) 기타 아마존의 에코와 같은 단점들이 그대로 남아 있다.

1-1-2. 사진의 사물/얼굴 인식률 – 95%가 한계
Google은 ‘15년 5월 28일에 사진의 사물과 얼굴들을 자동으로 분류하여 서비스하는 구글 포토(Google Photos)를 선보였으나, 한 달 만에 잭키 앨신(Jacky Alcine)의 여자 친구를 고릴라(Gorillas)로 분류하는 실수를 했다. 이에 대해 잭키 앨신은 ’15년 6월 28일에 "Google Photos, y'all fucked up. My friend's not a gorilla'이라는 트윗을 했다. 이에 대해 구글 플러스의 수석 설계자인 조너선 정거(Jonathan Junger)는 피부색이 짙은 얼굴에 대한 자동 인식 알고리즘과 태깅 시스템을 개선하겠다고 밝히고 "머신 러닝은 힘든 일"이라고 말했다(연합뉴스/조선일보, 2 Jul 2015). 이는 페이스북도 마찬가지로 검은색(사람과 원숭이 구별)과 노랑색(빵과 고양이 구별) 등 특정 색을 달 구분하지 못한다. 반면 인간은 시각뿐 아니라 기타 감각으로 사람과 동물과 객체의 색을 구별한다.

▲ 잭키 앨신의 트위(&rsquo;15년 6월 28일). Image: 연합뉴스/조선일보(2 Jul 2015)

1-1-3. 사진에 찍힌 사람의 감정 인식률 – 90%가 한계
마이크로소프트사는 ‘15년 11월에 사진에 담긴 사람의 8가지 감정을 수치로 나타내는 서비스를 개발했다. 분노, 경멸, 불쾌, 공포, 행복, 무관심, 슬픔, 놀라움 등 8가지 감정이 수치화돼 표시되나 아직은 8가지를 다 인식하지 못한다. 특정 감정 인식률은 90% 정도이다. 구글은 ’15년 12월에 클라우드 비전 API를 공개했으나 감정을 정확하게 인식하지 못한다. 사람은 눈을 보고 기쁨과 놀라움을 금방 인식하지만 2.0 세대의 의 인공지능은 아직 인간을 따라오지 못하고 있다.

▲ MS의 옥스포드 프로젝트. Image: projectoxford.ai

1-1-4. 동영상 속의 사물 인식률 – 90%가 한계
구글은 ‘14년에 자동영상 사물인식(Automatic Large Scale Video Object Recognition, 8,792,732, 29 Jul 2014)이라는 특허를 미국 특허청에 등록하고, ’17년 3월에 이를 바탕으로 클라우드 비디오 지능(Cloud Video Intelligence)이라는 서비스를 출시했다. 이는 비디오의 문맥인식/라벨인식(Labels)과 사진 이미지(Shots)를 인식하는 인공지능 서비스로, 실제 분석한 결과 라벨인식(Zoo)은 91%, 샷 인식은(Tiger) 90% 정도의 수준이다. 이는 특허와 현실사이에 괴리가 있다는 것을 시사하는 것이다.  

▲ 구글의 샷 인식은(Tiger) 90%로 수준이 낮음. Image: Google

1-1-5. 알파고의 한계 – 멀티태스킹 불가, 설명 불가, 1MW의 슈퍼컴퓨터
구글은 ‘16년 3월에 알파고 리(Alphago Lee)를 선보이며 이세돌 9단을 상대로 4:1로 승리했다. 하지만 단점은 인공지능 2.0 세대라 바둑밖에 두지 못한다는 것이다. 다시 말해 모노태스킹만 하지 이세돌처럼 멀티태스킹(바둑, 커피, 담배, 감정표현 등)을 하지 못했다는 것이다. 

또 다른 구글 알파고의 한계는 왜 그렇게 추론하고 판단했는지, 왜 이겼는지 설명(Explainable)을 안 해준다는 것이다. 지금 2.0 세대의 인공지능들은 모두 왜 그러한 추론•판단으로 결정했는지, 어떠한 논거를 바탕으로 이겼는지 논리적으로 설명하지 못해 활용 범위가 제약되고 있다는 한계가 있다. 인공지능과 인간과 협력해야하는 공존공생(Symbiosis)의 방향에서 이는 커다란 난제이다. 인간이 인공지능의 추론과 판단을 이해하고, 인공지능은 인간을 이해해야 공존공생의 협력이 가능하다.

따라서 현재의 인공지능 2.0 세대에 설명 가능한 모델을 넣어야 하고 프로그램 언어와 사용자의 언어가 상호 인터페이스 되어야 하며 사용자의 심리학적 수준(어린이, 중고생, 대학생, 전문가 등)에 맞추어 설명을 해주어야 한다. 예를 들어 미국 국방과학연구소(DARPA)는 2016년에 설명 가능한 인공지능(Explainable Artificial Intelligence, XAI)을 개발하자고 제안하고(David Gunning, 11 Aug 2016), 2017년 7월부터 7,000만 달러(약 840억 원)를 XAI에 개발에 2021년까지 개발한다는 목표를 갖고 추진하고 있다.

▲ 미국 국방과학연구소(DARPA)가 2017년 7월부터 추진하고 있는 설명 가능한(Explainable, X) XAI(Explainable Artificial Intelligence) 프로젝트(7,000만 달러=약 790억 원 투입). Image: DARPA

▲ 2016년 3월 9일 이세돌과 알파고 리의 대국 장면 재구성. Image와 와트비교: Business Insider(2016.03.09)와 Jacques Mattheij(2016.03.17)

또 다른 구글 알파고의 한계는 에너지 소비인데, 이세돌과 격돌한 알파고 리(AlphaGo Lee)의 전력소모는 슈퍼컴퓨터와 맘먹는 1MW를 소비했다. Alphago Lee에는 1,202대의 CPUs, 176대의 GPUs가 연결된 클라우드 컴퓨터(48 TPUs)로 오퍼레이팅되는데 무려 1MW의 전력을 소비하는 슈퍼컴퓨터이다. 따라서 일반인들에게 상용화할 수 없다는 문제를 안고 있다. ’17년 5월에 중국에서 선보인 커제(Ke Jie)와 대결한 알파고 마스터(Alphago Master)는 4 TPUs(11.5Pflops)로  Alphago Lee의 1/10인 0.1MW를 소비했는데, 이는 아직도 전력을 많이 소비한 것이다. 반면, 정확히 비교할 수 없지만,  한국의 이세돌과 중국의 커제는 20W만 소비했다(Business Insider, ‘16.03.09; Jacques Mattheij, ‘16.03.17). 따라서 슈퍼컴퓨터에 내장된 고체칩을 인간의 뉴런과 시냅스 같은 유기체칩으로 전환해야 하는데, 아직은 알파고가 저-전력의 인간의 두뇌를 따라오기란 쉽지 않음을 알 수 있다.  

1-1-6. IBM Watson & 뉴로모픽칩의 한계 – 고체칩을 유기체칩으로 전환해야
IBM이 ‘12년에 선보인 왓슨(Watson for Oncology)은 대장암 등 암 분야 스마트 데이터를 바탕으로 ’15년에는 특히 유방암 진단 정확도를 91~100%까지 끌어올렸다(asco.org, ‘15). 현재 가천의대 길병원을 비롯해 6개 병원이 도입해 운영 중이다. 하지만 (1) 데이터가 전부 미국인의 데이터라는 점이어서, 한국인의 데이터를 추가로 구축해야 한다는 단점이 있다. 왓슨은 전 세계 300여 종의 암 저널과 200여 의학 교과서, 1550만 페이지의 의료정보 및 치료 자료를 실시간으로 검색하고 분석해 특정 환자에 대한 치료법을 8초 만에 '추천' '추천 고려' '비추천'으로 제시하는 시스템이다. 

가천대 길병원은 2017년 12월, 왓슨 도입 1주년을 기념하는 심포지엄을 열고 대장암(결장암) 환자 118명에 대해 왓슨이 '추천'한 치료법과 의료진 의견이 55.9% 일치하는 등 왓슨과 의료진의 의견 일치율이 향상됐다고 발표했다. 도입 당시 일치율 48.9%에 비해 7%포인트 높아졌다는 것이다. 그러나 뒤집어 보면 44%는 의견이 일치하지 않았다는 것을 의미한다. 길병원은 이에 앞서 2017년 10월 미국임상종양학회(asco.org, 2017)에 왓슨의 진행성 위암에 대한 일치율이 '추천'뿐 아니라 '고려'까지 포함해도 49%에 불과하다고 보고한 바 있다. 한국에서 일치율이 낮은 가장 큰 이유는 인종적 특성 때문이다. 한국인을 비롯한 동양인과 서양인은 암 발병 원인이 다르고, 항암제에 대한 반응도 차이가 있다. 그러나 암 관련 최신 연구는 대개 미국이나 유럽에서 진행되며, 한국인의 인종적 특성이 인공지능에 충분히 반영되기 어려워 왓슨을 그대로 한국에 적용하는 데는 한계가 있다는 것이다. 

길병원 인공지능 정밀의료 추진단 이언(신경외과) 단장은 "왓슨을 이용한 암 치료법의 결정은 여러 과 전문의가 모여서 함께 의견을 모아가는 방식으로 이뤄지며, 왓슨도 하나의 의견일 뿐"이라며 "인간 의사와 인공지능 의사의 대결로 비춰지는 면이 있지만, 왓슨은 인간의 실수를 줄이는 데 보조적으로만 쓰이므로 환상은 금물"이라고 말했다. '의학의 미래'로 칭송받던 왓슨의 굴욕을 보는 순간이다(조선일보, 11 Jan 2018).

또한 (2) 왓슨에 사용되는 반도체칩이 고체칩이어서, 두뇌가 가지고 있는 뉴런과 시냅스 등과 생체호환이 안 된다는 단점을 갖고 있다. 현재 개발되고 있는 뉴로모픽칩도 한계가 있다. 인간 두뇌의 뉴런과 시냅스를 모방하는 뉴로모픽 컴퓨팅(Neuromorphic Computing)에 사용되는 뉴로모픽칩에 IBM과 Intel 등이 도전하고 있다. IBM은 ‘08년부터 개발하기 시작하여, ’14년에 트루노스(TrueNotrh)라는 뉴로모픽칩을 개발하고, ‘15년에는 인간 두뇌의 1,000억 개로 추정되는 뉴런 중 4,800만개의 고체로 만들어진 뉴런칩을 집적시켰고(0.00048% 모방), 1,000조개로 추정되는 시냅스 중 130억 개의 고체로 만들어진 시냅스칩을 집적시켰다(0.000012% 모방). 

인텔은 ’17년 9월 25일에 인공지능 테스트칩인 로이히(Loihi)를 개발하고 있다고 발표했다. 13만개 뉴런과 1억3천만 개의 시냅스로 구성되어 있다. 하지만 문제는 (1) 고체칩이어서 인간의 유기체로 이루어진 뉴런과 시냅스들을 모방한 것이라 볼 수 없다. 따라서 세포나 뉴런과 시냅스와 호환되고 동시에 저-전력의 유기체 칩에 도전해야 한다. 또 하나의 문제는 (2) 인간의 두뇌에는 뉴런과 시냅스의 신경세포가 30%이고 나머지는 성상세포(신경교, 별세포, glia or astrocytes) 등의 비신경세포가 70%라는 점이어서(Schummers & Sur et al., 2008), 이를 모방하기란 아직 갈 길이 멀다는 것이다. 

▲ IBM과 인텔이 각각 개발하고 있는 고체칩의 뉴로모픽칩. Image: IBM / Intel

현재 유기체칩에 도전하고 있는 스탠포드대는 ‘17년 2월에 "뉴로모픽 컴퓨팅을 위한 저-전압 인공 시냅스의 비-휘발성 유기 전기화학 디바이스”라는 논문을 발표하기도 했다(van de Burgt et al., Nature Materials, 20 Feb 2017). 우리나라도 유기체칩에 도전해야 한다.

1-1-7. 2017 AI지수(AI Index) 보고서- 아직 5살 어린이 지능에도 못 미친다 
MIT, 스탠포드대, 오픈AI 등 미국 대학•연구소 연구진이 소속된 AI지수(AI Index – https://aiindex.org/)가 2017년 11월 30일 공개한 '2017 AI지수(AI Index) 보고서'는 "AI는 아주 좁은 분야에선 인간보다 뛰어난 면모를 보이지만 일반 지능(general intelligence)의 관점에선 아직 한계가 뚜렷하다"며 이같이 밝혔다. 다시 말해 Mono(예, 바둑)는 잘 하는데 Multi-Tasking은 아직 5살 어린이 지능에도 못 미친다는 것이다(중앙일보, 04 Dec 2017; Stanford, 30 Nov 2017; AI Index, 30 Nov 2017). 결론적으로 지금의 인공지능은 이제 5살 수준으로 한참 가야한다는 것으로, 다음에 제안하는 X-ABNI+α에 우리나라가 도전한다면 10년 내에 인공지능을 넘어 생물지능•감성지능•자연지능의 강대국이 될 수 있다.

▲ 2017 AI지수(AI Index). Image: https://aiindex.org/

1-2. (1) 99.5%의 X-ABNI+α, (2) 이를 융합한 X-ABNI+α베이스의 유기칩+마이크로컴퓨터(MC), (3) 개인정보 은행/신탁에 도전

1-2-1. 99.5%의 X-ABNI+α에 도전
지금까지 살펴본 ‘국내외 기술/서비스 현황분석/진단’을 종합해보면, 지금의 인공지능 2.0 세대의 한계는 인식률이 최대 95%인데, 이를 99.95% 수준 이상으로 높이는 방법과 알고리즘과 모델을 찾아야 하고, 왜 그렇게 추론하고 판단했는지 설명을 해주어야 인간이 활용할 수 있다는 점이다. 그것이 바로 우리나라가 도전해야 하는 3.0 세대의 ‘99.5%의 설명 가능한(Explainable) X-AI+BI(생물지능/감성지능)+NI(자연지능)+α(추가연구)’이다. 이를 통해 3.0 세대를 구현한다면 구글/페이스북/IBM 등을 능가해 10년 이내에 인공지능을 뛰어넘는 강대국이 될 수 있다. 다음은 이를 위해 우리나라가 도전해 융합해야하는 과제들이다.

(1) 한글 자연어 처리 및 데이터 표준화+α – 우선해야 할 것이 한글의 표준화 및 정제를 통해 무수히 많은 말뭉치(Corpus)의 스마트 데이터를 구축해야한다.

(2) 정밀의료를 위한 한국인의 인종적 특성 데이터 표준화+α – 왓슨에서 지적했듯이 왓슨의 단점을 보완하려면 한국인의 인종적 특성 데이터를 확보하고 표준화해야 한다. 한국인을 비롯한 동양인과 서양인은 암 발병 원인이 다르고, 항암제에 대한 반응도 차이가 있기 때문이다. 

(3) 한글운율을 리듬/박자로 코딩+α – 모든 전 세계 7,000의 언어에는 운율(리듬/박자)이 있다. 충남대 정원수 교수에 따르면 그 중 한글에 가장 아름다운 운율이 있다고 한다(월간조선, ‘17년 11월호). 운율을 음표(콩나물 대가리)로 나타내면 전 세계 언어를 번역할 수 있다. 그리고 이를 인공지능 3.0 세대에 활용할 수 있다.

(4) SNN & JNN & GAN+α – 인간의 뇌는 지금의 컴퓨팅처럼 선형/순차(Linear/Serial)나 병렬방식(Parallel)이 아닌 다층적인(Multi-layered) 가소성(Plasticity)이 있어, 뉴런에 불을 붙일 때 고장 난 100개를 우회하거나 점핑할 수도 있고, 과거에는 고장 났지만 다른 기억을 회상할 때에는 다시 살아나 불을 붙일 수 있다. 이러한 신경망을 JNN(Jumping Neural Network) 혹은 SNN(Spiking Neural Network)라고 한다. 따라서 다층적인 가소성의 메커니즘과 JNN or SNN의 메커니즘을 연구하여 3.0 세대에 융합해야 한다. 또한 사람이 직접 인공지능을 지도학습(Supervised Learning) 해 줄 필요가 없이, 서로 다른 인공지능(AI)이 상호 경쟁을 통해 상호 성능을 개선하는 방법인 생성적 적대 신경망(Generative Adversarial Networks•GAN)도 연구하고 또 다른 +α도 지속적으로 연구해서 융합해야한다. 

(5) 설명할 수 있는 X-AI+BI+NI+α  – 앞에서 지적했지만 인간이 인공지능의 추론과 판단을 이해하고, 인공지능은 인간을 이해해야 공존공생의 협력이 가능하다. 따라서 현재의 인공지능 2.0 세대에 설명 가능한 모델을 넣어야 하고 프로그램 언어와 사용자의 언어가 상호 인터페이스 되어야 하며 사용자의 심리학적 수준에 맞추어 맞춤식 설명을 해주어야 한다. 우리는 이보다 훨씬 업데이트된 설명 가능한 X-AI+BI+NI+α를 개발한다면 게임은 끝나는 것이다. 

▲ 차원용/국제미래학회, 99.5%의 X-AI+BI+NI+&alpha;에 도전하는 방안

(6) 생물지능(BI, Biology Intelligence)/감성지능(Emotional Intelligence)의 융합+α – 30%의 뉴런과 시냅스로 이루어진 신경세포 이외에 성상세포 등으로 이루어진 70%의 비신경세포로 이루어진 인간의 두뇌를 따라오기란 그리 쉽지 않다. 따라서 신경세포와 비신경세포의 메커니즘을 밝혀 인공지능 3.0에 융합해야 단다. 더 나아가 유전자, 유전자가 생산하는 단백질, 히스톤(Histone) 변형 등의 후성유전체(Epigenome), 신진대사, 환경 등에 따라 항상성(Homeostasis)과 의사결정이 바뀌는 메커니즘도 밝혀 융합해야 한다. 인간의 뇌는 이러한 여러 변수들에 따라 물리적인 구조를 자유롭게 바꿔가며(정신물리학적 모델과 생물물리학적 모델 등) 정보를 입력하기 때문에, 지금의 신경망 알고리즘에 한 차원 높은 다른 알고리즘들이 융합되어야 한다. 이외에 인간의 오감 작동 메커니즘(감각지능), 감성표현 메커니즘(감성지능), 감정표현 메커니즘(감정지능)을 연구하고 더 나아가 인간의 언어유전자인 FOXP2의 메커니즘도 연구하여 융합시켜야 한다.  

(7) 자연지능(NI, Natural Intelligence)의 융합+α – 기타 생물/식물/동물/어류 등이 갖고 있는 자연지능도 밝혀 3.0에 융합해야 한다. 이를 생체모방기술(Biomimetics or Biomimicry)이라고 한다.  

(8) 시공간에 99.5%의 X-AI+BI+NI+α의 매핑 – 제4차 산업혁명을 주도하고 있는 기술들을 시간-공간-인간의 매트릭스로 표시해보자. 우선 시간-공간-인간이 융합되는 가운데에는 빅 데이터(BD)에서 표준화되고 정제된 스마트데이터(SD) 베이스의 인공지능(AI), 우리 인간의 몸과 두뇌의 생체지능(BI), 자연이 갖고 있는 자연지능(NI), 여기에 +α의 무엇이 융합되는 지능이 매핑된다. 

아무리 좋은 인공지능도 소프트웨어도 스마트데이터가 없으면 무용지물이다(물론 예외도 있다, 예를 들면 알파고 제로). 그래서 나머지 매핑된 제4차 산업혁명을 주도하고 있는 기술들인 O2O-AR/VR-IoT-자율차-로봇-드론-생체인터넷(웨어러블)-두뇌인터넷-게놈-정밀의료-크리스퍼/카스9도 스마트데이터를 획득하고자 난리인 것이다. 그리고 획득한 스마트데이터와 각종 지능이 도출한 지식의 패턴/추론/예측을 시간의 클라우드와 스토리지에 저장해서, 관련 고객들과 각종 기기들에 푸시 다운(Push down) 할 수 있도록 해야 한다. 그리고 이 과정은 리얼타임으로 반복하면서 선-순환되어야 더욱 가치 있는 부를 창출하는 것이다. 

▲ 차원용/국제미래학회, 시간-공간-인간의 매트릭스에 SD베이스의 X-ABNI+&alpha;의 매핑. Image: 창조경제연구회/ 차원용

1-2-2. Edge<->Cloud를 위한 X-ABNI+α칩 개발이 필요
그런데 한 가지 문제가 있다. X-ABNI+α의 인공지능을 개발하는 것도 시급하지만, X-ABNI+α를 기존 APU칩에 융합해야 한다. 기존 APU는 한 번에 하나씩 순차적으로 정형화된 데이터를 빠르게 처리했지만, 인공지능 칩은 기기(Edge) 내의 이미지처리, 음성인식 등 다양한 비정형화 데이터를 빠르게 처리할 수 있기 때문이다. 현재 아마존의 에코를 비롯 구글의 홈 등 AI 스퍼커들은 AI 스피커에 입력된 음성을 클라우드(Cloud)로 보내 답변을 찾은 뒤(이를 Edge to Cloud라 함) 다시 스피커로 전송하는 방식을 채택하고 있어(이를 Cloud to Edge라 함), 그 결과 음성인식 AI 비서가 사람의 말을 알아듣는 데 시간이 걸린다. 이러한 문제를 해결하기 위해 등장한 것이 AI칩이다. AI칩이 발전할수록 기기 자체에서 처리할 수 있는 데이터 량이 늘면서 데이터 처리 속도가 빨라져 사용자의 서비스 만족도도 늘어나는 셈이다. 

이러한 개념은 많은 자동차/드론 관련 컨설팅 업체들의 최근 동향을 보면 파악할 수 있는데, 그것은 ‘클라우드에서 온프레미스로 이동한다(the shift is moving back from the cloud to on premise)’는 것이다. 이때 ‘on-prem’이란 부분적으로 자동차나 드론을 말하는데, 좀 더 구체적으로 얘기하면 디바이스 자체인 기기(Edge)를 말하는 것이다. 이를 가장 빨리 이해한 기업은 A16Z인데, 이들은 ‘클라우드 컴퓨팅의 종말(The End of Cloud Computing)’(a16z.com, 16 Dec 2016)이란 프리젠테이션에서, “하늘에 있는 클라우드는 종말이 오고, 바퀴와 날개를 가진 셀프-드라이빙 카나 드론 자체가 데이터 센터가 된다는 것(where self-driving cars and drones are really data centers with wheels or wings)”이다. 

이 개념의 출처는 아마존(Amazon)이 비밀리에 개발하고 있는 자율차 개발 프로젝트인 코드명 보그(Borg)에서 나온 것으로 보인다(Humanizing Tech, 12 Jan 2017). 코드명 보그란 무엇인가? 바로 영화 ‘스타 트렉(Star Trek)’에 등장하는 보그이다. 아마존의 CEO 제프 베조스(Jeff Bezos)는 스타 트랙 재방송을 빠짐없이 챙겨볼 정도로 스타트랙 광팬이었다고 한다. 아마존 설립 당시에 스타 트랙에 나오는 장 뤽 피카드(Jean-Luc Picard) 선장의 대사를 인용해 회사명을 Amazon MakeItSo.com 으로 검토했을 정도다. 스타 트렉에 등장하는 보그는 인공지능으로 제어되는 집단의식(AI-controlled collective consciousness)을 이용해 보다 빠르게 보다 낫게 의사결정을 한다. 다시 말해 기업들이 최상의 방법으로 공유할 수 있는 그룹사고(groupthink)이다. V2V/V2I/V2P가 되든 V2X가 되려면 모든 자율차나 자율트럭들이 센서 데이터나 매핑 데이터베이스의 인공지능 알고리즘으로 리얼타임으로 학습하고 리얼타임으로 공유해야 하는데, 바로 아마존이 이것을 개발하는 것이다. 

예를 들어 20대의 자율차 혹은 20대의 드론이 광화문을 주행/비행한다고 하자. 그런데 광화문이 갑자기 테러집단에 의해 공격을 받고 있는 상황이다. 테러집단들이 제일먼저 하는 것은 광화문 일대의 통신을 마비시키는 것이다. 따라서 이미 클라우드로 데이터도 보낼 수 없는 상황이다. 이럴 경우 20대의 자율차와 드론들이 별도의 특별 통신, 예를 들면 레이저 통신을 통해 협력하여 최적의 판단/결정을 내려 테러집단을 물리친 후 사후에 클라우드로 보내면 클라우드는 하늘에서 전체 글로벌 데이터를 수집해 글로벌로 어느 지역에서 테러가 일어나고 있고 일어났다는 사실을 알게 되는 것이다. 

이것이 바로 AI칩 베이스의 기기(Edge)에서 우선 판단을 하고 차후에 클라우드에 알려 부분과 전체를 파악하는 Edge<->Cloud의 개념이다. 물론 필자가 보기엔 클라우드의 종말이 아니라 디바이스 자체가 데이터 센터이므로 당분간은 양립하고 협력하는 하이브리드 형태로 갈 것으로 보인다(차원용, DigiEco, 13 Feb 2017; IT News, 16 Mar 2017).

1-2-3. 이를 융합한 저-전력의 X-ABNI+α의 유기칩에 도전
Low Powered X-AI+BI+NI+α embedded in One Organic Chip – 지금 인공지능 2.0 세대의 최대 걸림돌은 아날로그적인 하드웨어이다. 왜냐하면 칩이 모두 고체칩이기 때문이다. 아무리 알고리즘이 좋다한들 고체칩에서 돌아가기 때문에 전력이 많이 소비되고 비효율적이다. 따라서 뉴런과 시냅스와 호환되는 저-전력 베이스의, X-AI+BI+NI+α가 내장된 유기체칩을 개발해야 한다. 이를 위해 CPU, GPU, NPU, TPU, BPU, 센서, 통신칩셋, 메모리, 배터리+α 등으로 구성된 AP에 개발한 3.0세대의 X-ABNI+α을 융합해서 유기체칩을 개발해야 한다. 

▲ Qualcomm Zeroth NPU. Image source: Qualcomm   

퀄컴(Qualcomm)이 2013년 10월부터 개발하기 시작한 인간의 Spiking Neural Networks(SNN)를 모방한 제로스(Zeroth) 불리는 Neural Processing Unit(NPU)가 탑재된 스냅드래곤(Snapdragon) 820을 ’17년 7월에 일반에게 공개한 것을(The Verge, 25 Jul 2017) 벤치마킹하여, 우리나라는 퀄컴보다 더욱 강력한 X-ABNI+α를 통합한다면, X-ABNI+α가 탑재된 강력한 유기체 반도체 칩을 확보하게 될 것이다. 


▲ 애플이 설계한 A11 바이오닉(Apple A11 Bionic)에는 뉴럴 엔진이 적용된 AI칩셋이 장착. Image: Apple
애플이 설계한 A11 바이오닉(Apple A11 Bionic)은 64비트 시스템 온 칩(SoC)이다. 2017년에 출시한 아이폰 8, 아이폰 8 플러스, 아이폰X에는 대만의 TSMC가 10나노 공정으로 제조된 A11 바이오닉 프로세서가 탑재되었다. A11 바이오닉에는 뉴럴 엔진이 적용된 AI칩셋이 장착됐다. 뉴럴 엔진은 초고속 프로세싱을 돕는 듀얼 코어 설계로 되어 있으며, 실시간 프로세싱을 위해 초당 최대 6천억 번의 작업을 수행한다. 이 엔진은 애플이 새롭게 선보이는 얼굴인식인 페이스ID를 이용한 3D 애니모지(Animoji)를 사용할 수 있게 돕고 추후 제작되는 증강현실 앱을 원활하게 쓸 수 있도록 한다(Appleinsider, 23 Sep 2017).


▲ 삼성전자의 엑시노스9은 신경망(Neural Network)을 기반으로 한 딥러닝 기능과 보안성을 강화한 것이 특징. Image: 삼성전자
삼성전자는 초고속 모뎀을 탑재하고 인공지능(AI) 연산 기능을 강화한 고성능 모바일 애플리케이션 프로세서(AP) ‘엑시노스9’의 양산을 시작한다고 2018년 1월 4일 밝혔다(조선일보, 04 Jan 2018). 엑시노스9은 삼성전자가 2018년  2월 모바일월드콩그레스(MWC)에서 공개할 예정인 ‘갤럭시S9’에 탑재될 AP다. 2세대 10나노 핀펫 공정을 기반으로 삼성전자가 독자 개발한 3세대 중 처리장치(CPU) 코어와 업계 최고 수준의 롱텀에볼루션(LTE) 모뎀을 탑재했다. 

엑시노스9은 신경망(Neural Network)을 기반으로 한 딥러닝 기능과 보안성을 강화한 것이 특징이다. 이를 통해 기기에 저장된 이미지들을 스스로 빠르고 정확하게 인식하고 분류할 수 있어, 스마트기기 사용자들이 더욱 쉽고 빠르게 원하는 이미지를 찾을 수 있다. 또한 3차원(3D) 스캐닝을 통한 정확한 안면인식이 가능하다. 별도의 보안 전용 프로세싱 유닛(Unit)을 통해 안면, 홍채, 지문 정보를 안전하게 관리할 수 있다. 또한 현재의 구조에서는 인공지능 서비스를 이용하기 위해서는 통신 인프라가 잘 갖춰진 곳에서만 가능했다. 하지만 AI칩이 적용될 경우 다소 느린 전송속도의 통신환경에서도 빅스비와 같은 AI 비서 서비스를 활용할 수 있게 된다.

삼성전자가 4차 산업혁명 시대를 대비하기 위해 하드웨어(HW), 소프트웨어(SW) 구분을 넘어 '데이터 회사'로 가겠다는 지향점을 밝혔다(매일경제, 12 Oct 2017). 20세기가 석유 자원으로 산업혁명이 발생했다면 미래는 데이터가 새로운 석유(Data is new oil)가 돼 신산업혁명의 원동력이 될 것이라는 게 삼성의 판단이다. 손영권 삼성전자 사장(최고전략책임자•CSO)은 2017년 10월 11일 미국 샌프란시스코 예술의 궁전에서 개최한 '삼성 CEO 서밋'에서 "삼성은 이제 데이터 회사다”라고 선언했는데, 이게 바로 AI칩을 넘어 X-ABNI+α칩으로 가자는 얘기이다.

1-2-4. IoT/IoB를 위해 이를 융합한 마이크로컴퓨터(MC)에 도전    
그다음 차세대 IoT/IoB(Internet of Biosignal/Bioenergy) 플랫폼 시장을 위한 가로-세로-높이 1mm3의 자율적으로 판단하고 설명할 수 있는 초소형 마이크로 컴퓨터(Micro Computer)와 플랫폼에 도전해야 한다. 

▲ 미시건대학이 개발한 1mm3의 마이크로컴퓨터. Image: University of Michigan(17 Mar 2015)

2015년에 미시건대학교가 10년 동안 개발한 쌀 한 톨 크기의, 부피 1mm3 규모의 세계에서 가장 작은 초소형 컴퓨터인 Michigan Micro Mote(M3)를 개발했다(University of Michigan 17 Mar 2015). M3는 5센트 동전 테두리에 세울 수 있을 정도로 작지만 동작/모션 감지, 혈액감지, 혈관 막힘 감지, 당뇨수준감지, 생체이미징, 먹는 내시경, 사진기, 온도계, 혈압측정기, 압력, 기후, 에너지관리, 공기 및 물 관리, 교통, 동물관리, 안전, 기계작동, 스마트홈, 스마트카, 스마트학교 등 다양한 IoT/IoB 역할을 할 수 있다. 

M3는 몇 개 층의 칩으로 이루어져 있는데, 앞 층은 센서들이고, 그 다음 층은 라디오 칩이고 가운데 층은 마이크로프로세서와 메모리이며, 뒤 층은 태양전지 배터리로 이루어져 있다. 우리나라는 이보다 더 초소형에 X-ABNI+α를 융합한 유기체 반도체칩을 개발해 Micro Computer에 융합한다면 글로벌 IoT/IoB 시장을 주도할 수 있다.

▲ X-ABNI+&alpha;베이스 지능형 유기 반도체칩 산업의 향후 10년의 융합 프레임워크. Image: 차원용

따라서 X-ABNI+α베이스의 유기 반도체칩과 마이크로 컴퓨터(MC) 개발 로드맵을 보면 다음과 같다. 2020년까지 X-ABI 개발, 2024년까지 X-ABNI+α가 탑재된 유기 반도체칩의 개발, 그리고2027년까지 이 모든 것들이 융합된 가로-세로-높이 1mm3 이하의 자율적으로 판단하고 설명하는 초소형 Micro Computer를 개발해 성공한다면, 우리나라는 20년 동안 온 국민이 먹을 수 있는 제4차 산업혁명을 주도하는 국가로 우뚝 서게 될 것이다. 

▲ X-ABNI+&alpha;베이스 지능형 유기 반도체칩+마이크로 컴퓨터(MC) 개발 로드맵. Image: 차원용

1-2-5. 대한민국은 이제 스마트데이터 국가다 
우리나라에는 건강보험 등의 공공데이터가 상당히 많이 존재하지만 공공데이터의 대부분은 정제되고 표준화되지 않은 쓰레기 데이터인 빅데이터로 아무쓸모가 없다. 빨리 민간에 공개해서 이를 정제되고 표준화된 스마트데이터로 전환해야 한다. 스마트데이터란 시스템 상에서 포맷이 같고 6H로 정리된 데이터를 말하는데 특히 개인/고객의 감정데이터가 있어야 한다. 페이스북이 처음엔 ‘좋아요’에서 ‘최고예요-웃겨요-멋져요-슬퍼요-화나요’ 등을 추가한 이유가 바로 여기에 있다. 또한 표정인식 알고리즘도 개발하고 있는 것으로 알려졌다.

자 이번에는 스마트폰의 개인데이터인, 예를 들어 삼성전자의 갤럭시 시리즈와 노트 시리즈 기기들을 살펴보자. 

삼성전자는 2011년 1월에 구글과 ‘모바일 앱 유통 계약(Mobile Application Distribution Agreement, MADA)’에 따라 구글이 개발한 구글 검색 등 핵심 앱을 홈 화면 전면에 배치하고(이를 Phone Top Search라 함), 기타 구글 맵, Gmail, 구글 캘린더 등의 전략적 앱들을 그 아래에 배치하며, 기타 구글 Earth/뉴스/날씨 등의 선택적 앱들을 제외한 모든 앱들을 포함하는 안드로이드 플랫폼을 갤럭시 시리즈와 노트 시리즈 기기에 탑재한다는 계약을 했다(Ars Technica & Android Authority, 13 Feb 2014). 

삼성전자뿐만이 아니라 대부분의 안드로이드 플랫폼을 탑재하는 LG전자나 대만의 HTC 등도 같은 조건의 계약을 구글과 체결했다. 그 결과 고객들이 사용하는 구글이 만든 앱들의 데이터는 이들 제조사들의 서버나 기기에 남는 것이 아니라, 모두 구글의 클라우드로 간다. 그래서 구글이 우리나라뿐만 아니라 전 세계의 데이터를 쓸어 모은다고 얘기하는 것이다. 설사 구글이 개발하지 않은 많은 앱들도 조차 구글의 검색 엔진/지도/위치 정보 등을 이용해 사용자들의 데이터를 가져가는 것이다. 

또 다른 관점에서 안드로이드는 무료인 오픈 소스이나 구글 플랫폼, 구글 플레이나 구글 검색/맵 등은 무료가 아니라 서비스이기 때문이다. 우리나라가 기기(깡통)에만 집중했지 서비스에 대한 전략을 짜지 못한 탓이기도 하다. 삼성전자도 이를 간파하고 TV 등 다른 기기에 타이젠을 밀고 있으나 아직은 역부족이다. 

데이터가 턱 없이 부족하니 삼성전자의 빅스비(Bixby)가 맥을 못 추는 이유이다. 이는 삼성전자가 일찌감치 구글의 앱들과 차별화되는 킬러 앱들을 개발하지 못했다는 얘기이기도 하다. 반면, iOS의 핵심 앱들은 애플이 직접 개발해 서비스하기 때문에, 애플 기기 사용자들의 대부분의 사용 데이터들은 애플의 클라우드로 간다. 아마존과 중국의 샤오미는 무료인 안드로이드를 갖다 자기 것으로 개조하여(이를 Forking이라 함) 각각 파이어(Fire) 플랫폼과 미유(Miui) 플랫폼을 구축했기 때문에 사용자들의 데이터들은 각자 자기들의 플랫폼으로 들어온다. 우리나라가 소프트웨어 설계능력에서 한참 뒤 떨어진다는 사실을 극명하게 보여주는 대목이다.

그러나 실망하지 말자. 위에 서술한대로 우리나라가 (1) 99.5%의 표준화된 X-ABNI+α에 도전하고 (2) 이를 융합한 저-전력의 X-ABNI+α베이스의 유기 반도체 칩에 도전하고, (3) IoT/IoB를 위해 이를 통합한 마이크로컴퓨터(MC)에 도전해 10년 내에 성공한다면, 이제 모든 기기(Edge)에 데이터가 저장되고 분석되기 때문이다. 

손영권 삼성전자 사장(최고전략책임자•CSO)은 2017년 10월 11일 미국 샌프란시스코 예술의 궁전에서 개최한 '삼성 CEO 서밋'에서 "삼성은 이제 데이터 회사다”라고 선언했는데, 그 이유를 이제 알겠는가? 2018년 라스베가스 CES 쇼에서 ‘인텔은 데이터-중심적 회사(Data-centric company as Power of Data)’라고 천명한 이유를 알겠는가?

1-2-6. 네트워킹/디스플레이 컴퓨팅, 스마트 시티의 현실화 
그리고 필자가 공동 집필한 ‘상상, 현실이 되다(2014)’의 상상을 빌리자면, 이는 마이크로 레벨이라, 국가적으로 이를 공유한다면, 스마트폰에도, TV에도, 냉장고에도, 아니 2000년 초에 등장했던 개념이지만 지금은 가능한, Cisco가 제안했던 네트워킹 컴퓨팅에도, LG 디스플레이가 제안했던 디스플레이 컴퓨팅에도, IBM이 제안했던 Everywhere Computing에도 임베디드 시킬 수 있다. 

이제 하드웨어가 소프트웨어가 되는 세상이 도래하는 것이다. 이를 통합하고 정제하고 융합한다면 데이터는 더욱 고품질이 될 것이고 X-ABNI+α는 위력을 더욱 발휘할 것이다. 그러면 전국토의 IoT가, 그리고 전 국민의 IoB가 데이터를 저장한 에지(Edge) 데이터 센터가 될 수도 있다. 그러면 우리나라는 데이터 국가가 될 수 있으며, X-ABNI+α를 주도하는 강력한 국가가 될 수 있다. 

1) 99.5%의 표준화된 X-ABNI+α에 도전하고 (2) 이를 융합한 저-전력의 X-ABNI+α베이스의 유기 반도체 칩에 도전하고, (3) IoT/IoB를 위해 이를 융합한 마이크로컴퓨터(MC)에 도전하는 것, 사실 이 세 가지가 충족되어야 사물인터넷도 가능하고, 생체인터넷도 가능하며, 두뇌인터넷도 가능하고 스마트교통/스마트학교/스마트병원 등이 융합된 진정한 스마트시티의 구현도 가능한 것이다. 

1-2-7. 개인정보의 주권화 및 활용촉진을 위한 개인정보 은행/신탁에 도전 
그 다음 과제는 데이터의 주권화이다. 일본 총무성이 개인정보를 관리•운용할 회사에 대한 인증 제도를 2020년부터 도입한다고 보도했다(매일경제, '17.08.28). 중개할 회사는 '정보은행'과 '정보신탁' 두 가지 형태로 추진된다. 정보은행은 개인이 지정한 기업 혹은 업종에만 정보가 제공된다. 정보신탁은 정보은행과는 달리 개인정보 제공 여부에 대한 판단을 정보신탁 업체가 진행한다. 

개인들은 선택권을 전적으로 부여하고 신탁사가 자산을 운용하듯 개인정보를 운용하는 것이다. 니혼게이자이신문은 "제도가 시행되면 의료, 관광, 금융 등에서 기업들 수요에 맞춘 정보 제공이 가능해질 것"이라고 전망했다. 기업은 사업에 적극 활용하고 제공자는 포인트로 수수료 받아, 정보 악용 불안감도 덜어준다. 데이터 공개 꽉 막힌 한국은 법적문제 등 장애물이 여전하다. 우리나라도 일본을 벤치마킹해 보다 좋은 시스템을 구축, 개인정보의 주권화 및 활용촉진을 할 필요가 있다. 이것이 구글, 아마존, 페이스북을 뛰어 넘는 유일한 길이다.

▲ 매일경제 – 日의 파격&hellip;기업 4차 산업혁명 도우려 개인정보 잠금 해제(28 Aug 2017).

1-3. 기대효과 및 성과활용

1) 지능정보 신 서비스가 일자리 창출 과제(안)로 새롭게 창출되는 연구 산업으로 육성할 수 있다.
2) 기본 스마트데이터와 인공지능 인프라로 전 산업에 순차적으로 활용할 수 있고, 선순환 사이클을 유지하면 품질 좋은 X-ABNI+α베이스의 데이터와 가치를 창출하여 제공할 수 있다.
3) 우리나라가 3.0 세대의 X-ABNI+α 시장과 지능형 유기칩 시장을 선도할 수 있고, Micro Computer를 융합한다면 글로벌 IoT/IoB 시장을 주도할 수 있으며, 진정한 스마트시티도 현실화시킬 수 있다.

※ 참고문헌

[1] 매일경제 – 삼성, "우리는 이제 데이터회사" 실리콘밸리 선언(12 Oct 2017)
[2] 매일경제 – 日의 파격…기업 4차산업혁명 도우려 개인정보 `잠금 해제'(2017.08.28.)
[3] 월간조선 – “한글운율의 세계화를 연구하는 정원수 교수”, 2017년 11월호.
[4] 연합뉴스 – AI의 현 주소_구글 사진(Google Photos) 얼굴 자동인식 오류…흑인 친구를 '고릴라'로 표시(02 Jul 2015)
[5] 유영민, 차원용,  “상상, 현실이 되다(2014)”. 프롬북스, 2014.
[6] 중앙일보 – 세계 첫 'AI지수' 보고서 "AI, 인간 따라잡고 있다"(04 Dec 2017)
[7] 조선일보 – 암 환자 기대 모은 왓슨, 생각보다 똑똑하지 않다(11 Jan 2018)
[8] 조선일보 – 인간의 뇌 닮은 AI반도체 경쟁⋯112조원 시장을 잡아라(04 Jan 2018)
[9] 조선일보- AI의 현 주소_구글 사진(Google Photos) 또 인종차별 오류…흑인 사진 '고릴라'로 인식(02 Jul 2015). 
[10] 차원용, "아마존의 제 4차 산업혁명 전개 방향 분석" DigiEco, 13 Feb 2017.
[11] 차원용, "아마존의 제4차 산업혁명 전개 방향 분석", IT News, 16 Mar 2017.
[12] a16z – The End of Cloud Computing(16 Dec 2016)
[13] Ars Technica – New Android OEM licensing terms leak; “Open” comes with a lot of restrictions(13 Feb 2014)
[14] AI Index – Read the 2017 AI Index Report(101 Pages)
[15] Android Authority – Leaked OEM licensing terms reveal Google’s strict level of control over its apps(13 Feb 2014)
[16] Appleinsider – Inside iPhone 8: Apple's A11 Bionic introduces 5 new custom silicon engines(23 Sep 2017)
[17] Business Insider – Here's how much computing power Google DeepMind needed to beat Lee Sedol at Go(9 Mar 2016)
[18] David Gunning/DARPA, "Explainable Artificial Intelligence (XAI)", 11 Aug 2016.
[19] Forbes – 22 Million Amazon Echo Smart Speakers To Be Sold In 2017, Driving US Smart Home Adoption(29 Oct 2017)
[20] Humanizing Tech – Amazon’s Secret Self-Driving Car Project, Borg(12 Jan 2017)
[21] Jacques Mattheij – Another Way Of Looking At Lee Sedol vs AlphaGo(17 Mar 2016)
[22] IBM – IBM’s unveils the brain-inspired TrueNorth cognitive computer(August 19, 2015)
[23] IBM – IBM's TrueNorth Rat Brain(30 September 2015)
[24] Intel- Intel’s New Self-Learning Chip Promises to Accelerate Artificial Intelligence(25 Sep 2017)
[25] Popsci – FACEBOOK OPEN-SOURCES THE COMPUTERS BEHIND ITS ARTIFICIAL INTELLIGENCE(11 Dec 2015)
[26] Schummers & Sur et al., "Tuned Responses of Astrocytes and Their Influence on Hemodynamic Signals in the Visual Cortex", Science, Vol. 320, No. 5883, pp. 1638-1643, 20 June 2008.
[27] Stanford – Stanford-led artificial intelligence index tracks emerging field(30 Nov 2017)
[28] The Verge – Qualcomm opens up its AI optimization software, says dedicated mobile chips are coming(25 Jul 2017).
[29] University of Michigan – Michigan Micro Mote (M3) Makes History(17 Mar 2015) 
[30] van de Burgt et al., “A non-volatile organic electrochemical device as a low-voltage artificial synapse for neuromorphic computing”, Nature Materials, 20 Feb 2017. 
[31] VoiceBot.ai – Amazon Alexa Smart Speaker Market Share Dips Below 70% In U.S., Google Rises to 25%(10 Jan 2018)
[32] VoiceBot.ai – Bezos Says More Than 20 Million Amazon Alexa Devices Sold(27 Oct 2017)

 

 

크기변환_사본-10632695_637493523030856_2757249799481243589_n차원용 소장/교수/MBA/공학박사/미래학자

아스팩미래기술경영연구소(주) 대표, (전)국가과학기술심의회 ICT융합전문위원회 전문위원, 국토교통부 자율주행차 융복합미래포럼 비즈니스분과 위원, 전자정부 민관협력포럼 위원, 국제미래학회 과학기술위원장