FLI, 착한 인공지능 개발하자!…‘아실로마 AI 원칙’ 23개 도출

미국 보스톤 소재 비영리 연구단체인 퓨처 오브 라이프 인스티튜트(Future of Life Institute, 이하 FLI, http://futureoflife.org/)는 2017년 1월 6일~8일까지 미국 캘리포니아의 아실로마에서 열린 AI 콘퍼런스에서 인공지능의 23개 원칙을 천명했다. 이른바 '아실로마 AI 원칙(ASILOMAR AI PRINCIPLES)'이다. 

아실로마 AI 원칙은, 연구이슈(Research Issues)에서 5개, 윤리와 가치(Ethics and Value)에서 13개, 장기적 이슈(Longer-term Issues)에서 5개 등 총 23개 원칙을 도출됐다. 연구 이슈로  “AI연구의 목적은 목적이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이롭고 혜택을 주는 지능을 개발하자”는 것이고. 윤리와 가치에서는 “인간의 가치 AI 시스템은 인간의 존엄성, 권리, 자유 및 문화 다양성의 이상과 양립 할 수 있도록 설계되고 운영되어야 한다”는 것이다. 

FLI는 스카이프(Skype)의 공동창업자인 얀 탈린 (Jaan Tallinn) 등 IT 전문가들이 2014년 설립한 연구소로 스티븐 호킹(Stephen Hawking)과 스티브 워즈니악(Steve Wozniak), 엘론 머스크(Elon Musk)가 함께 활동하고 있다. 특히 머스크는 인공지능 위험 요소를 제거하는 연구를 목적으로 2015년 1월에 1천만 달러를 기부한 바 있다.

AI-principles-1030x386

다음은 FLI가 도출한 23개의 아실로마 AI 원칙이다.

인공 지능은 이미 전 세계 사람들이 매일 사용하는 유용한 도구를 제공한다. 다음과 같은 원칙에 따라 지속적으로 발전해 나감에 따라 앞으로 수십 년 또는 수백 년 동안 사람들을 돕고 힘을 실어 줄 수 있는 놀라운 기회가 제공 될 것이다.

연구 이슈
1) 연구목표 : 인공지능 연구의 목표는 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발해야 한다.

2) 연구비 지원 : 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 수반되어야 한다.

미래의 인공지능 시스템을 어떻게 강력하게 만들어 오작동이나 해킹을 할 수 없이 원하는 대로 할 수 있나?
사람들의 자원과 목적을 유지하면서 자동화를 통해 우리 번영을 어떻게 성장시킬 수 있나?
인공지능과 보조를 맞추고 인공지능과 관련된 위험을 관리하기 위해보다 공정하고 효율적으로 법률 시스템을 업데이트 할 수 있는 방법은 무엇인가?
인공지능은 어떤 가치를 갖추어야하며, 합법적이고 윤리적인 상태는 무엇인가?

3) 과학정책 연결 : 인공지능 연구자와 정책 입안자 간에 건설적이고 건전한 교류가 있어야 한다.

4) 연구문화 : 인공지능의 연구자와 개발자간에 협력, 신뢰, 투명성의 문화가 조성되어야 한다.

5) 경쟁 피하기 : 인공지능 시스템을 개발하는 팀은 안전기준에 대한 부실한 개발을 피하기 위해 적극적으로 협력해야 한다.

윤리 및 가치
6) 안전 : 인공지능 시스템은 작동 수명 전반에 걸쳐 안전하고 또 안전해야하며, 적용가능하고 실현가능할 경우 검증할 수 있어야 한다.

7) 장애 투명성 : 인공지능 시스템이 손상을 일으킬 경우 그 이유를 확인할 수 있어야 한다.

8) 사법의 투명성 : 사법제도 결정에 있어 자율시스템이 개입하면 권위 있는 인권기구가 감사 할 경우 만족스러운 설명을 제공해야 한다.

9) 책임 : 고급 인공지능 시스템의 설계자와 구축은 사용, 오용 및 행동의 도덕적 영향을 미치는 이해 관계자이며, 그에 따른 책임과 기회가 있다.

10) 가치관 정렬 : 고도로 자율적인 인공지능 시스템은 목표와 행동이 작동하는 동안 인간의 가치와 일치하도록 설계해야 한다.

11) 인간의 가치 인공지능 시스템은 인간의 존엄성, 권리, 자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용되어야 한다. 

12) 개인정보 보호 : 인공지능 시스템이 데이터를 분석하고 활용할 수 있는 권한을 부여 받으면, 사람들은 그 데이터를 액세스, 관리 및 통제 할 수 있는 권리를 가져야 한다.

13) 자유와 개인정보 : 인공지능을 개인정보에 적용하면 사람들의 실제 또는 인지된 자유가 부당하게 축소되어서는 안된다.

14) 공동이익 : 인공지능 기술은 최대한 많은 사람들에게 혜택을 주고 권한을 부여해야 한다.

15) 공동번영 : 인류의 모든 혜택을 위해 AI에 의해 만들어진 경제적 번영은 널리 공유되어야 한다.

16) 인간통제 : 인간은 인간이 선택한 목표를 달성하기 위해 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.

17) 비파괴 : 고도화된 인공지능 시스템의 통제에 의해 주어진 능력은 건강한 사회를 지향하며, 이를 지키려는 사회나 시민들의 프로세스를 뒤집는 것이 아니라 존중하고 개선해야 한다.
 
18) 인공지능 무기 : 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.

장기 이슈
19) 능력주의 : 합의가 없으므로 향후 인공지능 능력의 제한에 관한 강력한 전제를 피해야 한다.

20) 중요성 : 고급 AI는 지구상의 생명의 역사에 심각한 변화를 가져올 수 있으며, 그에 상응 한 관심과 자원을 계획하고 관리해야 한다.

21) 위험 : 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실제로 존재하는 위험은 예상되는 영향에 맞는 계획 및 완화 노력을 해야 한다.

22) 자기복제 자기개선 : 인공지능 시스템이 고도의 품질로 자기복제나 자기개선 하도록 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.

23) 공동의 선 (Common Good) : 수퍼 인텔리전스는 널리 공유되는 윤리적 이상을 위해, 그리고 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발되어야 한다.

[김들풀 기자  itnews@itnews.or.kr]

1 COMMENT

  1. 안녕하세요 김들풀 기자님,

    보스턴 퓨처 오브 라이프 인스티튜트에서 일하고 있는 박정현이라고 합니다. 저희 웹사이트를 한국어로 번역하는 일을 맡고 있는데 기자님의 아실로마 원칙에 대한 글을 접하게 되었습니다. 기자님의 아실로마 원칙 기사가 좋은 번역본이라고 판단해서 그런데, 혹시 기자님의 번역문을 저희 웹사이트에 실어도 되는지요? (물론 기자님 기사도 첨부하고 말이죠).

    연락 기다리겠습니다. 감사합니다!