미국 버클리 대학의 컴퓨터과학 교수이자 인공지능(AI) 전문가인 스튜어트 러셀 교수가 최근 테드(TED) 강연회에서 안전한 AI 개발을 위한 3가지 원칙을 설명했다.
러셀 교수는 이세돌이 알파고와 바둑을 두다가 고민에 빠져있던 모습을 보여주며 강의를 시작했다. 인공지능이 인간이 상상하는 것보다 훨씬 더 빨리 진화하고 있다는 사실을 보여주려는 것이었다.
일본 국립 정보화 연구소의 아라이 노리코(新井紀子)는 과거 기계는 아직 정보를 스스로 '이해'하는 기능을 갖고 있지 않다고 밝혔지만, 러셀 교수는 기계가 언젠가는 인간처럼 이해력을 갖게 될 것이라고 말했다.
이세돌과 바둑을 두던 알파고와 같이 기계가 인간보다 훨씬 좋은 결단력을 갖게 될 것이라는 뜻이다. 그렇지만 '인간보다 좋은 기계에서 탄생하는 결단력이 항상 좋을까?' 라는 의문을 교수는 제시했다.
실제로 인공지능으로 인류가 멸망할 것이라고 일부 사람들이 얘기하고 있다. 그렇지만 교수는 인공지능으로 인류가 멸망하는 일은 없을 것이라고 밝혔으며, 그러기 위해선 안전한 AI를 개발해야한다고 밝혔다.
그는 안전한 인공지능을 개발하는데 3가지 원칙을 지켜야한다고 밝혔다.
첫 번째는 앨트루이즘(Altruism), 바로 이타주의 원칙이다. 인간의 가치를 최대화 시키는 것을 AI 로봇의 유일한 목적으로 교육시키는 것. 따라서 이는 아이작 아시모프 SF 소설가가 말했던 "로봇은 자신이 멸종되지 않도록 스스로 보호해야한다"라는 원칙을 깨트리는 새로운 원칙이다.
두 번째는 겸손의 법칙이다. 러셀 교수는 겸손의 법칙이 안전한 로봇을 만드는 중요한 핵심이라고 했다. 로봇은 인간의 가치를 모를뿐더러 자신의 가치 또한 알지 못한다. 이 문제는 매우 심각하게 여겨진다고 교수는 말했다.
마지막으로 인간이 무엇을 원하는지 학습하는 것이다. 로봇이 인간에게 도움이 될 수 있도록 로봇은 인간이 원하는 것이 무엇인지 알아야한다. 인간이 원하는 것이 무엇인지 알기위해 로봇은 인간이 내린 선택을 관찰한다.
러셀 교수는 AI를 효과적이고 안전하게 이용하려면 인류가 큰 혜택을 얻을 수 있기 때문에 AI의 양면성을 제대로 파악해야한다는 의견을 제시했다. 그는 안전한 AI개발을 위해 기계가 3가지 원칙을 따라야한다고 밝혔다.
양의정 기자 eyang@greened.kr