“인간 통제 없으면 대량살상무기 만들 것”
반론 거세…”상상력·두려움으로 법 만드나”
[녹색경제신문 = 우연주 기자] 미국에서 인공지능 모델을 사전 규제하는 법안이 발의됐다. 막연한 두려움에 기반한 나머지 규제로서의 근거가 약하다는 의견이 주를 이룬다.
미국 캘리포니아 주 상원의원인 스캇 위너는 올 7월 초 ‘인공지능혁신모델안전보안법(SB-1047)’을 발의하고 AI 모델을 선제적으로 규제해야 한다고 주장했다. 해당 법안이 논란이 되면서 위너 상원의원의 언론 발언과 IT 업계의 소요가 커지고 있다.
업계 관계자 및 전문가들은 법안의 선제적 성격에 문제가 크다고 지적한다.
AI(인공지능) 학과 교수 A씨는 “국가가 규제를 만들 때에는 선례가 있거나 현재진행형인 사안으로 국한하는 것이 바람직하다. 규제라는 것은 본질적으로 국민들을 구속하는 것이지 않나”고 말했다.
그는 이어 “실재하지 않는 것에 대해 너무 선제적으로 통제하는 것은 바람직하지 않을 수 있다”고 말했다.
일각에서는 이러한 법안이 AI에 대한 막연한 두려움을 방증하는 것이라는 해석도 나왔다.
IT 칼럼니스트로 활동 중인 니릿 웨이스-블랫 박사는 “상상에 기반한 두려움때문에 AI 종말론자들은 상상력이 만들어낸 법안을 통과시키려 하고 있다. 이러한 법안은 오히려 캘리포니아의 기술 혁신을 뒤처지게 할 수 있다”고 말했다.
AI가 다양한 가능성을 내포하는 것은 맞지만, 가능성이라는 말을 잘 해석해야한다고 전문가는 말했다.
A씨는 “0.0001%의 가능성도 가능성인 것은 맞다. 하지만 세상 모든 것들이 미래에 어떤 방식으로든 변화할 가능성을 갖고 있다”고 말했다.
AI 업계에 속한 B씨도 “AI가 미래에 어떤 양상을 띌 지 속단할 수는 없다. 그러나 이는 AI이기 때문이 아니라 일반적인 담론 차원에서의 말이다”고 말했다.
그럼에도 불구하고 AI를 통제하려는 움직임이 나오는 이유는 AI 기술이 너무 빠르게 발전한 나머지 사회적 논의를 위한 시간이 충분하지 않았기 떄문이라는 분석도 나왔다.
B씨는 “인공지능 관련 기술은 최근 큰 발전을 이뤘다. 기술의 발전이 사람들의 사회적 논의보다 더 빠르게 이뤄져버린 것이다”고 말했다.
위너 상원의원의 법안은 규제 당국을 설립해 AI 모델과 이를 개발하는 회사들을 관리할 것을 제안하고 있다. 그는 법안에서 “인간의 통제가 없다면 미래의 AI는 생화학무기·핵무기와 같은 대량살상무기를 만들고 확산시킬 수 있으며 사이버 공격도 가능할 수 있다”고 썼다.
우연주 기자 lycaon@greened.kr