XREAL
Vision

AI를 처벌할 수 있을까?

AI가 발전하고 사람들의 삶에 미치는 영향력이 커짐에 따라 함께 대두되는 문제가 있습니다. 바로 AI의 범죄 문제입니다. 인공’지능’이라는 기술의 특성상 다른 기술들과는 다르게 인공지능 자체가 자율성을 지닐 수 있다는 점이 두드러집니다. 그동안 발전해 온 모든 기술은 인간이 입력하는 것에 따라 정해진 반응을 하게 되어 있습니다. 따라서 그 기술로 인해 어떠한 범죄가 발생하더라도 책임은 인간에게 있는 것이고, 형벌도 인간을 대상으로 부과했습니다. 그러나 AI는 발전을 거듭해 그 특성이 짙어질수록 스스로 생각하며 지식을 생산해냅니다. 나아가 AI가 머리가 되고, 로봇이나 자율주행차가 몸이 되어 활동하는 지금의 세상에서는 AI가 물리적인 영향력도 가할 수 있습니다. 갈수록 더욱 발전할 AI가 인간과 같이 자율성을 지녀 범죄를 저지를 가능성이 있다는 것은 부정할 수 없습니다.
만약 산업 현장에서 AI로봇이 인간을 다치게 했다면 그 책임은 어디에 있는 것일까요? AI가 탑재된 자율주행차를 타고 이동하다가 사고가 나면 그걸 만든 인간의 잘못일까요, 아니면 AI의 잘못일까요? 만약 AI에게 책임이 있는 것이라면 AI에게 형벌을 부과할 수 있을까요?

그동안의 논의와 현재 상황

AI에게 법적 책임을 물을 수 있는지에 대해 그동안 진행되었던 논의를 간략히 살펴보겠습니다. 이 논의에서 강한 인공지능이냐 아니면 약한 인공지능이냐의 문제가 중요해집니다. 강 인공지능이란 인간의 마음을 복잡한 정보 처리로 구현한 것, 즉 인간을 완벽하게 모방한 인공지능이라 할 수 있습니다. 약 인공지능이란 인간의 일부 능력만을 모방하여 유용한 도구로써 만들어진 인공지능입니다. 지금까지 인간이 만든 인공지능이라 불리는 것은 대부분 약 인공지능이라고 볼 수 있습니다.
약 인공지능의 경우 인간에 의해 조작되고 통제되는 측면이 많습니다. 따라서 약 인공지능의 법적 책임을 논하기보다 인공지능의 제조업자, 설계자, 프로그래머, 판매자 및 사용자 등에게 책임을 지우려는 시도가 우세합니다.
반면 강 인공지능의 경우에는 약 인공지능에 비해 인간의 개입 정도가 낮습니다. 나아가 능동적인 행위를 통해 인간이 통제할 수 없는 상황이 발생할 수 있습니다. 이 경우가 많은 논란이 됩니다. 현재 시점에서는 인간의 능력과 동일한 수준의 독자적 의사 형성력에 이를 수 있는 정도의 강한 인공지능은 등장하지 않았습니다. 따라서 이 논의는 미래 예측에 기반할 수밖에 없기 때문에 현실적이고 실효적인 결론을 제시하는 것에 한계가 있습니다. 하지만 ‘인공지능 기술의 발전과 이로 인해 야기될 수 있는 범죄에 대해 아무런 논의를 하지 않는 것은 위험하고, 사회 부정적 현상이 발생했을 때 누구에게 책임을 귀속시킬 수 있는지에 대한 논의는 계속되어야 한다.’는 가치 아래, 지금도 활발히 논의가 진행되고 있습니다.
GIB 제공

인공지능 처벌, 가능한가?

이 논의를 다른 관점에서 살펴보고자 합니다. AI의 능력보다는 형법의 의미와 역할에 대한 물음에서 시작하는 것입니다. 형법은 형벌을 부과하기 위한 법입니다. 형벌은 대상으로부터 어떠한 가치나 권리를 빼앗는 역할을 수행해야 합니다. 그래서 역사적으로 생명박탈, 고통부과, 자유제한, 재산침해 등이 형벌 수단으로서 사용되어 온 것입니다. AI에게 형벌을 부과한다는 것은 AI에게서 이러한 가치를 빼앗아 오는 것을 말합니다. 누군가는 인공지능 로봇을 묶어버리거나 망가뜨리는 방식, 또는 노동을 강제하는 방식도 가능할 것이라 말합니다. 그러나 이는 인간이 교통사고를 저질렀을 때 자동차를 폐차하게 하는 것과 같은 방식입니다. AI에게 해를 가하는 것이 아니라 로봇에게 해를 가하는 것이죠. 로봇이 아니라 AI자체가 불이익을 받아야 합니다. 따라서 AI에게 무엇을 박탈할 수 있는지 고민해야 합니다.
이에 답하기 위해 ‘AI의 존재성’을 논하고자 합니다. AI는 존재하는 것일까요? AI도 생각을 하며, 자율성을 지녔기 때문에 존재한다고 생각할 수도 있습니다. 하지만 그게 존재한다고 말하기 위한 충분한 조건일까요? 철학자 하이데거에게 ‘주체의 존재됨’은 단순한 자의식을 통해 입증되는 것이 아닙니다. 그에게 실존한다는 것은 ‘우리가 한 번 사는 존재로서 일회적 시간 안에 던져짐’을 자각하는 것입니다. 우리 모두는 삶의 끝에 죽음이 있다는 것을 알고 있고, 이런 일회적 삶을 인식하며 살아갑니다. 시간의 유한함을 알고 있는 존재인 것입니다.
우리가 범죄를 저지르고 처벌받는 것을 상상해 봅시다. 징역 20년을 산다고 하면 유한한 시간을 가진 인간에게는 엄청난 박탈이 주어진 것입니다. 우리가 100년도 안되는 시간을 살아가는데 그중 20년을 박탈당하는 것입니다. 그럼 다시 AI의 경우를 생각해 보겠습니다. AI에 대한 형벌로 전원을 20년 동안 끄고 20년 뒤에 다시 키거나, 혹은 20년 동안 감옥에 가둬둔다고 해도 AI 입장에서는 0.1초 정도 지나간 것으로 느껴질 것입니다. AI는 영구적인 속성을 지니고 있고, 한 번만 사는 존재가 아닙니다. 재산을 예로 들어보겠습니다. 인간인 우리에게 재산이 가치 있는 이유는 그걸 얻는 데 시간이 걸리기 때문입니다. 따라서 인간에게는 재산을 박탈하는 형벌이 의미가 있습니다. 그런데 자지도, 쉬지도 않은 채 영원히 움직일 수 있는 AI에게도 재산이 가치 있을까요? 영원한 주체에게 가치는 의미가 없습니다. 다시 말해 영원한 주체인 AI는 법적 주체가 될 수 없습니다.
법은 권리를 취급하는 학문인데 AI는 권리가 형성될 수 있는 대상이 아닙니다. 범죄는 저지를 수 있지만 권리가 머물 수 있는 대상이 아닙니다. AI의 이러한 속성 때문에 형벌은 의미를 가질 수 없습니다. 만약 인간의 뇌와 바이오시스템을 부여받고, 인간의 늙음과 죽음의 메커니즘을 그대로 받은 AI가 등장한다면, 그에 대해서는 형벌 효과가 있다고 생각할 수 있습니다. 이 경우에는 AI 처벌의 문제를 따로 고민할 필요가 없어질 수도 있습니다.
결론적으로 아무것도 빼앗을 수 없는 AI에게 처벌은 불가능합니다. AI가 처음부터 범죄를 저지르지 못하도록 소프트웨어를 만드는 것, 그리고 범죄를 저지른 경우 일종의 ‘고장’이 난 상태로 보고 수리하거나 폐기하는 것이 가장 간단한 방안입니다. 그러나 이 역시 ‘인간의 권리’를 취급하는 법학의 영역이 아닙니다. 권리를 가질 수 없는 대상에게 법학의 에너지를 쏟는 것이 옳은 것인지 재고할 필요가 있습니다.
(작성자 : 서명섭)

Reference

홍영기(2022), “인공지능형법?”, 『법의 미래』, pp.137-149
안정빈(2022), “인공지능 로봇에 관한 형사책임”, 『외법 논집』, 제46권 제4호
최호진(2023), “인공지능의 형법 주체성 인정을 위한 전제조건”, 『비교형사법연구』, 제25권 제1호