인문학의 경계를 넘어  

제4차 NRC-KAIST 공동 심포지엄, 인공지능법의 새로운 지평을 향하여

박도현광주과학기술원(GIST) AI대학원  조교수 2023 겨울호

오늘날 국내외를 막론하고 인공지능(AI)이 가장 중요한 화두 중 하나라는 사실을 부정하는 이는 아마도 없을 것이다. 특히 우리나라는 2016년 알파고, 2020~2021년 이루다라는 두 가지 커다란 사건을 마주하면서 인공지능(AI)에 대한 관심이 급격히 증가하였고, 작년 세계를 휩쓴 챗GPT는 이러한 흐름에 화룡점정을 찍는 계기가 되었다. 법조계도 이러한 흐름의 예외가 아니었고 사실은 다른 어떤 주체보다도 AI 이슈에 촉각을 기울여 왔다. 최근 EU를 필두로 한창 논의를 가속화하고 있는 인공지능법은 이를 본격적으로 가시화한 산물인 셈이다.

유럽연합(EU)은 작년 말 마침내 3부작 법안(trilogues)의 종지부를 찍는 최종 합의에 도달하였고, 이는 어떤 식으로든 국내 인공지능법 논의에 커다란 영향을 줄 수밖에 없다. 국내에서도 21대 국회 내내 무수히 많은 법안이 제출되었고, 최근에는 여러 개의 법안을 통합한 법안이 소위를 통과하기도 하였다. 그럼에도 인공지능법에 대한 논란은 현재진행형이다. 일반화의 오류를 무릅쓰고 논의를 단순화하면, 한편에는 창의와 혁신을 강조하면서 규제의 정도를 완화하자는 주장이, 다른 한편에는 해악과 위험을 강조하면서 규제의 정도를 강화하자는 주장이 대립하고 있다. 그런데 인공지능법 담론은 어째서 진흥과 규제라는 이분법적 프레임에만 갇혀 있어야 하는 것인가? 과연 우리는 이 논의에서 무엇을 놓치고 있는 것인가?

인공지능법의 위험 기반 규제

인공지능법 논의가 규제의 강도에 초점을 맞춰 진행되고 있는 이유를 이해하기 위해서는 그 핵심을 이루는 위험 기반 규제에 대해 알아볼 필요가 있다. 위험 기반 규제는 현행 규제 법제 전반에 녹아들어 있는 사고이기는 하지만, 그것이 인공지능 맥락에서 명시된 계기는 유럽연합이 2020년 2월 발간한 인공지능 백서였다. 이 백서에서는 최초로 인공지능 규제의 핵심을 ‘고위험(high-risk)’ 인공지능으로 명시하였고, 이러한 기조는 이듬해 4월 발표된 유럽연합의 인공지능 법안(AI Act) 초안에도 이어졌다. 다만 인공지능 법안은 위험 기반 규제를 종래의 고위험-저위험 2개 범주에서 수용할 수 없는 위험-고위험-저위험-최소 위험의 4개 범주로 세분화하였다는 차이가 있었다.

사업자 입장에서는 자신이 개발하고 서비스한 인공지능이 수용할 수 없는 위험군에 포함되어 금지되거나 고위험군에 포함되어 강한 규제를 받는다면 커다란 타격을 입을 수 있으므로, 해당 범주의 범위 또는 규제의 강도를 조율하는 것이 당면한 과제가 되었다. 아울러 각국은 과연 이러한 유럽연합의 위험 기반 규제 체계를 전면적으로 수용해야 할지, 혹은 그들이 처한 제반 사정을 고려하여 변용하거나 수용하지 말아야 할지의 갈림길에 섰다. 사실상 오늘날 진행되고 있는 거의 대부분의 인공지능법 담론은 세부적 명칭과 내용이 무엇이든 이에 관한 논의를 제각기 자신의 언어로 풀어낸 변주일 따름이다.

이분법적 프레임을 넘어

다만 일각에서는 위험 기반 규제를 규제완화를 통한 창의와 혁신이냐, 규제강화를 통한 기본권 보호와 분배정의의 실현이냐의 이분법적 프레임과 동일시하는 경향이 있다. 나아가 일각에서는 이를 ‘친시장 대 친인권’과 같은 극단적 명제로 재구성하고 이해관계자에게 양자택일을 강요하기도 한다. 그러나 이러한 이분법적 선택지는 명백히 실존하지 않는 허구적 전제에 기인한 것이다. 기본권을 중시한다고 알려진 유럽연합 역시 디지털 단일시장 강화를 외치고 있고, 시장을 중시한다고 알려진 미국 역시 시민권 강화를 외치고 있다. 모든 인공지능을 금지하는 것이 인권의 지향점이거나, 모든 인공지능을 자유방임하는 것이 시장의 지향점일 수는 없다. 우리가 무익한 논쟁에 매달려 허송세월하는 사이, 자칫 성장과 분배 모두 선진국과 따라잡기 어려울 만큼의 초격차가 벌어지게 되는 것은 아닐지 심히 우려된다.

결국 우리가 위험 기반 규제에서 초점을 맞춰야 할 것은 이러한 이분법적 양자택일이 아닌, 위험 양상을 직시하고 이를 적절히 규율할 수 있는 대안을 마련하는 일일 것이다. 이 과정에서 사업자, 이용자, 정부 누구도 서로의 적이 아니고 같은 목표를 향해 협력하는 조력자라는 사실을 인식할 필요가 있다. 이용자가 인식하는 위험 수준에 미달하는 만큼의 규제가 이루어진다면 단기적으로는 사업자에게 이익이 될 수 있지만, 장기적으로는 인공지능 기술과 산업의 수용성을 저해하게 될 것이다. 반대로 이용자의 위험 인식을 상회하는 규제는 장기적으로 인공지능이 사회에 가져올 편익을 누리지 못하게 할 것이다. 위험 기반 규제는 위험에 대한 사상적 견해의 이분법적 대립 대신, 이해관계자의 상호적 소통을 통해 이루어지는 진정한 의미의 ‘거버넌스’에 입각하여 이루어져야 한다.

위험평가와 가치판단

위험 기반 규제 거버넌스의 핵심은 그 자체로는 공동체가 수용하기 어려워 모종의 규율이 요구되는 위험을 선별해내는 일이고, 일반적으로 이를 위험평가라고 한다. 위험평가를 둘러싼 중요한 한 가지 쟁점은 그것이 사실판단과 가치판단 중 어디에 해당하는가이다. 그러나 위험 기반 규제의 지향점이 성장과 분배의 양자택일이 아닌 것처럼 위험평가의 본질 역시 사실판단과 가치판단의 양자택일이 아니다. 인간은 때로는 현상을 사실 그대로 받아들이기도 하지만 때로는 각자가 가진 가치관을 투영한 해석을 가하기도 한다. 마찬가지로 위험이란 어떤 경우에는 사실판단을 통해, 어떤 경우에는 가치판단을 통해 그것의 본질을 적절히 식별하고 규율할 수 있는 일종의 사회적 구성물이다. 따라서 비용-편익 분석과 같은 형식적 도구가 사회적 가치를 부당하게 누락하고 있지는 않은지, 무리한 해석의 개입이 있는 그대로 현실을 보지 못하도록 왜곡하고 있지는 않은지 양자 모두를 비판적으로 성찰할 필요가 있다.

기사는 어떠셨나요?
이 기사에 공감하신다면 ‘공감’버튼으로 응원해주세요!

독자 여러분께 더 나은 읽을거리를 제공하는데 도움이 됩니다.

‘공감’으로 응원하기1