이슈 인사이트  

공존 사회에서 윤리가 마주한 도전들

이미지 김명주서울여자대학교 정보보호학부 교수 2024 가을호

2024년 뜨거웠던 여름, 딥페이크 사건이 우리 사회를 흔들었다. 기술의 중심에 선 아이들, 그리고 그 아이들의 당돌함에 당황한 어른들. AI는 이미 우리 일상 깊숙이 자리 잡았지만, 우리는 여전히 그 윤리적 과제에 맞닥뜨려 있다. 지속가능한 AI 사회를 위해 더 깊이 있는 접근과 새로운 대응책이 필요하다.

딥페이크의 충격, 윤리 지체 현상이 만든 위기

딥페이크 사태는 모두에게 충격을 주었다. 고성으로 일관하던 여야 국회의원들이 모처럼 머리를 맞대고 모여 더 강력한 처벌을 주문하는 법 개정이 이루어졌다. 교육청을 비롯한 교육계는 가해 학생을 학교폭력대책심의위원회(학폭위)에 상정하여 혹독하게 다루기로 했고, 가해 학생은 졸지에 주홍글씨를 가슴에 달고 살게 되었다. 지금 상황에서 어른들이 할 수 있는 것은 강력한 처벌과 징계였다.

이것은 아이들의 문제가 아니라 어른들의 문제이다. 기성세대인 어른들 대다수에게 AI는 현재 기술이 아닌, 아직 도래하지 않은 미래 기술이다. AI 없이도 잘 살아온 세대에게는 가까이하기에 부담스러운 존재이다.

Tortois 미디어가 발표한 2024년 글로벌 AI 인덱스에 따르면, 우리나라의 AI 순위는 세계 6위이다. 우리가 뛰어가야 할 길이 아직은 멀어서인지 AI는 미래 기술처럼 느껴진다. 반면에 1, 2위 국가에 속한 글로벌 기업들은 이미 우리 생활 속 깊숙이 AI를 밀어 넣고 있다. 태어날 때부터 스마트폰이 주어진 아이들에게 있어서 AI는 다루기 쉽고 재미있는 현재 기술이다. 딥페이크는 그저 신기한 장난이었고 친구의 사진을 음란물로 바꾸어 공유하는 ‘지인능욕’ 은 새로운 놀잇거리였다.

사실 잠시만 주위를 돌아보면 AI가 일상 가운데 이미 들어와 있음을 알 수 있다. 유튜브나 넷플릭스는 시청자의 성향을 AI가 파악하여 콘텐츠를 자동으로 추천해 준다. 코로나 3년 동안 700여 국내 기업은 신입사원 채용 과정에서 AI 면접관을 도입했다. 드라마나 광고에서 등장하는 유명인의 과거 모습 역시 특수효과가 아닌 AI로 구현된 것이다. 최근 2년 동안 세상을 떠들썩하게 해온 챗GPT는 전 국민 AI 일상화의 기폭제였다. 그럼에도 어른들은 AI를 애써 미래 기술로 간주하며 외면해 왔다. 그래서 AI에게 심각한 양면성이 있음도 인지하지 않았고 AI 윤리의 필요성도 느끼지 못했다. 아이들은 어른들로부터 윤리 교육을 제대로 받지도 못한 채 AI의 부작용과 역기능 상황에 무방비 상태로 방치되었다. 이것이 바로 ‘윤리 지체 현상’이며 이번 딥페이크 사태 발생의 근본 원인이다.

하이프 사이클의 세 번째 겨울기를 피할 것인가

우리 사회가 디지털 신기술에 대하여 어떻게 반응해 왔는지를 관찰해 보면 공통된 패턴이 보인다. 촉망받는 디지털 신기술이 출현하면 사람들은 큰 기대 속에 열광적으로 환호하며 모이고 투자한다. 이를 ‘여름기’라고 부른다. 그러다가 시간이 지나도 실적이 기대에 미치지 못하면 실망 침체기인 ‘겨울기’로 추락한다. 물론 그 가운데서도 일부 실력자들은 나름대로 성공 사례를 만들어서 다시금 주변 사람들의 참여를 이끌며 디지털 사회의 일부로 자리 잡게 된다. 2005년 9월 가트너 그룹은 이러한 현상을 ‘하이프 사이클’이라는 그래프로 간단하게 나타냈다.

AI는 70년의 긴 역사를 지니며, 지금까지 세 번의 하이프 사이클을 겪었다. 첫 번째와 두 번째 하이프 사이클은 모두 실망 침체기, 즉 ‘겨울기’로 끝났다. 당시 AI 기술이 사람들의 기대만큼 뛰어나지 않았기 때문이다. 2024년 현재, 우리는 AI의 세 번째 하이프 사이클에 접어들었고 여름기를 향하고 있다. 그렇다면 우리가 맞이한 AI의 세 번째 하이프 사이클은 언제쯤 그리고 어떤 이유로 실망 침체기에 빠져들 것인가? 이런 질문이 가능하다. 혹시 과거 두 번의 하이프 사이클처럼 AI가 사람들의 기대에 미치지 못해서 다시금 실망 침체기로 떨어질까? 그렇지 않다. 세 번째 하이프 사이클이 진행되는 동안 AI는 각 분야의 최고 전문가와 경쟁하여 항상 이겨왔다. 세계 체스 챔피언도 AI가 이겼고, 세계 바둑 챔피언도 AI가 이겼다. 최근에 등장한 생성형 AI 챗GPT의 경우, 법률·의학·회계 영역 등에서 상위 10% 안에 들어가는 우수성도 보여주었다. 따라서 이전과 달리 AI가 우리 기대에 미치지 못함에 실망하여 AI와의 공존이 중단되지는 않을 것이다. 그 대신에 ‘AI에 대한 신뢰성’을 사람들로부터 얻어내는 데 실패하면 AI는 세 번째 겨울기를 맞이할 것이다.

불안한 미래 막기 위해 윤리적 기준 마련해야

시간이 지날수록 AI가 더욱더 우수해지면서 인류는 새로운 걱정과 불안감을 떨칠 수 없게 되었다. 인간보다 똑똑한 AI가 스스로 판단하며 자율적으로 동작할 때 과연 이러한 AI를 신뢰할 수 있을까? 혹시나 AI가 나중에 우리 인류를 배신할 가능성은 없을까? 이러한 걱정과 불안을 해소하기 위한 출발점을 제공하는 것이 ‘AI 윤리’이다.

AI는 언제나 인류 전체를 위해 존재해야 하며 인류 번영에 도움이 되어야 한다(공공성). 자율적으로 동작하는 AI이지만 인간이 언제나 통제할 수 있어야 한다(통제 가능성). 똑똑한 AI가 어떻게 내부적으로 동작하는지 투명하게 들여다볼 수 있어야 하며(투명성), 어떤 과정으로 AI가 결정을 내렸는지에 대한 설명도 당사자에게 제공되어야 한다(설명 가능성). 특정인에 대해 편견과 차별이 없이 공정한 AI이어야 하며(공정성), 외부 공격이나 예기치 않은 상황에도 견고하며 바로 회복하고 안전하게 동작해야 한다(안전성과 보안성). AI로 인하여 인류 문화의 다양성이 위축되지 않아야 하며(다양성), AI로 인한 혜택에서 소외되는 부류가 없도록 포용적 접근을 보장해야 한다(포용성).

생성형 AI가 보편화되면서 AI가 만든 합성 생성물과 관련된 윤리적 이슈도 새롭게 부상되었다. 대표적인 이슈는 저작권 보호이다. 학습 데이터의 저작권을 AI가 침해하지 않아야 하는데 이것은 공익성을 전제로 한 공정 사용(fair use)과 상충되어서 앞으로 치열한 논의가 필요하다. 생성형 AI가 만든 합성 생성물에 대한 저작권을 누구에게 어떻게 부여할지도 고려해야 한다(저작권 보호). 특히 생성형 AI가 만든 합성 생성물은 비록 가짜이지만 그 품질과 내용은 매우 우수하다. 그래서 육안으로 진짜와 가짜를 구분하기가 힘들어져 사회적 혼란이 불가피하므로 이에 대한 윤리적 이슈(구분 가능성)도 주목받고 있다.

AI의 부작용과 역기능을 대응하는 출발선은 ‘법’보다는 ‘AI 윤리’이다. 얼 워런 미국 대법관의 말처럼 “윤리라고 불리는 바다 위를 떠다니는 배가 법”이기 때문이며, 엘리네크 독일 법학자가 말했듯이 “법은 윤리의 최소한”이기 때문이다. 훌륭한 법의 출생 조건은 사회적으로 충분하게 성숙한 윤리이다. AI와 같은 디지털 신기술이 우리 사회를 쉼 없이 전환하는 동안 사회 구성원의 윤리 의식도 이에 비례하여 업그레이드되어야 한다. 이제 막 출범한 인류와 AI의 공존 사회가 한 때의 열풍으로 끝나지 않고 지속되기 위해선 AI 윤리의 대중적 확산이 그 무엇보다 시급하다.

기사는 어떠셨나요?
이 기사에 공감하신다면 ‘공감’버튼으로 응원해주세요!

독자 여러분께 더 나은 읽을거리를 제공하는데 도움이 됩니다.

‘공감’으로 응원하기2