특집   2024년의 대한민국과 세계 - AI 윤리

생성형 AI가 넘어야 할 과제

이경선정보통신정책연구원  플랫폼정책연구실 연구위원 2023 겨울호

2022년 11월 챗GPT의 등장은 제2의 알파고 쇼크로 불리며 전 세계가 다시 한번 AI의 잠재력에 주목하는 계기가 되었다. 알파고가 바둑이라는 복잡하고 지능적인 영역에서 이세돌 9단에 승리하며 특정 과제에서 인간을 능가하는 AI의 가능성을 보여주었다면 챗GPT는 인간처럼 대화로 소통하고 이용자들이 묻는 다양한 질문에 맥락에 맞는 그럴듯한 답을 생성해냄으로써 인간과 같은 AI, 스스로 진화하는 AI의 가능성을 보여주었다. 기술적 측면에서 보면 알파고는 특정 입력값이 주어졌을 때 결괏값이 속하는 범주를 예측하는 판별형 AI(Discriminative AI) 기술을 활용한 것으로 판별형 AI는 ‘사전에 정의된’ 후보군에서 최적의 전략을 선택하는데 활용된다. 반면 챗GPT는 학습데이터와 유사한 데이터를 생성하는 생성형 AI(Generative AI) 기술로 이용자의 요구에 맞는 그럴듯한 ‘새로운 콘텐츠 생성’에 활용된다.

아이들에게 우표에 대해 설명 해주고 있는 사진

생성형 AI가 불러온 기회와 위협

챗GPT로 촉발된 생성형 AI의 부상이 기존 판별형 AI와는 또 다른 놀라움을 주고 있는 이유는 우선, 생성형 AI로 인간만의 영역으로 여겨지던 창작영역에서 자동화가 가능해지고 있기 때문이다. 또한 인간처럼 대화를 통해 손쉽게 AI 기술을 활용할 수 있도록 지원하며 멀티모달 기술을 통해 이미지, 음성 등을 통한 상호작용도 지원한다. 방대한 데이터를 통한 학습으로 미세조정되어 다양한 응용이 가능한 기계학습 모델인 파운데이션 모델(foundation model) 접근을 통해 하나의 모델로 특정 업무를 넘어 다양한 업무수행이 가능해지고 있는 점도 기존 AI 대비 진화된 모습이다. 물론 이러한 기술의 발전은 늘 다양한 가능성과 동시에 위험을 내포한다. 생성형 AI의 잠재력을 기회와 위협으로 구분하여 정리해보면 다음과 같다.

새 시대를 위한 새로운 기준 정립

창작의 자동화 VS 저작권, 원작자 보상의 문제

생성형 AI 기술의 발전으로 짧은 시간에 고유하지만 방대한 양의 콘텐츠 생성, 나아가 창작의 자동화가 가능해지고 있다. 생성형 AI로 그린 작품의 국제 공모전 수상, 생성형 AI를 활용한 넷플릭스 배경화 제작 등에서 볼 수 있듯이 생성형 AI 기술은 질적으로도 이미 기계가 만들었다고 믿기 어려운 수준을 보이고 있다. 하지만 개발 과정에서 텍스트, 이미지 등 방대한 데이터가 수집·활용되었음에도 학습데이터에 기여한 원작자에 대한 적절한 보상체계는 아직 부재하다는 점에서 논란이 끊이지 않고 있다. 2023년 창작자와 개발사 간 저작권과 공정이용 다툼, 반년 가까이 이어진 할리우드 작가 파업 등이 보여주듯이 생성형 AI는 원작자 보상의 문제, 나아가 창작자들의 노동환경 악화, 잠재적 일자리 대체로 이어질 수 있어 중장기적 시각에서 기계-인간이 협업하는 시대에 맞는 새로운 기준 정립을 위한 사회적 논의가 필요하다.

최적의 정보습득 VS 진짜 같은 가짜 콘텐츠의 위험성

개인화된 상호작용, 인간과 같은 인터페이스를 지원하는 생성형 AI 기술을 활용해 이용자들은 최적의 정보를 보다 효과적이고 효율적으로 습득할 수 있을 것이다. 그러나 AI가 잘못된 정보나 허위 정보를 생성하는 현상인 환각현상(hallucination)으로 사람들이 AI가 생성한 정보를 무비판적으로 수용할 경우의 사회적 혼란이 야기될 위험성도 상존한다. 또한 생성형 AI 기술의 발전으로 ‘진짜’와 ‘가짜’ 콘텐츠를 구분하기가 점점 더 어려워짐에 따라 생성형 AI가 사기, 주식시장, 선거, 전쟁 등에 악의적으로 이용될 경우 막대한 피해가 발생할 수 있다. 일부에서는 AI 기술이 인류의 생존조차 위협할 수 있다고 경고한다. 이에 우리 사회가 이러한 신기술의 수혜를 온전히 누리기 위해서는 위험 통제를 위한 사회적 기반 조성 및 제도화가 함께 진행돼야 한다.

기술발전에 맞춰 정책설계 필요

초개인화 시대 VS 개인정보, 프라이버시의 위험성

생성형 AI로 초개인화 서비스에 필요한 데이터의 수집·생성이 가능해지고 실시간 개인의 의도, 반응, 상황 등에 맞춘 콘텐츠 생성의 비용효율성이 높아짐에 따라 복지, 의료, 모빌리티, 교육 등 다양한 영역에서 인간 삶의 질을 바꾸는 초개인화 서비스에 대한 기대감이 높아지고 있다. 그러나 많은 이용자들은 초개인화 서비스의 효용에 공감함에도 과도한 개인정보 수집, 이용자의 효용과 일치하지 않는 방향으로의 데이터 사용 등에 대한 우려를 보이고 있다. 향후 로봇 등 다양한 하드웨어를 통한 인간과 기계의 상호작용이 증가하게 되면 개인데이터의 수집·활용 문제는 더욱 복잡한 양상으로 전개될 수 있어 개인정보의 정의, 수집·활용기준 등에 대한 지속적인 재정비가 필요하다.

AI의 대중화 VS AI 활용 격차

단순 정보 검색부터 코딩까지 자연어 기반 ‘대화’를 통해 완성도 높은 결과물을 얻는 것이 가능해지면서 생성형 AI 기술은 향후 AI에 대한 대중의 접근성을 높이고 개인의 능력 확장에 기여할 것이라 기대된다. 그러나 AI를 수동적으로 활용하는 사람과 AI를 도구로 잘 이용하는 사람 간 사회적 격차, 불평등이 심화될 것이라는 전망 또한 우세하다. 따라서 AI 활용 역량에서의 개인 간 격차를 해소하기 위한 정부의 정책설계가 필요하다.

강인공지능 시대 VS 소수 빅테크의 기술독점

초거대 모델, 방대한 데이터의 활용은 AI 모델 성능의 급격한 향상을 가져오며 기계가 인간의 지적 수준을 가지는 강인공지능 시대로의 진입 가능성을 높이고 있다. 그러나 이러한 대규모 모델, 방대한 데이터를 활용한 학습에 천문학적인 비용이 소요됨에 따라 막대한 자본력을 바탕으로 시장을 선점한 극소수 글로벌 빅테크 기업들의 핵심 기술 독점에 대한 우려가 커지고 있다. AI 기술이 가져올 사회경제적 파급력을 고려할 때 경쟁가능한 AI 생태계 조성은 매우 중요한 과제로 이를 위한 국가적 차원의 전략 수립과 자원의 집중이 필요하다.

기사는 어떠셨나요?
이 기사에 공감하신다면 ‘공감’버튼으로 응원해주세요!

독자 여러분께 더 나은 읽을거리를 제공하는데 도움이 됩니다.

‘공감’으로 응원하기6