▶ Interview
고학수 법학전문대학원 교수 / 개인정보보호위원회 위원장
인공지능은 인류에게 무한한 가능성을 열어주었다. 하지만 윤리적인 문제에 대한 논란도 적잖다. 서울대학교 법학전문대학원 교수이자 개인정보보호위원회 수장을 맡고 있는 고학수 위원장이 인공지능 시대의 윤리를 말한다.
지난 2월 27일, 개인정보보호법 개정안이 국회 본회의를 통과했다. 1년 넘게 국회에서 공전하던 법안이 통과되며 덩달아 바빠진 것은 개인정보보호위원회 고학수 위원장이다. 한국인공지능법학회 회장 등을 역임하며 개인 정보와 AI 분야를 함께 연구한 ‘AI 법제도 전문가’이자 개인 정보를 다루는 국가 통합 콘트롤타워를 진두지휘하는 고학수 위원장을 만나 AI로 인해 새로이 제기되는 사회적, 윤리적 우려에 대한 제도적 방향성에 대해 물었다.
처음에는 책임감과 부담감이 컸습니다. 하지만 그와 동시에 벅찬 마음도 들더군요. 연구자로서 항상 법이나 제도, 정책이 현실 상황에서 어떻게 구현되면 좋을지 고민해왔습니다.
실제 현장에서 법과 제도를 구체화하고 실현하는 것만으로도 굉장한 도전이자 행운이라고 생각합니다.
챗GPT와 같은 AI 서비스의 등장으로 개인 정보에 대한 중요성이 더욱 높아지면서 개인정보보호위원회도 주목받고 있습니다. 개인정보보호위원회는 개인 정보 영역에서 핵심적인
역할을 하고 있습니다. 하지만 중앙행정기관이 된 지 이제 3년이 채 되지 않다 보니 다소 생소하게 느끼는 사람이 더 많기는 합니다.(웃음) 개인정보보호위원회는 당초
2011년 개인정보보호법 제정과 함께 설치되었습니다. 처음에는 자문을 제공하는 역할 위주였다가 2020년에 법이 큰 폭으로 개정되면서 장관급 독립기관으로 새로이
출범했습니다. 보호의 대상이자 안전한 활용의 객체인 개인 정보를 다루는 국가 통합 콘트롤타워로서, 정보 주체인 개인에게는 적극적인 통제권을 부여하고 기업들은 이를 바탕으로
편안하게 새로운 서비스를 창출할 수 있도록 회색지대를 줄이기 위한 역할을 이어가고 있습니다.
사회적인 관점에서 볼 때 AI는 두 번의 중요한 전환기가 있어요. 첫 번째가 2016년 등장한 알파고였고, 두 번째가 챗GPT인 것이죠. 알파고가 AI 기술의 가능성을 보여줬다면, 챗GPT는 AI가 실생활과 비즈니스에도 활용될 정도로 우리 삶을 크게 변화시킬 수 있겠다는 미래성을 보여줬다고 할 수 있어요.
2020년 챗봇 ‘이루다’가 출시되자마자 사회적 논란을 일으켰어요. 성차별적인 발언이나 성희롱, 욕설 등으로 AI 윤리에 대한 논란이 커졌죠. 이로 인해 우리 사회는 AI로
인해 파생되는 문제와 논란을 처음으로 마주하게 되었고요. 이러한 논란은 AI가 학습하는 재료가 데이터에 기반한다는 것에서 시작해요. 챗봇 역시 우리가 평소 사용하는 채팅이나
메신저 대화 데이터를 활용하니까요.
예를 들면 인터넷에 있는 여러 가지 데이터를 이용할 때, 그 안에 과연 고운 말만 있을까요? 당연히 듣기 불편한 얘기나 좋지 않은 표현, 욕설도 들어 있습니다. 그러면 이
좋지 않은 표현을 걸러내야 하는데, 이 기준이 굉장히 모호해요. 사람에 따라 각자 다른 표현을 쓰고, 각기 다른 생각을 갖고 있을 수밖에 없으니 국가적으로 기준을 세우기도
쉽지 않고요. 결국 개발자가 이 표현들을 걸러내기 위해 ‘필터’ 작업을 하지만 이게 정답이라고는 말할 수 없어요. 최근에는 필터를 이용하는 것 외에 다른 방법들도 시도되고
있습니다.
사회에 도입되려면 당연히 사회규범에 따라야 합니다. 이루다 이전에 마이크로소프트사에서 출시한 챗봇 ‘테이’는 하루 만에 서비스를 중단했어요. 당시 성희롱적인 발언 외에도
유태인에 대한 차별 발언, 나치에 대한 찬양 등 도저히 용인될 수 없는 표현을 쏟아냈기 때문이죠.
결국 AI 윤리는 규범학이에요. 사회적으로 ‘옳다’, ‘그르다’를 나누는 것이 규범학의 기본인 만큼 AI 윤리도 같은 맥락의 연장선상이라고 할 수 있는 것이죠. 기술
현실이나 현황에 따라 규범을 어떻게 만들지에 대한 관점에서 바라봐야 하고, 실정법이 필요한지는 다음 단계에서 판단해야 해요. 실정법이 실제 규범의 실효성을 위해 의미 있고
유용하다면 실정법이 필요한 것이고, 그 반대의 경우라면 필요 없다고 생각합니다.
AI가 꼭 모범적이거나 착해야 할 필요는 없습니다. 교과서적인 얘기만 내뱉는 챗봇이 재미있을까요?(웃음) 그러면 이용자 입장에서는 따분하고 재미없어 잘 쓰지 않게 될 가능성이 높죠. 또 부드럽고 착한 표현만 쓰기보다는 인간과 AI가 자연스럽게 상호작용할 수 있는 방식으로 맞춰나가야 합니다.
큰 틀에서는 매우 초기 단계라고 볼 수 있습니다. 최근 5년 사이에 우리나라를 비롯해 세계 여러 곳에서 이런 문제의식이 제기되면서 AI의 투명성이나 공정성, 설명 가능성을 확보해야 한다는 다소 추상적인 원칙들이 나타나고는 있지만 이러한 것들을 어떻게 구현할 것인가에 대해서는 아직 구체적인 합의가 이뤄지지 않았어요. 여러 가지를 고려하면서 조금씩 큰 틀에서 사회적인 관점이나 정책적인 방향을 논의하는 자리가 필요할 것 같습니다.
미래 기술이 어떻게 될지 모르지만, 지금까지의 AI는 동반자가 아닌 ‘도구’라고 생각합니다. 우리가 가장 일상적으로 쓰는 AI 기술이 뭔지 아시나요? 바로 문자를 보내거나 채팅할 때 글자를 쓰면 알아서 고쳐주기도 하고, 그다음 단어를 제시해 주는 기술입니다. 즉, AI는 우리 생활에 유용하게 사용할 수 있는 도구일 뿐, 이 도구를 어떻게 효율적으로 잘 쓸 수 있을지를 생각해야 하는 것이죠. 그리고 그 과정에서 발생할 수 있는 부작용을 어떻게 최소화할지가 가장 현실적인 과제라고 생각합니다.
챗GPT에서 촉발된 새로운 이슈들이 기존의 이슈들과는 또 다른 형태를 띠는 양상으로 나타나고 있습니다. 아직은 관심일 뿐 조금 더 고민해 봐야겠지만 말이죠. 사실 AI 영역이 가진 특징 중 하나가 빠른 변화이다 보니 잠깐 시선만 돌려도 완전히 다른 세상에 있는 느낌일 때가 있어요. 그래서 이런 기술과 사회의 변화 흐름을 놓치지 않고 계속 따라가면서 그 속에서 어떤 문제의식을 추출할 수 있을까에 대한 고민을 계속할 생각입니다.