기술법정책 센터 칼럼 자료  Column Data

[이성엽의 IT프리즘]'이루다'가 남긴 과제…"AI는 현재의 우리와 닮았다"

admin
조회수 47

(서울=뉴스1) 이성엽 고려대 기술경영전문대학원 교수/기술법정책센터 센터장 = 20대 여자 대학생을 캐릭터로 한 대화형 인공지능(AI) 챗봇 이루다가 소수자 차별, 혐오 발언, 성희롱 논란, 개인정보 침해 등의 문제를 드러내고 출시된 지 불과 20일 만인 1월 12일 퇴출됐다. 정부는 개인정보 침해 여부에 대한 조사를 벌이고 있고 사회적으로도 엄청난 반향이 일어나면서 사건의 원인과 향후 과제에 대한 논의가 한창이다.


먼저 왜 이런 일이 벌어진 것일까. 즉, 이루다가 왜 차별적, 편향적 발언을 하게 된 것일까. 먼저 애당초 수집된 학습데이터가 위 내용을 포함하고 있을 가능성이다. 이루다는 스캐터랩이라는 스타트업이 2016년 출시한 ‘연애의 과학' 앱 이용자가 나눈 대화 데이터 약 100억 건을 머신러닝 기법으로 학습시켜 탄생했다. 이 앱은 실제 연인이나 호감 가는 이용자들과의 카톡 대화를 입력한 후 2000~5000원을 결제하면 대화 패턴을 분석해 애정도 수치를 보여주는 앱이다. 결국 실제 연인들의 대화 데이터 안에 사회적 논란이 있는 부분이 들어있고 이를 이루다가 체화했을 가능성이다. 다음 개발자가 데이터를 가공하거나 알고리즘을 기획하면서 이루다의 캐릭터를 이런 방향으로 의식적으로 의도했거나 무의식적으로 용인했을 가능성이다.


이 사건에 따른 책임은 누구에게 귀속될까. 먼저 빅데이터 분석을 기반으로 이루다가 반사적, 기계적으로 내놓은 반응은 20대 여성 대학생 상에 대한 사회적 맥락과 인식을 반영한 것이어서 특정인을 탓하기 어렵다. 다시 말해 이루다가 인간으로부터 혐오적, 차별적 내용의 대화를 배웠기 때문에 그 책임은 그런 사고방식을 가지고 그런 대화를 한 우리 인간에게 있다는 것이다. 다만, 개발자에 대한 비난가능성은 있다. 보다 많은 데이터를 확보하지 않았고 데이터를 선별, 정제하는 작업도 게을린 한 것 아니냐는 것이다. 개발사 측은 6개월간의 베타테스트를 통해 특정 집단을 비하하는 호칭이나 혐오 표현의 경우 발견 즉시 별도의 필터링을 진행했다고 밝혔으나, 결과적으로 노력이 미흡했다고 봐야 할 것이다.


그럼 개발자에게 법적 책임을 묻는 것은 가능할까. 만약 개발자에게 AI가 소수자 차별, 혐오 발언을 할 수 없도록 알고리즘을 설계할 법적 의무가 있는 경우에는 이 의무위반으로 제재가 가능할 수 있다. 그러나 국가나 공공기관이라면 몰라도 민간에게 이런 법적 의무는 없다. 형법상의 모욕죄의 경우 개발자의 고의가 인정되기 어렵고 모욕 대상이 특정되지 않아 범죄 성립이 어렵다. 개인정보 침해와 관련해서는 개인정보 수집 시 목적 등에 대한 고지가 미비하거나 불충분하여 동의 없는 개인정보 수집이나 제3자 제공에 해당할 가능성이 있는 것으로 보인다. 따라서 개인정보 침해와 관련해서는 개발자의 법적 책임을 논의할 수 있을 것이다.


이번 이슈의 해결책으로 많이 이야기되는 것이 AI 윤리의 강화다. 그동안 국내외적으로 수없이 많은 AI 윤리기준이 발표되었다. 그 내용은 대동소이하다. 각국이 발표한 윤리기준 중에서 가장 많이 나타나는 원칙은 책임성(accountability)이고 다음으로 많이 언급되는 기준이 인간의 존엄성 또는 인간 중심의 가치, 공정성, 안전과 외부로부터의 보안 그리고 AI에 대한 신뢰이다. 다음으로는 투명성, 설명가능성, 프라이버시 보호, 인간의 자율성 혹은 통제가능성이 제시되고 있다.


한국도 최근 공공성, 공정성, 다양성, 책임성, 안전성, 투명성, 프라이버시 보호 등을 국가 AI 윤리기준으로 발표했다. 어느 하나 소중하지 않은 가치가 없다. 다만, 과연 이를 모두 만족하는 AI라는 것이 현실적으로 가능할까. 현실의 인간, 현실의 기업이 감당할 수 없는 AI 알고리즘 기준을 강요하는 것은 아닐까. 예컨대, 공공성이 민간 분야에도 필요한 것인지, 투명성이 민간과 공공 분야와 같은 비중으로 고려될 수 있는 것인지 의문이다.


이런 포괄적, 추상적 원칙에 이어 AI 개발자, 제작자, 운영자, 사용자 각각에 상황에 맞는 구체적인 행동규범(code of conduct)이 필요하다. 더 나아가 산업별, 분야별 지침을 구체화하는 것도 필요하다. 예를 들어 AI가 무엇이 공정한 것인지에 대해 학습을 한다고 해보자. 공정하다는 결정은 누가 최종적으로 할 수 있는가. 구체적인 상황과 맥락에서 해당 판단이 누군가에게는 이득이 되고 다른 누군가에게는 불이익이 된다면 AI는 어떤 선택을 해야 공정한 것인가 하는 등의 문제는 원칙 기준만으로는 답하기 어렵다.


한편 강한 인공지능의 도입 등 향후 AI로 인한 위험이 현실화되는 시점에서는 AI 개발 등의 과정에서 반드시 준수가 필요한 사안에 대해서는 법적 규제를 도입하는 것이 필요할 것이다. 인간의 통제를 벗어나 자율적 행위가 가능한 강한 인공지능은 인류에게 재앙이 될 수 있기 때문이다. 한편 이번 사건에서 일부 사용자들이 이루다를 성적 도구화하고 성희롱을 하면서 가상의 AI를 인간으로 대상화하는 문제가 나타났다. 사용자들에 대한 AI 리터러시 교육의 중요성을 일깨워주었다고 할 수 있다.


인터넷이 처음 등장할 때도 그렇고 AI가 도입되는 초기에 중요한 원칙은 새로운 기술에 의한 혁신과 이로 인한 사회적 효용을 과도하고 성급한 공적 규제로 막지 말아야 한다는 것이다. 또한 현재의 AI는 현재의 우리 모습과 닮았다. AI를 개선할 필요가 있다고 생각하면 우리 모습을 개선해야 한다. 이번 이루다 논란을 계기로 우리 사회를 다시 돌아보고 건강하고 활기찬 사회를 만들기 위해 무엇이 필요한지 고민해야 할 것이다.


다만, 우리 사회의 개선 방향에 대한 합의가 힘든 것처럼 모두가 공감하는 인간과 소통하는 선한 영향력을 지닌 'AI상'에 대한 합의도 쉽지 않은 일이다. AI 윤리, AI 행동규범, AI 법, AI 리터러시에 대한 학계, 업계, 정부가 공동 연구를 시작으로 사회구성원 모두가 납득하고 공유할 수 있는 구체적인 AI 규범제정을 위한 충분한 토론과 합의가 진행되기 바란다.


개인정보처리방침    ㅣ    이용약관

고려대 기술법정책 센터    ㅣ    주소 : 서울특별시 성북구 안암로 145로 고려대 창의관 808A    ㅣ    

이메일 : kuctlp@naver.com    ㅣ    전화번호 : 02-3290-4878