AI에게 어떻게 윤리를 가르칠까… '이루다'논란이 소집한 국회 토론회

권라영

ryk@kpinews.kr | 2021-02-18 09:17:27

인공지능 법제 정비 방안 관련 국회 토론회 열려
"국회 계류안, 산업 육성에만 치우쳤다" 지적도
정부 "문제 인식…관련 가이드라인 만들고 있어"

최근 차별·혐오발언 및 개인정보 유출 논란에 휩싸였던 챗봇 '이루다'의 서비스 중단과 맞물려 인공지능 기술에도 규제가 필요하다는 목소리가 이어지고 있다.

'이루다'는 스타트업 스캐터랩이 지난해 말 출시한 인공지능 기반 챗봇(음성이나 문자를 통한 인간과의 대화를 통해서 특정한 작업을 수행하도록 제작된 컴퓨터 프로그램)으로, 출시 초기 방대한 학습 데이터를 통한 자연스러운 대화로 이용자를 끌어모았다. 그러나 이후 일부 이용자들이 규제를 피해 이 챗봇에게서 성적 대화를 끌어내고, 그 방법을 공유한 것으로 알려지면서 성희롱 논란에 휩싸였다.

논란이 확산되는 과정에서 해당 챗봇이 일부 학습 데이터에 들어있던 사회적 소수자에 대한 차별·혐오발언을 제대로 거르지 않고 습득했다는 증언이 나왔다. 또한 학습 데이터 속 개인정보가 제대로 삭제되지 않았으며, 이를 수집하는 과정에서 동의를 제대로 받지 않았다는 주장도 제기돼 파장이 커졌다.

결국 스캐터랩 측은 지난달 입장문을 내고 사과와 함께"부족한 점을 집중적으로 보완할 수 있도록 서비스 개선 기간을 거쳐 다시 찾아뵙겠다"며 서비스 잠정 중단을 알렸다.

▲차별·혐오발언 및 개인정보 유출 논란 등으로 서비스를 중단한 인공지능 챗봇 '이루다' [이루다 웹사이트 캡처]

이러한 논란으로 인해 인공지능 윤리 정책과 법적 규제에 대한 필요성이 대두되고 있는 가운데, 국회 토론회 '인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안'이 지난 17일 줌을 통해 비대면으로 열렸다.

이번 토론회는 더불어민주당 정보통신특별위원회, 민주사회를 위한 변호사모임 디지털정보위원회, 사단법인 정보인권연구소, 소비자시민모임, 진보네트워크센터, 참여연대가 공동주최했다.

발제를 맡은 김민우 박사(충북대학교 행정학과 박사후연구원)는 "인공지능과 같은 새로운 지능적 존재의 법적 지위, 그리고 권리 및 민·형사 책임의 범위 등 새로운 규범이 필요하다"면서 헌법 개정 시에도 관련 논의가 이뤄져야 한다고 했다.

그러면서 "인공지능이라고 하는 것은 과학기술적인 측면, 사회·윤리·법학적 측면 등 다양한 사람의 이야기를 경청할 필요가 있기 때문에 공론화를 통한 사회적 논의가 필요하다"는 점을 짚었다.

오정미 서울대학교 공익법률센터 변호사는 국회에 계류 중인 인공지능 관련 법안에 대해 "공통적으로 인공지능 산업의 기반이나 기술개발을 진행하는 것을 목표로 하다 보니까 산업 육성에 치우쳐서 인공지능이 추구해야 할 원칙들을 담보할 내용이 부족하다"고 평가했다.

그는 '이루다'의 경우 학습에 사용한 데이터의 편향성이 발언에 영향을 주었을 가능성이 크다는 점을 지적하며 훈련 데이터에 대한 구체적인 기준이 마련돼야 한다고 봤다. 또한 이용자가 인공지능을 통한 의사결정에 사용되는 정보에 대해 이의를 제기할 수 있도록 하는 절차를 법률로 보장해야 한다고 덧붙였다.

아울러 "모든 인공지능 기술을 동일하게 규율하기보다는 위험성에 기반한 분류, 그리고 해당 분류에 따른 차등적인 규제 방법이 필요하고, 공공영역의 인공지능 사용에 민간보다 더 강한 의무를 부여해야 한다"는 의견을 내놓았다.

▲ 지난 17일 온라인을 통해 진행된 '인공지능의 공정성·투명성·책임성 보장을 위한 법제 정비 방안' 국회 토론회. [정필모 의원 페이스북 캡처]

관련 정부부처에서도 이날 토론회에 참여했다. 김경만 과학기술정보통신부 인공지능정책과장은 "편향성이나 공정성에 대한 검증을 할 수 있는 부분도 상당히 중요하다"면서 학습 데이터의 출처인 사회의 윤리 기준을 정립하자는 측면에서 지난해 인공지능 윤리 기준을 발표했다고 소개했다.

이동원 공정거래위원회 시장감시총괄과장은 "인공지능 분야에서는 종합적인 법제 정비를 위한 관계부처간 협의가 매우 중요하다고 생각한다"면서 "과기부와 공정위가 앞으로 알고리즘 공개 및 설명 가이드라인을 함께 만들 계획"이라고 밝혔다.

이한샘 개인정보보호위원회 데이터안전정책과장은 "인공지능 학습 특성상 대량의 비정형 데이터가 활용 가능성이 높고, 이중에는 민감한 개인 정보가 다소 포함되고 있다"면서 개인정보보호위원회에서 적법성, 안전성, 투명성 등을 원칙으로 하는 개인정보 보호 수칙을 만들고 있다고 설명했다.

토론회에 참석한 정필모 더불어민주당 의원은 "시장에 모든 것을 맡겨둔다면 인공지능에 신뢰성과 공정성은 담보될 수가 없다"면서 "최근 서비스가 중단된 인공지능 챗봇 이루다 문제가 특히 그렇다"고 했다.

그러면서도 "인공지능이라는 낯선 기술에 대해 사회적 합의의 필요성을 더욱 확실하게 인식하는 계기가 됐다는 점에서는 이 사건이 긍정적으로 작용하고 있다"면서 "새로운 산업의 발전과 국민의 권리 보호를 위해 자율과 책임의 원칙을 강조하고 싶다"고 말했다.

KPI뉴스 / 권라영 기자 ryk@kpinews.kr

[ⓒ KPI뉴스. 무단전재-재배포 금지]

WEEKLY HOT