인공지능, 흑인·스페인식 영어 인식률 낮아
국내외 여러 기업의 인재 채용에 인공지능(AI)이 도입되고 있는 가운데 인공지능이 평가의 공정성을 높이기는커녕 오히려 불공정을 고착화시키는 것으로 드러났다. 이로 인해 인공지능 도입 확대에 대한 경각심이 높아지고 있다.
15일 로이터 등 외신에 따르면 최근 미국의 전자상거래 기업 '아마존'은 개발 중인 인공지능 채용 시스템이 여성 지원자를 차별하는 것으로 파악돼 도입을 취소했다.

아마존 개발팀의 분석 결과, 인공지능 채용 시스템은 '여성' 관련 단어가 포함된 이력서에 감점을 주는 것으로 나타났다. 이력서에 '여성 체스 동아리'처럼 '여성'이라는 단어가 들어간 경우에는 물론 여자 대학을 졸업한 지원자의 점수가 깎인 사례도 있었다.
이는 인공지능 시스템이 기존 데이터를 바탕으로 학습한 결과를 통해 점수를 산정하기 때문에 발생한 문제로 알려졌다. 아마존 등 IT 기업에서는 남성 직원의 비율이 높기 때문에 인공지능이 기존의 채용 결과를 보고 남성이 해당 직무에 더 적합하다고 판단할 수 있다는 것이다.
인공지능이 편견을 강화하는 사례는 채용 이외의 분야에서도 드러난 바 있다.
인공지능을 통해 얼굴을 인식해 사진을 분류하는 '구글 포토스'는 흑인의 사진을 '고릴라'로 인식해 논란을 빚었다. 인공지능이 검은 피부색을 사람으로 인지하지 못해 발생한 오류였다.
구글 AI 스피커 또한 미국 동부 영어 인식률은 91.8%였지만 스페인식 영어 인식률은 79.9%에 불과하다고 조사된 적이 있다.
이로 인해 인공지능이 사회적 소수자에 대한 소외를 심화시킨다는 비판도 이어졌다. 미국 경제전문지 포춘에 따르면 UC버클리 디어드리 멀리건 기술윤리학 교수는 "인공지능 알고리즘이 그 어떤 종류의 공정함에도 최적화되어있지 않다"고 지적했다.
국내에서도 올해 롯데그룹, CJ그룹, 국민은행, 기아자동차, SK하이닉스 등 다수 기업이 채용 과정에 인공지능을 활용했지만, 전면적인 도입에는 조심스러워하는 분위기다.
인공지능을 통한 자기소개서 평가 시스템을 개발한 SK C&C 관계자는 "인공지능이 모든 걸 결정하는 것은 아니며 인사담당자를 돕는 용도다"면서 "인공지능이 불합격으로 판정한 자기소개서를 인사담당자들이 다시 읽어본다"고 말했다.
정보통신정책연구원 이원태 디지털사회정책그룹장은 "인재를 정확히 평가할 수 있는 데이터가 충분하지 않고, 데이터 자체의 표면성 때문에 빈익빈 부익부의 양극화가 반영될 수 있다"며 "인공지능 채용 시스템에 모든 걸 맡기는 것은 시기상조다"고 밝혔다.
KPI뉴스 / 남경식 기자 ngs@kpinews.kr
[ⓒ KPI뉴스. 무단전재-재배포 금지]



