애플 AI 잇따른 '오보'…LLM 인공지능의 한계인가

김용철 기자 / 2025-01-12 11:05:16
다트챔피언십 결승전 열리기 전 우승 속보
국경없는기자단 "신뢰할 정보 주기엔 시기상조"
구체적 질문, 알고리즘 가중치 조정 등 필요

인공지능(AI)이 '환각' 상태에 빠진 것인가, 아니면 '착각'한 것인가? AI는 원래 '거짓말쟁이'인가?

 

애플이 지난해 말 출시한 'AI 뉴스속보 서비스'가 BBC와 뉴욕타임스 뉴스 앱에 잇따라 '잘못된 뉴스 속보'를 전송하고, AI 정보 검색 챗봇이 잘못된 정보를 천연덕스럽게 제시하면서 '대규모 언어모델(LLM) 인공지능의 한계론'까지 등장하고 있다.

 

▲ [CNBC 홈페이지 캡처]

 

애플의 AI 뉴스 속보 서비스는 지난 3일 BBC의 뉴스 앱 이용자들에게 결승전이 열리기도 전에 '루크 리틀러(Luke Littler) 선수가 PDC 월드 다트 챔피언십에서 우승했다'는 속보를 전했다. '한국의 수사진들이 대통령 체포 시도를 포기했다'는 뉴스 속보와 함께 전해진 이 뉴스는 이날 저녁 월드 다트챔피언십이 열리기 몇 시간 전에 전송됐다.

 

리틀러는 PDC 월드 챔피언십에서 결국 우승했지만, 경기가 열리기도 전에 타전된 우승 속보는 많은 BBC 독자들을 어리둥절하게 했다. 이 뉴스 속보는 애플 AI가 하루 전인 목요일 '준결승전 경기에서 리틀러가 이겼다'는 BBC의 뉴스를 바탕으로 작성한 것으로 나타났다. 

 

이 오보를 전송한 지 몇 시간 후 애플의 AI 뉴스 속보 서비스는 BBC 스포츠 앱 이용자들에게 '리틀러가 결승전에서 밴 거윈 선수와 맞붙는다'면서 '브라질의 테니스 스타 라파엘 나달(Rafael Nadal)이 동성연애자라는 사실을 밝혔다'는 잘못된 속보를 전했다. 이 뉴스 속보는 AI가 브라질의 동성연애 테니스 선수 주앙 루카스 헤이스 다 시우바(Juao Lucas Reis Da Silva)에 관한 뉴스를 바탕으로 잘못 작성해 전송한 것으로 나타났다.

 

▲ [BBC 뉴스 캡처]

 

BBC가 채용한 애플의 AI 뉴스 속보 서비스는 한 달 전에도 잘못된 뉴스를 시청자들에게 전송했다. 지난해 12월 애플 AI 속보 앱은 미국 보험사 유나이티드 헬스(United Healthcare) CEO 브라이언 톰슨(Brian Thomson)을 총으로 쏴 숨지게 한 '루이지 만조네(Luigi Mangione)가 스스로 목숨을 끊었다'는 가짜 뉴스를 속보로 보냈다. 당시 '한국 경찰이 윤석열 대통령의 사무실을 덮쳤다'는 뉴스 속보도 함께 전송했다.

 

BBC는 지난달 오보 사고 당시 애플 측에 항의하고 문제를 시정하라고 요구했지만, 한 달이 지난 후 다시 문제가 발생한 것이다.

 

애플의 AI 뉴스 서비스 오보로 타격을 입은 언론사는 BBC뿐만이 아니었다. 작년 11월 애플 AI 뉴스 서비스는 미국의 뉴욕타임스 뉴스 속보 앱에 '네타냐후(Netanyahu) 이스라엘 총리가 체포됐다'는 가짜 뉴스를 전송했다. 지난 6일에도 미국 국회 의사당 난동 4주년 관련 잘못된 뉴스를 전송한 것으로 알려졌다.

 

애플은 지난 6일 성명을 통해 "애플의 속보 서비스는 선택 사항이며, 아직 시험단계에 있는 베타 버전이다. 이용자들의 사용경험을 토대로 개선하고 있다"고 밝혔다. 

 

애플의 뉴스 압축 자막 서비스는 지난해 12월 애플의 인공지능 서비스 가운데 하나로 출시됐다. 애플의 아이폰16, 아이폰15 프로, 프로맥스 등 ios 18.1 이상의 휴대전화와 일부 아이패드, 맥 컴퓨터 등 최신 제품에서 서비스되고 있다. 

 

국경 없는 기자단(RSF)은 "뉴스에 대한 신뢰가 어느 때보다 중요한 시기이다. 애플의 AI 뉴스 서비스 문제는 AI가 아직 대중에게 신뢰할 만한 정보를 주기에는 시기상조라는 것을 보여준다."면서 AI에 의한 뉴스서비스 중단을 요구했다.

 

AI 전문가들은 "이른바 AI의 '환각(hallucination)'이라 불리는 잘못된 정보 제공은 애플 AI의 문제만은 아니다"며 "다른 업체들도 애플이 이 문제를 어떻게 처리할 지 주목하고 있을 것"이라고 말하고 있다.

 

기술 분야 중심 시장분석 회사 CCS 인사이트의 수석 애널리스트 벤 우드(Ben Wood)는 "애플 AI 뉴스 속보 서비스는 여러 문장을 한 문장으로 압축해 표현하는 과정에서 잘못된 단어를 조합해 발생한 문제일 수 있다"고 지난 8일 미국 CNBC 방송에 말했다.

 

하지만 AI가 잘못된 정보를 자신 있게 제공하는 '환각' 문제는 다른 AI서비스에서도 이미 여러 번 나타났다. 

 

지난해 5월 본격 서비스를 시작한 구글의 간추린 AI 정보 제공 기능도 지난해 잘못된 정보를 제공해 인터넷 상에서 화제가 됐다. 

 

'피자에 치즈 스틱을 더 잘 달라붙게 하는 방법'을 묻는 질문에 AI는 '독성이 없는 접착제를 사용하면 된다'고 답변하는가 하면, '휘발유로 스파게티를 더 빨리 요리할 수 있는가?'라는 질문에 '아니다. 하지만 자극적인 스파게티 요리에 이용 가능하다'며 조리법을 제시하기도 했다.

 

 

AI는 지질학자들에게 '암석에는 소화 기능에 좋은 미네랄과 비타민이 풍부하니 하루에 1개의 암석을 먹으라'고 추천하기도 했다. 조사 결과 이 정보를 제공한 구글의 AI는 소셜 뉴스 웹사이트 '레딧(Reddit)'이나 풍자 뉴스 웹사이트 '양파(The Onion)'를 통해 관련 내용을 학습한 것으로 알려졌다.

 

미국에서는 변호사가 AI가 제공한 잘못된 판례를 재판에서 그대로 인용해 징게를 받기도 했다. 미국 플로리다주 중부 지방 법원은 지난해 3월 8일 토마스 그랜트 뉴섬(Thomas Grant Neusom) 변호사에 대해 해당 법원에서 1년 동안 활동을 중단할 것을 명하는 정직 처분을 내렸다. 

 

미국 플로리다 중부 지방 법원은 지난 2023년 7월 뉴섬씨가 오픈AI의 챗GPT가 제공한 정보를 바탕으로 작성해 제출한 판례가 부정확한 것은 물론 일부는 아예 존재하지도 않았고, 실제 판례의 의미를 잘못 인용한 내용도 있음을 확인했다. 

 

이 글을 쓰는 기자도 작년 11월 싱가포르 상표협약(Singapore Treaty on the Law of Trademark) 관련 기사를 작성하다 구글의 인공지능 제미나이(Gemini)가 제공하는 잘못된 정보로 큰 실수를 할 뻔했다. 제미나이는 'STLT 가입국이 조약의 특정 조항을 실시하지 않을 수 있느냐?'는 질문에 '그런 조항이 있다'면서 싱가포르 상표조약의 영어 원문까지 제시했다.

 

일부 AI 전문가들은 최근 확산한 대규모 언어모델(Large Language Model, LLM) AI에 기반한 챗봇 서비스의 환각 문제는 "LLM 모델 특성상 발생할 수밖에 없고, 치유가 불가능한 문제"라고 지적한다.

 

AI에 대해 비판적인 사람들은 "구글이나 MS, IBM 등 대규모 IT 기업들이 광고하는 LLM 기반 인공지능은 사람처럼 학습하는 것이 아니라 확률적으로 다음 단어가 무엇인지를 맞추는 것이다. 개발자들조차도 어떻게 이뤄지는 지를 모르는 알고리즘으로 이뤄지는 AI의 작업을 마치 사람이 하는 것처럼 '학습(Learning)'이라 부르고, AI가 '지능(Intelligence)'을 가졌다고 말하는 것은 돈벌이를 위한 과장일 뿐이다. AI가 잘못된 대답을 하는 것은 '환각'이 아니라 그냥 '틀린 것'이다"라고 말하기도 한다.

 

학습사이트 브릴리언트(Brilliant.org)를 운영하는 독일의 물리학 박사 호센펠더(Sabine Hossenfelder)는 "챗봇은 정답이 아니라 '정답에 가까운' 내지는 '오답에 가까운' 대답을 하는 것이다. LLM 모델로는 아무리 많은 데이터를 가지고 학습해도 고칠 수 없는 문제이다. 그러나 AI의 '환각' 문제는 대규모 언어모델(LLM)의 문제로 모든 AI의 문제는 아니다. 수학과 물리학을 이용한 새로운 AI모델로 학습하면 고칠 수 있다. 2014년 구글이 인수한 딥 마인드(Deep Mind)가 이용하는 수학적 모델이 바로 그것"이라고 말한다.

 

호센펠더는 "사람들은 같은 단어를 상황에 따라 서로 다른 여러가지 의미로 사용한다. 이른바 '언어의 혼동(linguistic confusion)' 문제로 더 많은 단어를 학습할수록 의미는 더 모호해질 수 있다. 사람이 현실 생활에서 오답을 가려내는 논리적 방식의 '물리적 모델(physical model)'을 도입해야 문제가 해결된다"고 밝혔다.

 

AI가 맥락에 맞지 않는 엉뚱한 대답을 하거나, 아예 사실과 다른 대답을 하는 문제는 ① 잘못된 학습 데이터 ② AI 알고리즘의 잘못된 일반화 ③ 입력하는 맥락에 대한 오해 등으로 발생하는 것으로 분석되고 있다. 

 

대규모 언어모델 AI가 제공하는 답변의 정확도를 높이기 위해서는 ① 구체적이고 명확한 프롬프트(질문) 입력 ② 다양성과 독창성을 강조하기 보다는 정확하고 보수적인 정답을 내놓도록 AI 알고리즘의 가중치 조정 ③ AI가 질문의 맥락을 보다 정확히 파악할 수 있도록 구체적인 예 등을 들어 긴 질문을 하고, 여러 번 질문을 해 답변을 확인해야 한다고 AI 전문가들은 조언하고 있다.

 

▲ 김용철 객원논설위원

 

● 김용철은

만 34년 국가 기간 통신사와 지상파 방송사 기자로 뛰며 폭 넓은 인적 지적 네트워크, 현장 경험을 갖고 있다. 서강대 경제대학원에서 심화한 경제분야에 대한 식견, 카이스트 문술미래전략대학원에서 배운 과학과 기술, 법에 대한 지식을 토대로 대한민국의 창발성을 고도화하고, 기술과 제도가 어우러진 지속 가능한 발전 대안을 모색 중이다.

△ 연합뉴스 기자(1991. 1~1995. 3) △ SBS 보도국 경제부 정책팀장(2008), 미래부 SDF팀장(2010) △·SBS CNBC 보도본부장(2011) △ 한국지식재산기자협회 회장 (2021~2024. 5)△ 마리오아울렛 부사장(2023. 10 ~ 2024. 10) △ 39회 한국 기자상 수상, 뉴스추적 <전직 교수 김명호, 그는 왜 法을 쐈나>
KPI뉴스 / 김용철 객원논설위원 yongchulkm@gmail.com

 

[ⓒ KPI뉴스. 무단전재-재배포 금지]

김용철 기자

김용철 기자

SNS