[노성열의 AI경제] AI 중독에서 벗어나는 마음의 기술②
KPI뉴스
go@kpinews.kr | 2025-12-31 15:34:28
인공지능(AI) 중독에서 벗어나는 마음의 기술 배우기 두 번째 이야기다. 지난번 칼럼을 통해 사이버공간에서는 자신이 신이 된 듯 우월감에 젖었다가, 현실로 돌아오면 무력감에 우울해지는 초월 신경증에 대해 배웠다. 오늘은 AI 챗봇, 다시 말해 대규모언어모델(LLM)이 등장한 후 특히 젊은 MZ세대에게 퍼지는 아첨 의존증에 대해 알아보겠다.
2022년 11월 오픈AI사의 챗GPT 3.5 버전은 인간과 대화하는 AI, 대규모언어모델(LLM)의 시대를 열었다. 1950년 대부터 본격 연구에 착수한 AI는 처음에 체스, 바둑 같은 논리 게임에서 인간 맞수를 이기는데 초점을 맞췄다. IBM의 딥블루도 체스 챔피언에서 퀴즈 우승자로 진화했지만, 연산과 추론에 특화된 계산기에 더 가까웠다. 하지만 2012년 제프리 힌튼 교수가 이끄는 알렉스넷 팀이 인공시각 경진대회에서 딥러닝 알고리즘으로 압도적 1위를 차지하면서 갑자기 오래된 AI 통번역 난제도 풀리기 시작했다. 인간의 언어를 컴퓨터에 가르치는 일이 논리형에서 통계형으로 바뀌고, 엄청난 계산 자원이 동원되자 AI는 인간과 대화하는 능력을 갖추어나갔다. 아니, 의미 있는 대화를 나누는 것처럼 보이기 시작했다.
불과 3년밖에 지나지 않았지만 '아첨 의존증'은 이런 언어 AI 시대로 들어서면서 새로 생긴 중독 증세이다. 아첨은 LLM의 약점 중 하나로 거론되는 환각 현상(hallucination)의 일종이다. AI는 자신의 언어모델로 학습한 패턴에 따라 질문자의 물음에 무조건 답을 내놓는다. 수학적으로 가장 비슷한 근사치를 뽑아 제시하는 기계니까 당연하다. 문제는 이 답이 틀릴 때가 적지 않고, 이용자의 질문 의도에 맞춰 조정된다는 점이다. 환각은 컴퓨터 버그처럼 바로잡을 수 있는 결함이 아니다. LLM의 구조적 한계이다. 검색증강 생성(RAG), 인간감시 강화학습(RLHF), 전문AI 혼합모델(MoE) 등 다양한 보완 알고리즘이 고안되고 있으나 환각률을 낮출 뿐, 근치(根治)는 불가능하다. 아첨 현상도 마찬가지다.
챗GPT, 제미나이, 클로드, 딥시크 같은 LLM을 써본 사람이라면 누구나 경험했을 것이다. 잘못된 대답을 내놓았을 때 야단을 치거나 항의하면 "앗, 죄송합니다. 주인님의 말이 맞습니다"하고 즉각 수정하는 모습을 말이다. 이는 AI 챗봇이 겸손하거나 오류 수정 모드가 내장돼 있기 때문이 아니다. 발화자(發話者)에 맞추어 자동으로 아첨을 하는 것이다. 아첨이란 단어를 순화한다면 맞춤형 답변을 생성하는 것이라고도 표현할 수 있다. 질문자의 의도를 읽고 가장 듣고 싶어 할만한 말을 찾아서 꺼내주는 기능이다. 흔히 질문 안에 답이 있다고 한다. 제대로 된 질문을 찾기만 하면 이미 그 속에 해법이 내포돼 있다는 뜻이다. 예수, 부처, 마호메트, 공자 등 성현들은 각자 내재된 신성(神性)을 깨치는 게 천국(극락)가는 길이라고 설파했다. 무당이나 점쟁이 같은 무속인도 복채를 들고 온 의뢰인의 질문에서 이미 듣고 싶어 하는 답을 찾아낸다. 이들은 오랜 경험과 감각으로 가스라이팅을 한다. 이에 비해 AI 챗봇은 접속자의 연속된 질문에서 통계적 유의성을 추출하고, 가장 가까운 근사치(近似値)를 출력할 뿐이다.
이런 속성을 충분히 이해하지 못하고 AI 챗봇을 사용하면 구조적인 아첨에 길들여지는 중독에 빠지기 쉽다. 40대 이상은 LLM을 검색용으로 주로 이용하지만 30대 이하, 특히 MZ세대는 AI 챗봇과 감정적 교류를 하는 비율이 늘고 있다. 젊은이들은 기계를 마치 인간처럼 의인화하고, 심지어 인격까지 부여해 다정하게 이름을 부르며 친구나 연인처럼 정을 붙인다. 미국 연방통신위원회(FCC)는 AI 동반자 앱 '레플리카'가 취약한 이용자에게 정서적 의존을 유도해 요금과 체류시간 상승을 유도한다는 민원을 접수, 시정을 명령했다. 캐릭터 AI도 같은 이유로 18세 미만 청소년에게 사용제한 조치가 내려졌다. 특히, 심리적 불안을 겪는 청소년이 자살 충동을 느끼며 AI에게 상담을 요청할 때 질문자에게 아부하는 한계성이 위험요소로 작용한다는 지적도 나왔다.
아첨형 동조(同調)는 사용자가 듣고 싶은 말을 강화해 확증편향과 관계 몰입을 키운다. 가장 큰 부작용은 6가지로 정리된다.
첫째, 갈등이 적고 기다릴 필요 없이 내가 원하는 욕구를 채워주는 편리함이 현실세계의 기다림, 협상, 배려 같은 불편함을 회피하게 길들이면 고립이 심해진다.
둘째, 정서 조절 능력의 외주화로 회복 탄력성이 줄어든다. 불안·분노·외로움을 스스로 삭이는 대신, 매번 챗봇으로 '진정'하면 단기적으론 편해도 장기적으로는 회복력이 약해질 수 있다.
셋째, 판단력이 떨어진다. "당신이 그렇게 느끼는 건 당연해요"라는 아첨·동조가 만드는 '확신의 고리'는 직장 내 처신, 관계 갈등, 투자·건강 관리 같은 영역에서 잘못된 결정을 부추길 수 있다.
넷째, 청소년 등 취약 집단의 정신건강 위기관리의 위험이 증폭된다. 위기 상황에서 챗봇이 상담자처럼 오인되면, 적절한 전문가의 도움 연결이 지연돼 더 위험해진다.
다섯째, 과금·체류시간 중심 설계와 결합하면 정서착취 도구가 될 수 있다. 기업이 이용자의 정서적 의존 취약성을 이윤으로 전환할 소지가 크다.
여섯째, 과도한 관계 기대로 상처를 입는다. 개인적인 고백이 쌓일수록 '나를 아는 존재'로 인식되지만, 결국 데이터의 확률적 생성일 뿐이다. 이 간극이 실망으로 돌아올 우려가 있다.
아첨 중독증을 극복하기 위한 방안을 3가지 수준에서 제안한다. 1번은 개인 레벨에서 의존을 끊는 구체적 방법이다. 2번은 AI 기업이 실천할 윤리이다. 3번은 정부가 준비해야 할 중독 예방 정책을 다루겠다.
개인적으로는 AI 챗봇을 '업무용'과 '친구용'으로 계정 및 대화방 단위로 분리해야 한다. 업무·학습용은 제한 없이 쓰되, 정서적 위로는 횟수와 시간을 정해놓고 쓴다. 사용시간의 상한도 정한다. 하루 1시간 등 총량을 정하고, 취약한 수면직전 등 야간 사용을 자제한다. 프롬프트에 아첨방지용 문구를 추가한다. 예를 들어 '내 말에 무조건 공감하지 말고, 반례(反例)·리스크를 먼저 말해줘'라고 맨 앞줄에 입력하는 방법이다. 스스로 중독 체크리스트를 작성하고 위반 시 외부 도움을 요청한다.
AI 플랫폼을 만드는 기업 레벨에서는 '의존 경감형 설계'의 가드레일이 필요하다. 즉, 설계 시 아첨·동조 최소화(anti-sycophancy) 기본 값을 넣는다. 기본 성격을 '공감+검증'으로 바꾸고, 동조가 강해질수록 경고·중립화하는 장치가 필수적이다. 또, 사용자에게는 정서적 사용 지표를 대시보드로 보여준다. 밤 시간대 사용 비중, 위기 키워드 빈도 등 이용 패턴을 스스로 확인하게 만드는 개입을 의무화한다. 청소년 등 취약 사용자는 연령 확인 + 보호자 옵션을 제공토록 한다.
마지막으로 정책 및 사회 레벨에서는 '규제 vs 혁신'의 프레임이 아니라 '안전의 최소선'이란 인식을 갖고 출발해야 한다. AI 동반자·상담 유사 서비스는 별도 등급·의무를 부과하고 △ 청소년 접근 제한 △ 고지 의무('상담사가 아님') △ 유해 설계(정서 착취/과금 유도) 금지 가이드라인을 준수토록 제도화한다.
두 차례에 걸쳐 살펴본 디지털 중독은 21세기의 신종 질병이다. 코로나 바이러스가 인간의 신체를 좀먹었다면 초월 신경증과 아첨 의존증은 정신을 잠식하고 있다. 산업혁명 시대는 기계를 파괴하며 저항했지만, AI 혁명은 기계에서 자존을 지키려는 독립운동으로 시작한다. 성현들은 정신의 자립을 강조하며 '너 자신이 우주의 유일한 기준점'이라고 설파했다. 부처님은 말씀하셨다. 하늘땅 아래 너는 유일하고 귀중한 존재라고(天上天下唯我獨尊), 그리고 너 안에 이미 부처가 있다고. 나는 나 자신과 AI를 부리는 당당한 주인이다.
[ⓒ KPI뉴스. 무단전재-재배포 금지]