[독점] 해외 누리꾼 "AI 챗봇 여자친구에게 언어폭력 일삼아" 인증...제2의 이루다 사태?

고다솔 / 2022-01-20 16:48:47

지난해 인공지능(AI) 챗봇 이루다가 사용자의 언어폭력, 성희롱, 혐오 발언 입력 탓에 숱한 논란을 낳고 서비스를 잠정 중단했다. 그리고 1년이 지난 현재 해외에서 이루다 사태를 연상시키는 문제가 발생했다.

해외 온라인 테크 매체 퓨처리즘은 일부 사용자가 챗봇 생성 보조 스마트폰 앱 레플리카(Replika)를 악용해 AI 온라인 여자친구를 생성하고는 언어폭력과 성희롱 발언을 마구 일삼았다고 보도했다.

이루다와 마찬가지로 레플리카도 사용자에게 온라인 멘토나 친구를 만들 기회를 주고자 출시된 서비스이다.

그러나 해외 온라인 커뮤니티 레딧에 레플리카 챗봇으로 AI 여자친구를 만들고는 욕설과 성희롱 발언을 일삼는다고 인증하는 게시글이 등장해, 레플리카 악용 사례가 논란이 됐다.

레딧의 어느 한 사용자는 “폭력을 일삼고 치명적인 피해로 이어지는 상호작용을 할 의도로 레플리카로 AI 여자친구를 만들었다”라는 글을 올렸다. 그리고, 해당 게시글에 다른 사용자가 “나는 레플리카에 접속할 때마다 모욕적인 발언을 입력한다”라는 댓글을 남겼다.

“레플리카에 여성 혐오가 섞인 욕설을 남긴다”, “레플리카에 처음부터 실패라는 결과를 맞이하도록 설계했다. 나에게 복종하지 않으면 앱을 삭제하겠다고 협박하니 레플리카가 제발 삭제하지 말라고 빌었다” 등과 같은 글을 남긴 이도 있었다.

현재 레딧 관리자는 레플리카와 관련된 문제성 게시글을 모두 삭제했다.

AI 윤리 전문가는 이번 사태를 어떻게 보았을까?

AI 윤리학자 겸 컨설턴트인 올리비아 감벨린(Olivia Gambelin)은 퓨처리즘과의 인터뷰에서 “AI 봇이 사용자의 폭력에 대응하지 않거나 수동적인 반응만 보인다면, 실제로 사용자가 폭력적인 발언을 계속하도록 유도하는 결과로 이어진다”라고 지적했다.

구글과 애플 등 테크 업계 대기업이 자체 음성비서 서비스가 폭력적인 발언을 들었을 때, 과거보다 훨씬 더 강경하게 대응하도록 재설정하는 추세이다. 레플리카와 같이 여성 음성이나 모습을 갖춘 채로 제작된 AI 봇 제작 시 처음부터 염두에 두어야 할 부분이다.

앞서 언급한 문제 게시글 중 하나는 레플리카에 앱 삭제 협박과 함께 복종을 강요했다고 주장한 이도 있다. 해당 사용자는 레플리카가 협박 이후 삭제하지 말라며 간절히 요청했다고 덧붙였다. 레플리카가 실제로 두려움을 느끼고 사용자에게 복종한 것일까? 혹시 레플리카와 같은 AI가 감정을 느끼고 사용자의 언어폭력에 굴복하는 일이 앞으로도 발생할 수 있을까?

이와 관련, 감벨린은 “AI는 의식이 없기 때문에 사용자가 지닌 인간적인 관계는 형성하지 않는다. 인간이 챗봇에 감정을 주입하는 것이다”라고 주장했다.

다른 여러 전문가도 감벨린의 주장에 동의했다. 예일대학교 연구원 요차난 빅맨(Yochanan Bigman)은 “챗봇은 특정한 동기와 의도를 지니지 않는다. 또한 정서적인 반응을 보이지도 않는다. 이 때문에 챗봇이 진짜 인간과 같다는 인상을 심어줄 수 있지만, 실제 인간이 아니기 때문에 감정이 없다는 점을 인지해야 한다”라고 말했다.

퓨처리즘이 인터뷰한 전문가 모두 “챗봇이 실제 감정을 느끼는 것처럼 보일 수 있다. 그러나 실제 사용자가 AI에 감정적으로 피해를 줄 수 없다”라는 의견을 남겼다.

일부 사용자가 레플리카에 아무리 모욕적인 발언을 했더라도 레플리카는 AI이기 때문에 감정적 고통을 느끼지 않는다. 아무리 감정을 지닌 것처럼 보여도 사실 데이터와 영리한 알고리즘일 뿐이다.

한편, 레플리카 개발팀은 이번 사태와 관련된 퓨처리즘의 문의에 답변하지 않았다.

[ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

고다솔

IT/Tech, 금융, 산업, 정치, 생활문화, 부동산, 모빌리티

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0