
인공지능(AI) 기술이 발전함에 따라 의료계에서 AI 채택에 대한 관심도가 높아졌다.
일례로, 영국 국민보건서비스(NHS) 전문의 사이에서 환자 진단서 작성 등 일부 업무 시간 단축과 진료 환자 수를 늘리기 위해 챗GPT(ChatGPT)와 같은 AI 챗봇 채택을 요구하는 목소리가 제기되었다. 또, 일각에서는 AI가 암 진단 속도를 높일 수 있다는 연구 결과를 제시했다.
그러나 해외 뉴스 웹사이트 액시오스는 세계보건기구(WHO)와 다수 의학 분야 연구원이 의료계의 AI 채택을 경고한 사실을 보도했다.
WHO는 의학계의 대규모 언어 모델 구축이 편견과 거짓 정보 확산, 프라이버시 침해 등과 같은 문제를 악화할 수 있다고 경고했다. 특히, WHO는 인구 집단의 요소를 제대로 반영하지 못한 AI가 부정확한 정보나 오해의 소지가 있는 정보를 제공할 위험성을 강조했다.
또, WHO는 환자 치료 과정에서 개인이 피해를 볼 확률은 300분의 1이며, 그중 다수는 데이터 오류가 원인이라는 자체 연구 결과를 발표했다.
현재 의료계의 AI 활용이 백신 개발부터 치명적인 심장 질환 치료까지 여러모로 의사에게 도움을 주면서 속도, 정확성, 비용 절감 효과를 제공하는 것은 사실이다. 그러나 간혹 클릭 한 번이나 보안 침해 때문에 환자가 심각한 피해를 보는 사례가 발생할 수 있다.
오늘날 대규모 언어 모델은 제대로 된 답변을 전달할 준비가 되지 않았을 때 스스로 거짓 정보를 사실인 것처럼 생성한다. 애리조나주립대학교 연구원 비사 베리샤(Visar Berisha)와 줄리 리스(Julie Liss)는 임상 AI 모델에 중대한 맹점이 있어, 간혹 데이터가 추가되면서 부정확한 정보를 제공할 위험성이 증가한다고 지적했다.
이에, 액시오스는 의료계의 AI는 의료 연구 결과 무기화 위험성 이외에도 언어 모델의 학습 데이터 자체에 포함된 편견을 그대로 학습하여 인종, 성별, 지리적 격차와 같은 문제가 더 악화될 위험성이 있다는 점을 지적했다.
한편, 액시오스는 미국 보건복지부가 환자 인구 통계를 포함한 알고리즘 투명성에 관한 제안된 규칙을 논의하고 있다는 점을 언급했다. 다만, 미국 식품의약국(FDA)의 2022년도 9월 보고서를 통해 FDA는 의료계의 AI 기반 앱 및 기기 수요 급증 추세애 대비할 준비가 되지 않은 사실이 드러났다고 지적했다.
[ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]