WHO, 의료분야에 AI를 윤리적으로 사용하기 위한 6가지 핵심 원칙 발표

이진영 / 2021-07-01 19:32:20

세계 보건기구(WHO)가 건강에 인공지능(AI)을 윤리적으로 사용하기 위한 6가지 핵심 원칙에 대해 발표했다고 더 버지가 보도했다.

WHO는 지침 문서를 통해 인공지능을 질병에 대한 진단과 검사 속도·정확성 향상, 임상 진료 지원, 건강 연구 및 의약품 개발 강화, 질병 모니터링, 발병 대응, 보건 시스템 관리 등 다양한 공중 보건 중재 지원을 위해 활용될 수 있다고 설명했다. 특히 자원 부족 지역의 가능성을 강조했다. 자원이 부족한 국가와 지역에서 의료 서비스에 대한 접근성 격차를 해결하고 건강 격차와 불평등을 해소할 수 있다고 밝혔다.

그러나 AI가 건강 문제, 특히 저소득층 및 중산층의 문제에 대한 빠른 해결책이 아니며, 정부와 규제당국은 건강에서 AI가 어디에 어떻게 사용되는지를 면밀히 조사해야 한다고 강조했다. 또한 의료 분야에서 AI 기술이 여전히 새로운 기술임을 지적하며 신중한 접근을 통해 잠재적인 피해를 피할 수 있을 것이라고 설명했다.

건강을 위한 인공지능의 윤리와 지배구조 보고서는 WHO가 선정한 국제 전문가 위원회가 2년 동안 협의한 결과이다. 이는 의료 환경에서 AI 윤리에 대한 최초의 합의 보고서이다. WHO의 보고서는 관리 격차 예방을 위해 인공 지능 규제와 거버넌스의 기반이 되는 6가지 원칙을 발표하며, 이 원칙이 정부, 개발자, 규제당국이 이 기술에 접근하는 방법에 대한 토대가 되기를 바란다고 밝혔다.

WHO가 발표한 6가지 원칙은 다음과 같다. ▲ 자율성 보호 ▲ 인간의 안전과 복지 증진 ▲ 투명성 보장 ▲ 책임 의식 함양성 ▲ 형평성 보장 ▲ 대응력이 뛰어나고 지속 가능한 도구 추구

의료 분야에 인공지능을 활용할 때 가이드가 필요한 이유

AI를 의료에 활용할 수 있는 방법은 수십 가지에 이른다. 현재 개발 중인 애플리케이션 중에는 AI를 이용한 유방암 촬영과 같은 의료 영상을 분석하는 애플리케이션, 환자의 건강 기록을 스캔해 질병 발생 가능성을 예측하는 도구, 사용자가 직접 자신의 건강을 모니터링하는 기기, 질병 발생을 추적하는 시스템 등이 있다. 전문 의사에게 진료를 받기 힘든 지역에서 이러한 도구들은 증상을 평가하는 데 도움이 될 수 있다. 하지만 신중하게 개발 및 구현되지 않으면 제 기능을 할 수 없으며, 최악의 경우 건강에 해를 끼칠 수 있다.

코로나바이러스감염증-19(COVID-19) 대유행을 극복하기 위해 전세계적으로 의료기관 및 정부가 AI 솔루션을 주목했다. 하지만 이러한 툴의 대부분은 WHO 보고서에서 경고하는 몇 가지 요소들을 가지고 있었다.

예를 들어 싱가포르 정부는 연락처 추적 애플리케이션이 범죄 수사에도 사용될 수 있는 데이터를 수집했음을 인정했다. 이는 보건 데이터가 원래 목표를 초과해 용도가 변경된 ' 기능 크리프(function creep)'의 일례이다. 또한 흉부 스캔을 통해 COVID-19 검출을 목표로 한 AI 프로그램의 대부분은 대부분 빈약한 데이터를 기반으로 해 쓸모가 없었다.

보고서는 "비상사태는 입증되지 않은 기술을 구현하는 것을 정당화하지 않습니다."고 말했다.

보고서에 따르면 많은 AI 도구들이 구글이나 텐센트와 같은 대형 민간 기술 기업에 의해 개발되거나, 공공 부문과 민간 부문 간의 파트너십에 의해 개발되고 있다. 이러한 기업은 의료용 AI 툴을 구축할 자원과 데이터를 보유하고 있지만, 여기에 제안된 윤리 프레임워크를 채택할 이점이 없을 수 있다고 경고했다. 기업의 초점은 공익이 아니라 이윤에 맞춰져 있을 것이기 때문이다.

WHO는 보고서를 통해 "이러한 기업들은 혁신적인 접근 방식을 제공하겠지만, 결국 정부, 공급업체 및 환자와 관련해 너무 많은 권한을 행사할 수 있다는 우려가 있다"고 밝혔다.

WHO가 발표한 6가지 원칙

아래는 WHO가 발표한 의료 분야에서 AI를 활용할 때 지켜야 할 6가지 원칙과 중요성에 대한 구체적인 내용이다.

1. 자율성 보호
인간은 모든 건강 결정을 감독하고 최종 결정권을 가져야 한다. 이는 전적으로 기계에 의해 내려져서는 안 되며, 의사들은 언제든지 이를 무시할 수 있어야 한다. 누군가의 의료 서비스를 안내하는 데 그들의 동의 없이 AI를 사용해서는 안되며, 그들의 데이터는 보호되어야 한다.

2. 인간의 안전과 복지 증진
개발자는 AI 도구가 정상적으로 작동하고 해를 끼치지 않는지 지속적으로 모니터링해야 한다.

3. 투명성 보장
개발자는 AI 도구 설계에 대한 정보를 공유해야 한다. 이 시스템에 대한 지속되는 비판 중 하나는 이 시스템이 "블랙박스"이며 연구원들과 의사가 AI가 어떻게 결정을 내리는지 알기 어렵다는 것이다. WHO는 사용자와 규제 당국이 충분히 감사하고 이해할 수 있는 투명성을 확보하고자 한다.

4. 책임 의식 함양성
도구에 의한 결정이 환자의 위해로 이어지는 경우와 같이 AI 기술에 문제가 있는 경우, 누가 책임져야 하는지를 결정하는 메커니즘이 있어야 한다(예: 제조업체 및 임상 사용자).

5. 형평성 보장
도구를 다국어로 사용할 수 있도록 함으로써 다양한 데이터 세트에 대한 교육을 받는다. 지난 몇 년 동안 일반적인 건강 알고리즘에 대한 면밀한 조사를 통해 일부 알고리즘에 인종적 편견이 내재되어있다는 것을 발견했다.

6. 대응력이 뛰어나고 지속 가능한 도구 추구
개발자는 도구를 정기적으로 업데이트할 수 있어야 하며, 기관은 도구가 비효율적이라는 것이 나타나면 조정할 방법이 있어야 한다. 기관이나 기업은 자원이 부족한 의료 시스템에서도 수리할 수 있는 도구만 도입해야 한다.

[ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

이진영

IT/Tech, 금융, 산업, 정치, 생활문화, 부동산, 모빌리티

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0