인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지
김도은
castorpollux0223@gmail.com | 2021-06-28 20:18:35
인공지능 기술은 우리 생활 속 의료, 제조, 금융, 법률 등 다양한 산업 전반에 도입되면서 발전과 혁신을 이어오고 있다. 그러나 그와 동시에 예상하지 못한 부분에서 말썽을 일으키기도 한다. 대부분의 신기술이 그러하듯 아직 해결해야 할 과제가 많은 것은 당연하다.
그렇지만, 특히 인공지능에 대해서는 만능이라고 생각하는 경향이 있다. 실제 발견된 인공지능 오류 사례와 문제점을 돌아보고, 인공지능의 문제를 보완하고 발전시킬 필요가 있다.
1. 자동차 사고
지난 2월, 구글의 자율주행 자동차가 시속 3km로 미국 캘리포니아주의 도로를 달리다 버스와 충돌했다. 당시 자율주행 프로그램 내 인공지능의 판단과는 다른 상황이 전개되지 않자 그대로 충돌한 것이다. 이처럼 아직은 돌발 상황에 차량 스스로 위험을 피하거나 피해를 줄이는 방향으로 자율적인 판단이 불가능하다.
2. 아마존의 인공지능 채용 프로그램의 차별 문제
작년 10월, 세계 최대 전자상거래 기업 아마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다고 전했다. 여대를 졸업했거나 이력서에 ‘여성’이라는 용어가 들어있으면 점수를 깎는 등 여성 지원자를 차별했기 때문이다.
감정, 친분, 이해 관계 등 비합리적 요소의 영향을 받는 인간보다 인공지능의 알고리즘이 더 공정하리라 기대했던 개발자들의 예상과는 다른 결과였다. 인공지능이 부정확하거나 편향된 데이터를 가지고 학습한다면, 인간 이상의 차별주의적 판단을 내릴 수 있다는 것이다.
3. 정신과 환자에게 자살을 권장하는 인공지능
의학 분야에서도 인공지능이 활발히 이루어지고 있다. 정신과 의사 업무량을 줄이기 위한 AI 챗봇도 등장했으나 환자에게 자살을 추천하면서 도입이 무산되었다. 프랑스 헬스케어 기업 나블라(Nabla)가 텍스트 생성 모델인 GPT-3를 기반으로 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려했다. 이후, 나블라는 “소프트웨어 특징상 현실 세계에서 불규칙하고 예측할 수 없는 반응을 보일 수 있기 때문이라고 환자와 상호작용하는데 부적절하다”고 밝혔다.
위의 사례를 보았을 때, 인공지능의 오류가 우리 삶에 직간접적으로 피해를 줄 수 있는 만큼 인공지능을 맹신하는 것은 바람직하지 않다. 인공지능의 문제점 분석과 예측에 도움을 줄 수 있도록 개발하고 보완해야 해 순기능을 최대한 이용하는 것이 바람직할 것이다.
[ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]