김웅식 건양대 의료공과대학 의료인공지능학과 교수
김웅식 건양대 의료공과대학 의료인공지능학과 교수

오늘날 인공지능은 다양한 산업에서 적용되고 있다. 인공지능 분야는 앞으로도 빠르게 확산될 것으로 예상되고 이는 누구도 반론하기 어려운 사실이다. 하지만 현재 적용되고 있는 인공지능 기술은 완벽한가? 라는 질문은 필요하다.

완벽하지 않다면 추가적인 성장을 기대하기엔 무리가 있기 때문이다. 하지만 안타깝게도 결과가 오류인 경우도 있고, 때로는 편향성(Bias)을 지니는 사례도 존재한다. 인공지능의 편향성을 보여주는 대표적인 사례로는 민간업체가 개발해 미국 20여개 주 법원에서 사용하던 컴파스(COMPAS)를 꼽을 수 있다. 컴파스는 체포 직후 피의자에게 실시한 설문조사를 바탕으로 재범 위험성을 점수화해 제시하는 인공지능으로 실제 판결에 참고되고 있다. 2016년 탐사보도 언론에서는 컴파스를 분석한 결과 피의자가 흑인일 경우, 재범 확률을 더 높게 산정한다고 발표하였다. 컴파스가 분석한 예를 한가지 들어보면 절도 시도가 있고, 마약을 소지하고 있던 백인보다 저항하지 않았던 흑인이 더 위험하다고 컴파스는 판단했다. 그렇다면 인공지능 기술이 비약적으로 발전하고 있는 현재는 어떨까? 기대와 달리 인공지능의 편향성은 여전히 존재한다. 2019년 미국 뉴욕대의 AI 나우 연구소에서는 'Dirty Data, Bad Predictions'라는 보고서를 발표하며, 인공지능을 활용한 범죄예측시스템에 문제가 있음을 밝혔다.

인공지능의 편향성은 특정 분야에만 국한된 것이 아니라 인물 인식, 채용, 신용대출, 의료서비스 등 다양한 업종에서 이루어지고 있다. 작은 규모의 기업들도 있지만, 아마존, 구글, 금융사 등 거대기업들도 포함된다. 인공지능이 비록 의도하지는 않았지만, 많은 편향성을 가지고 있는 셈이다. 인공지능이 의도하고 편향적인 결과를 도출할 가능성은 낮다고 생각한다. 그렇다면 인공지능 이 내린 결과가 편향성을 가지는 이유는 현실에서 수집된 데이터를 입력처리하고, 학습 및 평가 하는 일련의 과정에서 다양한 변수가 개입할 수 있기 때문이다. 먼저 현실에서 수집되는 데이터부터 편향성을 가지고 있는 경우가 많다. 수집하는 대상이 특정 세력을 지지하는 경우에도 편향된 값이 도출될 수 밖에 없다. 또한 데이터를 생성하고, 학습하는 단계에서도 변수가 존재한다.

물론 인공지능이 이러한 우려에도 불구하고, 여러 분야에서 우수한 결과물을 빠른 시간에 도출하고 있는 것은 사실이다. 하지만 결과가 때로는 편향성을 가지고 있고, 도출과정에서 근거가 부족하다면 쉽사리 활용할 수 없다는 것도 분명하다. 인공지능의 적용 범위도 자연스럽게 단순한 작업과 실패하더라도 피해가 적은 분야로 제한될 수밖에 없다.

이를 해결하기 위한 방법으로 '신뢰할 수 있는 인공지능(Trustable AI)'에 대한 관심이 높아지고 있고, 그밖에도 논리성, 책임성, 정보보호 등 여러 요인이 강조되고 있다. 그 중에서도 결과를 내린 이유와 과정을 제시하는 '설명가능한 인공지능(eXplainable AI, XAI)'이 부각되고 있다. 지금까지는 인공지능의 신뢰성이 그다지 강조되지 않았다. 사람이 규칙을 만들어 적용했기 때문에 결과에 대한 해석과 설명이 비교적 쉽기 때문이었다. 하지만 지난 몇 년간 기계학습과 딥러닝 모델이 확산되면서 상황은 바뀌었다.

만약 설명가능한 인공지능을 통해 블랙박스 상태의 인공지능이 신뢰성을 가진다면 먼저 소비자와 판매자, 연구자를 비롯해 투자자, 규제당국 등 다양한 이해 관계자 들이 가지고 있던 인공지능의 결과에 대한 의심과 혼돈이 감소할 것이다. 특히 의사결정에 걸림돌이었던 근거부족이 해결되면서 인공지능이 산업에 적용되는 속도는 더욱 빨라질 것으로 판단한다. 또한 기업과 산업 뿐만 아니라 사회, 법 제도 측면에서도 기존에 문제였던 편향성이 사라지는 등의 긍정적인 변화가 기대된다.

김웅식 건양대 의료공과대학 의료인공지능학과 교수
저작권자 © 대전일보 무단전재 및 재배포 금지