안기옥 가치랩스 대표
안기옥 가치랩스 대표


바야흐로 AI와 로봇이 인간을 대신하는 시대다. 1편 ‘인공지능 반란, 누가 통제할 수 있을 것인가’에서 이야기 했듯 AI는 제조뿐만 아니라 스피커, 스마트TV, 스마트냉장고 등 생활가전에 폭넓게 사용되며 우리 삶 깊숙이 파고들었다.

하지만 수많은 알고리즘으로 만들어진 AI 블랙박스는 점점 우리가 제어할 수 없는 존재가 되어가고 있다. 영화 ‘터미네이터’의 ‘스카이넷’처럼 말이다. 우리는 더 늦기 전에 AI가 더 이상 기계적인 판단을 하도록 내버려두는 것이 아니라 판단에 대해 인과관계를 설명할 수 있는 근거를 제시할 수 있도록 해야 한다.

먼저 우리는 AI가 학습에 사용하는 데이터부터 검증해야 한다. 어린아이가 사회에서 올바른 생각과 행동을 할 수 있도록 국가가 인정한 교과서로 교육하듯 AI가 잘못된 생각이나 행동을 하기 전에 올바른 데이터로 AI가 성장할 수 있도록 관리해야 한다.

이러한 과정은 수많은 데이터간의 비교를 통해 최적의 학습 모델을 도출, 보다 더 효율이 좋은 AI시스템의 성능을 이끌어 내게 되는 것이다. 우리는 이것을 통해 빅데이터로부터 기존에 알 수 없었던 법칙, 전략 등을 도출하기 때문이다.

두 번째로 AI가 제시한 답에 대해 우리는 “왜?”라는 질문을 해야 한다. 우리는 지난 “인공지능 반란, 누가 통제할 수 있을 것인가”에서 AI의 많은 문제점을 사례로 짚어봤듯 AI의 비정상적 행동이 어떤 이유로 일어났는가에 대한 의문을 제시해야 한다. 이런 질문은 매우 중요할 뿐만 아니라 합리적인 XAI의 필요성을 말해주고 있기 때문이다.

즉, AI가 문제 원인을 살펴보고 풀이 과정 중에서 잘못된 부분을 찾아내 수정하면서 올바른 답을 내고 있는지 확인해야 한다. 병원에서 AI가 어떤 환자에게 처방한 약을 그대로 받아들이는 의사는 없다. 즉 AI는 의사에게 처방한 약에 대한 근거를 제시하고 그것을 의사가 검증하는 절차를 거치는 과정이 필요한 것처럼 말이다.

이러한 데이터의 검증과 “왜”에 대한 답을 할 수 있는 XAI로 이제 AI는 하나의 도구에서 파트너로써 업무를 수행하게 될 것이다. 아울러 기업의 신뢰와 투명성을 높여주는 단계로 갈 수 있을 것이다. 더 이상 블랙박스 뒤에 숨어 음흉한 생각을 하는 ’스카이넷‘이 아닌 합리적이고 도덕적으로 무장된, 신뢰도를 높여주는 AI가 될 것이다.

XAI전문기업 가치랩스 안기옥 대표

(*이 칼럼은 Nextdaily의 편집방향과 다를 수 있습니다.)

저작권자 © 넥스트데일리 무단전재 및 재배포 금지