거버넌스·위험평가·위험통제 3대 핵심 프로세스 제시설명회·간담회 통해 의견 수렴 … 1분기 중 최종안 확정
  • ▲ ⓒ금감원
    ▲ ⓒ금감원
    금융감독원은 15일 금융권의 AI(인공지능) 활용 확산에 따른 새로운 위험에 대응하기 위해 '금융분야 AI 위험관리 프레임워크(AI RMF)'를 도입한다고 밝혔다.

    기술 진보를 넘어 산업·사회 전반의 패러다임 전환을 이끄는 AI가 금융시장에 빠르게 확산되는 가운데 금융안정과 소비자 보호를 위한 관리체계를 선제적으로 구축하겠다는 취지다.

    최근 금융권은 AI를 활용한 대고객 서비스와 내부 업무 혁신을 잇따라 추진하고 있다.

    금융당국도 망분리 규제 합리화, 데이터·인프라 제공, 각종 가이드라인 마련 등을 통해 금융권의 AI 도입을 지원해 왔다.

    다만 AI의 복잡성과 불투명성, 데이터 의존성에 따른 새로운 유형의 위험이 부각되면서 금융소비자 권익 침해와 금융안정 훼손 우려가 증가했다.

    특히 금융 분야는 실시간 거래가 이뤄지는 특성 상 AI 오류가 빠르고 광범위하게 전파돼 시스템 리스크로 발현될 가능성이 높다.

    실제로 금감원이 지난해 4월 은행·카드사·증권사·보험사 등 118개 금융회사를 전수 조사한 결과, AI 거버넌스와 위험관리 체계는 전반적으로 미흡한 것으로 나타났다.

    AI 관련 의사결정기구를 설치한 곳은 은행 5곳(25%), 보험사 4곳(7.5%), 증권사 1곳(2.7%)에 불과했고, 약 85%의 금융회사는 AI 윤리원칙이나 위험관리 기준조차 마련하지 못한 상태였다.

    AI 서비스를 개발·활용하는 과정에서 감독당국이 제시한 AI 관련 가이드라인을 적용한 비율도 약 60%에 불과했다.

    AI RMF는 △AI 거버넌스 구축 △AI 위험평가 체계 마련 △AI 위험통제 강화를 골자로 한다. 법적 강제력은 없으며, 금융사가 자체 여건에 맞춰 자율적으로 강화·완화 또는 선택 적용이 가능하다.

    우선 금융사는 AI 위험관리를 위한 의사결정기구와 전담조직을 구성하고, 관련 내규를 마련하는 등 거버넌스 체계를 구축해야 한다. 이를 통해 AI 활용 과정에서 책임소재를 명확히 하고 내부통제 체계를 강화한다는 취지다.

    특히 CEO(최고경영자)가 AI 관련 사업계획과 위험을 명확히 인식할 수 있도록 정기 보고 체계를 갖추도록 했다.

    또 AI 개발·도입 조직과 독립된 위험관리 전담 조직을 두고 AI 위험의 인식·측정·평가와 함께 관련 법규 준수 여부를 관리·감독한다.

    이와 함께 AI 윤리기준을 바탕으로 위험관리 규정과 업무 매뉴얼을 정비하고 최종 의사결정 책임을 임직원이 지도록 내규화하는 방안도 포함됐다.

    위험평가 단계에서는 '금융 AI 7대 원칙'을 토대로 정량적 평가체계를 구축하고 AI기본법상 고영향 AI는 위험점수와 관계없이 고위험 서비스로 분류해 관리하도록 했다.

    위험통제 측면에서는 평가 결과에 따라 차등화된 관리체계를 적용하고 금융안정이나 소비자 권익 침해 우려가 큰 '초고위험 AI'는 의사결정기구를 통해 출시 여부를 재검토하도록 했다.

    금감원은 업권별 협회를 통해 AI RMF(안)을 배포하고 설명회와 간담회를 거쳐 의견을 수렴한 뒤, 올해 1분기 중 최종안을 확정·시행할 계획이다.

    이후 모범사례 전파와 도입 회사 실태점검을 통해 AI 거버넌스와 위험관리 프로세스가 금융회사 내부통제 체계에 안착하도록 지원한다는 방침이다.