신한은행 'GREAT Momentum' 전면 가동NH농협·핀테크도 '알고리즘 대출' 확대'블랙박스 리스크·개인정보 침해' 제도 공백금융위, 내년 ‘AI 금융 가이드라인’ 제도화
  • ▲ ⓒ챗GPT
    ▲ ⓒ챗GPT
    국내 은행권이 AI(인공지능)을 활용한 대출 심사와 리스크 관리 등을 전면 도입하며 '알고리즘 금융' 시대에 진입했다. 신한은행을 필두로 NH농협은행, 토스·카카오페이 등 주요 금융·핀테크 기업이 AI 플랫폼을 통해 업무 효율화를 꾀하고 있다. 그러나 결정 과정을 설명할 수 없는 '블랙박스 리스크', 개인정보 활용 논란, 책임소재 불명확, 사후 부실 모니터링 부재 등 제도적 공백이 새로운 숙제로 떠올랐다.

    8일 금융권에 따르면 신한은행은 올해 하반기 그룹 차원의 AI 전략 'GREAT Momentum'을 가동하며 대출 프로세스 자동화에 나섰다. ▲Gateway(업권 최고의 대면채널 구축) ▲Retail(리테일 솔루션 강화) ▲Ecosystem(플랫폼/제휴 성과 증강) ▲Association(그룹사 시너지 강화) ▲Trust(Zero-Risk 내부통제) 등을 통해 경쟁력을 확보한다는 목표다.

    신한은행은 금융권 최초로 자체 개발한 AI 플랫폼 'AI ONE'과 'AI Studio'를 연계해 고객 신용분석부터 상품 추천·심사·사후관리까지 통합 처리한다. 디지털 데스크와 무인점포에 24시간 AI 상담원을 배치한 결과 심사 속도가 종전보다 빨라졌다는 게 내부 평가다. 

    NH농협은행도 전국 1103개 지점에 AI 행원을 배치해 기업 대출 심사에 AI 시스템을 적용했다. 토스·카카오페이 등 핀테크업계는 통신요금·소비 패턴·SNS 활동 등 비금융 데이터를 활용한 대안신용평가 모델을 도입해 중·저신용자 대상 대출 문턱을 낮추고 있다. 핀테크 업계 관계자는 “전통적 신용정보가 부족한 고객도 AI 평가를 통해 금융 접근성을 높일 수 있다”고 설명했다.

    그러나 AI 금융 확산과 함께 구조적 위험도 커지고 있다. 무엇보다 내부 로직이 공개되지 않아 오류나 편향 발생 시 책임 소재가 불분명한 '블랙박스 리스크'가 대표적이다. 위치 정보·통화 기록 등 민감한 비금융 데이터를 심사에 활용하면서 개인정보 침해 우려가 끊이지 않고, 대출 실행 이후 연체·부실 징후를 실시간으로 추적·관리하는 사후 모니터링 기능도 아직 초기 단계에 머물러 있다. 

    한 시중은행 CRO(위험관리책임자)는 "AI 심사가 안정적으로 자리 잡으려면 설명 가능성, 데이터 윤리, 투명성 확보라는 '3박자'가 필수"라고 강조했다.

    금융당국도 대응에 나섰다. 금융위원회는 하반기 중 '금융분야 AI 활용 가이드라인' 개정안을 마련해 알고리즘 설명 요건·개인정보 보호 기준·모델 검증 절차 등을 2026년까지 제도화할 계획이다. 다만 현 가이드라인이 자율규범 수준인 만큼 법적 구속력 확보가 관건이다.

    법조계는 금융당국과 업계가 혁신과 소비자 보호 사이 균형점을 찾지 못하면 '알고리즘 금융'은 또 다른 리스크로 되돌아올 수 있다고 경고한다.

    은행법학회 차상진 총무이사(변호사)는 "대출 심사는 은행의 '본질적 업무'로 외부 위탁이 금지돼 있어 AI 알고리즘 오류로 손실이 발생해도 최종 책임은 은행이 져야 한다"고 말했다. 이어 "개발자조차 내부 로직을 설명할 수 없는 '블랙박스' 특성 때문에 솔루션 제공사에 구상권을 행사하기도 어렵다"고 덧붙였다.

    차 변호사는 AI 의사결정 과정을 고객에게 '충분히 설명'하라는 지침도 과거 금융상품 설명 의무 수준을 벗어나기 어려울 것이라고 지적했다. 이어 "금융위 가이드라인은 법적 구속력은 없지만 위반 시 '내부통제 위반' 또는 '주의 의무 위반' 제재 근거가 된다"면서도 "일반 소비자가 이를 토대로 손해배상을 청구하기는 쉽지 않을 것"이라고 예상했다.

    책임소재 불명확 문제를 해결하기 위해 차 변호사는 "은행에 '입증 책임 전환' 제도를 도입하고 승인된 AI 모델에 한해 위험을 일부 면책하는 '세이프 하버(Safe Harbor)' 제도를 검토해야 한다"고 제안했다.