커지는 AI 윤리성 요구에 KT의 ‘책임감 있는 AI’ 체계 주목믿:음 K 2.0 Base, 국내 최초로 ‘AI 신뢰성 인증 2.0’ 획득‘바로 활용 가능한 AI’로 B2B·공공 시장 대응
  • ▲ ⓒKT
    ▲ ⓒKT
    KT는 AI 기술 고도화와 함께 안전성과 신뢰를 전제로 한 ‘책임 있는 AI(Responsible AI·RAI) 체계를 지속 강화하며, 기업과 사회가 안심하고 활용할 수 있는 AI 환경 구축에 힘을 쏟고 있다고 21일 밝혔다.  

    최근 AI는 단순히 콘텐츠를 생성하는 도구를 넘어, 목표를 이해하고 스스로 판단해 과업을 수행하는 ‘에이전틱 AI’로 진화하고 있다. AI가 의사결정과 실행 과정에 직접 관여하는 영역이 확대되면서, 산업 전반에서는 기술 혁신에 대한 기대와 함께 AI의 안전성과 신뢰성을 어떻게 확보할 것인가에 대한 요구도 커지고 있다.

    이에 KT는 AI 윤리를 단순한 기업의 컴플라이언스 차원을 넘어, AICT 중심 경영으로 도약하기 위한 핵심 가치로 설정하고 전사적 역량을 결집해왔다.

    KT는 2024년 ‘책임감 있는 AI 센터(RAIC)’라는 전담 조직을 구축하고, 국내 통신사 중 처음으로 최고책임자인 CRAIO를 임명했다. 자체 AI 윤리 원칙 ‘ASTRI(아스트리)’를 제정해, AI의 기획·개발·운영·활용에 이르는 전 과정에서 △책임성(Accountability) △지속가능성(Sustainability) △투명성(Transparency) △신뢰성(Reliability) △포용성(Inclusivity) 5대 핵심 원칙을 적용하고 있다.

    또한, 매해 ‘KT 책임감 있는 AI 리포트’를 발간하며 KT가 추진한 다양한 AI 윤리 강화 활동을 정리하고, 안전하고 신뢰할 수 있는 AI 구현을 위한 KT의 노력과 성과를 공개하고 있다.

    이번 2025년 12월 발간한 리포트에서는 특히 KT가 자체 개발한 AI 모델의 사회적 영향·안전성 평가 프로세스와 AI 가드레일(SafetyGuard)을 상세히 담아 RAI 오픈소스 커뮤니티에 기여하고 있다. 뿐만 아니라 RAI 교육을 확산하는 등 책임감 있는 AI 프레임워크 기반의 주요 활동에 대한 실천 사례도 중점적으로 소개했다.

    또 KT는 분야별 외부 전문가로 구성된 ‘KT 책임 있는 AI 자문위원회’를 지속 운영하며 정부·산업계와 협력해 AI 관련 제도 논의에도 적극적으로 참여해 왔다. 계열사와 협력사를 포함한 전 직원 대상으로 AI 윤리 교육을 필수 교육 과정으로 운영하는 등 책임 있는 AI 문화 확산에도 힘쓰고 있다.

    기술 측면에서는 국내외의 AI Risk 관리 체계를 면밀히 검토하여 국내 환경에 적합한 자체 AI 안전성 기준을 수립하였으며, AI Risk 식별, 평가, 완화를 위한 기술적 가이드라인이라 할 수 있는 ‘책임있는 AI 기술보고서(Technical Report)’도 2025년 10월 발간했다. 이 기술보고서를 통해 AI 개발부터 운영까지 전주기적 위험 관리 체계를 구축하고, 실제 환경에 적용 가능한 평가 체계와 구현 전략을 제시하고 있다.

    한편 AI 모델의 유해 응답을 실시간으로 차단하는 ‘AI 가드레일(SafetyGuard)’은 2025년 9월 허깅페이스(Hugging Face) 플랫폼에도 공개한 바 있으며 이는 한국어 AI 모델을 대상으로 윤리적 응답 품질을 평가하는 벤치마크 ‘Kor Ethical QA’ 기준으로 F1 스코어 97점을 기록한 바 있다.
       
    이러한 노력의 결과로 KT가 자체 개발한 AI 모델 ‘믿:음 K 2.0 Base’은 AI 모델 대상으로는 국내에서 처음으로 한국정보통신기술협회(TTA)로부터 ‘인공지능 신뢰성 인증 2.0(CAT 2.0)’을 획득한 바 있다.

    KT는 성능 중심 AI에서 나아가 믿을 수 있는 AI, 바로 활용 가능한 AI를 통해 국내 기업과 공공 고객이 안심하고 AI 전환(AX)을 추진할 수 있도록 지원한다는 방침이다.

    배순민 KT CRAIO 상무는 “앞으로도 신뢰할 수 있는 AI 기술을 기반으로 국내 AI 산업의 건강한 성장과 이용자 신뢰 확보에 기여하겠다”고 말했다.