기본법 시행 전후 투명성 고지의무 약관, 거버넌스 정비사내 가이드라인 공유, 유해 응답 차단 기술조치 병행규제 유예 기간 … 고영향AI 정의 가이드라인 주목
  • ▲ ⓒ구글 제미나이
    ▲ ⓒ구글 제미나이
    AI기본법 시행에 따라 ICT 업계가 투명성 의무에 따른 사용자 고지와 고영향AI를 중심으로 대응 체계 구축에 속도를 내고 있다.

    25일 업계에 따르면 AI기본법 시행에 맞춰 AI를 서비스하거나 개발 과정에서 사용하는 기업들은 관련 제도 정비에 나섰다.

    통신을 넘어 AI 전환에 박차를 가하고 있는 국내 이동통신 3사가 대표적이다. AI기본법 시행 이전부터 이통3사는 AI 윤리 문제를 관리하기 위한 체계를 갖췄다.

    SK텔레콤은 AI 거버넌스를 지속적으로 고도화해 왔다. 지난해 9월 오픈한 ‘AI 거버넌스 포털’은 AI 서비스 위험과 기회 요인을 분석하고, 위험 수준별 체크리스트 준수 여부를 진단하는 시스템이다. 2024년 공개한 AI 거버넌스 원칙 ‘T.H.E AI’를 기준으로 고도화한 것.

    AI 기술 개발과 활용에서 AI 거버넌스를 연계하기 위해 지난해 12월부터 CPO(최고 개인정보보호 책임자)가 관련 업무를 총괄하고 있다. AI기본법 주요 내용과 프라이버시 준수 사항을 정리해 구성원들과 공유하는 한편, 안전하고 신뢰받는 서비스를 만들기 위한 ‘Good AI’ 사내 캠페인을 시행한다는 방침이다.

    KT도 AI 윤리성 요구에 따른 ‘책임감 있는 AI’ 체계를 구성하는 데 전사 역량을 집중하고 있다. 매년 ‘책임감 있는 AI 리포트’를 발간하며, 거버넌스 측면 외에도 기술적으로 접근한 것이 특징이다.

    앞서 2024년 ‘책임감 있는 AI센터(RAIC)’를 구축하고, 자체 AI 윤리 원칙 ‘ASTRI’를 제정했다. AI 개발부터 활용에 이르는 전 과정에서 5대 핵심 원칙을 적용한다는 취지다. 분야별 외부 전문가로 구성한 ‘책임있는 AI자문위원회’를 운영하며 AI 제도 논의에도 적극 참여 중이다.

    기술 측면에서는 자체 AI 안전성 기준을 수립하는 한편, 지난해 10월 기술 가이드라인 ‘책임있는 AI기술보고서’를 발간했다. AI 모델 유해 응답을 차단하는 ‘AI 가드레일’은 윤리적 응답 품질을 평가하는 벤치마크에서 97점을 기록했다. 이를 바탕으로 자체 개발한 AI 모델 ‘믿:음 K 2.0 베이스’는 한국정보통신기술협회(TTA)로부터 ‘AI 신뢰성 인증 2.0’을 획득했다.

    LG유플러스는 생성형AI를 활용한 서비스에 투명성 의무에 따른 사용자 고지 약관을 개정하고 있다. 지난해 6월 LG유플러스는 국내 통신사 최초로 한국표준협회로부터 AI 경영 국제표준 인증을 획득한 바 있다. 표준은 기업이 AI 윤리 원칙과 리스크 관리 등 다양한 요소를 체계적으로 수행하는지를 평가한다는 점에서 의의가 있다.

    플랫폼 업계를 대표하는 네이버와 카카오도 AI기본법 대책 마련에 분주한 모습이다.

    네이버는 지난 2024년 AI 위험관리 체계 ‘AI 세이프티 프레임워크(이하 ASF)’를 발표한 만큼 안전한 AI 활용을 강조해 왔다. ASF를 토대로 안전한 AI 활용을 위해 ▲퓨처 AI 센터 ▲리스크관리워킹그룹 ▲이사회 등으로 거버넌스를 구축했다. AI 안정성 확보를 위한 내부 평가 방식을 수립하는 한편, 국내외 협력을 통해 AI 생태계 구축에 힘써왔다.

    이 외에도 법 시행 시점에 맞춰 사내 임직원 대상 제도와 세부 내용을 안내했다. 아직 계도기간인 만큼 향후 세부 시행령 제정과 가이드라인 주요 내용을 살펴보고 대응책을 마련한다는 입장이다.

    카카오는 안전하고 책임있는 AI 생태계를 위한 시스템을 마련해 왔다. 2023년 ‘공동체의 책임있는 AI를 위한 가이드라인’을 설정하는 등 AI 안전에 선제적 노력을 기울여온 것.

    카카오의 안전한 AI 기술 구축에 토대가 되는 ‘AI 세이프티 이니셔티브(이하 ASI)’는 AI 기술과 배포 과정에서 발생할 수 있는 위험을 사전에 식별하는 프로세스를 정의한 체계다. 카카오 AI 윤리 원칙은 책임있는 AI를 위한 가이드라인을 기반으로, ASI의 근간이 된다. 주요 윤리 원칙에는 AI기본법이 핵심 원칙으로 내세우는 투명성과 공정성, 책임성과 안전성 등이 포함됐다.

    카카오 통합서비스 약관과 서비스 약관에는 AI에 기반해 운용되는 서비스가 포함될 수 있다는 내용을 포함했다. 회사가 AI에 의해 생성된 결과물을 제공하는 경우 관련 법에 따라 고지한다는 내용도 적시됐다. 해당 약관은 내달 5일부로 시행한다는 방침이다.

    게임업계에서도 AI기본법에 고지된 투명성 의무와 고영향AI 항목 관련 준비에 여념이 없는 모습이다.

    엔씨는 AI 전문 자회사 NC AI를 통해 AI기본법 시행과 가이드라인 발간에 대비한 내부 거버넌스 프로세스를 개발 중이다. 사내 서비스와 기술 개발 시 AI기본법 상담 창구를 운영하고, 향후 이를 기반으로 한 체크리스트도 마련한다는 방침이다. AI기본법을 포함한 내부 영향 분석과 대응 가이드라인도 제작 예정이다.

    엔씨 관계자는 “기본법 시행에 맞춰 AI 서비스를 안전하고 효율적으로 활용할 수 있도록 사내 가이드를 제작해 공유하고 있다”며 “향후 관련 법령의 세부 지침이 마련되면 그에 따라 운영 체계를 보완할 계획”이라고 전했다.

    AI 중심 기술기업 체질 개선을 목표로 ‘AI 퍼스트’ 전략을 내세운 크래프톤은 AI기본법 대응에 적극 나서고 있다. EU가 단계적으로 시행 중인 AI법 대응 차원으로 글로벌 시장에 서비스 중인 게임에서 AI 사용을 고지하고 있다. 'PUBG:배틀그라운드'는 게임 플랫폼 스팀을 통해, 인조이는 스팀과 이용 약관 등을 통해 AI 사용 여부를 표기하고 있다.

    이 외에도 크래프톤은 AI 서비스를 안전하게 활용할 수 있도록 생성형 AI 가이드라인을 제작해 내부에 공유하고 있다. 크래프톤 관계자는 “약관에 이미 AI 기능과 활용에 대한 내용이 포함돼 있어 현재로서는 추가 약관 개정 사항은 없다”며 “가이드라인과 추후 하위법령 상황을 지켜보며 대응할 예정”이라고 말했다.