개발사와 서비스 제공자 대상, 2년마다 개선검토주기 앞당길 수 있어, 법제화도 검토
-
- ▲ ⓒ뉴데일리 김성현 기자
생성형 AI 서비스 과정에서 이용자 피해를 방지하기 위한 가이드라인이 나왔다.방송통신위원회는 28일 생성형AI 서비스 이용 과정에서 피해를 방지하기 위해 사업자들이 참고할 수 있는 실천 방안을 담은 ‘이용자 보호 가이드라인’을 발표했다.내달 28일부터 시행되는 가이드라인은 생성형 인공지능 개발사와 서비스 제공자를 대상으로 추구해야 할 4가지 기본원칙과 이를 실현하기 위한 6가지 실행 방식을 제시했다.기본원칙은 ▲인간중심의 생성형 AI서비스 ▲설명 가능성이 확보된 생성형 AI서비스 ▲안전하게 작동하는 생성형 AI서비스 ▲공정한 생성형 AI서비스다.이용자 보호를 위한 실행방식으로는 이용자 인격권 보호와 생성형 AI서비스의 다양성을 존중하는 노력, 데이터 수집 활용 과정에서의 관리와 문제 해결을 위한 책임과 참여 등을 포함시켰다.가이드라인을 배포하게 된 배경은 생성형 AI기술의 발전이 일상생활의 변화를 가져오고 있지만, 사회적으로 물의가 되는 부작용도 심각하게 대두되고 있기 때문이다. 이용자 안전과 권리를 보호할 제도적 기반 마련 필요성이 지속적으로 제기돼 온 데 따른 것이다.방통위는 이를 위해 정보통신정책연구원(KISDI)과 AI전문가가 참여하는 연구반을 구성했다. 그동안의 생성형 인공지능 피해사례와 국내외 주요 서비스별 이용자 보호 현황 등을 검토해 가이드라인을 마련했다.가이드라인은 방통위 누리집을 통해 내려받을 수 있다. 방통위는 시행일 기준 2년마다 가이드라인에 대한 타당성을 검토해 개선 등 조치를 취할 계획이다. 빠르게 변화하는 AI에 맞춰 타당성 검토 기간은 빠르게 앞당길 수 있으며, 법제화 여부도 검토할 방침이다.신영규 방통위 방송통신이용자정책국장은 “이번 가이드라인을 통해 생성형 인공지능 사업자가 바람직한 이용자 보호 방안을 마련할 수 있게 될 것으로 기대한다”며 “궁극적으로 이용자의 권리가 보장되고 관련 서비스가 신뢰받을 수 있는 기반을 마련할 수 있을 것”이라고 말했다.





