성희롱·혐오·개인정보 등 이유 서비스 중단SKT 등 기업 자체적 AI 윤리기준 재정립 나서
  • ▲ AI 챗봇 '이루다' ⓒ스캐터랩
    ▲ AI 챗봇 '이루다' ⓒ스캐터랩
    성희롱과 혐오 발언 및 개인정보 유출 등으로 논란을 빚은 인공지능(AI) 챗봇 '이루다' 사태로 'AI 윤리' 문제가 사회적으로 대두되고 있다. AI 기술 개발에 앞장서고 있는 국내 ICT 업계도 자발적 대책 마련에 나선 상황이다.

    14일 관련 업계에 따르면 스타트업 스캐터랩은 지난해 12월 23일 페이스북 메신저 기반으로 AI 챗봇 이루다를 출시했다. 

    이루다는 자연스러운 대화 능력으로 출시 2주만에 이용자가 75만명을 넘기면서 큰 주목을 받았다. 하지만 동성애자·장애인·여성 차별 발언은 물론, 카톡 1700건이 온라인에 퍼지는 등 개인정보유출 논란에 휩싸이면서 서비스가 중단됐다.

    특히 이루다가 AI라는 점에서 인공지능 개발 윤리에 대한 논의가 필요하다는 분위기가 확산됐다. 마이크로소프트가 2016년 공개한 AI 챗봇 '테이'와 2002년 국내 첫 AI 챗봇 '심심이'도 비슷한 이슈로 서비스를 중단하거나 논란이 불거졌기 때문이다.

    국제사회는 AI 윤리 원칙을 만들며 이를 대비하고 있다. 유럽연합(EU)은 지난해 4월 '신뢰 가능한 AI 윤리 가이드라인'을 발표했다. 경제협력개발기구(OECD)도 같은해 5월 'OECD AI 이사회 권고안'을 회원국 만장일치로 채택했다. 구글, 마이크로소프트 등도 자체 AI 윤리 원칙을 마련해 이를 이행하고 있다. 
     
    우리나라 정부에서도 과학기술정보통신부를 중심으로 학계와 기업, 시민단체, 전문가 의견을 종합한 'AI 윤리기준'을 마련한 상태다. 국내 ICT 업계 역시 AI 윤리 문제에 대해 예의주시하면서 방지 대책에 마련하겠다는 입장이다. 

    한국 IT 기업으로는 카카오가 2018년 1월 처음 자체적으로 'AI 윤리헌장'을 마련했다. 알고리즘과 관련한 모든 노력을 윤리 안에서 다하며 인류 편익과 행복을 추구하겠다는 내용이 담겼다. 또한 카카오는 '증오 발언 근절을 위한 카카오의 원칙'을 제정해 적용하기로 했다.

    AI 스피커 '누구(NUGU)'와 '기가지니'를 서비스하고 있는 SK텔레콤과 KT는 다양한 의견 수렴과 모니터링 작업을 통해 자체적인 AI 윤리기준 제정을 마련하겠다는 방침이다. SK텔레콤은 지난해 11월 대학생들을 대상으로 AI 커리큘럼 행사를 진행, AI 윤리에 대한 화두를 제시한 바 있다. 

    삼성전자도 올해 공정성, 투명성, 책임성이라는 인간에게 이로운 AI를 위한 AI 윤리 핵심 원칙을 발표했다. 네이버도 서울대AI정책이니셔티브와 AI 윤리기준 제정 작업을 진행, 2월 중으로 마무리 짓겠다는 계획이다.

    업계 관계자는 "AI가 사회적 약자·소수자를 차별하지 않도록 윤리 원칙을 세우는 것이 필요하다"며 "일회성에 그친 제정이 아니라 계속 보완해 나가야 할 것"이라고 말했다.

    한편 개인정보보호위원회와 한국인터넷진흥원(KISA)은 이루다를 개발한 스캐터랩이 개인정보보호법 등을 위반했는지에 대한 조사에 착수한 상태다.