오픈AI GPT스토어 ‘연인챗봇’ 등장, 윤리문제 도마 위네이버·카카오 초거대 AI모델 윤리·안정성 고도화생성형 AI 특성상 완벽제어 불가, 기술개발 시급
-
오픈AI가 운영 중인 GPT스토어에 이른바 ‘연인 챗봇’이 등장하면서 윤리문제가 불거지고 있다. 국내 초거대 AI를 비롯한 LLM(언어모델) 개발에 앞장서는 네이버와 카카오는 사태를 예의주시하며 윤리 문제 대응 수준을 높이고 있다.18일 업계에 따르면 GPT스토어에는 가상 연인을 표방한 챗봇이 다수 생성돼 있다. 여자친구, 남자친구 등 키워드를 검색하면 ‘AI 걸프렌드’ 등 챗봇이 검색되며, 한국인 이름의 챗봇도 발견된다.오픈AI는 이용약관을 통해 낭만적인 동반관계를 육성하거나 규제된 활동을 수행하는 GPT를 명시적으로 금지한다. 하지만 AI 연인 챗봇들은 아직 제재를 받지 않고 GPT스토어상에 올라와 있는 모습이다. GPT스토어 정책상 누구나 AI 챗봇 서비스를 등록할 수 있다는 점은 확장성에 도움이 되지만 동시에 문제점을 야기하고 있다.오픈AI는 GPT의 사회적 부작용을 검토하며 대응 수위를 높일 전망이다. 올해 선거를 앞두고 AI서비스 남용 방지 정책도 공개했다.오픈AI는 공식 블로그를 통해 “딥페이크를 오도하거나 후보자를 사칭하는 챗봇과 같은 남용을 예측하고 방지하기 위해 노력하고 있다”며 “법률과 엔지니어링, 정책팀의 전문지식을 통합해 잠재적인 악용 가능성을 신속하게 조사하고 해결하기 위해 노력할 것”이라고 말했다.국내에서도 AI 윤리 문제가 중대한 이슈로 떠오르고 있다. 앞서 2020년 스캐터랩이 만든 챗봇 ‘이루다’가 성희롱과 개인정보 유출 논란으로 질타를 받으면서 기업들은 대응 수위를 높이는 추세다.특히 네이버와 카카오 등 빅테크 플랫폼을 필두로 생성형 AI 관련 윤리체계를 도입하고 있다.네이버는 언어 AI 신뢰성과 윤리를 고도화하기 위해 AI 연구단계부터 개발과 이용에 연관된 정책부문까지 전체 프로세스에 관여하고 있다. AI 안전성과 지속가능한 AI를 중요 연 구주제로 보고 글로벌 연구기관과 연구를 수행하며, 이를 서비스에 적용하고 있다.지난해 5월 자연어처리 학회에서 초거대 AI 윤리 관련 논문이 채택되는 한편, 11월에는 글로벌 주요 국가와 기업이 참석하는 ‘AI 안전성 정상회의’에 참석해 AI의 잠재적 위험을 완화하는 방법에 대해 논의하기도 했다. AI 안전성을 높이기 위해 2021년 2월 윤리 준칙을 발표하고, UN인권최고대표사무소 주재 전문가 협의에서 국내 기업 대표로 AI 윤리 준칙 사례를 소개했다.네이버는 초거대 AI 하이퍼클로바X 구축 단계부터 안전성을 확인해왔다. 초거대 AI를 기반으로 하는 거대언어모델(LLM)은 학습 데이터 안전성이 중요하다. 네이버 관계자는 “하이퍼클로바X는 세이프티 학습을 한 모델”이라며 “사회적으로 민감하거나 편향된 발언을 하지 않도록 학습 데이터셋을 구축했다”고 전했다.올해 들어 설립한 ‘퓨처 AI센터’도 AI 안전성 고도화를 위한 행보다. 대표이사 직속 조직으로서, 하이퍼클로바X의 활용을 포함한 팀 네이버의 AI 윤리 정책 전반을 구축하는 역할을 맡는다. AI 안전성에 대한 선행연구를 병행하면서 윤리 정책을 수립할 예정이다.카카오는 2018년 1월 기술윤리 규범 ‘알고리즘 윤리 헌장’을 발표한 이후 2022년 7월 기술윤리 거버넌스를 체계화하기 위한 ‘공동체 기술윤리 위원회(이하 위원회)’를 설립했다.위원회는 카카오를 비롯해 페이, 모빌리티, 브레인 등 8개 주요 공동체가 참여해 AI를 포함한 기술의 안정성을 체계적으로 관리한다. 위원회가 발간한 보고서에 따르면 카카오는 AI 시스템의 생애주기별 요구사항과 리스크 점검을 목적으로 하는 ‘기술윤리 자가점검 도구’를 개발했다.카카오는 카카오브레인을 통해 언어생성 모델 ‘KoGPT’를 보유하고 있으며, 버전 2.0 공개를 앞두고 있다. KoGPT 2.0을 기반으로 한 대화생성 AI ‘KoChatGPT(가칭)’도 선보일 예정이다. 카카오 관계자는 “학습 데이터셋에 적합성 판단 기준을 바탕으로 (데이터셋 자체가)편향성을 가지고 있는지 평가한다”며 “내부적으로 검토하는 가이드라인을 갖추고 있다”고 말했다.다만 생성형 AI는 특성상 가상 연인 챗봇과 편향성 등 윤리 이슈에서 완전히 자유롭지 못하다는게 중론이다. 편향되지 않고 필터링한 데이터를 학습시키더라도 100% 안전하다는 보장이 없다는 점에서다. 사용자의 의도와 새로 학습한 데이터에 따라 변화될 가능성이 충분하기 때문이다.전문가들은 AI 윤리문제가 향후 더욱 심화되면서 AI 안정성에 대한 요구 수준이 높아질 것으로 내다보고 있다. 기업의 기술 개발은 물론, 정부에서도 가이드라인을 마련하고 지원해야 한다는 설명이다.전창배 국제인공지능윤리협회 이사장은 “개인정보 유출 문제와 저작권 침해, 유해 콘텐츠에 대한 무방비 노출 등은 생성형 AI 시대에 따라다닐 수 밖에 없는 문제”라며 “AI 시대에 맞는 법과 제도를 준비함과 동시에 편향성과 차별, 혐오 등 필터링을 위한 기술 개발이 시급하다”고 강조했다.