AI가 초래 가능한 위험 정의, 대응방안 구축글로벌 다양성 반영한 안전성 체계로 발전
  • ▲ ⓒ네이버 채널 테크 홈페이지 화면 캡처
    ▲ ⓒ네이버 채널 테크 홈페이지 화면 캡처
    네이버는 AI의 잠재적 위험을 관리하는 대응체계 ‘ASF(AI Safety Framework)’를 발표했다고 17일 밝혔다.

    네이버 ASF는 AI 시스템이 초래할 수 있는 위험을 각각 ‘통제력 상실 위험’과 ‘악용 위험’으로 정의하고, 이에 대응하기 위한 방법을 설계한 것이 특징이다.

    통제력 상실 위험을 완화하기 위해, ‘AI 위험 평가 스케일’을 통해 AI 시스템의 위험을 주기적으로 평가하고 관리한다. 특히 현존 최고 성능의 AI 시스템을 ‘프런티어(frontier) AI’로 정의하고, 이 기술 수준에 해당하는 AI 시스템에 대해서는 3개월마다 위험 평가를 수행한다.

    악용 가능성에는 ‘AI 위험 평가 매트릭스’를 적용해 대응한다. AI 위험 평가 매트릭스는 AI 시스템의 사용 목적과 안전 조치의 필요성 정도에 따라 각각 다른 방법으로 위험을 관리한다.

    네이버는 문화적 다양성을 반영한 AI 안전성 체계로 네이버 ASF를 발전시켜나갈 계획이다. 특정 문화권에서 성립될 수 있는 AI 시스템의 위험을 식별하고, 위험의 정도를 측정하는 벤치마크도 문화권의 특성을 반영해 고도화할 예정이다.

    실제 네이버는 한국어를 기준으로 구축한 AI 안전성 강화 학습 데이터셋을 글로벌로 확장해나간 경험이 있다. 지난해 세계 최고 권위 자연어처리 학회 중 하나인 ‘ACL 2023’에서, 네이버는 종교, 도덕 등 사회적으로 첨예한 이슈에 대해 AI가 편향적으로 발화하는 문제를 완화하기 위한 새로운 대량의 한국어 데이터셋을 제안한 연구를 발표했다.

    최수연 네이버 대표는 “향후 글로벌 시장에서 소버린 AI를 개발하면서 다양한 지역의 문화와 가치를 반영하는 다수의 AI 모델이 안전하게 사용되며 공존하는 지속 가능한 AI 생태계에 적극적으로 기여할 것”이라고 말했다.