오픈소스 기반 커뮤니티 혁신 가속, 안전성 제고교육, 헬스케어 등 국내 비즈니스 사례 소개영상속 물체인식, 오디오 생성 연구성과 공유
  • ▲ ⓒ뉴데일리 김성현 기자
    ▲ ⓒ뉴데일리 김성현 기자
    메타가 대규모 언어모델 ‘라마(Llama)’의 오픈소스 접근 방식을 통해 비즈니스와 연구개발 관련 활용 사례를 늘리고 있다.

    메타는 10일 ‘AI 미디어 브리핑’ 행사를 통해 AI 기술과 AI 연구소 FAIR의 연구내용을 발표했다. 마노하 팔루리 메타 생성형 AI 부사장과 FAIR(Fundamental AI Research) 연구팀 등이 연사로 나섰다.

    메타는 최근 발표한 라마 3.2를 포함해 4가지 모델을 시장에 선보였다. 라마의 특징은 소스코드와 훈련용 데이터 셋을 논문으로 투명하게 공개하는 ‘개방형’이라는 점이다. 오픈AI 등 대규모 언어모델을 개발하는 기업들이 대부분 학습과정과 데이터를 비공개로 독점하는 ‘폐쇄형’ 방식을 추구하는 것과 대비된다.

    오픈소스 공개는 개발자가 본인만의 모델을 만들고, 미세조정(파인튜닝) 하며, 지속가능한 시스템을 구축하는 것을 돕는다는 취지다. 팔루리 부사장은 “개방형 생태계가 기술 혁신의 속도를 가속화하고, 안전성과 투명성을 높이는 데 기여할 수 있기 때문”이라고 설명했다.

    라마는 오픈소스 공개 외에도 멀티모달과 소형화를 통해 저변을 넓히고 있다. 데이터양이 10B가 넘는 모델 외에도 특정 활용사례 맞춰서 튜닝된 1B, 3B 모델을 내놓고 있다. 11B, 90B 모델은 텍스트와 이미지를 모두 처리하는 멀티모달을 제공한다.

    개발자들의 요구를 충족하면서 AI 커뮤니티에서 라마를 채택하는 사례도 늘어나는 추세다. 라마 모델은 허깅페이스 다운로드 수 4억건을 넘겼고, 지난해 대비 10배 증가한 수치라고 강조했다. 모델 채택률을 판단하는 지표로 토큰의 수도 라마 3.1 배포 이후 볼륨이 증가했다고 덧붙였다.

    합리적인 비용도 중요한 부분이다. 인공지능 모델이 획득한 지식을 측정하는 지표로 MMLU 점수를 살펴보면, 토큰당 필요한 비용이 GPT-3는 60 달러, GPT-3.5는 20 달러에 달한다. 반면 라마 3.1은 토큰당 비용이 0.5 달러에 불과해 개발하는 비용이 100배가량 저렴하다고 강조했다.

    신뢰성과 안전성은 프로젝트의 전반에서 고려하고 있다며 거대언어모델의 ‘책임감’도 역설했다. 팔루리 부사장은 “개발 사이클과 배포 이후에도 안전성을 항상 고려 대상으로 하고있다”며 “라마 가드 등 안전 도구를 통해 안전하게 앱을 구축하도록 돕고, 모델 안전성에 나아가 시스템 전체 안전성을 확보하고 있다”고 제시했다.

    장광선 한국과학기술정보연구원(KISTI) 선임연구원은 과학기술정보 특화 대형언어모델(이하 LLM) ‘고니’ 개발 사례를 공유했다. 장 연구원은 “오픈소스 LLM인 라마를 활용해 적은 컴퓨팅 자원과 비용을 사용해 고니를 구축할 수 있었다”며 “상업 LLM과 달리 데이터 유출 문제로부터도 자유롭다는 점도 중요하다”고 전했다.

    라마를 활용한 고니는 우수한 성능으로도 인정받고 있다. 장 연구원에 따르면 한국어 언어모델 다분야 사고력 벤치마크에서 8B이하 모델 중 1위를 달성했다. 특히 과학기술분야에서 타 모델 대비 우수한 성능을 입증했다는 설명이다.

    메타 FAIR 연구팀은 이미지와 영상에서 물체를 인식하는 ‘Segment Anything 2’(이하 SAM 2) 모델을 공유했다. 즉각적인 번역을 제공하는 ‘심리스M4T’와 프롬프트 명령을 통해 음향효과나 목소리를 제작하는 오디오 생성 모델 ‘오디오박스’도 소개했다.

    메타는 오픈소스 접근 방식과 책임감 있는 연구를 통해 AI 생태계를 확장한다는 목표다. 마누하 팔루리 부사장은 “개방형 AI를 모두에게 합리적인 비용으로 제공하는 것이 라마의 미션”이라며 “개방형 생태계를 넓혀가기위해 이해관계자들과 지속 협업할 것”이라고 말했다.