• ▲ 20일(현지시간) 인도 뉴델리 바라트 만다팜에서 열린 인도 AI 정상회의에서 김유철 LG AI연구원 전략부문장이 발표하고 있는 모습ⓒLG
    ▲ 20일(현지시간) 인도 뉴델리 바라트 만다팜에서 열린 인도 AI 정상회의에서 김유철 LG AI연구원 전략부문장이 발표하고 있는 모습ⓒLG
    LG가 ‘글로벌 AI 거버넌스’ 논의의 중심 무대인 인도 정상회의에 참가해 책임 있는 AI(Responsible AI) 실행 성과와 협력 방향을 공유했다. LG 측은 서울과 파리에 이어 인도까지 3차례 연속 ‘AI 정상회의’에 초청받았으며, 글로벌 규범 경쟁이 본격화되는 국면에서 기업 차원의 거버넌스 역량을 전면에 내세웠다.

    LG에 따르면 LG AI연구원은 현지시간 20일 뉴델리(New Delhi) 바라트 만다팜(Bharat Mandapam)에서 열린 India AI Impact Summit에 참가했다. LG는 이 자리에서 책임 있는 AI 생태계 구축을 위한 글로벌 협력 방안과 자사 실행 성과를 공유했다고 밝혔다.

    LG는 이번 정상회의에서 김유철 전략부문장이 유네스코와 유엔 인권최고대표사무소가 공동 주관한 행사에 한국 대표 기업으로 참석해, 기업의 책임 있는 AI 정책 내재화와 글로벌 표준의 역할을 주제로 국제기구·학계·산업계 인사들과 논의를 진행했다고 설명했다.

    핵심 발표는 ‘범용 AI 위험분류체계 한국판’ 공개였다. LG 설명에 따르면 K-AUT(Korea-Augmented Universal Taxonomy)는 유엔 세계인권선언 등 보편적 가치에 기반해 설계하되, 한국 사회의 법·사회·문화적 특수성과 멀티 AI 에이전트 담합, AI 안전장치 우회 등 향후 발생 가능 위험 요소까지 포괄하도록 구성했다. 위험 항목은 4개 핵심 영역(인류 보편적 가치, 사회 안전, 한국적 특수성, 미래 위험) 아래 226개 세부 항목으로 구성되며, 항목별 판별 기준 5가지 중 하나라도 위반이 발생하면 부적절 응답으로 분류하는 구조라고 밝혔다.

    LG는 이 체계를 가이드라인이 아니라 AI 모델·서비스 안전성을 검증·강화하는 도구로 개발해 자사 AI 파운데이션 모델 EXAONE 검증에 활용했고, 결과를 투명하게 공개하고 있다고 설명했다. 또한 ‘한국적 특수성’ 영역은 각 국가·지역의 고유 맥락을 반영한 위험 항목으로 대체할 수 있게 설계해 확장 적용을 염두에 뒀다고 밝혔다.

    LG는 5월 글로벌 공개를 앞둔 ‘AI 윤리 MOOC(Massive Open Online Course)’ 프로젝트도 소개했다. LG 설명에 따르면 이 프로젝트는 전 세계 AI 전문가·연구자·정책 입안자 등을 대상으로 AI를 올바르게 개발·활용하기 위한 모범 사례 발굴과 교육 프로그램 제공을 통해 공공·민간의 윤리 역량을 강화하는 취지다.

    LG는 윤리영향평가, 데이터 컴플라이언스 AI 에이전트 등 실전 운영 노하우와 관련 기술을 공개했다고 밝혔다. 또 39개국 450여 명 지원자 중 10명의 글로벌 전문가를 선발해 안전성·공정성·지속가능성·거버넌스 등 핵심 의제를 다루는 10개 모듈로 강의를 구성했고, 국제자문위원회도 운영 중이라고 설명했다. 해당 MOOC는 Coursera를 통해 별도 비용 없이 수강할 수 있으며, 5월 서울에서 론칭 행사를 진행할 예정이라고 밝혔다.

    LG는 거버넌스·윤리 체계가 단순한 위험 관리가 아니라 신뢰 기반 경쟁력의 전제가 된다는 점을 함께 강조했다. 구광모 ㈜LG 대표도 과거 주주총회 인사말에서 "컴플라이언스를 기업 성장·발전의 핵심 인프라로 보는 인식 전환이 필요하며, 구성원 누구도 예외가 될 수 없다"는 취지로 준법 경영 실천을 강조했다.