블룸버그통신 보도… '챗GPT 활용 지침' 세부안 마련
  • ▲ ⓒ뉴데일리 DB
    ▲ ⓒ뉴데일리 DB
    삼성전자가 보안을 위해 챗GPT 등 생성형 인공지능(AI) 사용을 막은 것으로 전해졌다.

    2일 블룸버그통신은 삼성전자가 보안 우려로 사내에서 챗GPT를 비롯한 생성형 AI의 사용을 금지했다고 보도했다.

    보도에 따르면 지난달 삼성전자 엔지니어는 사내 소스코드를 챗GPT에 올려 실수로 유출시킨 것으로 알려졌다. 어떤 정보를 담고 있었는지는 밝혀지지 않았다. 블룸버그에 따르면 삼성 관계자는 이에 대해 언급을 피했다.

    현재 삼성전자는 지난달 진행된 설문조사 결과 등을 바탕으로 '챗GPT 활용 지침' 세부안을 만들고 있는 것으로 전해졌다. 생성형 AI가 업무 생산성 및 효율성 향상에는 도움이 될 수 있는 만큼 생성형 AI와 관련한 보안 대책이 마련될 경우 사용 금지 조치가 해제될 가능성도 있다.

    블룸버그에 따르면 삼성전자는 내부 안내를 통해 "회사는 직원의 생산성과 효율성을 높이기 위해 생성형 AI를 안전하게 사용할 수 있는 환경을 조성하기 위한 보안 조치를 검토 중"이라며 "관련 대책이 마련될 때까지는 일시적으로 생성형 AI 사용이 제한될 것"이라고 전했다.

    다만 이번 생성형 AI 사용 금지 조치는 DX 부문에만 한정되고 DS 부문에는 적용되지 않는 것으로 보인다. DS 부문의 경우 챗GPT 사용과 관련해 사내 게시판에 챗GPT 오·남용을 주의하라는 메시지를 공지하고, 각 팀장이 팀원들에게 챗GPT 사용 가능 범위를 교육하기도 했다.

    한편, 최근 JP모건체이스, 뱅크오브아메리카, 씨티그룹 등 금융업계를 중심으로 보안을 위해 챗GPT를 비롯한 생성형 AI 사용을 제한하는 추세다.