시각 지능 학습·추론 능력 결합집안일부터 산업 현장까지 투입
-
- ▲ 스팟이 옷을 집어 세탁 바구니에 넣는 장면. ⓒ현대차그룹
보스턴다이나믹스가 인공지능(AI) ‘제미나이’를 적용한 4족 보행 로봇 ‘스팟(Spot)’을 공개했다.보스턴다이나믹스는 14일(현지시간) 자사 유튜브 채널을 통해 구글의 로봇 AI ‘제미나이 로보틱스 ER 1.6’을 적용한 스팟 시연 영상을 공개했다.영상에서 스팟은 카메라로 칠판에 적힌 할 일 목록을 스스로 인식한 뒤, 신발 정리와 쓰레기 분리수거, 세탁물 정리 등 작업을 순차적으로 수행했다. 이후 강아지 산책과 같은 추가 명령이 주어지자 이를 맥락적으로 이해하고 야외로 이동해 행동을 이어가는 모습도 보여줬다.이번 업데이트의 핵심은 로봇이 단순히 명령을 수행하는 수준을 넘어, 주변 환경을 인식하고 데이터를 해석해 스스로 판단하는 능력을 갖추게 됐다는 점이다.보스턴다이나믹스는 자사 로봇 소프트웨어 플랫폼 ‘오르빗(Orbit)’의 시각 점검 AI 기능(AIVI-Learning)에 제미나이 로보틱스를 통합했다. 이를 통해 스팟은 이미지와 영상, 텍스트 정보를 함께 분석해 복잡한 환경을 이해하고 작업 맥락까지 파악할 수 있게 됐다.산업현장 적용 사례도 함께 공개됐다. 스팟은 바닥의 물기를 감지해 경고를 보내고, 특정 게이지를 찾아 온도를 판독하는 등 현장 데이터를 해석해 작업자에게 필요한 정보를 제공했다.기능 측면에서도 개선이 이뤄졌다. 게이지 판독과 팔레트 수량 계측 등 산업용 기능이 추가됐고, 디지털 화면 판독을 포함한 시각 검사 정확도도 향상됐다.운영 효율성도 강화됐다. 무중단(Zero-Downtime) 방식으로 AI 모델을 지속 업데이트할 수 있어 별도의 시스템 중단 없이 성능 개선이 가능하다. 또 사용자 프롬프트를 통해 AI의 판단 과정과 근거를 확인할 수 있도록 해 신뢰성도 높였다.보스톤다이나믹스의 스팟 제품개발 책임자 마르코 다 실바(Marco Da Silva)는 “게이지 판독과 같은 새로운 기능과 더욱 정확해진 판단 능력 덕분에 스팟은 작업 현장의 문제점을 직접 이해하고 대처할 수 있는 진정한 자율 로봇이 될 것”이라고 말했다.





