3일(현지시간) 스페인 바르셀로나 MWC26 전시장에서 알리바바의 초거대 AI 모델 ‘큐웬(Qwen) 3.5’를 경량화·최적화해 탑재한 스마트글래스 ‘큐웬 AI 글래스’를 체험했다. 양 렌즈의 디스플레이로 한글 번역과 내비게이션 안내 등을 받을 수 있었다. 바로 옆 메타의 스마트글래스 부스(작은 사진 오른쪽)에도 입구까지 30분 이상 기다려야 하는 줄이 늘어서, 두 줄이 마치 미·중 스마트글래스 전쟁의 전선처럼 맞닿아 있었다. 바르셀로나=김재형 기자 monami@donga.com
3일(현지시간) 스페인 바르셀로나 ‘모바일월드콩그레스 2026(MWC26)’ 전시장. 3번 홀과 5번 홀 사이 야외 공간에 유독 긴 줄 두 개가 나란히 늘어서 있었다. 하나는 중국 알리바바의 초거대 인공지능(AI) 모델 ‘큐웬(Qwen) 3.5’를 경량화·최적화해 탑재한 스마트글래스 ‘큐웬 AI 글래스’ 체험 부스. 바로 옆은 메타의 스마트글래스 부스였다. 입구까지 30분 이상 기다려야 하는 두 줄이 마치 미·중 스마트글래스 전쟁의 전선처럼 맞닿아 있었다.
● 직접 체험해본 큐웬 AI 글래스 “전용 칩셋으로 ‘최적의 답’ 생성”
큐웬 AI 글래스는 겉보기엔 일반 뿔테 안경과 크게 다르지 않았다. 그러나 양쪽 렌즈에 디스플레이가 내장됐고, 안경다리 안쪽에는 최대 7시간 구동할 수 있는 배터리가 숨어 있었다. 직접 써보니, 눈앞의 사물을 곧바로 촬영할 수 있었고, 내비게이션 화면이 자동차 헤드업 디스플레이(HUD)처럼 시야 위에 펼쳐졌다. 번역 앱을 실행하자 중국어로 설명하는 직원의 음성이 실시간으로 한글 자막으로 변환돼 디스플레이에 떴다.
큐웬은 국내에서도 낯선 이름이 아니다. 얼마 전 네이버가 ‘국가대표 AI(프롬 스크래치)’ 사업에 지원하면서 논란의 중심에 선 모델이 바로 큐웬이다. AI의 눈과 귀에 해당하는 시각언어모델(VLM)·청각언어모델(ALM)을 학습시키려면 외부 정보를 AI가 이해할 수 있는 형태(토큰)로 변환하는 인코더가 필요한데, 네이버가 이 인코더에 큐웬 오픈소스를 활용한 사실이 드러나며 1차 평가에서 탈락했다. 뒤집어 보면 국내 최고 정보기술(IT) 기업조차 빌려 쓸 만큼 큐웬의 기술력이 상당하다는 방증이다.
● 안경·폰·로봇…피지컬 AI 각축장
사실 올해 MWC 전시장 자체가 AI가 화면 밖으로 나와 물리적 실체를 갖는 ‘피지컬 AI’의 각축장이었다. 시각 정보를 언어로 변환하는 VLM과, 이를 물리적 행동으로 잇는 비전·언어·행동(VLA) 기술이 하드웨어와 본격 융합한 결과다.
중국 업체들의 융합 속도도 무섭다. 아너의 ‘로봇 폰’은 후면 초소형 짐벌 카메라가 관람객 동선을 스스로 추적해 최적 구도로 촬영했다. 질문을 던지면 내부 VLM이 상황을 인식해 답을 내놓고, 카메라 관절을 끄덕이는 물리적 교감까지 구현했다. ZTE 역시 진화한 휴머노이드 로봇을 전시했다.
● 토종 AI 두뇌 ‘엑사원’으로 반격 나선 K-AI
거세지는 글로벌 AI 공세에 맞서 한국 기업은 토종 AI 두뇌로 반격에 나섰다. LG AI연구원은 현실 세계를 이해하는 시각 지능을 결합한 차세대 파운데이션 모델 ‘엑사원(EXAONE) 4.5’를 상반기(1~6월) 내 공개한다고 밝혔다. 엑사원 4.5는 언어 모델을 넘어 ‘한국형 휴머노이드’와 스스로 진화하는 다단계 실행형 AI의 두뇌가 될 핵심 초석으로 평가받는다.
바르셀로나=김재형 기자 monami@donga.com