미국 캘리포니아 마운틴뷰 야외 공연장에서 열린 ‘구글 I/O 2022’. 개발자들을 위한 이번 연례 회의에선 미래형 검색 기능들이 쏟아졌다.
프라바카르 라하반 구글 수석부사장이 스마트폰 카메라로 초콜릿 상점 선반에 진열된 상품들을 비추자 상품 정보가 잇따라 등장했다. 카카오 함유량은 얼마나 되는지, 종류는 무엇인지 증강현실처럼 스마트폰 디스플레이에 해당 정보를 실시간 알려줬다. 이번에는 검색 입력창에 ‘땅콩이 들어가 있지 않은 다크 초콜릿’이라고 입력하고 다시 상품을 비췄는데 해당 제품만 스마트폰에 네모 모양으로 표기돼 나타났다. 제품 선별 검색 기능인 ‘장면 탐색(scene exploration)’의 한 장면이다.
구글은 이번에 근처 검색 기능을 통해 지역 상품들을 실시간 확인할 수 있는 검색기능, ‘헤이 구글’을 말하지 않고 눈빛만으로 작동되는 음성비서인 구글 어시스턴트, 만능 인공지능 챗봇처럼 업데이트된 인공지능 대화형 언어 모델인 ‘람다2(LaMDA2)’를 잇따라 선보였다.
대표적으로 내 근처 검색 기능은 지역 상품들을 먼저 추천했다. 현재 구글 렌즈를 통해 상품을 카메라로 비추면 이미지와 유사한 제품의 추천이 뜨는데 해외 제품들이니 구매가 쉽지 않다. 때문에 이를 지역 단위로 한정해 검색할 수 있어 보다 빠르게 원하는 상품을 구매할 수 있도록 했다. 예를 들어 잡채를 카메라로 찍자 주변 한식당 정보가 등장했다.
구글은 그동안 텍스트→음성→이미지로 검색의 영역을 확장해 왔는데, 올 들어 이를 묶어내는 모습이다. 대화형 인공지능 람다2는 텍스트 검색의 미래형이었다. 람다1은 ‘명왕성에 내가 방문하면 어떤 걸 볼 수 있는지 알려줘’라고 입력하면 ‘거대한 협곡들, 얼음들, 크레이터들을 볼 수 있어’라고 단문으로 답변하는데, 람다2는 장문으로 답변을 해냈다. 특히 모든 주제를 다루며, 다음 질문을 유추해 미리 객관식 형태로 질문을 제시하는 점에서 만능 인공지능 챗봇이라고 해도 손색이 없었다.
예를 들어 ‘개는 왜 공을 던지면 물려고 달려들까’라고 입력을 하면 ‘인간보다 냄새를 잘 맡아서 그래’라고 답변을 한 뒤 궁금해할 법한 질문들을 객관식으로 제시하고 꼬리에 꼬리를 무는 방식으로 질문을 유도했다. 구글은 ‘우쿨렐레를 배우는 방법’을 실제 사례로 소개하기도 했다. 구글은 람다2를 향후 온라인 서비스로 제공하고자 슈퍼컴퓨터를 연동시켰다. 1초에 900경회에 달하는 부동소수점 연산을 하는 9엑사플롭스 기능을 갖추고, 초거대 인공지능인 오픈AI의 GPT-3보다 약 3배 큰 5400억개 매개변수(파라미터)로 훈련시킨 것도 그 이면에는 막대한 투자가 있었기에 가능했다. 지금껏 구글 검색이 사용자가 검색하면 해당 사이트로 바로 연결되는 ‘아웃링크(Outlink)’ 방식이었는데, 향후에는 포털로 연결되는 ‘인링크(Inlink)’를 병행할 것으로 보이는 대목이다.
또 구글은 ‘헤이 구글’을 외치지 않아도 음성 인식이 가능한 음성비서 구글 어시스턴트를 새로 선보여 주목을 받았다. 예를 들어 태블릿에 달린 카메라를 바라보고 ‘산타크루즈에 있는 해변을 검색해줘’라고 말하니, 구글 맵이 곧바로 해당 해변을 검색해서 제시했다. 또 ‘헤이 구글’ 없는 구글 어시스턴트는 말을 하다 중간에 잠깐 쉬는 ‘휴지(pause)’를 갖더라도 문장 전체를 인식했다.
순다르 피차이 구글 최고경영자(CEO)는 이에 대해 “지식이 어디에 있든지 구별 없이 이를 연결하는 것이 구글의 목표”라면서 “언제 어디서든 전 세계를 검색할 수 있도록 하겠다”고 설명했다. 구글의 대대적인 변화는 국내 검색 시장에서도 나타나고 있다.
인터넷트렌드에 따르면 국내 검색 엔진 점유율은 2016년 네이버 78.85%대 구글 8.47%에서 지난해 네이버 56.1%대 구글 34.73%로 서서히 좁혀지고 있다. 지구적 검색 기업이 열려는 만능 검색 엔진은 당장은 아니겠지만 향후 미디어에 큰 영향을 줄 요인으로 보인다.
이상덕 매일경제신문 실리콘밸리특파원의 전체기사 보기
Copyright @2004 한국기자협회. All rights reserved.