구글(Google)은 9일(현지시간) 파리에서 행사를 열고 검색 및 지도 제품에 대한 최신 AI 발전 사항을 공개해 눈길을 끌었다.

이 행사는 마이크로소프트(Microsoft)가 자사 제품에 OpenAI의 모델을 통합한 것에 대한 대응적 성격이 강한 것으로 분석된다.

전날인 8일 마이크로소프트는 즉석 이벤트를 개최하고 오픈에이아이(OpenAI)의 ChatGPT 챗봇(GPT-4 기반)의 새 버전이 Edge 브라우저 및 Bing 검색 엔진에 통합될 것이라고 발표했다.

이에 구글은 경쟁적으로 5월 I/O 개발자 컨퍼런스에서 AI를 대거 발표할 것이라는 예상이 나오고 있다. 이번 구글의 이벤트는 구글이 AI 리더임과 동시에 뒤쳐지지 않았다는 것을 상기시키려는 의도가 있어 보인다.

OpenAI는 ChatGPT로 구글에 경종을 울렸다. 구글 CEO 순다르 피차이(Sundar Pichai)의 초대로 회사 설립자인 래리 패이지(Larry Page)와 세르게이 브린(Sergey Brin)이 구글의 AI 제품 전략을 검토하기 위한 일련의 회의를 위해 돌아왔다.

이러한 회의를 계기로 구글은 AI 검토 프로세스를 가속화하여 솔루션을 보다 신속하게 배포할 수 있도록 하기로 결정한 것으로 알려졌다. 이러한 보고서와 구글의 유명 윤리 연구원 해고 가운데 많은 사람들은 회사가 안전하지 않은 제품을 시장에 성급하게 출시할 것이라고 우려하고 있다.

구글의 SVP인 프라브하카르 라그하반(Prabhakar Raghavan)이 진행을 이끌었다.

개회사에서 그는 구글의 목표가 "최대한 많은 사람들의 삶을 크게 개선하는 것"이라며 "AI와 관련하여 책임감 있게 모델을 세상에 제공하는 것이 중요하다"고 말했다.

행사 내내 다양한 ​​연사들이 구글이 위험을 감수하지 않을 것이라는 이야기를 강력하게 전달하고 싶어하는 것처럼 보였다.검색은 구글의 빵과 버터다. ChatGPT로 강화된 Bing이 구글에 가할 수 있는 위협은 회사 내에서 그러한 경보를 유발한 것으로 보인다.

라그하반은 "검색은 여전히 ​​우리의 가장 큰 목표다"라고 말했다. "달은 계속 움직인다."

구글은 이 섹션을 사용하여 대부분이 인식하지 못하는 백그라운드에서 이루어진 몇 가지 발전 사항을 강조했다. 여기에는 지난 1년 동안 구글 번역에 24개의 새로운 언어를 추가하기 위해 제로 샷 기계 번역을 사용하는 것이 포함되었다.

AI로 계속해서 향상되는 또 다른 제품은 구글 렌즈(Google Lens)로, 현재 한 달에 100억 회 이상 사용되고 있다.

라그하반은 "카메라는 차세대 키보드다. 시각적 검색의 시대가 도래했다"고 말한다.

구글의 엔지니어링 부사장인 리즈 레이드(Liz Reid)가 무대에 올라 회사가 이 분야에서 무엇을 하고 있는지에 대한 업데이트를 제공했다.

구글 렌즈는 동영상 콘텐츠를 지원하도록 확장되고 있다. 사용자는 렌즈를 활성화하고 비디오 클립에서 더 알고 싶은 항목(예: 랜드마크)을 터치하면 구글에서 이에 대한 자세한 정보를 표시한다.

이에 대해 레이드는 "볼 수 있으면 검색할 수 있다"라고 말한다.

다중 검색은 구글이 선보인 또 다른 인상적인 시각적 검색 기능이다. 이 기능을 사용하면 사용자가 이미지와 텍스트를 모두 사용하여 검색할 수 있으므로 예를 들어 특정 의자나 다른 색상의 의류 항목을 찾을 수 있다.

구글은 다중 검색의 라이브 데모를 제공하려고 했지만 어색하게 전화를 놓쳤다. 다행스럽게도 회사는 이제 전 세계적으로 생중계되므로 직접 시도해 볼 수 있다고 밝혔다.

구글이 제공하는 세계와 시민에 대한 정보의 양에 액세스할 수 있는 회사는 거의 없다. 프라이버시 논쟁은 제쳐두고 회사가 서로를 보완하는 강력한 서비스를 제공할 수 있다.

레이드는 사용자가 베이커리 항목과 같은 항목의 사진을 찍고 구글 지도에서 사람이 동등한 것을 손에 넣을 수 있는 근처 장소를 소싱하도록 구글에 요청할 수 있다고 말한다. 구글에 따르면 이 기능이 모바일 검색 결과 페이지의 이미지에 곧 제공될 예정이다.

프라브하카르는 ChatGPT에 대한 구글의 대응을 논의하기 위해 다시 무대에 올랐다. 구글의 대화형 AI서비스는 Bard라고 하며 LaMDA(Language Model for Dialogue Applications)를 기반으로 한다.

LaMDA는 구글 리서치(Google Research)가 2017년에 발명하고 오픈 소스로 제공한 신경망 아키텍처인 트랜스포머(Transformer)를 기반으로 구축된 모델이다. 이전 챗봇과 같은 사전 정의된 응답에 의존하는 대신 LaMDA는 보다 개방적인 자연스러운 상호 작용을 위한 대화에 대해 교육을 받았으며 다음을 수행할 수 있다. 웹에서 최신 정보를 제공한다.

상호 작용의 예에서 프라브하카르는 Bard에게 새 차를 구입할 때 고려해야 할 사항을 물었다. 이어 전기차의 장단점을 물었다. 마지막으로 그는 Bard에게 여행 계획을 세우는 데 도움을 요청했다.

Bard는 이제 신뢰할 수 있는 테스터가 사용할 수 있지만 프라브하카르는 구글이 더 광범위한 롤아웃 전에 안전을 위해 회사의 "높은 기준"을 충족하는지 확인할 것이라고 말했다.

회사는 "별을 관찰할 때 가장 좋은 별자리는 무엇입니까?"와 같은 주관적인 질문에 대해 NORA(No One Right Answer)를 수용하고 있다고 말한다.

제너레이티브 AI는 그러한 경우 결과에 대한 여러 관점을 가져오기 위해 사용된다. 이는 편향 문제를 해결하는 데 도움이 되도록 한동안 구글 뉴스에서 수행해 온 것과 매우 유사하게 들린다. 

프라브하카르는 계속해서 텍스트를 훨씬 뛰어넘는 생성 AI의 잠재력을 강조한다. SVP는 구글이 생성 AI를 사용하여 단 몇 개의 이미지에서 운동화와 같은 항목의 360도 뷰를 생성할 수 있다고 강조한다.

다음 달 구글은 몇 가지 강력한 기능에 액세스할 수 있도록 제네래이티브 랭귀지API(Generative Language API)에 대한 개발자 온보딩을 시작할 예정이다. 처음에 API는 LaMDA에 의해 구동된다. 프라브하카르는 "다양한 모델"이 뒤따를 것이라고 말했다.

구글의 Geo Group 책임자인 크리스 필립스(Chris Phillips)는 회사가 구글 지도에 제공하는 AI 개선 사항에 대한 개요를 제공하기 위해 무대에 올랐다.

필립스는 AI가 "차세대 구글 지도를 강화하고 있다"고 말한다. 구글은 AI를 사용하여 수십억 개의 스트리트 뷰와 실제 이미지를 융합하여 2D 지도를 "다차원 보기"로 발전시켜 사용자가 방문을 계획할 때 건물 위를 가상으로 날아갈 수 있도록 한다.

그러나 가장 인상적인 것은 AI가 구글이 실내 위치의 2D 이미지를 가져와 사람들이 탐색할 수 있는 3D로 변환할 수 있도록 하는 방법이다. 이것이 유용할 수 있는 한 가지 제공된 예는 조명과 일반적인 분위기가 낭만적인지 확인하기 위해 데이트 전에 레스토랑을 확인하는 것이다.

AR을 사용하여 사람들이 ATM과 같은 주변 물건을 찾을 수 있도록 도와주는 '라이브 뷰로 검색'에 추가 개선이 이루어지고 있다.

커피숍과 같은 것을 검색할 때 AR 보기에서 영업 여부와 일반적으로 얼마나 바쁜지 모두 확인할 수 있다.

구글은 현재 실내 라이브 뷰를 최대 규모로 확장하고 있다고 밝혔다. 실내 라이브 뷰는 1000개의 새로운 공항, 기차역 및 쇼핑 센터로 확장되고 있다.

마지막으로 구글은 사용자가 보다 지속 가능한 교통 수단을 선택할 수 있도록 돕고 있습니다. 필립스는 구글이 "지속 가능한 선택, 쉬운 선택"을 원한다고 말한다.

전기 자동차 소유자를 위한 새로운 구글 지도 기능은 교통량, 충전 수준 및 에너지 소비를 고려하여 여행 계획을 세우는 데 도움이 된다. 충전 중지 권장 사항이 개선되고 고속 충전 필터는 EV 소유자가 빠르게 충전하고 이동할 수 있는 곳을 선택하는 데 도움이 된다.

EV 운전보다 더 지속 가능한 것은 걷는 것이다. 구글은 경로 개요에서 도보 길찾기를 더 한 눈에 볼 수 있게 만들고 있다. 구글은 앞으로 몇 달 동안 Android 및 iOS에서 전 세계적으로 출시될 것이라고 말한다.

프라브하카르는 "구글이 검색을 완성하는데 25년이 걸렸다"며 "이제 막 시작일 뿐이다. 계속해서 더 많은 작업이 진행 중이며 최고의 완성작은 아직 나오지 않았다"고 밝혔다.

저작권자 © 시사비전 무단전재 및 재배포 금지