구글, I/O 2025 행사에서 'AI 올인' 전략 발표
2025년 5월 20일, 전 세계 개발자의 이목이 집중된 구글의 연례 개발자 회의인 "구글 I/O 2025"가 미국 캘리포니아주 마운틴뷰에서 열렸습니다. 이번 행사는 한마디로 구글이 "AI에 모든 것을 걸고 있다"는 사실을 다시 한번 확인할 수 있는 자리였습니다. 구글은 안드로이드, 검색, 제미나이(Gemini), 스마트 안경 등 거의 전 분야에 걸쳐 AI 기반 시스템을 확장하는 "AI-first 전략"을 선보이면서 구글의 정체성을 ‘검색 중심 플랫폼’에서 ‘AI 중심 운영체제’ 기업으로 선언하였습니다.
Gemini는 이제 구글 생태계의 핵심 엔진이 되었고, Veo 3, Imagen 4처럼 시청각 AI의 퀄리티가 산업용 수준으로 정제되었습니다. 이제 우리가 알고 있는 텍스트 기반의 검색과 명령 중심의 컴퓨팅 환경은 점차 사라지고, 보고, 말하고, 느끼는 방식 그대로 인터랙션이 이뤄지는 "AI OS 시대"가 다가오고 있습니다. 구글 딥마인드(DeepMind) CEO 데미스 하사비스(Demis Hassabis)는 “우리의 궁극적인 비전은 Gemini 앱을 일상적인 작업을 수행하고, 반복적인 행정 업무를 대신 처리하며, 새로운 추천을 제공하는 보편적인 AI 어시스턴트로 전환하는 것으로 이를 통해 생산성을 높이고 삶을 풍요롭게 만들고자 한다”고 말했습니다.
Gemini 2.5 제품군(Gemini Live, Deep Think, AI Mode)
이번 행사의 백미는 최신 AI 모델 ‘Gemini Pro 2.5 ’제품군입니다. 특히 Gemini Pro 2.5 기반으로 출시된 ‘Gemini Live’는 실시간 대화형 에이전트로, 사용자의 발화와 환경을 분석해 자연스럽게 반응하는 개인화된 AI 비서 경험을 제공하였습니다. 이전까지 ‘Project Astra’라는 코드명으로 불렸던 이 기능은, 이제 실사용 가능한 수준까지 상용화 단계로 접어들었다는 것을 확인할 수 있었습니다.
이 새로운 기능은 휴대폰의 카메라, 음성 명령, 웹 검색, 전화 걸기, 정보를 수집하는 에이전트 같은 능력을 결합합니다. 스마트폰 카메라와 Gemini Live의 실시간 통합 기능을 통해 사용자가 보고 있는 사물을 비추며 질문을 하면, AI가 즉각적으로 이를 인식하고 맥락에 맞는 답변을 제공합니다. 예를 들어, 간판을 카메라로 비추고 “이 가게 몇 시까지 해요?”라고 말하면, AI가 해당 장소를 인식해 관련된 운영시간 정보를 음성으로 피드백해주는 방식입니다. 이는 단순히 텍스트 기반 검색을 넘어서, ‘보는 것 자체가 질문이 되는 인터페이스’의 실현이라 할 수 있습니다.
또한 구글은 Deep Think라는 향상된 추론 모드를 선보였습니다. 이 모드는 여러 가설을 고려한 뒤에 응답을 생성할 수 있도록 하는 새로운 연구 기법을 활용합니다. 제미나이 2.5 Pro Deep Think는 현재 가장 어려운 수학 벤치마크 중 하나인 2025 USAMO(미국 수학 올림피아드)에서 인상적인 점수를 기록했습니다. 또한, 대회 수준의 코딩을 위한 어려운 벤치마크인 LiveCodeBench에서도 선두를 차지했으며, 멀티모달 추론 능력을 테스트하는 MMMU(Massive Multi-discipline Multimodal Understanding)에서 84.0%의 점수를 획득했습니다.
또한 북미 지역부터 Gemini 2.5 기반 기능인 ‘AI 모드(AI Mode)’를 도입할 예정으로 이 가능은 현재 제공중인 AI 개요(AI Overview) 기능보다 더 심층적인 질의를 가능하게 합니다. 예를 들어, 저렴한 티켓을 찾는 질의에 대해 AI 모드는 여러 웹사이트를 탐색하고 수백 가지의 티켓 옵션을 실시간 가격 및 재고와 함께 분석하며, 입력 양식 작성 작업까지 자동으로 처리할 수 있습니다. 이때 AI 모드는 사용자의 정확한 조건에 맞는 티켓 옵션을 제시하며, 원하는 사이트에서 바로 구매를 완료할 수 있어 시간을 절약하면서도 사용자의 통제권을 유지할 수 있습니다. AI 모드에는 새로운 인공지능 기반 쇼핑 경험도 포함됐습니다. AI 모드 쇼핑 경험은 구글의 생성형 AI 챗봇 Gemini와 Google Shopping Graph를 결합한 것으로 이중 Shopping Graph는 450억 개 이상의 제품 목록과 다양한 소매업체의 실시간 재고 데이터를 포함한 제품, 재고, 판매자 관련 데이터셋입니다.
현재 Shopping Graph는 500억 개 이상의 제품 목록을 포함하고 있으며, 각 제품에는 리뷰, 가격, 색상 옵션, 재고 현황 등의 정보가 담겨 있습니다. 이 중 20억 개 이상의 제품 목록이 매시간 업데이트됩니다. 이 기능은 현재 미국에서 시범 운영 중이며, 셔츠, 바지, 스커트, 드레스를 쇼핑할 때 제품 목록에 표시된 “입어보기(Try it on)” 아이콘을 탭하여 사용할 수 있습니다.
영상 생성 AI, 이미지 생성 AI, Veo 3와 Flow
영상 생성 AI ‘Veo’는 3세대로 진화하면서 텍스트 투 비디오, 이미지 투 비디오의 영상 생성을 넘어 사운드 효과, 환경 소음, 등장인물 간 대화까지 한 번에 포함하는 영상콘텐츠 생성이 가능해졌는데요. 이번에는 최초로 소리까지 포함된 영상을 생성시켰습니다.텍스트를 넣으면 사운드에 인물의 입 모양까지 맞춰주기 때문에 AI 영상 구별이 불가능한 수준이 되었다고 평가받고 있습니다. 해당 기능은 ‘Gemini Ultra’ 유료 구독자 전용으로 제공될 예정입니다.
이번 행사에서 구글은 Flow라는 생성형 AI 영상 제작 도구도 새롭게 선보였습니다. 이 도구는 캐릭터, 소품, 배경의 사진이나 일러스트를 업로드한 뒤, 텍스트 프롬프트를 통해 이들을 짧은 영화로 애니메이션화할 수 있도록 설계되었습니다. 사진이 없어도 텍스트 프롬프트만으로 시각 요소를 만들 수 있으며 이후 텍스트 박스에 동작을 묘사하며 씬을 장면별로 구성합니다.
안드로이드 XR 스마트 글래스
구글은 전체 크기의 혼합현실 헤드셋과 일반 안경처럼 보이는 슬림형 안경을 동시에 개발중으로 현재 수백 명의 소프트웨어 개발자가 Android XR 플랫폼을 위해 앱을 개발하고 있다고 밝혔습니다. Meta의 Ray-Ban 스마트 안경이나 향후 애플이 출시할 예정인 스마트 안경에 대항하기 위해 만들어진 이 안경은 Gemini와 연동되어 사용자의 보고 듣는 것을 인식할 수 있기 때문에, 사용자의 맥락을 이해하고, 중요한 것을 기억하며, 필요한 순간에 정보를 제공할 수 있습니다. 구글은 사람들이 실제로 착용하고 싶어할 만큼 세련된 스마트 안경을 만들기 위해 Warby Parker 및 Gentle Monster와 같은 기업들과 협업할 계획입니다.
이번 행사에서 구글의 Android XR 기반 스마트 안경 프로토타입을 선보여 화제를 모았습니다. 이 안경은 외국어를 실시간으로 인식하고, 렌즈에 자막처럼 번역 결과를 표시해주는 기능을 갖추고 있습니다. 이 안경은 카메라와 마이크가 장착되어 있어 Gemini가 세상을 보고 듣는 기능을 수행할 수 있으며, 스피커를 통해 AI 음성을 듣거나 음악을 재생하거나 전화를 받을 수 있습니다. 또한 스마트폰과 연계하여 앱에 접속하고 유용한 정보를 보여주는 인렌즈디스플레이(in-lens display) 기능도 제공합니다.
구글은 '혁신'과 '수익'이라는 두 마리 토끼를 다 잡을 수 있을까?
이번 행사에서 구글은 제미나이 2.5 기반의 다양한 혁신 서비스를 선보였지만 "그래서 어떻게 수익을 창출할 것인가"라는 질문에는 아직 이렇다할 답을 내놓지 못하고 있는 상황입니다. 구글 매출의 대부분이 검색 광고에서 나오지만 AI 모드에서는 키워드 검색처럼 광고가 노출되지 않기 때문에, 구글의 차세대 수익모델이라고는 말하기 어렵습니다.
2025년 미 법무부의 반독점 소송에서 애플 에디 큐 부사장(Eddy Cue, Senior vice president of Services)은 “사파리(Safari) 브라우저에서의 구글 검색량이 처음으로 감소했다"고 밝히면서 "이는 많은 사용자가 ChatGPT나 Perplexity 같은 외부 AI 도구로 이동한 결과"라고 주장했습니다. 검색 쿼리 감소는 곧 광고 노출 감소를 뜻하므로, AI 시대에 구글의 검색 지배력이 구조적 압력을 받고 있다는 경고로 받아들여졌습니다.
구글은 이에 대한 대응 전략으로 검색 서비스에 AI를 통합하면서도 광고 수익을 유지할 방안을 모색하고 있습니다. 예를 들어 AI가 요약 답변을 제시하더라도 페이지 상단이나 옆에 "스폰서드" 표시가 붙은 광고를 게재해 광고주 노출 기회를 보장하고 AI 기술을 활용해 검색 광고 생성 및 타겟팅을 더 지능화하는 등 (예: 자동 캠페인 최적화) 새로운 광고 가치 창출을 시도하고 있습니다. 하지만 이러한 신기술들이 현재의 막대한 검색 광고 수익을 대체하거나 보전할 수 있을지는 불투명합니다. 구글은 AI 중심으로 검색 경험을 혁신해야 하는 압박을 느끼면서도, 그로 인해 지난 20년 이상 황금알을 낳는 거위(검색 광고)를 해칠 위험 사이에서 난처한 상황에 처해 있습니다. 이 같은 내부 충돌 구조는 하버드대 클레이튼 크리스텐슨 교수가 제시한 전형적인 "혁신자의 딜레마(innovator’s dilemma)" 모습을 보여주고 있습니다.
하지만 이번 행사를 통해 구글은 외부와의 경쟁에 밀리기보다는 기존 수익모델을 양보하더라도 AI 기반의 과감한 혁신을 선택한 것으로 해석됩니다. 아마도 그 배경에는 그동안 코닥, 제록스, 노키아, 블랙베리 등 많은 기업들이 새로운 혁신 서비스와 기존 사업과의 충돌때문에 혁신을 포기하고 기존 비즈니스 모델에 집착하다가 몰락한 사례가 많기 때문일 것입니다. 1975년, 세계 최초로 디지털카메라 기술을 개발한 코닥은 디지털 혁명을 예상하고도 내부 충돌을 이유로 필름 사업을 고수하였고, 노키아와 블랙베리는 스마트폰 소프트웨어 혁신의 물결을 알면서도 기존 하드웨어 강점에 주력하였습니다. 이들은 모두 기존 사업에 대한 과도한 집중과 단기 성과에 함몰된 나머지 장기적 파괴적 혁신(disruptive innovation)을 놓친 사례입니다.
AI 시대의 거센 물결 앞에서 구글은 앞으로 '혁신'과 '수익창출'이라는 두 마리 토끼를 다 잡아야 하는 과제를 안고 있습니다. 구글이 적극적인 자기파괴적 혁신으로 AI 시대에도 시장 리더십을 이어가면서 어떻게 새로운 수익원을 발굴할 수 있을지 지켜봐야 하겠습니다.
글: 투이컨설팅 디지털연구소