Google I/O 2024에서 발표된 모든 것들
(theverge.com)Gemini 1.5 Flash 모델 발표
- Gemini 1.5 Pro만큼 강력하지만, 좁고 빈번하며 지연 시간이 짧은 작업에 최적화된 새로운 다중 모달 모델
- 빠른 응답 생성에 더 적합함
- Gemini 1.5의 번역, 추론, 코딩 능력도 개선
- Gemini 1.5 Pro의 컨텍스트 윈도우(흡수할 수 있는 정보량)가 100만 토큰에서 200만 토큰으로 두 배 증가
Project Astra: Google의 Star Trek AI 미래상
- 다중 모달 AI 어시스턴트로, 기기의 카메라를 통해 보고 이해하며, 사물의 위치를 기억하고, 사용자를 대신해 작업을 수행하는 것을 목표로 함
- 올해 I/O에서 가장 인상적인 데모 대부분에 적용됨
- 단순히 대화하는 것을 넘어 실제로 사용자를 대신해 작업을 수행하는 진정한 AI 에이전트가 되는 것이 목표임
Veo: Google의 Sora 스타일 동영상 생성
- OpenAI의 Sora에 대응하는 Google의 새로운 생성형 AI 모델로, 텍스트, 이미지, 동영상 기반 프롬프트를 사용하여 1080p 동영상을 출력할 수 있음
- 항공 촬영이나 타임랩스 등 다양한 스타일로 동영상을 제작할 수 있으며, 추가 프롬프트로 조정 가능함
- 일부 크리에이터에게 YouTube 동영상 제작에 사용할 수 있도록 제공되고 있으며, 영화 제작에도 활용 가능함을 피치하고 있음
Gemini의 Workspace 통합
- 차세대 언어 모델인 Gemini 1.5 Pro가 Docs, Sheets, Slides, Drive, Gmail의 사이드바에 통합됨
- 다음 달 유료 구독자에게 제공될 예정이며, Workspace 내에서 범용 어시스턴트 역할을 수행함
- Drive의 모든 콘텐츠에서 정보를 가져올 수 있음
- 현재 보고 있는 문서의 정보를 통합하여 이메일을 작성하거나, 나중에 읽고 있는 이메일에 응답하라고 알려주는 등의 작업을 수행할 수 있음
Google Lens의 기능 확장
- 이미지뿐만 아니라 비디오로도 검색 가능해짐
- 비디오를 촬영하면서 질문을 하면 Google의 AI가 웹에서 관련 답변을 찾아주는 기능이 추가됨
Gemini의 Google Photos 활용
- 올 여름 출시 예정인 "Ask Photos" 기능을 통해 사용자의 Google Photos 라이브러리를 분석하여 질문에 답변해줌
- 단순히 개나 고양이 사진을 찾아주는 것을 넘어서, CEO인 Sundar Pichai가 시연한 것처럼 자신의 차량 번호판 번호를 묻는 등의 복잡한 질문에도 답변이 가능함
Gems: Gemini에 맞춤형 챗봇 생성 기능 추가
- OpenAI의 GPT와 마찬가지로, Gems를 통해 사용자가 Gemini에게 지시를 내려 응답 방식과 전문 분야를 커스터마이징할 수 있음
- 예를 들어, 매일 동기 부여와 달리기 계획을 제공하는 긍정적이고 끈질긴 달리기 코치를 원한다면 곧 가능해질 예정 (Gemini Advanced 구독자의 경우)
Gemini의 대화 능력 향상
- 새로운 Gemini Live 기능은 Gemini와의 음성 채팅을 더 자연스럽게 만드는 것을 목표로 함
- 챗봇의 목소리에 개성이 더해지고, 사용자는 중간에 말을 끊거나 스마트폰 카메라를 통해 실시간으로 정보를 제공하도록 요청할 수 있음
- Gemini는 Google Calendar, Tasks, Keep과 통합되어 정보를 업데이트하거나 가져올 수 있으며, 전단지의 세부 정보를 개인 캘린더에 추가하는 등 다중 모달 기능을 활용함
Circle to Search의 수학 문제 해결 지원
- 이제 Android 폰이나 태블릿에서 수학 문제를 동그라미 치면 문제 해결에 도움을 받을 수 있음
- Google의 AI는 학생들이 숙제를 속이는 데 도움이 되지 않도록 문제를 직접 풀어주지는 않지만, 단계별로 분해하여 완료하기 쉽게 만들어 줌
Google 검색의 AI 개편
- 이번 주 미국 전역에 "AI Overviews"(이전에는 "Search Generative Experience"라고 불림)가 출시될 예정임
- 이제 "전문화된" Gemini 모델이 검색 결과 페이지를 설계하고 웹에서 요약된 답변으로 채울 것임 (Perplexity나 Arc Search와 같은 AI 검색 도구에서 볼 수 있는 것과 유사함)
Android의 AI 기반 사기 탐지
- Google은 기기 내 Gemini Nano AI를 사용하여 Android 폰이 사기꾼의 일반적인 대화 패턴 등 위험 신호를 감지하고 실시간 경고를 표시하여 사기 전화를 피하는 데 도움을 줄 수 있다고 함
- 이 기능에 대한 자세한 내용은 올해 말 제공될 예정임
Android 기기의 AI 지능 향상
- Google은 Gemini가 곧 사용자가 화면에 표시된 동영상에 대해 질문할 수 있도록 하고, 자동 자막을 기반으로 답변할 것이라고 밝힘
- 유료 Gemini Advanced 사용자의 경우 PDF도 흡수하여 정보를 제공할 수 있음
- Gemini on Android에 대한 이러한 다중 모달 업데이트와 기타 업데이트는 향후 몇 달 동안 제공될 예정임
Google Chrome에 AI 어시스턴트 추가
- Google은 데스크톱의 Chrome에 경량 버전인 Gemini Nano를 추가한다고 발표함
- 내장된 어시스턴트는 기기 내 AI를 사용하여 Google Chrome 내에서 직접 소셜 미디어 게시물, 제품 리뷰 등을 위한 텍스트 생성을 도와줄 것임
SynthID AI 워터마킹 업그레이드
- Google은 SynthID의 기능을 확장한다고 밝힘
- 새로운 Veo 동영상 생성기로 생성된 콘텐츠에 워터마킹을 삽입할 것이며, 이제 AI 생성 동영상도 감지할 수 있게 됨
구글의 프로젝트 아스트라 AI 및 동영상 생성의 발전
Google의 Gemini 모델은 150만 명 이상의 개발자가 코드 디버깅, 인사이트 확보, AI 애플리케이션 구축에 널리 사용하고 있습니다. 프로젝트 아스트라는 비디오 및 음성 입력 정보를 효율적으로 처리할 수 있는 AI 에이전트와 새로운 고급 제너레이티브 비디오 모델인 Vo를 도입하고 있습니다. Vo는 텍스트, 이미지, 동영상 프롬프트로부터 고품질 1080p 동영상을 제작할 수 있어 전례 없는 창의적인 제어 기능을 제공합니다. 구글의 딥마인드가 개발한 이 기술은 이전에는 불가능했던 아이디어를 실현하는 것을 목표로 합니다.
구글의 6세대 TPU와 혁신적인 AI 개편
Google은 칩당 컴퓨팅 성능이 4.7배 향상된 6세대 TPU인 트릴럼을 2024년 말에 출시하여 클라우드 고객에게 제공할 예정입니다. 또한 다양한 워크로드를 지원하기 위해 Axion 프로세서와 Envidia Blackwell GPU를 비롯한 새로운 CPU, GPU를 도입하고 있으며, 후자는 2025년 초에 제공될 예정입니다. Google은 사용자 만족도가 높아진 완전히 새로워진 AI 기반 검색 환경인 Gemini를 출시하며, 미국에서 먼저 출시할 예정입니다. 이 새로운 검색 모델은 보다 복잡한 쿼리와 사진 검색이 가능하며, 더욱 향상된 사용자 경험을 위해 체계적인 결과를 제공합니다.
Google의 새로운 AI 기능 및 향후 혁신 사항
Google은 음식 및 레시피를 시작으로 다른 카테고리로 확장하여 AI로 구성된 새로운 검색 결과 페이지를 도입합니다. AI는 계절과 같은 맥락적 요소를 사용하여 문제의 원인과 문제 해결 단계에 대한 개요를 제공할 수 있습니다. Google의 AI인 Gemini는 곧 '보석'이라고 불리는 맞춤형 개인 전문가인 라이브 경험을 제공할 예정이며, 동영상 이해 기능을 위해 Project Astra와 통합될 예정입니다.
새로운 Android용 AI 어시스턴트 Gemini를 소개합니다.
Gemini는 데이터 프라이버시를 우선시하면서 온디바이스 AI 경험을 제공하는 새로운 Android용 AI 어시스턴트입니다. 학교 공부를 돕고 까다로운 문제에 대한 단계별 지침을 제공하는 등 상황에 맞는 제안을 제공하도록 설계되었습니다. 또한 Gemini는 사용자의 워크플로에 원활하게 통합된 상태에서 이미지 찾기, 특정 질문에 대한 답변과 같은 작업을 지원할 수 있습니다.
구글의 제미니가 스마트폰 사용에 미치는 영향
Google의 Gemini는 스마트폰 사용자에게 AI 기능을 제공하여 문서에 있는 정보에 쉽게 액세스하고 특정 질문에 대한 명확한 답변을 제공합니다. 온디바이스 파운데이션 모델은 사용자 개인 정보를 우선시하면서 더 빠른 응답을 제공하여 스마트폰 경험을 향상시킵니다. 곧 출시될 제미니 나노 모델은 휴대폰이 텍스트, 시각, 소리, 음성 언어를 통해 세상을 이해할 수 있게 함으로써 가능성을 더욱 확장할 것입니다.
코얼리, 유튜브 속 핵심 내용을 10초 만에! - https://corely.ai/content/google-io-2024-everything-revealed
https://killedbygoogle.com
Gemini가 이 리스트에 언제 들어갈지 궁금합니다. 돈 안되면 미련없이 접는게 구글의 습성이라 정이 안가요
예전에 구글이 시연한 가위바의보를 오픈AI는 출시했는데 구글은 아직 택도 없고... 이번 공개 내용은 또 언제쯤 구현되려나 싶은 맘으로 봤네여 ㅋㅋ