[GN#231] 아마존 CTO의 2024년 이후 기술 예측

2023-12-04 ~ 2023-12-10 사이의 주요 뉴스들

아마존의 CTO인 워너 보겔스 박사는 매년 연말쯤에 내년 이후의 기술에 대한 예측 글을 자신의 블로그에 올리고 있는데요. 올해에도 "2024년과 그 이후 기술 예측" 이란 제목으로 공개했네요. 인류는 계속 자기 능력을 증대시키는 도구와 시스템을 개발해 왔으며, 생성형 AI가 우리 삶 거의 모든 측면에 영향을 미쳐서 기술 접근성을 대중화하고 다양한 혁신이 나오게 될 것이라고 운을 떼고 있습니다. 총 4개의 꼭지로 이야기하고 있는데요. 생성형 AI가 다양한 문화적 유창성을 가지게 될 것이며, FemTech의 발전으로 외면받고 있던 여성 의료시장이 변곡점에 들어가게 되고, AI 어시스턴트들로 인해 개발자 생산성이 재정의 되고, 교육이 기술 혁신의 속도에 맞춰 진화하여 새로운 교육 기회의 시대가 열릴 것이라고 합니다. 아무래도 AWS와 연관성 있는 기술 분야들을 얘기하긴 합니다만, 눈여겨 봐둘 만한 이야기들이라고 생각됩니다.

경력이 좀 있는 개발자들은 예전 SOAP vs. REST 논쟁을 기억하실 텐데요. 실제로는 SOAP은 프로토콜이고 REST는 아키텍처 스타일이어서 직접 비교하기는 무리가 있지만, API에서의 쓰임새 측면에서 많이 비교되기도 했습니다. 요즘에 와서는 REST가 더 많이 쓰이긴 합니다만, 다양한 방식들이 용도에 맞게 사용되고 있는데요. "2023년 API 프로토콜 현황"은 API 개발자용 도구인 Postman이 약 4만명 개발자 대상으로 설문 조사한 결과를 정리한 글입니다. REST가 86%로 아직 시장의 대세긴 한데 다양해지는 앱 환경에 따라 대응이 어려운 부분이 많이 보이는데요. 폴링없는 실시간 이벤트 전송을 위한 WebHooks, 프론트엔드 측에 더 많은 제어권을 제공해 주는 GraphQL, 여전히 구조화된 정보 전달에 강점을 가진 SOAP, 양방향 실시간 전송을 위한 WebSocket, 고성능 데이터 송수신을 위한 gRPC, 그 외에 MQTT, AMQP, SSE 등 까지 다양하게 정리하고 있습니다. 결국 개발자에게 중요한 것은 최적의 API 솔루션을 만들기 위해 여러 프로토콜의 강점과 약점을 이해하고, 다중 프로토콜 철학을 수용해야 한다는 것입니다.

스타트업들이 처음에 투자받기 위해 피칭을 할 때 TAM(Total Addressable Market) 에 대해서 많이 얘기를 듣게 되는데요. 아무래도 TAM 자체가 작다 보면 성장에 있어서 한계가 생길 수밖에 없기 때문에 VC들이 주로 물어보는 요소중에 하나입니다. 그렇다고 무조건 TAM이 큰 아이템을 선택한다면 그만큼 경쟁도 많고, 위험이 다양한 곳에 존재하며, 성공으로 가는 요소들이 제어하기 어렵게 됩니다. "큰 TAM 창업자, 작은 TAM 스타트업" 글에선 큰 TAM을 가진 창업자들이 작은 TAM 스타트업을 선택한다면 성공확률이 높을 수 있다는 점을 이야기합니다. 그래서 요즘 실리콘밸리에서는 똑똑한 친구들이 스타트업 대신 Substack 을 시작한다고요. 실제로 몇년새에 굉장히 많은 뉴스레터들이 생겨나긴 했는데, 여기서 의미하는 바는 작은 규모라도 성공 해서 인정을 받고 약간의 재정적 도움을 받으면 다음 도전을 선택하는 데 도움이 된다는 것이라고 봅니다. 창업자들은 자신의 TAM이 어느 정도 되는지를 명확히 알고, 거기서 어느 정도 규모의 TAM에 대한 아이템을 시작할지 고민해 보시면 좋겠습니다.

Llama 덕분에 다양한 오픈소스 언어모델들이 나오고 있는데요. 자신의 장비에서 실행하기 위해서는 아무래도 여러가지 작업을 거쳐야 해서 귀찮은 일이 생기게 마련입니다. "llamafile - 단일 파일로 LLM 배포 및 실행 하기"는 동일한 C++ 바이너리로 각종 OS에서 실행하게 해주는 Cosmopolitan 과 llama.cpp 를 결합하여, 어디서나 파일 하나 만으로 LLM을 쉽게 설치하고 실행하게 해주는 오픈소스 입니다. 맥/리눅스/윈도우 상관없이 그냥 파일 하나만 받아서 chmod +x 또는 .exe 붙이는 것 만으로 실행이 되는 마법같은 일을 보실수 있으니 한번 시도해 보세요.

OpenAI 덕분에 계속 뒤처지는 듯한 느낌을 주던 구글이 내년으로 미뤄졌다는 소문을 깨고 갑자기 "최신 AI 모델 Gemini를 공개"했습니다. MMLU에서 90%를 받아 인간 전문가를 능가한 최초의 AI 모델로, 밑바닥부터 멀티모달을 고려한 구성으로 이미지/비디오/오디오 다중 모드 벤치마크에서도 GPT-4V 와 Whisper를 능가한다고 주장하면서, 실제로 같이 발표한 다양한 영상들을 통해서 놀라운 기능을 선보였는데요. 가장 화제였던 "Hands-on with Gemini: Interacting with multimodal AI" 영상은 실시간으로 사물과 동작을 인식하고 대화하면서 진짜 아이언맨의 자비스 같은 능력을 보여줬는데요. 이 "영상이 다소 연출되고 조작되었다"는 제보가 나오면서 Bard 발표 초기처럼 또 다시 실망스런 모습을 보여주기도 했습니다. 실제로 내년에 Gemini Ultra 가 나와보면 달라질거라는 생각도 해봅니다만, 어쨌거나 OpenAI가 혼자 달려 나가는 것보다는 치열한 경쟁이 더 좋으니 구글도 화이팅했으면 합니다.

Show GN - 직접 만드신 오픈소스나, 재직중인 스타트업의 제품/서비스를 소개해주세요

Ask GN - 다양한 질문을 올려주세요.

✓ 사내 커뮤니케이션 도구에 GeekNews Bot을 추가해서 멤버들과 함께 새 글을 받아보세요
ㅤ→ Slack봇, 잔디봇, Teams봇, Discord봇, 구글 챗 봇, Swit 봇
긱뉴스는 RSS로도 구독 가능합니다
✓ 주위분들께 긱뉴스 위클리 - https://news.hada.io/weekly 뉴스레터를 추천해 주세요.


매주 월요일 아침, 지난 일주일간의 GeekNews 중 엄선한 뉴스들을 이메일로 보내드립니다.