[GN#196] Meta의 SAM, AR을 위한 새로운 AI모델

2023-04-03 ~ 2023-04-09 사이의 주요 뉴스들

Meta가 이미지에서 어떤 객체든 식별하여 추출해주는 SAM(Segment Anything Model)을 발표했습니다. 사람은 눈으로 본 장면에서 특정 물체를 인식하고 구분해내지만, 컴퓨터로는 굉장히 어려운 일입니다. 카메라를 통해 디지털화된 장면은 그냥 일련의 픽셀들일 뿐 어디서부터 어디까지가 물체인지를 파악하는 게 쉽지 않기 때문인데요. "이미지 세그멘테이션"은 픽셀이 어떤 객체에 속해있는지를 식별하는 것을 말합니다. SAM은 특정 물체에 대해서 학습한 게 아니라, 물체가 무엇인지에 대한 일반적인 개념을 학습하여 처음 보는 물체 및 이미지 유형에 대해서도 모든 객체를 인식하고 마스킹하여 표시해 줍니다. 또한, 이 학습을 위해 생성하여 공개한 SA-1B 데이터셋은 1100만장의 이미지와 11억 개가 넘는 분류 마스킹 데이터를 포함합니다. 미래에 AR 헤드셋/글래스들이 가지게 될 기본 기능으로 물체를 실시간 인식하고, 그에 대한 설명을 보여주는 기술에 대한 기초가 될 AI 모델이라고 생각이 됩니다. LLaMA에 이어서 메타가 또 한 번 훌륭한 일을 해냈네요.

이번 주에도 다양한 AI 관련 오픈소스들이 쏟아져 나왔습니다. 테슬라 AI 헤드였던 Andrej Karpathy가 만든 nanoGPT 기반으로 LLaMA를 재구현한 Lit-LAaMA, ChatGPT 품질의 90% 까지 되도록 LLaMA 를 파인튜닝한 Vicuna-13B, 나만의 LLM을 만들 수 있게 도와주는 xturing, OpenAI의 Whisper 와 GPT-4를 이용해서 원격 인터뷰 중에 실시간으로 도와주는 Cheetah 등이 흥미롭습니다.

Show GN에 직접 만드신 제품을 올려달라고 말씀드렸었는데요. 이번주에는 무려 7개나 등록이 되었습니다. 한번 써보시고 피드백도 남겨주세요.

Ask GN - 다양한 질문을 올려주세요.

✓ 사내 커뮤니케이션 도구에 GeekNews Bot을 추가해서 멤버들과 함께 새 글을 받아보세요
ㅤ→ Slack봇, 잔디봇, Teams봇, Discord봇, 구글 챗 봇, Swit 봇
긱뉴스는 RSS로도 구독 가능합니다
✓ 주위분들께 긱뉴스 위클리 - https://news.hada.io/weekly 뉴스레터를 추천해 주세요.


매주 월요일 아침, 지난 일주일간의 GeekNews 중 엄선한 뉴스들을 이메일로 보내드립니다.