# RT-2: Vision-Language-Action Models

> Clean Markdown view of GeekNews topic #10142. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=10142](https://news.hada.io/topic?id=10142)
- GeekNews Markdown: [https://news.hada.io/topic/10142.md](https://news.hada.io/topic/10142.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-08-02T11:05:01+09:00
- Updated: 2023-08-02T11:05:01+09:00
- Original source: [robotics-transformer2.github.io](https://robotics-transformer2.github.io/)
- Points: 7
- Comments: 2

## Topic Body

- "Robotics-Trasformer 2" : 웹의 지식을 로봇 제어에 전달하기  
- 인터넷 규모의 데이터로 학습된 비젼-언어 모델을 E2E 로봇 제어에 직접 통합   
- 로봇의 동작을 텍스트 토큰으로 변환하여 비전-언어 데이터모델과 함께 사용가능한 별도의 언어처럼 정리, 작업 명령을 액션으로 변환   
- (기존에 학습하지 않았던) 완전히 새로운 개체를 로봇에게 제시해도 잘 이해하고 작업을 수행함   
  - "put strawberry into the correct bowl"  
  - "place orange in matching bowl"

## Comments



### Comment 17848

- Author: xguru
- Created: 2023-08-02T11:07:01+09:00
- Points: 1

[Google’s RT-2 AI model brings us one step closer to WALL-E](https://arstechnica.com/information-technology/2023/07/googles-rt-2-ai-model-brings-us-one-step-closer-to-wall-e/)  
  
Arstechnica 의 기사 제목이 더 설명이 쉽긴 하네요. LLM의 발전이 로봇제어에 있어서는 새로운 혁신이 될듯

### Comment 17847

- Author: xguru
- Created: 2023-08-02T11:06:02+09:00
- Points: 1

[Google, 자신을 프로그램할 수 있는 로봇을 테스트 중](https://news.hada.io/topic?id=7780)  
[ChatGPT for Robotics : 설계 원칙과 모델 능력](https://news.hada.io/topic?id=8543)
