# 구글, AI 연구를 위한 robots.txt의 보완 프로토콜 공개토론 시작

> Clean Markdown view of GeekNews topic #9735. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=9735](https://news.hada.io/topic?id=9735)
- GeekNews Markdown: [https://news.hada.io/topic/9735.md](https://news.hada.io/topic/9735.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-07-11T10:03:01+09:00
- Updated: 2023-07-11T10:03:01+09:00
- Original source: [blog.google](https://blog.google/technology/ai/ai-web-publisher-controls-sign-up/)
- Points: 7
- Comments: 0

## Topic Body

- robots.txt 는 거의 30년 전에 만들어졌음   
  - 웹 게시자가 검색 엔진이 콘텐츠 크롤링 하는 방법을 제어할 수 있는 간단하고 투명한 방법   
- 급발전중인 AI & 연구에 있어서 좀 더 머신-리더블한 콘텐츠 제어 방안이 필요하다고 생각   
- 보완 프로토콜을 논의하기 위해 웹/AI 커뮤니티 멤버들을 초대하여 공개 토론을 시작  
- 웹사이트에 가입해서 토론에 참여 가능

## Comments



_No public comments on this page._
