구글, AI 연구를 위한 robots.txt의 보완 프로토콜 공개토론 시작
(blog.google)- robots.txt 는 거의 30년 전에 만들어졌음
- 웹 게시자가 검색 엔진이 콘텐츠 크롤링 하는 방법을 제어할 수 있는 간단하고 투명한 방법
- 급발전중인 AI & 연구에 있어서 좀 더 머신-리더블한 콘텐츠 제어 방안이 필요하다고 생각
- 보완 프로토콜을 논의하기 위해 웹/AI 커뮤니티 멤버들을 초대하여 공개 토론을 시작
- 웹사이트에 가입해서 토론에 참여 가능