7P by xguru 2023-03-13 | favorite | 댓글 1개
  • OpenAI의 얼라인먼트 팀 리드인 Jan Leike가 블로그에 올린 글을 DeepL로 번역
  • Alignment는 "하나의 AI시스템을 하나의 인간에 정렬하는 것"
  • "개인의 선호(누구나 자신에게 정렬된 AI를 원함)" 와 "집단의 선호(AI를 어떤 용도로 사용할 수 있으며 기본 작동은 무엇이어야 할까)" 에 맞게 정렬하는 두가지 범주가 있음
  • 이 글은 두번째 범주에 관한 것

제안: 시뮬레이트된 숙의(deliberative) 민주주의

  • 핵심 아이디어는 거대 언어 모델을 "숙의(熟議) 민주주의"를 모방하는 학습에 사용하는 것
    • 숙의 민주주의는 무작위로 선정된 소수의 대중('미니 퍼블릭')이 명시적으로 숙의하는 의사 결정 또는 정책 결정 과정
  • 시뮬레이트된 숙의 민주주의 구축 방법
    • 가치 질문 데이터 세트 수집
    • 인간의 숙의 기록
    • 배경 조건부 모방 학습
    • 시뮬레이션. 새로운 가치에 대한 질문

최승준님의 "이 글의 맥락에 대한 부연 설명"을 같이 읽어보시기 바랍니다. (문서의 앞부분에도 링크가 있습니다)
https://facebook.com/seungjoon.choi/posts/…