Lobste.rs 의견들
  • 이건 정말 불편할 정도로 disturbing함. 특히 LLM이 자율주행차 관련 논증을 바꿔버린 예시는 꽤 충격적임
    LLM이 중립적 태도를 취하는 건 전혀 놀랍지 않음. 주류 LLM 제품의 핵심 목표가 기본적으로 “알려진” 진실을 말하고 사용자를 돕되, 그 외에는 애매하게 중간 입장을 취하는 것이라고 이해하고 있음
    가치 있는 글을 쓰거나 편집하는 데 사람들이 LLM을 찾는다는 게 도저히 이해가 안 됨

    • 사람이 완전히 직접 초안을 쓴 뒤 LLM에게 “문제 있는지 확인”만 맡기는 선의의 해석을 해도, 이후 변경 사항을 검토하면서 결과물이 제출한 글과 다른 의미가 됐다는 걸 어떻게 못 볼 수 있는지 모르겠음
      “불편하다”는 표현이 딱 맞음
    • 내가 이해하기로는 Musk의 Grok은 의도적으로 편향되게 만들어졌거나 그랬던 것으로 보임
    • 그건 비서나 교정 편집자에게는 좋은 전문적 관행임
      LLM을 그런 방향으로 훈련하는 게 왜 나쁘다고 보는지 이해가 안 감
  • 페이지가 내 환경에서는 일관되게 제대로 로드되지 않음. a preprint가 있음

  • 빈도 그래프가 입이 벌어질 정도이고, 솔직히 내가 예상한 모습과 거의 정확히 같아 보임
    선물처럼 받아들이면 됨. 왼쪽에 있는 것들은 이제 강력한 단어가 된 것들이고, 오른쪽에 있는 것들은 이제 점점 의미 없는 단어가 되어가는 것들임

    • 어떤 그래프를 말하는 건지 모르겠음. 페이지에서 그런 걸 못 봤음
  • Claude를 교정 편집자로 쓰려고 했을 때 이런 걸 많이 봤음. 철자, 문법, 구두점에만 집중하게 만들려면 프롬프트를 여러 번 고쳐야 했음
    의미가 바뀌는 경향은 임베딩이 작동하는 방식과 관련이 있을 것 같음

  • 사용자에게 있는 주체성과 책임이 AI/LLM을 둘러싼 많은 논의에서 이상할 정도로 빠져 있음
    사용자가 성인이라고 가정하면, LLM을 쓰는 것은 능동적인 선택임. 출력물을 쓸지 말지, 어떤 방식으로 쓸지도 결정할 수 있음
    AI가 정치, 문화, 과학, 심지어 친구와 가족과 소통하는 방식까지 “근본적으로 바꾼다”면, 그건 사람들이 그렇게 하기로 선택했고 AI가 그 선택을 쉽게 만들어줬기 때문임
    사용자가 의견이나 선호가 없었다고 해서 선택이 이루어졌다는 사실이 사라지지는 않음