26P by neo 4일전 | ★ favorite | 댓글 3개
  • AI 엔지니어를 위한 50개의 논문, 모델, 블로그를 10개의 분야로 나누어 선정
  • LLMs, 벤치마크, 프롬프팅, RAG, 에이전트, 코드 생성, 비전, 음성, 확산, 파인튜닝 분야를 포함

섹션 1: 최전선 LLMs

섹션 2: 벤치마크 및 평가

  • MMLU
    • MMLU (논문): 다분야 지식 벤치마크의 표준
      • 2025년 최첨단 연구는 MMLU Pro (논문), GPQA Diamond (논문), BIG-Bench Hard (논문)를 사용
    • GPQA (논문): 질문 생성 및 정답 평가에 중점
    • BIG-Bench (논문): 다방면의 문제를 포함한 대규모 벤치마크
  • MuSR (논문): 긴 문맥 내 평가
  • MATH (논문): 수학 경시대회 문제 모음
    • 최첨단 연구는 FrontierMath (논문) 및 고난도 문제에 초점
    • 하위 집합: MATH Level 5, AIME, AMC10/AMC12
  • IFEval (논문): 주요 명령어 이행 평가 벤치마크
    • Apple의 공식 채택 (링크)
    • 관련 벤치마크: MT-Bench (논문)
  • ARC AGI (공식 페이지): 추상적 추론과 "IQ 테스트" 벤치마크
    • 빠르게 포화되는 다른 벤치마크와 달리 장기적으로 유지
  • 추가 참고 자료

섹션 3: 프롬프팅, ICL 및 사고의 연쇄

섹션 4: RAG (Retrieval-Augmented Generation)

섹션 5: 에이전트

섹션 6: 코드 생성(CodeGen)

  • The Stack paper
    • The Pile의 코드 중심 오픈 데이터셋 쌍으로 시작
    • 후속 작업:
  • 오픈 코드 모델 논문
  • HumanEval/Codex
  • AlphaCodeium
    • Google의 AlphaCodeAlphaCode2 성능 기반
    • Flow Engineering을 활용해 기존 모델의 성능을 대폭 향상
  • CriticGPT
    • 코드 생성 시 발생하는 보안 문제 탐지에 초점
      • OpenAI의 CriticGPT는 보안 문제를 식별하도록 학습
      • Anthropic은 SAEs(Safety-relevant Activation Ensembles)를 사용해 문제를 유발하는 LLM 특징 분석 (연구)
  • 산업에서의 코드 생성은 연구에서 실무로 중심 이동:
    • Devin과 같은 코드 에이전트 활용 (영상)
    • 코드 생성에 대한 실무적 조언 (YouTube)

섹션 7: 비전

섹션 8: 음성

  • Whisper:
    • OpenAI의 성공적인 ASR 모델
    • 주요 버전:
    • Whisper는 여러 공개 가중치 모델 제공, 하지만 일부 버전은 논문 없음
  • AudioPaLM:
    • Google의 AudioPaLM은 PaLM에서 Gemini로 전환되기 전의 연구
    • 참고: Meta의 Llama 3 음성 탐구 (논문)
  • NaturalSpeech:
    • 주요 TTS 연구 중 하나
    • 최근 v3 (논문)로 업데이트
  • Kyutai Moshi:
    • 풀-듀플렉스 음성-텍스트 오픈 가중치 모델
    • 고품질 데모 (YouTube)
    • 참고 모델: Hume OCTAVE (블로그)
  • OpenAI Realtime API: The Missing Manual:
    • OpenAI의 실시간 음성 API에 대한 비공식 문서
    • 최신 에이전트 및 실시간 작업에 중요한 도구
  • 대형 연구소 외 다양한 솔루션 추천:
  • Gemini 2.0: 음성과 비전을 자연스럽게 통합한 멀티모달 모델
    • 2025년 이후: 음성과 비전 모달리티의 융합이 명확한 경로로 진화 중

섹션 9: 이미지/비디오 확산

섹션 10: 모델 파인튜닝(Finetuning)

AI 엔지니어를 위한 2025년 독서 목록 마무리

  • 이 목록은 방대하고 위압적으로 느껴질 수 있지만, 중간에 포기해도 괜찮음. 중요한 것은 다시 시작하는 것
  • 최신 정보를 유지하기 위해 2025년에도 지속적으로 업데이트될 예정
  • 자신의 학습 방법을 만들어도 좋지만, 1시간 안에 논문 읽는 법을 참고하면 도움이 될 것
  • 독서 및 학습 팁은 여기에서 확인 가능
  • 커뮤니티와 함께 학습하기

이렇게 보니, 정말 자세히 보면 좋을 자료가 아직 넘쳐나는군요

Hacker News 의견
  • 대부분의 논문은 깊은 이해보다는 지식 습득에 중점을 두고 있음. 주제에 익숙하지 않다면 논문보다는 교과서로 시작하는 것이 좋음. 최신 Bishop의 "Deep Learning: Foundations and Concepts (2024)"와 Chip Huyen의 "AI Engineering (2024)"이 좋은 자료임. "Dive into Deep Learning"이나 fast.ai의 자료도 추천됨

  • "AI Engineer"라는 직업이 무엇인지 모르겠지만, 연구 논문을 읽는 것이 실제로 필요한지 의문임. AI의 최첨단을 다루지 않는다면 논문을 읽는 것은 의미가 없을 수 있음. LLM의 반응을 이해하고 사용자 친화적인 앱을 구축하는 것이 더 중요함. OpenAI나 Groq의 API를 사용할 때 "multi head attention"과 "single head attention"의 차이를 아는 것은 크게 유용하지 않음

  • 목록을 작성하는 것은 어려운 작업임. 선택한 것 외에도 적합한 후보가 많기 때문에 이것을 커리큘럼으로 보고, 현재 관련 논문은 고정된 참조가 아닌 이동하는 포인터로 이해해야 함. 특정 독서 목록을 논문 클럽에서 다룸

  • 대부분의 오픈 소스 모델의 지침 미세 조정 방법은 Alpaca에서 비롯됨. Alpaca와 합성 데이터 생성에 관한 논문도 포함되어야 함

  • AI와 LLM 논문을 읽고 이해하는 데 시간을 낭비하지 말고, ELIZA에 대해 읽고 직접 구축해보는 것이 좋음. 텐서, 벡터, 필드, 언어학, 컴퓨터 아키텍처, 네트워크에 집중해야 함

  • 독서 목록은 약 1년 전의 것임. 2025년에는 KTO, RLOO, DPO와 같은 기술에 집중해야 함. 2025년에는 증류와 최적화에만 집중해야 함. CoT는 새로운 것이 아니며, 수정된 CoT가 핵심임

  • "AI"라는 용어가 최근의 DL 발전에 의해 거의 완전히 흡수된 것이 흥미로움. Russell & Norvig, Minsky, Shannon, Lenat 등의 언급이 없음. AI에 대한 더 넓은 주제로의 소개에 관심이 있다면, 대부분의 대학원 과정에서 같은 책을 사용함

  • 훌륭한 조사임. 아래의 코스와 결합하면 최고의 결과를 얻을 수 있음

  • 훌륭한 목록임

Eliza를 직접 구축해본다는 게 무슨 뜻인가요?