11P by neo 2달전 | favorite | 댓글 1개
  • Meta, Llama 3.2 출시

    • 소형 및 중형 비전 LLM(11B 및 90B)과 경량 텍스트 전용 모델(1B 및 3B) 포함
    • Qualcomm 및 MediaTek 하드웨어에서 사용 가능하며 Arm 프로세서에 최적화됨
    • 요약, 지시 따르기, 재작성 작업에 적합한 모델
  • Llama 3.2 모델의 특징

    • 11B 및 90B 비전 모델은 이미지 이해 작업에서 뛰어남
    • torchtune을 사용한 맞춤형 애플리케이션을 위한 미세 조정 가능
    • torchchat을 사용한 로컬 배포 가능
    • Meta AI 스마트 어시스턴트를 통해 사용 가능
  • Llama Stack 배포

    • 단일 노드, 온프레미스, 클라우드, 온디바이스 환경에서 Llama 모델 작업을 단순화
    • AWS, Databricks, Dell Technologies, Fireworks, Infosys, Together AI와 협력하여 배포
  • Llama 3.2 모델 다운로드

    • llama.com 및 Hugging Face에서 다운로드 가능
    • AMD, AWS, Databricks, Dell, Google Cloud, Groq, IBM, Intel, Microsoft Azure, NVIDIA, Oracle Cloud, Snowflake 등 파트너 플랫폼에서 즉시 개발 가능
  • Llama 3.2의 성능

    • 11B 및 90B 모델은 문서 수준 이해, 이미지 캡션 작성, 시각적 기반 작업에 적합
    • 1B 및 3B 모델은 다국어 텍스트 생성 및 도구 호출 기능 제공
    • 로컬에서 실행 시 즉각적인 응답과 높은 프라이버시 유지
  • 모델 평가

    • 150개 이상의 벤치마크 데이터셋에서 성능 평가
    • Claude 3 Haiku 및 GPT4o-mini와 경쟁 가능한 성능
  • 비전 모델

    • 이미지 입력 지원을 위해 새로운 모델 아키텍처 도입
    • 텍스트 전용 기능을 유지하면서 이미지와 텍스트 프롬프트를 결합하여 깊이 있는 이해와 추론 가능
  • 경량 모델

    • 가지치기 및 지식 증류 방법을 사용하여 1B 및 3B 모델 개발
    • 로컬에서 효율적으로 실행 가능
  • Llama Stack 배포

    • Llama Stack API를 통해 표준화된 인터페이스 제공
    • 다양한 환경에서 Llama 모델 작업을 단순화
  • 시스템 수준 안전

    • Llama Guard 3 11B Vision 출시
    • Llama Guard 3 1B 모델은 배포 비용을 크게 줄임
  • Llama 3.2 사용

    • 개발자에게 필요한 도구와 리소스 제공
    • Llama 3.2와 Llama Stack을 사용하여 혁신적인 애플리케이션 개발 가능

GN⁺의 정리

  • Llama 3.2는 엣지 및 모바일 디바이스에서 실행 가능한 경량 모델을 포함하여 다양한 비전 및 텍스트 모델을 제공함
  • Qualcomm, MediaTek, Arm 등과의 협력을 통해 다양한 하드웨어에서 최적화된 성능을 제공함
  • Llama Stack 배포를 통해 개발자들이 다양한 환경에서 쉽게 Llama 모델을 사용할 수 있도록 지원함
  • Llama 3.2는 높은 프라이버시와 즉각적인 응답을 제공하여 로컬 애플리케이션 개발에 적합함
  • Claude 3 Haiku 및 GPT4o-mini와 경쟁할 수 있는 성능을 제공하며, 다양한 벤치마크에서 우수한 성능을 입증함
Hacker News 의견
  • 새로운 1B 모델의 성능에 놀라움. 1.3GB 다운로드 크기임

    • 전체 코드베이스를 요약하는 데 사용해봄. 완벽하지는 않지만 작은 모델치고는 놀라운 성능을 보임
    • 더 많은 노트는 여기에서 확인 가능함
    • 더 큰 이미지 모델도 시도해봄. lmarena.ai에서 "Direct Chat"을 통해 이미지 업로드 가능함
  • "The Llama jumped over the ______!" 예제에서 1-hot 인코딩으로 "wall"이 100% 확률로 정답임

    • "fence"도 가능성이 있다고 하면 틀림. 모델 증류가 잘 작동하는 이유라고 생각함
    • 원래 모델은 텍스트 답변을 통해 학습하지만, 자식 모델은 예측을 모방하여 더 의미 있는 답변을 학습함
    • Meta의 Llama 3.2 모델이 작지만 강력한 이유를 이해함. 모델의 발전에 놀라움
  • Meta의 Llama 팀의 개방성에 감탄함. 모델 접근뿐만 아니라 구축 방법도 공개함

    • 미래의 모델에 대해 알 수 없지만, Meta의 개방적인 태도에 감사함
  • 초보자 질문: 10배의 소프트웨어 엔지니어 능력을 가진 모델이 필요한데, 인간의 지식은 필요 없음. 그런 모델이 있는지 궁금함

  • Ollama에서 3B 모델을 사용해봄. 광학, 생물학, Rust에 대한 질문에 빠르고 많은 지식을 가지고 있음

    • 매우 인상적인 모델임
  • Ollama 블로그 포스트: 링크

  • llama3.2:3b-instruct-q8_0 모델이 3.1 8b-q4보다 성능이 좋음. MacBook Pro M1에서 더 빠르고 결과도 더 좋음

    • 몇 가지 수수께끼와 사고 실험에 더 나은 답변을 제공함
    • 3.1-8b 설치를 제거함
    • 현재 Ollama 리스트:
      • llama3.2:3b-instruct-q8_0: 3.4GB, 2시간 전 수정됨
      • gemma2:9b-instruct-q4_1: 6.0GB, 3일 전 수정됨
      • phi3.5:3.8b-mini-instruct-q8_0: 4.1GB, 3일 전 수정됨
      • mxbai-embed-large:latest: 669MB, 3개월 전 수정됨
  • Ollama를 위한 웹 UI 클라이언트를 추천해줄 수 있는지 질문함

  • 최신 LLM 벤치마크가 있는 리더보드가 있는지 질문함

    • Livebench와 Lmsys는 몇 주 뒤처져 있고 주요 모델을 추가하지 않음
    • 존재하지 않으면 직접 만들 의향이 있음
  • 3B 모델이 멀티모달(노르웨이어)에서 꽤 좋았지만, 때때로 의미 없는 답변을 많이 함. 8B보다 민감하지만 Gemma 2 2B보다 사용 가능함

    • Python 리스트 정렬 질문에는 괜찮음
    • 90B 비전 모델은 유용한 작업을 거부함. HTML로 이미지를 재현하거나 이미지 데이터를 유용하게 사용하는 데 실패함
    • 70B나 OpenAI에서는 이런 문제가 없었음. 거부가 너무 많음