# LLaMA-Omni - LLM과의 원활한 음성 인터랙션

> Clean Markdown view of GeekNews topic #16844. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=16844](https://news.hada.io/topic?id=16844)
- GeekNews Markdown: [https://news.hada.io/topic/16844.md](https://news.hada.io/topic/16844.md)
- Type: GN+
- Author: [neo](https://news.hada.io/@neo)
- Published: 2024-09-20T09:44:31+09:00
- Updated: 2024-09-20T09:44:31+09:00
- Original source: [github.com/ictnlp](https://github.com/ictnlp/LLaMA-Omni)
- Points: 2
- Comments: 1

## Topic Body

- 지연 시간이 짧은 고품질의 엔드투엔드 음성 상호작용 모델  
- Llama-3.1-8B-Instruct 기반으로 구축되어 GPT-4o 수준의 음성 기능을 달성하는 것을 목표로 함   
- 226ms의 낮은 지연 시간  
- 텍스트와 음성 응답을 동시에 생성  
  
### GN⁺의 정리  
- LLaMA-Omni는 Llama-3.1-8B-Instruct 기반의 음성-언어 모델로, 낮은 지연 시간과 높은 품질의 음성 상호작용을 지원함  
- 텍스트와 음성 응답을 동시에 생성할 수 있어 다양한 응용 분야에서 유용함  
- 4개의 GPU로 3일 이내에 훈련이 완료되어 효율적임  
- Gradio 데모를 통해 쉽게 상호작용할 수 있으며, 로컬 추론도 가능함  
- 유사한 기능을 가진 프로젝트로는 OpenAI의 Whisper와 Google의 Speech-to-Text API가 있음

## Comments



### Comment 29039

- Author: neo
- Created: 2024-09-20T09:44:31+09:00
- Points: 1

###### [Hacker News 의견](https://news.ycombinator.com/item?id=41582180) 
- "텍스트로 표현할 수 없는 소리를 재생할 수 있는지"에 대한 질문
- 순수 텍스트 모델보다 이 모델의 장점이나 잠재력에 대한 의문
  - 모델이 발전함에 따라 TTS에서 잃어버리는 억양, 리듬, 감정을 제대로 해석하거나 생성할 수 있는지에 대한 기대
- "STT -> LLM -> TTS"가 아닌지에 대한 질문
  - Chewbacca 소리를 입력하면 모델이 이를 무의미한 소리로 인식할지, 아니면 엉성한 STT로 무작위 단어로 해석할지에 대한 의문
- Ollama, LM Studio, llama.cpp 같은 모델 운영자들이 이를 지원하는지에 대한 질문
- 데모 클립의 TTS 목소리가 Valve 성우 Ellen McLain과 매우 유사함
  - [Ellen McLain 위키피디아 링크](https://en.wikipedia.org/wiki/Ellen_McLain)
- 속도가 매우 좋음
  - 최근 LMStudio + AnythingLLM을 설정하여 로컬 음성 채팅을 시도했지만 여전히 원하는 것보다 느림
  - PiperTTS 목소리가 더 나음
- 상업적 사용을 위해 목소리 미세 조정이 중요한 요구 사항으로 보임
  - 훈련이나 미세 조정 코드가 있었으면 좋겠음
- 추가 미세 조정이 불가능한지에 대한 의문
- 성능을 보여주는 데모가 있는지에 대한 질문
- GitHub 저장소의 별 히스토리 그래프가 있는 경우 신뢰도가 떨어진다고 느끼는지에 대한 의문
