# talk-llama - 터미널에서 LLaMA와 대화하기

> Clean Markdown view of GeekNews topic #11790. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=11790](https://news.hada.io/topic?id=11790)
- GeekNews Markdown: [https://news.hada.io/topic/11790.md](https://news.hada.io/topic/11790.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2023-11-11T10:04:01+09:00
- Updated: 2023-11-11T10:04:01+09:00
- Original source: [github.com/ggerganov](https://github.com/ggerganov/whisper.cpp/tree/master/examples/talk-llama)
- Points: 10
- Comments: 1

## Topic Body

- Whisper Medium(Whisper.cpp) + LLaMA v2 13B Q8_0 을 M2 Ultra에서 시연   
- Whisper로 음성인식하여 해당 질문을 LLaMA에게 보낸뒤 답변을 MacOS의 음성합성(`say` 명령)을 이용해서 출력   
- 세션 관리를 지원해서 기존 대화 내용에 기반한 연속적인 대화 가능

## Comments



### Comment 20531

- Author: ragingwind
- Created: 2023-11-13T09:49:04+09:00
- Points: 1

13B 는 울트라에서 잘 되는거 같아요. M3 Max 에서는 어떨까 궁금하네요
