# Opera 브라우저, 사용자가 LLM을 다운받아 로컬로 실행하는 기능 추가

> Clean Markdown view of GeekNews topic #14186. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=14186](https://news.hada.io/topic?id=14186)
- GeekNews Markdown: [https://news.hada.io/topic/14186.md](https://news.hada.io/topic/14186.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2024-04-07T10:03:01+09:00
- Updated: 2024-04-07T10:03:01+09:00
- Original source: [techcrunch.com](https://techcrunch.com/2024/04/03/opera-will-now-allow-users-download-and-use-llms-locally/)
- Points: 13
- Comments: 0

## Topic Body

- 오페라가 사용자가 대형 언어 모델(LLMs)을 자신의 컴퓨터에서 로컬로 다운로드하고 사용할 수 있도록 하는 기능을 발표  
- 개발자 스트림 업데이트를 받는 오페라 원 사용자에게 먼저 제공되며, 150개 이상의 모델 중에서 선택할 수 있음  
- 메타의 Llama, 구글의 Gemma, Vicuna 등이 포함  
- Opera의 AI 기능 드롭 프로그램의 일부로 제공됨  
- 오픈소스 프레임워크인 Ollama를 사용하고 있음. 현재 사용 가능한 모델들은 Ollama의 라이브러리의 일부이지만, 향후 다른 출처의 모델들을 포함시키려고 함

## Comments



_No public comments on this page._
