# Meta가 첫번째 LlamaCon에서 발표한 모든 것

> Clean Markdown view of GeekNews topic #20667. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=20667](https://news.hada.io/topic?id=20667)
- GeekNews Markdown: [https://news.hada.io/topic/20667.md](https://news.hada.io/topic/20667.md)
- Type: news
- Author: [xguru](https://news.hada.io/@xguru)
- Published: 2025-05-03T09:46:02+09:00
- Updated: 2025-05-03T09:46:02+09:00
- Original source: [ai.meta.com](https://ai.meta.com/blog/llamacon-llama-news/)
- Points: 6
- Comments: 0

## Summary

메타는 **Llama API** 프리뷰 공개, **고속 추론 파트너십**, **보안 도구 및 보호 프로그램** 발표 등 다양한 업데이트를 진행했습니다. **API 키 발급, SDK 지원, 보안 정책** 등 사용자 편의를 높이는 기능들이 도입되었습니다. 또한, **기업용 AI 통합 배포환경 확대와 커스터마이징 자유**를 강조하며 사용자 선택권을 강화했습니다. 메타는 앞으로도 **AI 민주화 및 지속적인 산업 혁신**을 위한 지원을 약속했습니다.

## Topic Body

- 메타는 LlamaCon 2025에서 **Llama API**, **보안 도구**, **영향력 있는 프로젝트 지원**, **속도 개선 협업** 등을 발표함   
### Llama API (프리뷰 공개)  
- Llama 3.3 8B 모델을 기반으로 하는 **모델 튜닝 및 평가 기능** 제공  
- **API 키 발급, Playground 체험, Python/Typescript SDK** 지원  
- **OpenAI SDK 호환**, 기존 앱 이식 가능  
- **보안 중시 정책**: 사용자 프롬프트 및 응답은 AI 훈련에 사용되지 않으며, API 상에서 생성한 모델은 소유권 유지 및 자유 호스팅 가능  
- [Llama API 신청하기](https://llama.developer.meta.com/join_waitlist)  
  
### Fast Inference 파트너십  
  
- **Cerebras**, **Groq**와 협업하여 고속 추론 환경 제공  
- API 내에서 간단히 모델 선택만으로 고속 처리 체험 가능  
  
### Llama Stack 신규 통합  
  
- **NVIDIA NeMo**, IBM, Red Hat, Dell 등과의 협업으로 **기업용 AI 통합 배포환경 확대**  
- Llama Stack을 **표준 엔터프라이즈 배포 스택**으로 구축해 나갈 계획  
  
### Llama 보안 도구 및 보호 프로그램  
  
- **Llama Guard 4**, **LlamaFirewall**, **Prompt Guard 2**, **CyberSecEval 4** 등 공개  
- **Llama Defenders Program** 신설: AI 보안 리더십 파트너 프로그램  
- 별도의 [오픈소스 보안 도구 발표](http://ai.meta.com/blog/ai-defenders-program-llama-protection-tools) 참고  
  
### 오픈소스가 미래다  
  
- Llama는 **비독점적, 이식성 높고, 접근 가능한 AI 플랫폼**으로 계속 진화 중  
- 사용자는 **자체 커스터마이징 및 배포 자유 보장**  
- **기업 및 개인 모두를 위한 지속적인 지원** 약속  
- Meta는 **AI 민주화와 산업 혁신의 지속 파트너**가 될 것임

## Comments



_No public comments on this page._
