이미지 편집 기능이 정말 뛰어난 것 같음, 오히려 그게 핵심임에도 잘 드러나지 않는 느낌임. OpenAI 모델은 이미지를 전체적으로 바꾸다가 쿼리와 무관한 부분의 디테일까지 손상시키는데, 이 모델은 쿼리와 관련 없는 부분은 완벽하게 보존하면서 원하는 편집만 아주 잘 적용하는 점이 인상적임. 다만, 출력 해상도가 아쉬운 수준임(입력 이미지는 훨씬 컸는데 결과 이미지는 1184px임). 집 오피스 사진을 업로드해서 "아래쪽의 약간 찢어진 회색 패널들을 완전히 새것처럼 복원해 달라"고 요청해봤는데, 결과물이 상당히 훌륭했음. 출력 품질이 원본보단 아주 미세하게 떨어지지만, 이 부분도 곧 개선될 거라 기대함
이런 기술이 Craigslist에 큰 타격을 줄 것 같음. 예를 들어, 사진으론 멀쩡한 차인 줄 알고 방문했는데, 도착해보니 펜더가 찌그러져 있고, 보닛엔 구멍, 헤드라이트도 깨져 있음.
부동산 중개인이 AI로 주택 사진을 완전히 새롭게 연출한 사례가 있었음(노후된 집을 신축처럼 보이게). 사람들이 실제로 방문하고 크게 분노했음. 중개인은 이게 연출의 한 단계라 주장했지만, 이 경우엔 전혀 먹히지 않았음. 결국 매물에서 내렸고, 많은 사람들이 수리하러 오기도 했음(가족일 가능성이 높지만 확실치는 않음)
참고로, 올려준 입력 및 결과 이미지 링크가 같음. 처음에 내가 사진 차이 찾아보려다가 혼란스러웠음
특정 작업엔 Kontext가 아마 더 뛰어나고, 아마 Mistral이 이걸 이용하는 듯함. 무엇보다 빠르고 저렴함.
그런데 OpenAI도 어제 더 고화질 이미지 편집 기능을 새로 추가함. 이 기능이 API에만 적용된 건지, 채팅 UI에도 적용될지 아직 모르겠음. 동일한 프롬프트와 입력 이미지 결과: https://i.imgur.com/w5Q0UQm.png
Black Forest Labs의 Flux Kontext를 사용하고 있고, 정말 뛰어난 모델임
이미지 결과에서 책 제목이 흐트러짐
드디어 EU가 깨어난 느낌임. 이 점이 자랑스러움. OpenAI와의 계약이 끝나자마자 바로 Mistral로 옮길 계획임. 유럽을 지지해야 함, Viva La France
사실 나는 Mistral Large 3만 기다리는 중임. 이미 암시가 있었고, 새로운 Le Chat의 기본 언어 모델로 곧 적용될 것 같음.
5월 Mistral Medium 3 블로그 포스트의 "One more thing"에서 이런 내용이 있었음:
3월 Mistral Small, 오늘 Medium, 곧 'large' 출시 준비 중. Medium 모델이 이미 다른 오픈소스 대표 모델(Llama 4 Maverick 등)들보다 확연히 뛰어나기에 다음 단계가 기대됨
이 버전이면 이제 최고의 대형 모델들과의 격차도 더이상 큰 의미가 없을 것 같음. Cerebras의 빠른 속도는 ChatGPT와 비교해도 정말 뛰어난 사용자 경험임
MRF, 즉 Model Release Fatigue(모델 릴리즈 피로감)에 시달리고 있음. 거대 모델들이 엄청나게 자주 나오니 계속 IDE에서 모델만 바꿔보고 이전까지 잘됐던 걸 다시 켜면 이젠 안좋아보임.
Claude 4, gpt, llama, Gemini 2.5, pro-mini, mistral… 맨날 갈아타다 보면 계속 머리가 어지러워지는 느낌임
LLM 모델 전환으로 인한 피로감임
네가 느낌을 가지는 건 이해하지만, 이렇게 다양한 선택지가 계속 등장하는 게 정말 좋다고 생각함. 혁신 속도도 훌륭함. 항상 최고의 모델만 쓰고 싶다면 힘든 여정이겠지만, 정체나 독점보단 훨씬 낫다고 생각함
그래서 이런 신기술들을 거의 안 써보는 중임(재밌긴 하지만). 2026년 하반기쯤 직접 써볼 생각임. 그 때쯤이면 로컬 모델과 하드웨어가 개발되어 있을 테니.
지금 실험 버전들을 감당하는 이들에게 경의 표함
이런 경쟁이 오히려 정말 좋은 점임. 나는 항상 프리미엄 모델들만 쓰는데, 거의 돈을 안 씀. 프로모션이나 거의 공짜에 가까운 기회들이 늘 있음
굳이 따라가지 않아도 됨. 자기에게 잘 맞는 모델 하나만 꾸준히 쓰면 충분함
이전 버전 성능이 떨어지는 건 서비스 제공자가 리소스를 신버전에 집중해서임. 또 이전 버전 훈련 데이터 컷오프 영향도 있음(예: claude sonnet 3.5→3.7).
나 개인적으로는 Claude/Anthropic만 씀. 더 잘 이해하기 때문임. 충분히 똑똑해서 최신 버전을 굳이 쓸 필요가 적음
Voxtral 출시가 흥미로웠던 이유는 경쟁력 있는 오픈소스 오디오 트랜스크립션(transcription, 음성→텍스트)이 다시 활발해졌기 때문임. 굳이 LLM 백본이 필요했는지 의문이긴 하지만 어쨌든 접근 방식이 흥미로움
Hacker News 의견
이미지 편집 기능이 정말 뛰어난 것 같음, 오히려 그게 핵심임에도 잘 드러나지 않는 느낌임. OpenAI 모델은 이미지를 전체적으로 바꾸다가 쿼리와 무관한 부분의 디테일까지 손상시키는데, 이 모델은 쿼리와 관련 없는 부분은 완벽하게 보존하면서 원하는 편집만 아주 잘 적용하는 점이 인상적임. 다만, 출력 해상도가 아쉬운 수준임(입력 이미지는 훨씬 컸는데 결과 이미지는 1184px임). 집 오피스 사진을 업로드해서 "아래쪽의 약간 찢어진 회색 패널들을 완전히 새것처럼 복원해 달라"고 요청해봤는데, 결과물이 상당히 훌륭했음. 출력 품질이 원본보단 아주 미세하게 떨어지지만, 이 부분도 곧 개선될 거라 기대함
입력 이미지: https://i.imgur.com/t0WCKAu.jpeg
결과 이미지: https://i.imgur.com/xb99lmC.png
이런 기술이 Craigslist에 큰 타격을 줄 것 같음. 예를 들어, 사진으론 멀쩡한 차인 줄 알고 방문했는데, 도착해보니 펜더가 찌그러져 있고, 보닛엔 구멍, 헤드라이트도 깨져 있음.
부동산 중개인이 AI로 주택 사진을 완전히 새롭게 연출한 사례가 있었음(노후된 집을 신축처럼 보이게). 사람들이 실제로 방문하고 크게 분노했음. 중개인은 이게 연출의 한 단계라 주장했지만, 이 경우엔 전혀 먹히지 않았음. 결국 매물에서 내렸고, 많은 사람들이 수리하러 오기도 했음(가족일 가능성이 높지만 확실치는 않음)
참고로, 올려준 입력 및 결과 이미지 링크가 같음. 처음에 내가 사진 차이 찾아보려다가 혼란스러웠음
특정 작업엔 Kontext가 아마 더 뛰어나고, 아마 Mistral이 이걸 이용하는 듯함. 무엇보다 빠르고 저렴함.
그런데 OpenAI도 어제 더 고화질 이미지 편집 기능을 새로 추가함. 이 기능이 API에만 적용된 건지, 채팅 UI에도 적용될지 아직 모르겠음. 동일한 프롬프트와 입력 이미지 결과: https://i.imgur.com/w5Q0UQm.png
OpenAI의 새 소식: https://x.com/OpenAIDevs/status/1945538534884135132
Black Forest Labs의 Flux Kontext를 사용하고 있고, 정말 뛰어난 모델임
이미지 결과에서 책 제목이 흐트러짐
드디어 EU가 깨어난 느낌임. 이 점이 자랑스러움. OpenAI와의 계약이 끝나자마자 바로 Mistral로 옮길 계획임. 유럽을 지지해야 함, Viva La France
5월 Mistral Medium 3 블로그 포스트의 "One more thing"에서 이런 내용이 있었음:
MRF, 즉 Model Release Fatigue(모델 릴리즈 피로감)에 시달리고 있음. 거대 모델들이 엄청나게 자주 나오니 계속 IDE에서 모델만 바꿔보고 이전까지 잘됐던 걸 다시 켜면 이젠 안좋아보임.
Claude 4, gpt, llama, Gemini 2.5, pro-mini, mistral… 맨날 갈아타다 보면 계속 머리가 어지러워지는 느낌임
LLM 모델 전환으로 인한 피로감임
네가 느낌을 가지는 건 이해하지만, 이렇게 다양한 선택지가 계속 등장하는 게 정말 좋다고 생각함. 혁신 속도도 훌륭함. 항상 최고의 모델만 쓰고 싶다면 힘든 여정이겠지만, 정체나 독점보단 훨씬 낫다고 생각함
그래서 이런 신기술들을 거의 안 써보는 중임(재밌긴 하지만). 2026년 하반기쯤 직접 써볼 생각임. 그 때쯤이면 로컬 모델과 하드웨어가 개발되어 있을 테니.
지금 실험 버전들을 감당하는 이들에게 경의 표함
이런 경쟁이 오히려 정말 좋은 점임. 나는 항상 프리미엄 모델들만 쓰는데, 거의 돈을 안 씀. 프로모션이나 거의 공짜에 가까운 기회들이 늘 있음
굳이 따라가지 않아도 됨. 자기에게 잘 맞는 모델 하나만 꾸준히 쓰면 충분함
이전 버전 성능이 떨어지는 건 서비스 제공자가 리소스를 신버전에 집중해서임. 또 이전 버전 훈련 데이터 컷오프 영향도 있음(예: claude sonnet 3.5→3.7).
나 개인적으로는 Claude/Anthropic만 씀. 더 잘 이해하기 때문임. 충분히 똑똑해서 최신 버전을 굳이 쓸 필요가 적음
Voxtral 출시가 흥미로웠던 이유는 경쟁력 있는 오픈소스 오디오 트랜스크립션(transcription, 음성→텍스트)이 다시 활발해졌기 때문임. 굳이 LLM 백본이 필요했는지 의문이긴 하지만 어쨌든 접근 방식이 흥미로움
Mistral의 보도자료에는 Whisper 이후 최고인 것처럼 느끼게 하지만, 실제 비교 대상은 상위권이 아님.
오픈 벤치마크: https://huggingface.co/spaces/hf-audio/open_asr_leaderboard
참고로 Mistral이 비교한 Scribe는 10위임.
영어 벤치마크이긴 하지만 다국어 모델도 많으니 참고하면 좋음(ex. https://huggingface.co/nvidia/canary-1b-flash)
이제는 오픈코드나 오픈웨이트 보다 오픈(윤리적으로도 검증 가능한) 데이터 모델에 훨씬 더 관심이 큼.
예를 들어 내가 지정한 리소스가 학습 데이터에 들어갔는지 아닌지를 알려주는 모델을 쓰고 싶음
요즘 AI 업계는 OpenAI의 서비스만 복제할 뿐이라는 인상을 지울 수 없음.
다른 회사 서비스들도 거의 구조만 다를 뿐 같은 서비스임.
혁신 자체도 실제로는 그리 높지 않음
실제로 써보면 전혀 같지 않음. 코딩 같은 일상 작업에선 모델별 차이가 매우 큼
전 세계가 이제
f(input: string): string함수 기반 위에 새로운 서비스 쌓는 느낌임. 비슷해질 수밖에 없음OpenAI도 Deep Research 기능을 Google에서 가져온 것임. 같은 이름을 썼고, Mistral도 마찬가지임
이게 오히려 건강한 시장 경쟁임. 몇십년간 혁신을 지속한 Apple 같은 사례는 독점적 게이트키핑의 산물임
결국은 거의 같은 기술이 두루 적용되고 있음. 학습 데이터와 연산 파워 정도의 차이일 뿐임
ChatGPT를 매우 많이 쓰고 있음. LeChat도 한번 써보려고 하는데, 큰 차이가 있을지 궁금함, 아니면 거의 비슷한지 알고 싶음
아직 OpenAI의 Deep Research 기능을 안 써봤다면 꼭 써보길 추천함. 대안으로 쓸만한 서비스는 아직 못 찾음. 구글의 것도 써봤지만 크게 인상적이지 않았음.
엔지니어들이 트레이드오프 연구를 할 때 엄청난 시간 단축 효과를 볼 수 있음
Anthropic의 Research 기능도 꽤 좋음. OpenAI 수준이라고 생각함.
구글은 유료 버전이 조금 더 정확하지만, 결과 리포트가 지나치게 장황해서 읽기 불편함. 마치 단어 수 맞추려고 내용 늘리는 대학생 레포트 느낌임
나는 특히 시장조사에 큰 도움을 받았음(창업 관련). 마치 똑똑한 신입 기획자/PM 어시스턴트를 고용한 느낌임
Kimi 2의 리서치 기능도 써보길 권장함. 생각보다 결과가 훌륭해서 놀랐음
OpenAI와 Gemini의 결과는 꽤 다르게 나옴. 어느 쪽이 더 낫다고 할 수 없고, 그냥 확연히 다름
Perplexities도 나쁘지 않음. 다만, OpenAI 유료 구독이 없어 직접 비교는 못해봄
프롬프트 예시들이 별로임. 예를 들어 개인계획 관련 답변은 Deep Research 없이 곧장 답하는 쪽이 오히려 훨씬 나음(비자 항목만 제대로 답함)
Voxtral이 혹시 Futo Android 키보드에 적용될 수 있을지 궁금함