Hacker News 의견들
  • HN에서 Apple의 SHARP 프로젝트가 다시 화제가 되었음
    관련 토론은 이전 스레드에서도 있었음

    • “SHARP, an approach to photorealistic view synthesis from a single image”라는 제목으로 소개된 글을 다시 공유함
    • AI 관련 GitHub 설치 가이드가 제대로 작동하지 않는다는 점을 지적함. 대부분 개발 환경이 이미 세팅되어 있다고 가정하고 있어서 초보자에게는 진입 장벽이 높음
  • SHARP의 공식 자료는 프로젝트 페이지논문(arXiv)에서 확인 가능함

    • 한 사용자는 공식 페이지보다 Bradley의 데모 영상이 훨씬 인상적이라고 언급함
    • 또 다른 사용자는 저자들이 모두 외국 출신으로 보인다며, STEM 인력 구성 변화에 대해 궁금증을 표현함
  • 모델 라이선스에 “연구 목적 전용”이라고 명시되어 있어 실제로는 오픈소스가 아님

    • README에도 오픈소스라는 언급은 없고, 단지 오픈소스 기반 위에 구축되었다고만 되어 있음
    • Meta가 “오픈소스”의 의미를 왜곡시킨 영향으로, 이제는 단순히 가중치 공개 = 오픈소스로 인식되는 경향이 생겼다고 지적함
    • 어떤 사용자는 “가중치는 저작권 대상이 아닐 수도 있다”며, 결국 Apple이 강제할 수 있는 법적 효력이 핵심이라고 말함
    • 메인 라이선스에 제한이 명시되지 않아 혼란이 생긴 듯함
    • 한 사용자는 “이걸로 수익성 있는 제품을 만들 수 있는지 연구해보겠다”고 밝힘
  • 한 사용자는 이미 프로젝트를 MPS에서 렌더링 가능하게 포크했다고 하며, 자신의 GitHub 저장소를 공유함

    • 다른 사용자는 “좋아 보인다”며 감사 인사를 전함
  • 누군가는 “VR 포르노의 큰 날”이라며 농담 섞인 코멘트를 남김

    • 이에 대해 다른 사용자는 실제로는 VR 콘텐츠 품질 한계가 명확하다고 설명함.
      모델이 한 축에서만 추론하고, 해상도도 768px + 2레이어로 제한되어 있으며, 실시간 처리도 불가능함
      올해는 오히려 이미지 편집·비디오 모델 쪽에서 더 큰 혁신이 있었다고 덧붙임
    • 또 다른 사용자는 “Gaussian splat”이라는 용어가 전혀 다른 의미로 들린다고 농담함
  • “대기업이 모델을 공개할 때마다 오픈소스 정의 논쟁이 반복된다”며, AI 모델의 ‘소스’ 개념이 소프트웨어와 다르다는 점을 지적함
    Apple은 학문적 신뢰성을 얻으면서도 상업적 선택권을 유지하려는 것으로 보인다고 분석함

    • 다른 사용자는 “기술 자체가 놀라운데 라이선스 논쟁이 상단을 차지하는 게 아쉽다”고 말하며,
      이 기술이 옛 사진을 VR로 체험할 수 있게 해주는 점이 Apple의 진정한 강점이라고 평가함
    • 또 다른 사용자는 “which isn’t unsurprising”이라는 표현이 너무 복잡하다고 농담함
    • “놀랍지 않다는 게 놀랍다”는 식의 유머도 이어짐
  • “사람들이 같은 대상을 여러 장 찍는 경우가 많아, 사실상 입체 이미지 데이터를 제공하는 셈”이라고 언급함

    • 다른 사용자는 “Live Photo의 프레임들도 활용 가능하다”고 덧붙임
  • 어떤 사용자는 Conda를 싫어해서 테스트를 망설인다고 함

    • 다른 사용자는 pixi를 추천하며, 사실 Conda 없이도 Python 3.13과 uv만 있으면 된다고 구체적인 설치 명령어를 공유함
    • 또 다른 사용자는 “그건 비합리적인 싫음이 아니다”라며 공감함
  • 한 사용자는 휴가 중 StereoCrafterGeometryCrafter 같은 관련 프로젝트를 실험 중이라며,
    이를 영상에 적용하면 시간적 일관성(temporal consistency) 문제로 훨씬 어렵고 연산량이 많지만,
    한국전쟁 시절의 옛 홈비디오를 공간화(spatialize)해봤더니 놀라울 정도로 잘 작동했다고 함
    StereoCrafter 링크, GeometryCrafter 링크

    • 다른 사용자는 “그 예시를 꼭 보고 싶다”고 답함