AI
-
[ComfyUI] wan2.1 모델을 활용한 무료 AI 동영상 만들기AI/ComfyUI 2025. 8. 8. 14:09
[wan2.1 모델 종류]모델 종류주요 용도비고T2V(Taxt-to-Video)텍스트만으로 영상 생성1.3B, 14B 두 가지 모델. 14B가 화질이 좋지만 무거움I2V(Image-to-Video)한 장의 이미지를 움직이는 영상으로 변환14B모델 사용, 480px, 720px 중에 선택VACE(Reference-to-Video)참조 이미지 스타일/캐릭터 유지하며 영상 생성캐릭터 일관성에 강함FLF2V(First Last Frame-to-Video)첫, 마지막 프레임 사이를 자연스럽게 보간컷씬 연결에 유리Fun Control(ControlNet)포즈, 깊이, 스켈레톤 등 외부 모션을 따라감포즈 고정, 동작 재현 가능Fun Camera정지 이미지를 카메라 워크로 영상화팬/틸트 등 카메라 효과Fun Inpai..
-
[ComfyUI] Sena Model 사용방법AI/ComfyUI 2025. 8. 8. 10:59
[Sena란?]- NVIDIA 연구팀이 발표한 초고해상도 이미지 생성 특화 text-to-image 프레임워크- Flux 같은 거대모델보다 작으면서도 빠른 성능을 자랑[사용방법]1. Custom Node 다운로드1) windows + r 누른 후, [cmd] 입력 후 커맨드 창 실행2) 아래 명령어를 입력하여 폴더로 진입. 자신이 설치한 ComfyUI 폴더에서 custom_nodes폴더로 들어가면 된다.cd C:\StableDiffusion\ComfyUI\custom_nodes 3) 아래 명령어 입력하여 sena model 다운로드git clone https://github.com/Efficient-Large-Model/ComfyUI_ExtraModels.git 4) ComfyUI 폴더로 이동cd C:\..
-
[ComfyUI] Flux AI 활용해 무료로 실제 제품 합성하기 (CatVTON)AI/ComfyUI 2025. 8. 8. 09:05
[CatVTON이란?]Concatenation Is All You Need for Virtual Try-On with Diffusion Models에서 제안된 경량 가상 착용 모델- 옷 이미지와 사람 이미지를 공간적으로 이어 붙여(concatenate) 디퓨전 모델에 입력- 추론 과정도 단순화되어, 포즈 추정이나 인체 파싱 같은 전처리가 필요 없으며, 사람, 옷, 마스크 이미지만 있으면 됨[구현방법]1. 모델 다운로드- 아래 링크에서 로라 모델 다운로드https://huggingface.co/zhengchong/CatVTON/tree/main/flux-lora- 아래 경로로 파일 저장 (난 파일명을 바꿔줬다.)\ComfyUI\models\loras2. 커스텀 노드 다운로드- 아래 커스텀노드들을 다운로드 ..
-
[ComfyUI] Flux.1 Tools 정리 (Fill, Canny, Depth, Redux)AI/ComfyUI 2025. 8. 8. 05:58
[Fill 사용법]1. Flux Fill 모델을 다운로드 받는다.이 때, 오리지널 버전은 RAM 용량이 크므로(24GB) 각 컴퓨터에 맞춰 설치한다.- 오리지널: https://huggingface.co/black-forest-labs/FLUX.1-Fill-dev/tree/main- 경량화: https://huggingface.co/boricuapab/flux1-fill-dev-fp8/tree/main2. 다운로드 받은 파일을 아래 경로에 넣는다.\ComfyUI\models\diffusion_models3. 먼저 인페인팅을 위해, ComfyUI에서 아래와 같이 워크플로우를 구성한다.- 아래에서 누락됐는데, LoadImage 의 image와 mask도 각각 InpaintModelConditioning의 p..
-
[ComfyUI] Flux Upscale 사용 방법AI/ComfyUI 2025. 8. 1. 13:13
[Flux Upscale 구현 방법]1. Custom Node 및 모델 설치- Custom Node 설치 - Model 설치 2. 워크플로우 구성 - 결과값을 비교해보면, 디테일들이 더 추가된 것을 알 수 있긴 한데 왜 주름까지 만들었지..?옷의 질감이나 머리카락 이런 것들도 엄청 디테일해졌다. 왼쪽이 필터 잔뜩 끼고 찍은 셀카라면 오른쪽은 좀 더 원본 느낌..? [Flux ControlNet Upscale]1. 아래 4가지 CustomNode 설치2. 아래 Model 설치3. 워크 플로우 아래와 같이 구성- Flux는 확실히 모델이 무거워서, 돌리는 동안 다른 작업하면 바로 GPU Memory 모자라다고 경고창이 뜬다..- 조용히 돌려놓고 기다린다... 아래와 같이 원본과 비교하면 이미지의 디테일을 잘..
-
[ComfyUI] Flux 모델 사용 방법 (Flux Dev.1 FP-8, GGUF)AI/ComfyUI 2025. 8. 1. 07:56
[Flux란?]- Stable Diffusion 개발진이 만든 Black Forest Labs의 최신 텍스트-이미지 생성 모델- flow matching 기술 기반의 설계로 빠른 생성 속도, 우수한 프롬프트 추종력, 뛰어난 손 표현 등을 자랑함Flux 모델 종류 비교모델명라이센스속도화질, 디테일특징Flux1.1 Pro Ultra상업용, API 제공보통최고 수준최상위 품질, 최고성능Flux.1 Pro상업용, API 제공보통고품질상위 품질, 고성능Flux.1 Dev비상업용 오픈소스중간Pro 수준 근접프롬프트 추종력 우수, 연구용Flux.1 SchnellApache-2.0(상업 가능)매우 빠름준수1~4 스템으로 생성, 로컬 활용 추천 이 중, Pro 모델은 유료이기 때문에 Dev 모델을 기준으로 연습해보도록 ..
-
[ComfyUI] 업스케일링(Upscaling) 사용 방법AI/ComfyUI 2025. 8. 1. 05:36
[Upscaling이란?]이미지의 해상도를 높이면서 디테일을 유지하거나 향상시키는 작업- 저해상도의 이미지를 크게 늘리되, 품질 손상을 줄이는 기술[구현방법]1. Custom Node 다운로드- 아래의 UltimateSDUpscale 노드를 다운로드 받는다. - 아래의 모델들도 다운로드 받아준다.2. Upscale Use Model- 아래와 같이 노드를 설정한다.- 4x 모델은 4배를 키워주는 것이기 때문에, Upscale Image By 노드를 추가하여 0.5배를 해줌으로써 2배만 확대했다. - 왼쪽이 원본, 오른쪽이 업스케일링한 이미지로 머리카락 표현 부분 등이 더 선명해진 것을 볼 수 있다.3. Img2Img- 아래와 같이 확대한 원본을 KSampler로 재생성하여 업스케일할 수도 있다.- 시드값 ..
-
[ComfyUI] Live Portrait을 활용한 인물 이미지 표정 컨트롤AI/ComfyUI 2025. 8. 1. 04:05
[Live Portrait란?]정적인 얼굴 이미지(사진)을 기반으로 실시간처럼 표정이나 머리 움직임을 애니메이션화해주는 기능[구현방법]1. Custom Node 다운로드- 커스텀매니저를 이용해 AdvancedLivePortrait을 다운로드 받을 경우, 최신버전으로 제대로 받아지지 않는 것 같다.(기능이 몇 개 누락되어 있음)- 그래서 이번에는, cmd를 이용해 바로 설치하겠다. 1) windows + r → cmd 입력 후 커맨드 창 실행2) 아래 명령어 입력하여, comfyUI 설치 경로의 custom_nodes폴더로 이동 (아래는 나의 설치경로)cd C:\StableDiffusion\ComfyUI\custom_nodes 3) 아래 Git 클론 명령어 실행하여 설치git clone https://gi..