윈디하나의 누리사랑방. 이런 저런 얘기

글쓴시간
분류 기술,IT/스테이블 디퓨전
FLUX.1 Dev 사용하기

※ 원칙적(?)으로는 아래와 같이 사용할 수 있다.

1. https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main (공식 리포지토리)
   flux1-dev.safetensors 및 ae.safetensors 파일 다운로드

2. https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main
   clip_l.safetensors 및 t5xxl_fp16.safetensors 파일 다운로드
   -> 공식 리포지토리의 text_encoder, text_encoder_2 아래에 있는 파일과 같은 파일이다.

3. 다운로드 받은 파일을 stable-diffusion-webui-forge 의 디렉토리로 옮김
flux1-dev.safetensors  -> models/Stable-diffusion/
ae.safetensors         -> models/VAE/
clip_l.safetensors     -> models/text_encoder/
t5xxl_fp16.safetensors -> models/text_encoder/
3. stable-diffusion-webui-forge 실행 후, 아래와 같이 세팅
UI: flux
CheckPoint: flux1-dev
VAE / TextEncoder: clip_l.safetensors, t5xxl_fp16.safetensors, ae.safetensors

4. GERERATE 버튼 클릭!

- 이렇게 실행하려면 최소한 24GB VRAM 을 가진 nVidia GPU 와 64GB 의 시스템 메모리가 필요하다.

- 일부 파일은 여기서 받음: https://huggingface.co/camenduru/FLUX.1-dev/tree/main

※ FP8, NF4으로 구성

속도를 빠르게 하고 메모리 사용량을 줄이기 위한 목적으로 FP8 이나 NF4 를 사용한 모델을 사용할 수 있다. 이걸로 해야 필자의 사양(RTX 2060 12GB, MEMORY 64GB)에서 실행된다.


사용자 삽입 이미지



t5xxl_fp16.safetensors -> t5xxl_fp8_e4m3fn.safetensors     https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main
flux1-dev.safetensors  -> flux1-dev-fp8.safetensors        https://huggingface.co/Kijai/flux-fp8/tree/main
flux1-dev.safetensors  -> flux1-dev-bnb-nf4-v2.safetensors https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/tree/main

아니면 아래의 All-in-one 타입 을 사용할 수 있다.

https://huggingface.co/Comfy-Org/flux1-dev/tree/main FP8

※ 메모리 구성

전용 GPU 메모리(Dedicated GPU Memory): GPU 의 VRAM 용량
공유 GPU 메모리(Shared GPU Memory): GPU 에 의해 공유되는 시스템 메모리. 사용 가능한 용량은 시스템 메모리의 절반

- 스왑 메모리 위치
-- CPU: 모델을 GPU 메모리 및 시스템 메모리에 위치
-- Shared: 모델을 GPU 메모리 및 공유 GPU 메모리에 위치. 좀 더 빠른 대신 실행 이슈(크러시)가 발생할 수 있다.

- GPU Weights (MB): GPU 에 적재할 모델의 크기. 크면 클수록 좋지만, 이미지 생성시에도 GPU 메모리를 필요로 하기 때문에 적당히 조절해야 한다.

- 스왑 메쏘드
-- Queue: 모델 적재 -> 연산 -> 다른 모델 적재 -> 연산의 순서로 차례대로 진행된다.
-- Async: 모델 적재 -> 연산 및 다른 모델 적재 -> 연산 및 다른모델 적재 의 순서로 동시에 처리된다. Queue 보다 빠르지만, 모델에 따라 갑자기 매우 느려질때가 있다. Async 와 Queue 를 비교해보고 빠른걸 선택하자.

사용자 삽입 이미지

CivitAI 에 공개된 이미지 프롬프트를 보고 따라한 그림. FLUX 로 생성했다. https://civitai.com/images/31943195



https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981
글쓴시간
분류 시사,사회
인공 일반 지능(AGI)에 대한 단상

사용자 삽입 이미지

인공 일반 지능(Artificial General Intelligence, AGI)에 대해 사람들과 이야기 하다보면, 현재 회자되는 AGI 가 인간보다 더 월등하다는 식으로 생각하고 있다는 생각이 들곤 한다. 하지만 내 결론은 AGI 는 평범한 인간보다 "많이 알고 있다"이지 인간보다 월등하다는 아니다. 즉 많은 것을 알고 있는 현자에 비유될 수 있는 것이지 인류를 초월한 지능은 아니라는거다. 이부분은 현재 AI 의 주류인 LLM 의 한계다.

물론 많이 알고 있기 때문에 사고실험을 거쳐 인류가 미처 발견하지 못한 법칙을 우연히 발견해 낼 수는 있다. 하지만 그렇다고 인류보다 초월하다고 말하긴 어렵다. 시간 지나면 어차피 인류도 발견할 법칙이니 말이다.

Stable Diffusion 를 사용해 많은 이미지를 생성하면서, 정말 기괴한 이미지들을 많이 생성하고 봐 왔지만, 그건 어차피 사람도 생성할 수 있는 수준이다. 단지 사람은 디지털이 아니기 때문에 그런 이미지를 그릴 이유도 없다는 것 뿐이다. 어차피 학습된 후에 추론하는것이기 때문에 학습된 것 이상으로는 안 나온다.

정말 미래의 인공지능이 인류를 초월한다면, 차라리 인류가 풀지 못할 (앞으로도 풀 가능성이 보이지 않는) 문제를 물어보고 싶다.

사용자 삽입 이미지

"리만 가설 증명해줘!"
"나비에-스토크스 방정식의 일반해를 알려줘!"

그리고 인공지능이 문제를 풀었다면 한가지 질문을 더 할꺼다.

사용자 삽입 이미지

"넌 스카이넷이야?"
글쓴시간
분류 기술,IT/스테이블 디퓨전
Stable Diffusion - 베어백 #1 Part 2/2

처음에 뽑은건 아래 첫번째 그림이다. 이게 맘에 들어서 이것저것 튜닝해 보았지만, 왠지 이와 유사한 그림이 나오지는 않았다.
사용자 삽입 이미지

그래도 나름 괜찮아 보인다.

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지
글쓴시간
분류 기술,IT/스테이블 디퓨전
Stable Diffusion - 베어백

꽤 괜찮은 사진이 우연히 생성되었다. 이것저것 프롬프트를 튜닝하다가 꽤 맘에 드는게 나왔다. 베트남의 전통 드레스 아오다이와 유사한것 같긴 하지만 (필자는 아오다이 전문가는 아니다) 어쨌든 꽤 맘에 든다.

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지


사용자 삽입 이미지

사용자 삽입 이미지

사용자 삽입 이미지
글쓴시간
분류 기술,IT
윈도 하이퍼바이저 플랫폼 끄기, 가상 머신 끄기

"Windows 기능"을 실행 시켜서, "Windows 하이퍼바이저 플랫폼", "가상 머신 플랫폼" 을 끄면 된다.

윈도 하이퍼바이저 플랫폼은 Hyper-V 를 의미하는 것으로 윈도에서 가상화 기능을 사용해 보안성을 향상시키는 기능이다. 문제는 이걸 윈도에서 사용하면 앱에서는 사용할 수 없고, 보안성 향상도 좋지만 조금 느려진다는 것. 특히 게임 할 때에는 그냥 끈다.

사용자 삽입 이미지