윈디하나의 누리사랑방. 이런 저런 얘기

글쓴시간
분류 기술,IT/하드웨어 정보
Intel® Core™ i7-10510U - CPU-Z

잠시 사용중인 i7-10510U 의 스펙이다.

사용자 삽입 이미지

인텔이 워낙 이때쯤에는 삽질의 연속이었기 때문에 별로 기대는 안했다.

사용자 삽입 이미지

그런데 받은 노트북은 DDR4 메모리를 사용한데다 XMP 2.0 까지 지원되는 메모리를 사용하고 있었다.

사용자 삽입 이미지

두번째 채널에서는 XMP 를 지원하지 않는다.

사용자 삽입 이미지

성능은 그저 그렇다. 싱글이 450점 안팍대, 멀티가 2400점대가 나와야 하는데 안 나왔다. 이건 너무 차이나는 수치라 노트북이 시원해질 때 바로 테스트해봐야 겠다.

사용자 삽입 이미지

UHD Graphics 를 사용한다. 풀네임이 "Intel® UHD Graphics for 10th Gen Intel® Processors" 이다.  UHD 600 보다는 좋을것으로 기대한다.

사용자 삽입 이미지

사용자 삽입 이미지
글쓴시간
분류 기술,IT/하드웨어 정보
nVidia Geforce 930MX - GPU-Z

이걸 쓰게 될줄이야. 아주 오래전에 사용하던 960M 보다도 안 좋다. 예전이라면 감지덕지했겠지만, 지금은 영.

사용자 삽입 이미지

사용자 삽입 이미지
글쓴시간
분류 기술,IT/하드웨어 정보
Intel® Core™ i7-8550U - CPU-Z

잠시 사용중인 i7-8550U 의 스펙이다.

사용자 삽입 이미지

생각보다는 빠르다는 생각이지만, 노트북의 냉각이 원활하지 않은지 약간만 부하걸려도 스로틀링 걸린다. 속도가 현저히 느려지다가 발열이 어느정도 해소된 후에는 원래 성능으로 돌아온다.

CPU에서 DDR4-2400 을 지원하기 때문에 DRAM Frequency 가 1200 MHz 으로 세팅되었다.

사용자 삽입 이미지

메모리는 DDR4-2400 이다.

사용자 삽입 이미지

사용자 삽입 이미지

벤치마크는 괜찮게 나왔다.

사용자 삽입 이미지

내장 그래픽은 UHD 620 으로 그냥 그저 그런 편. i7-7500 과 큰 차이가 없다. GPU 가 동일하다.


사용자 삽입 이미지

사용자 삽입 이미지
글쓴시간
분류 기술,IT/스테이블 디퓨전
FLUX.1 Dev 사용하기

※ 원칙적(?)으로는 아래와 같이 사용할 수 있다.

1. https://huggingface.co/black-forest-labs/FLUX.1-dev/tree/main (공식 리포지토리)
   flux1-dev.safetensors 및 ae.safetensors 파일 다운로드

2. https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main
   clip_l.safetensors 및 t5xxl_fp16.safetensors 파일 다운로드
   -> 공식 리포지토리의 text_encoder, text_encoder_2 아래에 있는 파일과 같은 파일이다.

3. 다운로드 받은 파일을 stable-diffusion-webui-forge 의 디렉토리로 옮김
flux1-dev.safetensors  -> models/Stable-diffusion/
ae.safetensors         -> models/VAE/
clip_l.safetensors     -> models/text_encoder/
t5xxl_fp16.safetensors -> models/text_encoder/
3. stable-diffusion-webui-forge 실행 후, 아래와 같이 세팅
UI: flux
CheckPoint: flux1-dev
VAE / TextEncoder: clip_l.safetensors, t5xxl_fp16.safetensors, ae.safetensors

4. GERERATE 버튼 클릭!

- 이렇게 실행하려면 최소한 24GB VRAM 을 가진 nVidia GPU 와 64GB 의 시스템 메모리가 필요하다.

- 일부 파일은 여기서 받음: https://huggingface.co/camenduru/FLUX.1-dev/tree/main

※ FP8, NF4으로 구성

속도를 빠르게 하고 메모리 사용량을 줄이기 위한 목적으로 FP8 이나 NF4 를 사용한 모델을 사용할 수 있다. 이걸로 해야 필자의 사양(RTX 2060 12GB, MEMORY 64GB)에서 실행된다.


사용자 삽입 이미지



t5xxl_fp16.safetensors -> t5xxl_fp8_e4m3fn.safetensors     https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main
flux1-dev.safetensors  -> flux1-dev-fp8.safetensors        https://huggingface.co/Kijai/flux-fp8/tree/main
flux1-dev.safetensors  -> flux1-dev-bnb-nf4-v2.safetensors https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/tree/main

아니면 아래의 All-in-one 타입 을 사용할 수 있다.

https://huggingface.co/Comfy-Org/flux1-dev/tree/main FP8

※ 메모리 구성

전용 GPU 메모리(Dedicated GPU Memory): GPU 의 VRAM 용량
공유 GPU 메모리(Shared GPU Memory): GPU 에 의해 공유되는 시스템 메모리. 사용 가능한 용량은 시스템 메모리의 절반

- 스왑 메모리 위치
-- CPU: 모델을 GPU 메모리 및 시스템 메모리에 위치
-- Shared: 모델을 GPU 메모리 및 공유 GPU 메모리에 위치. 좀 더 빠른 대신 실행 이슈(크러시)가 발생할 수 있다.

- GPU Weights (MB): GPU 에 적재할 모델의 크기. 크면 클수록 좋지만, 이미지 생성시에도 GPU 메모리를 필요로 하기 때문에 적당히 조절해야 한다.

- 스왑 메쏘드
-- Queue: 모델 적재 -> 연산 -> 다른 모델 적재 -> 연산의 순서로 차례대로 진행된다.
-- Async: 모델 적재 -> 연산 및 다른 모델 적재 -> 연산 및 다른모델 적재 의 순서로 동시에 처리된다. Queue 보다 빠르지만, 모델에 따라 갑자기 매우 느려질때가 있다. Async 와 Queue 를 비교해보고 빠른걸 선택하자.

사용자 삽입 이미지

CivitAI 에 공개된 이미지 프롬프트를 보고 따라한 그림. FLUX 로 생성했다. https://civitai.com/images/31943195



https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/981
글쓴시간
분류 시사,사회
인공 일반 지능(AGI)에 대한 단상

사용자 삽입 이미지

인공 일반 지능(Artificial General Intelligence, AGI)에 대해 사람들과 이야기 하다보면, AGI 가 인간보다 더 월등하다는 식으로 생각하고 있다는 생각이 들곤 한다. 하지만 내 결론은 AGI 는 평범한 인간보다 "많이 알고 있다"이지 인간보다 월등하다는 아니다. 즉 많은 것을 알고 있는 현자에 비유될 수 있는 것이지 인류를 초월한 지능은 아니라는거다. 물론 많이 알고 있기 때문에 사고실험을 거쳐 인류가 미처 발견하지 못한 법칙을 우연히 발견해 낼 수는 있다. 하지만 그렇다고 인류보다 초월하다고 말하긴 어렵다. 시간 지나면 어차피 인류도 발견할 법칙이니 말이다.

Stable Diffusion 를 사용해 많은 이미지를 생성하면서, 정말 기괴한 이미지들을 많이 생성하고 봐 왔지만, 그건 어차피 사람도 생성할 수 있는 수준이다. 단지 사람은 디지털이 아니기 때문에 그런 이미지를 그릴 이유도 없다는 것 뿐이다. 어차피 학습된 후에 추론하는것이기 때문에 학습된 것 이상으로는 안 나온다.

정말 미래의 인공지능이 인류를 초월한다면, 차라리 인류가 풀지 못할 (앞으로도 풀 가능성이 보이지 않는) 문제를 물어보고 싶다.

사용자 삽입 이미지

"리만 가설 증명해줘!"
"나비에-스토크스 방정식의 일반해를 알려줘!"

그리고 인공지능이 문제를 풀었다면 한가지 질문을 더 할꺼다.

사용자 삽입 이미지

"넌 스카이넷이야?"