윈디하나의 누리사랑방. 이런 저런 얘기
$ mkdir DeepSeek-R1-Distill-Qwen-1.5B
$ cd DeepSeek-R1-Distill-Qwen-1.5B
$ python3 -m venv venv
$ . venv/bin/activate
(venv) $ pip install vllm
(venv) $ vi run.py
from vllm import LLM, SamplingParams
llm = LLM(
model="deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B",
dtype="half",
max_model_len=8_000
)
sampling_params = SamplingParams(
temperature=0.5,
max_tokens=8_000
)
prompts = [
"""The day before yesterday I was 25. The next year I will be 28. This is true only one day in a year. What day is my Birthday?"""
]
conversations = [
[{"role": "user", "content": x}] for x in prompts
]
outputs = llm.chat(conversations, sampling_params=sampling_params)
for output in outputs:
print(output.outputs[0].text)
(venv) $ python run.py
(venv) $ python run.py
INFO 02-00 18:51:00 __init__.py:183] Automatically detected platform cuda.
WARNING 02-00 18:51:02 config.py:2368] Casting torch.bfloat16 to torch.float16.
INFO 02-00 18:51:07 config.py:526] This model supports multiple tasks: ...
INFO 02-00 18:51:07 llm_engine.py:232] Initializing a V0 LLM engine (v0.7.1) ...
INFO 02-00 18:51:08 cuda.py:184] Cannot use FlashAttention-2 backend for Volta and Turing GPUs.
INFO 02-00 18:51:08 cuda.py:232] Using XFormers backend.
INFO 02-00 18:51:09 model_runner.py:1111] Starting to load model
deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B...
INFO 02-00 18:51:09 weight_utils.py:251] Using model weights format ['*.safetensors']
INFO 02-00 18:51:10 weight_utils.py:296] No model.safetensors.index.json found in remote.
Loading safetensors checkpoint shards: 0% Completed | 0/1 [00:00<?, ?it/s]
Loading safetensors checkpoint shards: 100% Completed | 1/1 [00:00<00:00, 1.06it/s]
Loading safetensors checkpoint shards: 100% Completed | 1/1 [00:00<00:00, 1.06it/s]
INFO 02-00 18:51:11 model_runner.py:1116] Loading model weights took 3.3460 GB
INFO 02-00 18:51:12 worker.py:266] Memory profiling takes 1.05 seconds
INFO 02-00 18:51:12 worker.py:266] the current vLLM instance can use
total_gpu_memory (11.55GiB) x gpu_memory_utilization (0.90) = 10.40GiB
INFO 02-00 18:51:12 worker.py:266] model weights take 3.35GiB;
non_torch_memory takes 0.04GiB; PyTorch activation peak memory takes 1.41GiB;
the rest of the memory reserved for KV Cache is 5.60GiB.
INFO 02-00 18:51:12 executor_base.py:108] # CUDA blocks: 13097, # CPU blocks: 9362
INFO 02-00 18:51:12 executor_base.py:113] Maximum concurrency for 8000 tokens per request: 26.19x
INFO 02-00 18:51:14 model_runner.py:1435] Capturing cudagraphs for decoding.
This may lead to unexpected consequences if the model is not static.
To run the model in eager mode, set 'enforce_eager=True' or use '--enforce-eager' in the CLI.
If out-of-memory error occurs during cudagraph capture,
consider decreasing `gpu_memory_utilization` or switching to eager mode.
You can also reduce the `max_num_seqs` as needed to decrease memory usage.
Capturing CUDA graph shapes: 100%|█████████████| 35/35 [00:09<00:00, 3.63it/s]
INFO 02-00 18:51:24 model_runner.py:1563] Graph capturing finished in 10 secs, took 0.19 GiB
INFO 02-00 18:51:24 llm_engine.py:429] init engine (profile, create kv cache, warmup model)
took 13.48 seconds
INFO 02-00 18:51:24 chat_utils.py:330] Detected the chat template content format to be 'string'.
You can set `--chat-template-content-format` to override this.
Processed prompts: 100%|███████████████████████
[00:04<00:00, 4.14s/it, est. speed input: 9.66 toks/s, output: 81.16 toks/s]
<think>
To determine the day of the birthday, I start by analyzing the information given.
First, it's stated that the day before yesterday, the person was 25.
This means that yesterday was the birthday day, and today is the day after birthday.
Next, it's mentioned that the next year, the person will be 28.
This implies that the current age is 25 plus 1, which is 26.
Since the person will be 28 in the next year, their birthday must be on December 31st.
This is because the next year's birthday will occur on the same date,
and the age will increase by one year.
Therefore, the birthday is December 31st.
</think>
To determine the day of your birthday, let's analyze the information step by step:
1. **Day Before Yesterday:**
- You were **25** years old the day before yesterday.
- This means **yesterday** was your birthday day.
2. **Next Year:**
- You will be **28** years old in the next year.
- If you are currently 26 years old, your birthday will be on **December 31st** because:
- **Today** is **December 31st**.
- **Tomorrow** will be **January 1st**, and you'll turn **27**.
- **Next Year** (two years from now) you'll be **28** years old.
**Conclusion:**
Your birthday is on **\boxed{December 31st}**.
예전에 싸이가 강남스타일로 뜰때가 생각나네요. 그때 이후에는 별로 신선함을 못 느꼈었는데요, 그때보다 더 신선합니다.채영이가~ 좋아하는~ 랜덤~ 게임! 랜덤~ 게임! 게임~ 스타트!아파트건배
더 글로리 1부 포스터
더 글로리 2부 포스터
Lasciate ogni speranza, voi ch'entrate
모든 희망을 버려라, 들어가는 자여
Licensed by Royalty (L/R)
이슈탈 왕실로부터 면허를 받은 요원. 왕실근위대 CLOUD7에 속한 로우와 잭와 활약을 다룬 이 에니는 불행이도 우리나라에서는 별로 인기를 얻지 못한 에니중 하나이다. 운이 없었다고 생각한다. 이 에니가 나온 2003년 초에는 다른 쟁쟁한 에니가 많았기 때문이다. 처음 볼때는 카우보이 비밥을 생각나게 하는 에니였지만 몇 편 보다보면 조금 다르다는 생각이 들게 될 것이다.
스토리의 주 내용은 15년전 잃어버린 공주 노엘이 등장하면서 시작된다. 아이보리 스톤이란 에너지광석이 나지만, DTI와 왕실에 뺏겨버린, 가난한 섬 아이보리. 그곳에서 살고있는 왕실의 왕위권 계승자 노엘공주. 하지만 기억을 잃은듯, 자신이 공주라는 것은 알지 못한다. DTI. 이슈탈왕국의 각종 이권을 가지고 있는 DTI사와 란도우 공에 의해 피폐해진 아이보리. 때마침 불어온 태풍에 부숴진, 마을의 시계탑을 수리할 돈을 모금하기 위해 노엘은 노래를 부른다. 그 노래가 바로 Ange. 노엘의 어머니 시엘이 노엘을 위해 지은 자장가.
Ange, Holy Ange
On a Friday gold room, rock rings shown
On Saturday yellow moon, rook kiss brown
On Sunday black noon, knock his crown
On Monday Ivory roof, look peace town
On Tuesday rod cocoon, clock tick a dawn
On Wednesday green soup, cook sleep grown
On Thursday cloud soot, tomb beep gown
And on the Friday white bloom, wing falling down
Ange, Holy Ange, sleep pretty darling
sleep pretty darling
위의 가사가 바로 L/R의 줄거리이다. 필자가 이 에니를 본 중요한 이유. 바로 이 노래가 있었기 때문이다. 일단 노래 자체도 아름다웠고 좋았지만, 영시로 지어진 이 노래의 뜻을 알아보고자 끝까지 보게 되었다. (일본인이 부른거라 영어 발음이 알아듣기 힘든것도 난해한 이유중 하나이다)영시라 이해한다는것이 쉬운일이 아니지만 내 생각엔 두가지 뜻이 있다. 하나는 단순한 자장가로 보는 것으로 영어 단어 그대로 해석하면 되지만 다른 하나는 노엘이 자신의 왕위를 다시 찾아주고자 하는 바램을 노래한 것이라면 내용이 달라지게 된다. 가사를 생각하면서 에니를 보면 재미있다. 비리에 얼룩진 이슈탈 왕국을 바로 잡는 일은 이미 15년전부터 시작되었다는 반전이 볼만하다.
주의: L/R은 TV판과 DVD판이 다르다. TV판은 총 12화, DVD판은 총 13화로 DVD판에는 4화 砂漠の祭典(사막의 제전)/Sweet enemies in the same desert 이 추가되어있다. 가급적 DVD판으로 감상하시길...