디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

llama-cpp 아싸 된다.. 개신기하네

☆단비☆갤로그로 이동합니다. 2024.06.30 23:23:41
조회 44 추천 0 댓글 0

hodong@:~/Downloads $ simple
usage: simple MODEL_PATH [PROMPT]
hodong@:~/Downloads $ simple ./ggml-model-q4_k.gguf "Who are you?"
llama_model_loader: loaded meta data with 19 key-value pairs and 291 tensors from ./ggml-model-q4_k.gguf (version GGUF V2)
llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
llama_model_loader: - kv   0:                       general.architecture str              = llama
llama_model_loader: - kv   1:                               general.name str              = LLaMA v2
llama_model_loader: - kv   2:                       llama.context_length u32              = 4096
llama_model_loader: - kv   3:                     llama.embedding_length u32              = 4096
llama_model_loader: - kv   4:                          llama.block_count u32              = 32
llama_model_loader: - kv   5:                  llama.feed_forward_length u32              = 11008
llama_model_loader: - kv   6:                 llama.rope.dimension_count u32              = 128
llama_model_loader: - kv   7:                 llama.attention.head_count u32              = 32
llama_model_loader: - kv   8:              llama.attention.head_count_kv u32              = 32
llama_model_loader: - kv   9:     llama.attention.layer_norm_rms_epsilon f32              = 0.000010
llama_model_loader: - kv  10:                          general.file_type u32              = 15
llama_model_loader: - kv  11:                       tokenizer.ggml.model str              = llama
llama_model_loader: - kv  12:                      tokenizer.ggml.tokens arr[str,32000]   = ["<unk>", "<s>", "</s>", "<0x00>", "<...
llama_model_loader: - kv  13:                      tokenizer.ggml.scores arr[f32,32000]   = [0.000000, 0.000000, 0.000000, 0.0000...
llama_model_loader: - kv  14:                  tokenizer.ggml.token_type arr[i32,32000]   = [2, 3, 3, 6, 6, 6, 6, 6, 6, 6, 6, 6, ...
llama_model_loader: - kv  15:                tokenizer.ggml.bos_token_id u32              = 1
llama_model_loader: - kv  16:                tokenizer.ggml.eos_token_id u32              = 2
llama_model_loader: - kv  17:            tokenizer.ggml.padding_token_id u32              = 0
llama_model_loader: - kv  18:               general.quantization_version u32              = 2
llama_model_loader: - type  f32:   65 tensors
llama_model_loader: - type q4_K:  193 tensors
llama_model_loader: - type q6_K:   33 tensors
llm_load_vocab: special tokens definition check successful ( 259/32000 ).
llm_load_print_meta: format           = GGUF V2
llm_load_print_meta: arch             = llama
llm_load_print_meta: vocab type       = SPM
llm_load_print_meta: n_vocab          = 32000
llm_load_print_meta: n_merges         = 0
llm_load_print_meta: n_ctx_train      = 4096
llm_load_print_meta: n_embd           = 4096
llm_load_print_meta: n_head           = 32
llm_load_print_meta: n_head_kv        = 32
llm_load_print_meta: n_layer          = 32
llm_load_print_meta: n_rot            = 128
llm_load_print_meta: n_embd_head_k    = 128
llm_load_print_meta: n_embd_head_v    = 128
llm_load_print_meta: n_gqa            = 1
llm_load_print_meta: n_embd_k_gqa     = 4096
llm_load_print_meta: n_embd_v_gqa     = 4096
llm_load_print_meta: f_norm_eps       = 0.0e+00
llm_load_print_meta: f_norm_rms_eps   = 1.0e-05
llm_load_print_meta: f_clamp_kqv      = 0.0e+00
llm_load_print_meta: f_max_alibi_bias = 0.0e+00
llm_load_print_meta: f_logit_scale    = 0.0e+00
llm_load_print_meta: n_ff             = 11008
llm_load_print_meta: n_expert         = 0
llm_load_print_meta: n_expert_used    = 0
llm_load_print_meta: causal attn      = 1
llm_load_print_meta: pooling type     = 0
llm_load_print_meta: rope type        = 0
llm_load_print_meta: rope scaling     = linear
llm_load_print_meta: freq_base_train  = 10000.0
llm_load_print_meta: freq_scale_train = 1
llm_load_print_meta: n_yarn_orig_ctx  = 4096
llm_load_print_meta: rope_finetuned   = unknown
llm_load_print_meta: ssm_d_conv       = 0
llm_load_print_meta: ssm_d_inner      = 0
llm_load_print_meta: ssm_d_state      = 0
llm_load_print_meta: ssm_dt_rank      = 0
llm_load_print_meta: model type       = 7B
llm_load_print_meta: model ftype      = Q4_K - Medium
llm_load_print_meta: model params     = 6.74 B
llm_load_print_meta: model size       = 3.80 GiB (4.84 BPW)
llm_load_print_meta: general.name     = LLaMA v2
llm_load_print_meta: BOS token        = 1 '<s>'
llm_load_print_meta: EOS token        = 2 '</s>'
llm_load_print_meta: UNK token        = 0 '<unk>'
llm_load_print_meta: PAD token        = 0 '<unk>'
llm_load_print_meta: LF token         = 13 '<0x0A>'
llm_load_tensors: ggml ctx size =    0.11 MiB
llm_load_tensors:        CPU buffer size =  3891.24 MiB
..................................................................................................
llama_new_context_with_model: n_ctx      = 2048
llama_new_context_with_model: n_batch    = 2048
llama_new_context_with_model: n_ubatch   = 512
llama_new_context_with_model: freq_base  = 10000.0
llama_new_context_with_model: freq_scale = 1
llama_kv_cache_init:        CPU KV buffer size =  1024.00 MiB
llama_new_context_with_model: KV self size  = 1024.00 MiB, K (f16):  512.00 MiB, V (f16):  512.00 MiB
llama_new_context_with_model:        CPU  output buffer size =     0.12 MiB
llama_new_context_with_model:        CPU compute buffer size =   164.01 MiB
llama_new_context_with_model: graph nodes  = 1030
llama_new_context_with_model: graph splits = 1

main: n_len = 32, n_ctx = 2048, n_kv_req = 32

 Who are you?
 nobody knows me

main: decoded 4 tokens in 14.74 s, speed: 0.27 t/s

llama_print_timings:        load time =   14265.44 ms
llama_print_timings:      sample time =       0.35 ms /     5 runs   (    0.07 ms per token, 14326.65 tokens per second)
llama_print_timings: prompt eval time =   13198.69 ms /     5 tokens ( 2639.74 ms per token,     0.38 tokens per second)
llama_print_timings:        eval time =   14735.94 ms /     4 runs   ( 3683.99 ms per token,     0.27 tokens per second)
llama_print_timings:       total time =   29004.87 ms /     9 tokens


프롬프트에

Who are you? 라고 넣으니

llama가 nobody knows me 라고 답변함.

되는거 일단 확인했으니 여기까지.

추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 외모와 달리 술 일절 못 마셔 가장 의외인 스타는? 운영자 24/07/01 - -
2721293 면접비 얼마정도 받아봤어? [4] 프갤러(220.117) 07.03 78 0
2721292 기술생명주기 TALC 와 표준이란 무엇인가? 때릴꺼야(119.67) 07.03 23 0
2721291 도리스아님아 ㅇㅇ(118.235) 07.03 38 0
2721290 혹시 이런 강의도 있음? 프갤러(118.235) 07.03 28 0
2721289 이런 누나가 진짜 이상형이고 사귀고싶은데 어떻게 생각함.. [1] 메쿠이로갤로그로 이동합니다. 07.03 87 0
2721288 엄마갸 sns 하면 안 된데유 [1] 도리스아 sky(119.195) 07.03 36 0
2721287 하늘에서 10억이 뚝 떨어졌으면 좋겠다..ㅇㅅㅇ [2] 헤르 미온느갤로그로 이동합니다. 07.03 33 0
2721286 슈프림매장 너무싸가지없네 [1] ㅇㅇ(104.234) 07.03 32 1
2721285 하루 한 번 헤르미온느 찬양 헤르 미온느갤로그로 이동합니다. 07.03 43 0
2721284 지문인식기 생각보다 비싸고 기능이 애매해네 [6] 프갤러(220.117) 07.03 69 0
2721283 윈도우 개발하는 사람 있나 [2] ㅇㅇ갤로그로 이동합니다. 07.03 75 0
2721282 연봉 자랑 하고싶다 [4] 미쿠쟝마지스키갤로그로 이동합니다. 07.03 104 0
2721281 DB도 백엔드 범주에 포함되는 거죠?? [2] 프갤러(114.203) 07.03 88 0
2721279 애플실리콘 idle 상태 2oomW 루나레이크 8W ♥냥덩Pay♥갤로그로 이동합니다. 07.03 39 0
2721277 나님 시작합니당⭐+ ♥냥덩Pay♥갤로그로 이동합니다. 07.03 28 0
2721274 긴장하는 현대차...시청역 사고 운명 가를 ‘제네시스 급발진’ 논쟁 발명도둑잡기갤로그로 이동합니다. 07.03 129 0
2721273 구직사이트 포지션 제안 그냥 홍보용으로 막 돌리는거임? [2] 구스갤로그로 이동합니다. 07.03 92 0
2721269 [솔트룩스X울산정보산업진흥원] 빅테크 기업과 함께하는 취업 연계 프로젝트 allforyoung(14.32) 07.03 109 0
2721268 국가전략산업랑 k디지털트레이닝 연속으로 들을 수 잇음? [1] ㅇㅇ갤로그로 이동합니다. 07.03 45 0
2721267 xyzrocksnakekr011 xyzrocksnakekr011(1.230) 07.03 27 0
2721256 하시발 자소서를 다시써야하나 다시 태어나야하나 [2] ㅇㅇ갤로그로 이동합니다. 07.03 100 0
2721250 오늘의 영상 기획 실마리: 꽃게랑 관련 밈을 만들면 재밌을 것 같다 발명도둑잡기갤로그로 이동합니다. 07.03 25 0
2721248 엔지니어 직무 회사 추천좀 [1] ㅇㅇ(211.201) 07.03 76 0
2721245 개발자를 위한 chatgpt 사이트 [1] 프갤러(115.139) 07.03 116 2
2721241 오늘의 영상 기획 실마리: 세계 각국의 어린이,청년,성인 하루일과 비교 발명도둑잡기갤로그로 이동합니다. 07.03 26 0
2721239 오늘의 영상 기획 실마리: 세계의 월세집 체험 발명도둑잡기갤로그로 이동합니다. 07.03 25 0
2721238 역대급 취업난 맞지? 지금 [4] ㅇㅇ갤로그로 이동합니다. 07.03 290 0
2721232 박스 줍는 노인 입갤이요 ㅇㅅㅇ ㅇㅅㅇ(106.102) 07.03 27 0
2721227 부부개발자임 [4] ㅇㅇ(118.235) 07.03 133 0
2721222 “한국서 페미니즘 더러운 단어 낙인…젊은 男 우경화” [1] 발명도둑잡기갤로그로 이동합니다. 07.03 43 0
2721220 "집게손가락은 남성혐오? 문제는 여성혐오에 있다" [1] 발명도둑잡기갤로그로 이동합니다. 07.03 65 0
2721218 가난이 밉다... 먹어도 편의점 음식밖에 먹을 수 없는 가난이... [6] ㅇㅇ(123.213) 07.03 89 0
2721217 기술면접준비가 너무 어려운거같아 [9] ㅇㅇ(49.142) 07.03 167 0
2721214 웹서비스 홍보는 어디서함? [6] 프갤러(1.228) 07.03 88 0
2721213 실력대비 연봉 올리는건 스타트업이 최고긴 하다... [6] 프갤러(180.233) 07.03 192 0
2721211 다당제 의회민주주의 국가에서는 야당 대표도 조선 대표와 정상회담 해야 발명도둑잡기갤로그로 이동합니다. 07.03 27 0
2721208 요새 뭘 파야할지 몰라서 코테공부중 [2] 프갤러(117.110) 07.03 82 0
2721206 [쌍방울 내부자 폭로]③ 대북사업 핵심 임원 “이재명 방북 비용으로 검사 발명도둑잡기갤로그로 이동합니다. 07.03 29 0
2721205 법조문에서 근로자->노동자, 민영화->사유화 로 프레임을 바꾸어야 합다 발명도둑잡기갤로그로 이동합니다. 07.03 28 0
2721203 편의점가서 진라면 소컵 하나 먹고 빨리 자야겠당 ㅇㅇ(223.38) 07.03 29 0
2721201 클럽서 만난 남성과 입맞춤 후 열나고 구토…병명은 '키스병' 발명도둑잡기갤로그로 이동합니다. 07.03 40 0
2721200 소통 팀플 싫어해서 공대 골랐고 [3] ㅇㅇ(175.120) 07.03 107 0
2721199 여자 개발자랑 결혼하려면 어케야 됨? [2] 프갤러(106.101) 07.03 118 0
2721196 건축가 - 건축공학자 - 기술자 - 노가다 차이를 컴공에 비유하면 [1] 다칸마리갤로그로 이동합니다. 07.03 47 0
2721194 나님이 아무나하고 소통해주지 않는 이유✨ [1] ♥냥덩Pay♥갤로그로 이동합니다. 07.03 67 0
2721191 하루에 핸폰배터리 60%정도 스는듯 ♥냥덩Pay♥갤로그로 이동합니다. 07.03 56 0
2721189 재일교포설이 돌고 있는 일본 프로복서 발명도둑잡기갤로그로 이동합니다. 07.03 26 0
2721187 99%의 스타트업은 현재 뻘짓중 [1] ㅇㅇ(172.226) 07.03 100 2
2721183 악보 반대로, 새 음표 넣기 ‘임윤찬식 해석’…“논쟁적”-“기분 좋은 충 발명도둑잡기갤로그로 이동합니다. 07.03 36 0
2721182 깡쏘주 먹으니깐 속 아프고 힘드노 ㅅㅂ.. 라면을 먹고잘까 ㅇㅇ(123.213) 07.03 32 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2