디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

llama-cpp 아싸 된다.. 개신기하네

☆단비☆갤로그로 이동합니다. 2024.06.30 23:23:41
조회 35 추천 0 댓글 0

hodong@:~/Downloads $ simple
usage: simple MODEL_PATH [PROMPT]
hodong@:~/Downloads $ simple ./ggml-model-q4_k.gguf "Who are you?"
llama_model_loader: loaded meta data with 19 key-value pairs and 291 tensors from ./ggml-model-q4_k.gguf (version GGUF V2)
llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
llama_model_loader: - kv   0:                       general.architecture str              = llama
llama_model_loader: - kv   1:                               general.name str              = LLaMA v2
llama_model_loader: - kv   2:                       llama.context_length u32              = 4096
llama_model_loader: - kv   3:                     llama.embedding_length u32              = 4096
llama_model_loader: - kv   4:                          llama.block_count u32              = 32
llama_model_loader: - kv   5:                  llama.feed_forward_length u32              = 11008
llama_model_loader: - kv   6:                 llama.rope.dimension_count u32              = 128
llama_model_loader: - kv   7:                 llama.attention.head_count u32              = 32
llama_model_loader: - kv   8:              llama.attention.head_count_kv u32              = 32
llama_model_loader: - kv   9:     llama.attention.layer_norm_rms_epsilon f32              = 0.000010
llama_model_loader: - kv  10:                          general.file_type u32              = 15
llama_model_loader: - kv  11:                       tokenizer.ggml.model str              = llama
llama_model_loader: - kv  12:                      tokenizer.ggml.tokens arr[str,32000]   = ["<unk>", "<s>", "</s>", "<0x00>", "<...
llama_model_loader: - kv  13:                      tokenizer.ggml.scores arr[f32,32000]   = [0.000000, 0.000000, 0.000000, 0.0000...
llama_model_loader: - kv  14:                  tokenizer.ggml.token_type arr[i32,32000]   = [2, 3, 3, 6, 6, 6, 6, 6, 6, 6, 6, 6, ...
llama_model_loader: - kv  15:                tokenizer.ggml.bos_token_id u32              = 1
llama_model_loader: - kv  16:                tokenizer.ggml.eos_token_id u32              = 2
llama_model_loader: - kv  17:            tokenizer.ggml.padding_token_id u32              = 0
llama_model_loader: - kv  18:               general.quantization_version u32              = 2
llama_model_loader: - type  f32:   65 tensors
llama_model_loader: - type q4_K:  193 tensors
llama_model_loader: - type q6_K:   33 tensors
llm_load_vocab: special tokens definition check successful ( 259/32000 ).
llm_load_print_meta: format           = GGUF V2
llm_load_print_meta: arch             = llama
llm_load_print_meta: vocab type       = SPM
llm_load_print_meta: n_vocab          = 32000
llm_load_print_meta: n_merges         = 0
llm_load_print_meta: n_ctx_train      = 4096
llm_load_print_meta: n_embd           = 4096
llm_load_print_meta: n_head           = 32
llm_load_print_meta: n_head_kv        = 32
llm_load_print_meta: n_layer          = 32
llm_load_print_meta: n_rot            = 128
llm_load_print_meta: n_embd_head_k    = 128
llm_load_print_meta: n_embd_head_v    = 128
llm_load_print_meta: n_gqa            = 1
llm_load_print_meta: n_embd_k_gqa     = 4096
llm_load_print_meta: n_embd_v_gqa     = 4096
llm_load_print_meta: f_norm_eps       = 0.0e+00
llm_load_print_meta: f_norm_rms_eps   = 1.0e-05
llm_load_print_meta: f_clamp_kqv      = 0.0e+00
llm_load_print_meta: f_max_alibi_bias = 0.0e+00
llm_load_print_meta: f_logit_scale    = 0.0e+00
llm_load_print_meta: n_ff             = 11008
llm_load_print_meta: n_expert         = 0
llm_load_print_meta: n_expert_used    = 0
llm_load_print_meta: causal attn      = 1
llm_load_print_meta: pooling type     = 0
llm_load_print_meta: rope type        = 0
llm_load_print_meta: rope scaling     = linear
llm_load_print_meta: freq_base_train  = 10000.0
llm_load_print_meta: freq_scale_train = 1
llm_load_print_meta: n_yarn_orig_ctx  = 4096
llm_load_print_meta: rope_finetuned   = unknown
llm_load_print_meta: ssm_d_conv       = 0
llm_load_print_meta: ssm_d_inner      = 0
llm_load_print_meta: ssm_d_state      = 0
llm_load_print_meta: ssm_dt_rank      = 0
llm_load_print_meta: model type       = 7B
llm_load_print_meta: model ftype      = Q4_K - Medium
llm_load_print_meta: model params     = 6.74 B
llm_load_print_meta: model size       = 3.80 GiB (4.84 BPW)
llm_load_print_meta: general.name     = LLaMA v2
llm_load_print_meta: BOS token        = 1 '<s>'
llm_load_print_meta: EOS token        = 2 '</s>'
llm_load_print_meta: UNK token        = 0 '<unk>'
llm_load_print_meta: PAD token        = 0 '<unk>'
llm_load_print_meta: LF token         = 13 '<0x0A>'
llm_load_tensors: ggml ctx size =    0.11 MiB
llm_load_tensors:        CPU buffer size =  3891.24 MiB
..................................................................................................
llama_new_context_with_model: n_ctx      = 2048
llama_new_context_with_model: n_batch    = 2048
llama_new_context_with_model: n_ubatch   = 512
llama_new_context_with_model: freq_base  = 10000.0
llama_new_context_with_model: freq_scale = 1
llama_kv_cache_init:        CPU KV buffer size =  1024.00 MiB
llama_new_context_with_model: KV self size  = 1024.00 MiB, K (f16):  512.00 MiB, V (f16):  512.00 MiB
llama_new_context_with_model:        CPU  output buffer size =     0.12 MiB
llama_new_context_with_model:        CPU compute buffer size =   164.01 MiB
llama_new_context_with_model: graph nodes  = 1030
llama_new_context_with_model: graph splits = 1

main: n_len = 32, n_ctx = 2048, n_kv_req = 32

 Who are you?
 nobody knows me

main: decoded 4 tokens in 14.74 s, speed: 0.27 t/s

llama_print_timings:        load time =   14265.44 ms
llama_print_timings:      sample time =       0.35 ms /     5 runs   (    0.07 ms per token, 14326.65 tokens per second)
llama_print_timings: prompt eval time =   13198.69 ms /     5 tokens ( 2639.74 ms per token,     0.38 tokens per second)
llama_print_timings:        eval time =   14735.94 ms /     4 runs   ( 3683.99 ms per token,     0.27 tokens per second)
llama_print_timings:       total time =   29004.87 ms /     9 tokens


프롬프트에

Who are you? 라고 넣으니

llama가 nobody knows me 라고 답변함.

되는거 일단 확인했으니 여기까지.

추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 외모와 달리 술 일절 못 마셔 가장 의외인 스타는? 운영자 24/07/01 - -
2721110 굽삐 찾고 있는사람? 프갤러(121.170) 07.02 24 0
2721109 7월 1일 한겨레 그림판 발명도둑잡기갤로그로 이동합니다. 07.02 11 0
2721108 2024년 7월 1일[김용민의 그림마당] 발명도둑잡기갤로그로 이동합니다. 07.02 8 0
2721107 [박순찬의 장도리 카툰] 불끄기 발명도둑잡기갤로그로 이동합니다. 07.02 10 0
2721106 "아직 찬 안치실에 있어요"‥19살 조카의 죽음 '피눈물' 발명도둑잡기갤로그로 이동합니다. 07.02 23 0
2721105 7개 야당 '윤석열 정부 언론장악' 국정조사 공동 발의 발명도둑잡기갤로그로 이동합니다. 07.02 12 0
2721104 학부생임 리액트 로그인 시 유저 정보 어따가 담아야함? [8] 프갤러(124.61) 07.02 85 0
2721103 민주당·진보당 "성추행 의혹 국힘 대전시의원 사퇴하라" 발명도둑잡기갤로그로 이동합니다. 07.02 15 0
2721102 농민의길, 진보당에 대국회 요구안 전달 발명도둑잡기갤로그로 이동합니다. 07.02 12 0
2721101 나님 샤워완✨ ♥냥덩Pay♥갤로그로 이동합니다. 07.02 21 0
2721100 다른 프리랜서도 웃기네 ㅋㅋ [2] 포항의봄갤로그로 이동합니다. 07.02 73 0
2721099 Jwtㅂㅅ같은거 왜.씀? [4] 프갤러(175.119) 07.02 98 0
2721098 잇따른 미군 성범죄에 분노하는 오키나와…반미 감정 확산하나 발명도둑잡기갤로그로 이동합니다. 07.02 14 0
2721097 5년찬데 세션 jwt 모름 포항의봄갤로그로 이동합니다. 07.02 57 0
2721095 정시퇴근 2호선 개 애미없던데 어떻게 된 일이냐? [1] 프갤러(211.234) 07.02 37 0
2721094 ry4 계열 액상도 먹다 보니 익숙해지네 노럐갤로그로 이동합니다. 07.02 15 0
2721093 비 때문에 수십만원짜리 중고거래 취소됐다 발명도둑잡기갤로그로 이동합니다. 07.02 27 0
2721092 싸피 존나 현타온다 [3] 프갤러(39.119) 07.02 109 0
2721090 시청역 참사 부부싸움설 진짜인가요? 발명도둑잡기갤로그로 이동합니다. 07.02 46 0
2721089 나님샤워시작✨ ♥냥덩Pay♥갤로그로 이동합니다. 07.02 20 0
2721088 폰 번호 좋은거 하나 얻엇다 신종야옹갤로그로 이동합니다. 07.02 32 1
2721086 erp 유지보수 및 운영 별로임? [6] 프갤러(218.155) 07.02 68 0
2721085 요즘 국비에서는 세션이랑 JWT도 안가르침? [11] 프갤러(121.132) 07.02 162 2
2721084 치카푸카완✨ ♥냥덩Pay♥갤로그로 이동합니다. 07.02 18 0
2721082 대통령 직할 부대 홍길동 사이트 - Rx Chat Gpt 프갤러(121.172) 07.02 44 1
2721081 회사 다니는게 힘들다 [2] 포항의봄갤로그로 이동합니다. 07.02 78 0
2721080 수경재배기 녹조 많이 껴서 싹 청소했다 [3] 발명도둑잡기갤로그로 이동합니다. 07.02 21 0
2721079 나는내향적이야 통정희박대령갤로그로 이동합니다. 07.02 20 0
2721078 한화비전 베다 국비 할까말까 [4] 프갤러(221.150) 07.02 65 0
2721077 청와대 국민청원 사이트와 해킹과 보안의 취약점 프갤러(121.172) 07.02 41 1
2721076 시발 정처기 공부해야하는데 [4] 아스카영원히사랑해갤로그로 이동합니다. 07.02 99 0
2721075 국민청원 사이트 말이야 프갤러(121.172) 07.02 49 1
2721074 자격증 없는 사람 은근히 많더라. 프갤러(59.16) 07.02 45 0
2721073 추억의 해킹송 리마스터 해봤다.remaster 발명도둑잡기갤로그로 이동합니다. 07.02 22 0
2721072 분해 청소중 아재 도리스아 sky(220.74) 07.02 20 0
2721071 시청역 급발진 관련되어- [3] 프갤러(121.172) 07.02 68 3
2721070 나씻주준✨ ♥냥덩Pay♥갤로그로 이동합니다. 07.02 20 0
2721069 액땜 [1] 멍청한유라ㅋ갤로그로 이동합니다. 07.02 26 0
2721068 외국인은 한국에서 병원 어떻게가요? qu(121.171) 07.02 19 0
2721067 나틀줍완 ㅇㅅㅇ 나트륨찡갤로그로 이동합니다. 07.02 16 0
2721066 냥덩줍완 ㅇㅅㅇㅋ 나트륨찡갤로그로 이동합니다. 07.02 20 0
2721063 강아지와 고양이의 뜨거운 우정!! ♥냥덩Pay♥갤로그로 이동합니다. 07.02 26 0
2721060 회사에서 내일 발표해야한다 [5] 프갤러(211.234) 07.02 78 0
2721057 고등학생 제자를 모텔로 데려가 성관계를 맺은 뒤 성폭행을 당했다고 무고한 B0@절대지켜 xyzrocksnake(1.230) 07.02 32 0
2721055 정처기 일주일전 뭐가 효율적일까 [3] 프갤러(1.11) 07.02 67 0
2721054 대학생 간단한 플젝 질문 [4] 프갤러(1.228) 07.02 56 0
2721052 솔직히 프로그래밍은 ㅈㄴ 어려운게 맞음 ㅋㅋ 프갤러(182.228) 07.02 65 0
2721051 챗 쥐피티는 감정을 가지고 있는가? 프갤러(121.172) 07.02 46 1
2721050 웹개발이 최고임? [1] 프갤러(218.155) 07.02 75 0
2721048 Figma 좋아요~ [1] +abcd3421갤로그로 이동합니다. 07.02 54 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2