디시인사이드 갤러리

갤러리 이슈박스, 최근방문 갤러리

갤러리 본문 영역

llama-cpp 한글도 됨.

☆단비☆갤로그로 이동합니다. 2024.06.30 23:31:59
조회 47 추천 0 댓글 0

사람들이 왜 고성능 CPU, GPU 다는 지 알겠다.

그리고 웹브라우저에서 챗하면 응답이 천천히 나오잖냐..

그거 일부러 그렇게 한게 아닌 것 같음.


제 컴이 저전력/저사양 J5040 컴이라 응답 출력되는데 몇 분씩 걸리고 있는 중...

한글자 출력되는데 7초 걸리는거 같음.


hodong@:~/Downloads $ main -m ggml-model-q4_k.gguf -p 안녕
Log start
main: build = 0 (unknown)
main: built with FreeBSD clang version 16.0.6 (https://github.com/llvm/llvm-project.git llvmorg-16.0.6-0-g7cbf1a259152) for x86_64-unknown-freebsd14.0
main: seed  = 1719757590
llama_model_loader: loaded meta data with 19 key-value pairs and 291 tensors from ggml-model-q4_k.gguf (version GGUF V2)
llama_model_loader: Dumping metadata keys/values. Note: KV overrides do not apply in this output.
llama_model_loader: - kv   0:                       general.architecture str              = llama
llama_model_loader: - kv   1:                               general.name str              = LLaMA v2
llama_model_loader: - kv   2:                       llama.context_length u32              = 4096
llama_model_loader: - kv   3:                     llama.embedding_length u32              = 4096
llama_model_loader: - kv   4:                          llama.block_count u32              = 32
llama_model_loader: - kv   5:                  llama.feed_forward_length u32              = 11008
llama_model_loader: - kv   6:                 llama.rope.dimension_count u32              = 128
llama_model_loader: - kv   7:                 llama.attention.head_count u32              = 32
llama_model_loader: - kv   8:              llama.attention.head_count_kv u32              = 32
llama_model_loader: - kv   9:     llama.attention.layer_norm_rms_epsilon f32              = 0.000010
llama_model_loader: - kv  10:                          general.file_type u32              = 15
llama_model_loader: - kv  11:                       tokenizer.ggml.model str              = llama
llama_model_loader: - kv  12:                      tokenizer.ggml.tokens arr[str,32000]   = ["<unk>", "<s>", "</s>", "<0x00>", "<...
llama_model_loader: - kv  13:                      tokenizer.ggml.scores arr[f32,32000]   = [0.000000, 0.000000, 0.000000, 0.0000...
llama_model_loader: - kv  14:                  tokenizer.ggml.token_type arr[i32,32000]   = [2, 3, 3, 6, 6, 6, 6, 6, 6, 6, 6, 6, ...
llama_model_loader: - kv  15:                tokenizer.ggml.bos_token_id u32              = 1
llama_model_loader: - kv  16:                tokenizer.ggml.eos_token_id u32              = 2
llama_model_loader: - kv  17:            tokenizer.ggml.padding_token_id u32              = 0
llama_model_loader: - kv  18:               general.quantization_version u32              = 2
llama_model_loader: - type  f32:   65 tensors
llama_model_loader: - type q4_K:  193 tensors
llama_model_loader: - type q6_K:   33 tensors
llm_load_vocab: special tokens definition check successful ( 259/32000 ).
llm_load_print_meta: format           = GGUF V2
llm_load_print_meta: arch             = llama
llm_load_print_meta: vocab type       = SPM
llm_load_print_meta: n_vocab          = 32000
llm_load_print_meta: n_merges         = 0
llm_load_print_meta: n_ctx_train      = 4096
llm_load_print_meta: n_embd           = 4096
llm_load_print_meta: n_head           = 32
llm_load_print_meta: n_head_kv        = 32
llm_load_print_meta: n_layer          = 32
llm_load_print_meta: n_rot            = 128
llm_load_print_meta: n_embd_head_k    = 128
llm_load_print_meta: n_embd_head_v    = 128
llm_load_print_meta: n_gqa            = 1
llm_load_print_meta: n_embd_k_gqa     = 4096
llm_load_print_meta: n_embd_v_gqa     = 4096
llm_load_print_meta: f_norm_eps       = 0.0e+00
llm_load_print_meta: f_norm_rms_eps   = 1.0e-05
llm_load_print_meta: f_clamp_kqv      = 0.0e+00
llm_load_print_meta: f_max_alibi_bias = 0.0e+00
llm_load_print_meta: f_logit_scale    = 0.0e+00
llm_load_print_meta: n_ff             = 11008
llm_load_print_meta: n_expert         = 0
llm_load_print_meta: n_expert_used    = 0
llm_load_print_meta: causal attn      = 1
llm_load_print_meta: pooling type     = 0
llm_load_print_meta: rope type        = 0
llm_load_print_meta: rope scaling     = linear
llm_load_print_meta: freq_base_train  = 10000.0
llm_load_print_meta: freq_scale_train = 1
llm_load_print_meta: n_yarn_orig_ctx  = 4096
llm_load_print_meta: rope_finetuned   = unknown
llm_load_print_meta: ssm_d_conv       = 0
llm_load_print_meta: ssm_d_inner      = 0
llm_load_print_meta: ssm_d_state      = 0
llm_load_print_meta: ssm_dt_rank      = 0
llm_load_print_meta: model type       = 7B
llm_load_print_meta: model ftype      = Q4_K - Medium
llm_load_print_meta: model params     = 6.74 B
llm_load_print_meta: model size       = 3.80 GiB (4.84 BPW)
llm_load_print_meta: general.name     = LLaMA v2
llm_load_print_meta: BOS token        = 1 '<s>'
llm_load_print_meta: EOS token        = 2 '</s>'
llm_load_print_meta: UNK token        = 0 '<unk>'
llm_load_print_meta: PAD token        = 0 '<unk>'
llm_load_print_meta: LF token         = 13 '<0x0A>'
llm_load_tensors: ggml ctx size =    0.11 MiB
llm_load_tensors:        CPU buffer size =  3891.24 MiB
..................................................................................................
llama_new_context_with_model: n_ctx      = 512
llama_new_context_with_model: n_batch    = 512
llama_new_context_with_model: n_ubatch   = 512
llama_new_context_with_model: freq_base  = 10000.0
llama_new_context_with_model: freq_scale = 1
llama_kv_cache_init:        CPU KV buffer size =   256.00 MiB
llama_new_context_with_model: KV self size  =  256.00 MiB, K (f16):  128.00 MiB, V (f16):  128.00 MiB
llama_new_context_with_model:        CPU  output buffer size =     0.12 MiB
llama_new_context_with_model:        CPU compute buffer size =    70.50 MiB
llama_new_context_with_model: graph nodes  = 1030
llama_new_context_with_model: graph splits = 1

system_info: n_threads = 4 / 4 | AVX = 0 | AVX_VNNI = 0 | AVX2 = 0 | AVX512 = 0 | AVX512_VBMI = 0 | AVX512_VNNI = 0 | FMA = 0 | NEON = 0 | ARM_FMA = 0 | F16C = 0 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 0 | SSE3 = 0 | SSSE3 = 0 | VSX = 0 | MATMUL_INT8 = 0 |
sampling:
    repeat_last_n = 64, repeat_penalty = 1.000, frequency_penalty = 0.000, presence_penalty = 0.000
    top_k = 40, tfs_z = 1.000, top_p = 0.950, min_p = 0.050, typical_p = 1.000, temp = 0.800
    mirostat = 0, mirostat_lr = 0.100, mirostat_ent = 5.000
sampling order:
CFG -> Penalties -> top_k -> tfs_z -> typical_p -> top_p -> min_p -> temperature
generate: n_ctx = 512, n_batch = 2048, n_predict = -1, n_keep = 1


 안녕하세요! 이 게시물의 게시자는 게시물 내용에 대한 검색 결과를 제공하기 위해 기꺼이 찾아보고자 합니다. surely not 이해하셨습니다. 이 게시물이 어떤 뜻이�

llama_print_timings:        load time =    3380.91 ms
llama_print_timings:      sample time =      10.76 ms /   114 runs   (    0.09 ms per token, 10590.86 tokens per second)
llama_print_timings: prompt eval time =    7573.85 ms /     6 tokens ( 1262.31 ms per token,     0.79 tokens per second)
llama_print_timings:        eval time =  269687.56 ms /   113 runs   ( 2386.62 ms per token,     0.42 tokens per second)
llama_print_timings:       total time =  279081.84 ms /   119 tokens



----------


계속 기다리기 곤란하여 Ctrl + C 로 중단시켰습니다.

추천 비추천

0

고정닉 0

0

댓글 영역

전체 댓글 0
등록순정렬 기준선택
본문 보기

하단 갤러리 리스트 영역

왼쪽 컨텐츠 영역

갤러리 리스트 영역

갤러리 리스트
번호 제목 글쓴이 작성일 조회 추천
설문 외모와 달리 술 일절 못 마셔 가장 의외인 스타는? 운영자 24/07/01 - -
2721339 맨정신이 나 힘들어 [2] 멍청한유라ㅋ갤로그로 이동합니다. 07.03 51 0
2721338 RxStore 데스크탑, 사이트 등록 및 확인 [6] 프갤러(121.172) 07.03 66 1
2721337 류류가 병신인 이유 [2] ㅇㅇ(121.142) 07.03 54 0
2721336 프론트앤드 강의 추천 부탁드립니다. 프갤러(211.117) 07.03 34 0
2721333 개발자를 위한 gpt [1] 프갤러(115.139) 07.03 71 1
2721332 여자응디는진짜크고봐야함ㅇㅇ [8] 보법E노무현갤로그로 이동합니다. 07.03 109 0
2721331 나님 시작합니당⭐+ ♥냥덩Pay♥갤로그로 이동합니다. 07.03 24 0
2721330 여름이라 벌레가 많구나 [3] 헬마스터갤로그로 이동합니다. 07.03 47 0
2721329 중고신입 취업 질문 드립니다아 [34] 프갤러(58.79) 07.03 260 0
2721328 클로바 3.5가 gpt4보다 성능좋다는게 진짜임? [4] 딘퐁갤로그로 이동합니다. 07.03 66 0
2721327 배가좀 고파서 돈가스씨를 시켜야겠다 헬마스터갤로그로 이동합니다. 07.03 31 1
2721326 챗티 이녀석 정말 용해졌군 헬마스터갤로그로 이동합니다. 07.03 31 0
2721325 구글 계정 연동 로그인할때마다 귀찮은 권한 알림떠서 헬마스터갤로그로 이동합니다. 07.03 25 0
2721324 내 와꾸랑 내 여자관계 싹 다 공개함 ㅇㅇ [1] 메쿠이로갤로그로 이동합니다. 07.03 91 0
2721323 v8 Engine과 RxFramework 프갤러(121.172) 07.03 42 1
2721322 코딩 교육 들어보신분 한번만 도와주세요 프갤러(220.86) 07.03 50 0
2721321 홍길동 기관 출신 웹 프로그래밍 기술자가 말하는 웹 프갤러(121.172) 07.03 63 1
2721320 너네 DB툴 뭐 쓰냐? [1] 프갤러(211.36) 07.03 79 0
2721319 C++공부하려고 하는데 조언 좀 [3] 프갤러(118.235) 07.03 63 0
2721318 베릴로그 다음으로 파이썬 어떰? [1] 황물수(182.224) 07.03 23 0
2721317 이력서 읽자마자 바로 면접보자고 연락 오는 경우는 없나 ㅇㅅㅇ [2] ㅇㅇ(112.150) 07.03 73 0
2721316 물경력인데 [10] 아스카영원히사랑해갤로그로 이동합니다. 07.03 131 0
2721315 선생님들 클래스 질문좀요;; [8] ㅇㅇ(125.242) 07.03 69 0
2721314 술 좋아하는 사람이면 그냥 갈때마다 위스키 한병씩 사갈까?? [4] ㅇㅇ(223.38) 07.03 60 0
2721313 서울대 출신이 말하는 웹프로그래밍 프갤러(147.47) 07.03 86 1
2721311 3년 버티는 기준 프갤러(115.21) 07.03 54 0
2721309 프로그래머스 코테에 import 자동으로 못시킴? [3] 프갤러(118.37) 07.03 83 0
2721308 21살인데 뭐부터 해야될지 모르겠음 [1] 프갤러(118.235) 07.03 40 0
2721307 컴퓨터 파워 2핀 고장나서 이렇게 쓰는중입니다. 도리스아(220.74) 07.03 40 0
2721306 물경력 먹은놈들 국비 또옴 ㅇㅇ(118.235) 07.03 70 0
2721305 원종이 게임 이거 어케하는거냐 [2] ㅇㅇ(118.235) 07.03 61 0
2721304 디씨콘 스크래핑 하려는데 도움좀 [1] ㅇㅇ(223.38) 07.03 28 0
2721303 노년인데 커플티에 손잡고 다니는건 뭐냐? [3] 헬마스터갤로그로 이동합니다. 07.03 38 0
2721302 대기업 스타트업 다 다녀본 내가 생각하는 경력 [1] 프갤러(147.47) 07.03 132 3
2721301 3년 버티는것도 물경력이면 의미없다 [2] 프갤러(115.21) 07.03 100 0
2721300 물건사러 가는것도 일이다 [4] 헬마스터갤로그로 이동합니다. 07.03 45 0
2721299 운영체제 다 밀어버릴건데 이 기회에 우분투 써볼까? 프갤러(14.39) 07.03 28 0
2721298 hrd넷에서 [1] 프갤러(125.182) 07.03 28 0
2721297 받아주는 중소기업 들어가서 3년 버티는게 제일 최고인듯 [2] 프갤러(14.39) 07.03 118 0
2721295 파워 2핀 짜리 가 고장났습니다. 도리스아(220.74) 07.03 20 0
2721294 개발밥 먹고 산지 6년차다 궁금한게 있다 [4] 프갤러(118.235) 07.03 133 0
2721293 면접비 얼마정도 받아봤어? [4] 프갤러(220.117) 07.03 82 0
2721292 기술생명주기 TALC 와 표준이란 무엇인가? 때릴꺼야(119.67) 07.03 28 0
2721291 도리스아님아 ㅇㅇ(118.235) 07.03 42 0
2721290 혹시 이런 강의도 있음? 프갤러(118.235) 07.03 33 0
2721289 이런 누나가 진짜 이상형이고 사귀고싶은데 어떻게 생각함.. [1] 메쿠이로갤로그로 이동합니다. 07.03 92 0
2721288 엄마갸 sns 하면 안 된데유 [1] 도리스아 sky(119.195) 07.03 37 0
2721287 하늘에서 10억이 뚝 떨어졌으면 좋겠다..ㅇㅅㅇ [2] 헤르 미온느갤로그로 이동합니다. 07.03 36 0
2721286 슈프림매장 너무싸가지없네 [1] ㅇㅇ(104.234) 07.03 38 1
2721285 하루 한 번 헤르미온느 찬양 헤르 미온느갤로그로 이동합니다. 07.03 48 0
갤러리 내부 검색
제목+내용게시물 정렬 옵션

오른쪽 컨텐츠 영역

실시간 베스트

1/8

뉴스

디시미디어

디시이슈

1/2