This website requires JavaScript.
Explore
Help
Sign In
tqcq
/
llama.cpp
Watch
0
Star
0
Fork
0
You've already forked llama.cpp
mirror of
https://github.com/ggml-org/llama.cpp.git
synced
2025-07-31 06:34:56 -04:00
Code
Issues
Packages
Projects
Releases
Wiki
Activity
Files
4fc8673d09e6a213cfaf3b098e8582c20780a886
llama.cpp
/
models
History
…
..
.editorconfig
…
ggml-vocab-aquila.gguf
…
ggml-vocab-baichuan.gguf
…
ggml-vocab-bert-bge.gguf
…
ggml-vocab-bert-bge.gguf.inp
…
ggml-vocab-bert-bge.gguf.out
…
ggml-vocab-chameleon.gguf.inp
…
ggml-vocab-chameleon.gguf.out
…
ggml-vocab-command-r.gguf
…
ggml-vocab-command-r.gguf.inp
…
ggml-vocab-command-r.gguf.out
…
ggml-vocab-deepseek-coder.gguf
…
ggml-vocab-deepseek-coder.gguf.inp
…
ggml-vocab-deepseek-coder.gguf.out
…
ggml-vocab-deepseek-llm.gguf
…
ggml-vocab-deepseek-llm.gguf.inp
…
ggml-vocab-deepseek-llm.gguf.out
…
ggml-vocab-falcon.gguf
…
ggml-vocab-falcon.gguf.inp
…
ggml-vocab-falcon.gguf.out
…
ggml-vocab-gpt-2.gguf
…
ggml-vocab-gpt-2.gguf.inp
…
ggml-vocab-gpt-2.gguf.out
…
ggml-vocab-gpt-neox.gguf
…
ggml-vocab-llama-bpe.gguf
llama : fix BPE pre-tokenization (
#6920
)
2024-04-29 16:58:41 +03:00
ggml-vocab-llama-bpe.gguf.inp
…
ggml-vocab-llama-bpe.gguf.out
…
ggml-vocab-llama-spm.gguf
…
ggml-vocab-llama-spm.gguf.inp
…
ggml-vocab-llama-spm.gguf.out
…
ggml-vocab-mpt.gguf
llama : fix BPE pre-tokenization (
#6920
)
2024-04-29 16:58:41 +03:00
ggml-vocab-mpt.gguf.inp
…
ggml-vocab-mpt.gguf.out
…
ggml-vocab-phi-3.gguf
…
ggml-vocab-phi-3.gguf.inp
…
ggml-vocab-phi-3.gguf.out
…
ggml-vocab-qwen2.gguf
…
ggml-vocab-qwen2.gguf.inp
…
ggml-vocab-qwen2.gguf.out
…
ggml-vocab-refact.gguf
…
ggml-vocab-refact.gguf.inp
…
ggml-vocab-refact.gguf.out
…
ggml-vocab-starcoder.gguf
…
ggml-vocab-starcoder.gguf.inp
Inference support for T5 and FLAN-T5 model families (
#5763
)
2024-07-04 15:46:11 +02:00
ggml-vocab-starcoder.gguf.out
…