This website requires JavaScript.
Explore
Help
Sign In
tqcq
/
llama.cpp
Watch
0
Star
0
Fork
0
You've already forked llama.cpp
mirror of
https://github.com/ggml-org/llama.cpp.git
synced
2025-08-18 14:18:50 -04:00
Code
Issues
Packages
Projects
Releases
Wiki
Activity
Files
ae77ded2c22aae4abeb66fb10e001cd5727430ca
llama.cpp
/
src
History
Georgi Gerganov
bf9087f59a
metal : fuse add, mul + add tests (
#14596
)
...
ggml-ci
2025-07-18 20:37:26 +03:00
..
CMakeLists.txt
…
llama-adapter.cpp
llama : do not crash if there is no CPU backend (
#13395
)
2025-05-09 13:02:07 +02:00
llama-adapter.h
…
llama-arch.cpp
…
llama-arch.h
…
llama-batch.cpp
…
llama-batch.h
…
llama-chat.cpp
…
llama-chat.h
…
llama-context.cpp
graph : avoid huge warm-up graphs for MoE models (
#14753
)
2025-07-18 14:31:15 +03:00
llama-context.h
…
llama-cparams.cpp
cparams : rename LLAMA_MAX_PARALLEL_SEQUENCES to LLAMA_MAX_SEQ (
#14188
)
2025-06-15 10:08:58 +03:00
llama-cparams.h
…
llama-grammar.cpp
…
llama-grammar.h
…
llama-graph.cpp
metal : fuse add, mul + add tests (
#14596
)
2025-07-18 20:37:26 +03:00
llama-graph.h
…
llama-hparams.cpp
…
llama-hparams.h
…
llama-impl.cpp
…
llama-impl.h
…
llama-io.cpp
…
llama-io.h
llama : refactor llama_context, llama_kv_cache, llm_build_context (
#12181
)
2025-03-13 12:35:44 +02:00
llama-kv-cache-unified-iswa.cpp
…
llama-kv-cache-unified-iswa.h
llama : add high-throughput mode (
#14363
)
2025-07-16 16:35:42 +03:00
llama-kv-cache-unified.cpp
…
llama-kv-cache-unified.h
…
llama-kv-cells.h
…
llama-memory-hybrid.cpp
…
llama-memory-hybrid.h
…
llama-memory-recurrent.cpp
…
llama-memory-recurrent.h
…
llama-memory.cpp
…
llama-memory.h
…
llama-mmap.cpp
…
llama-mmap.h
llama-mmap: fix missing include (
#11796
)
2025-02-10 20:58:18 +02:00
llama-model-loader.cpp
llama : support multiple classifier outputs and labels (
#13940
)
2025-06-06 09:03:25 +02:00
llama-model-loader.h
…
llama-model-saver.cpp
…
llama-model-saver.h
…
llama-model.cpp
…
llama-model.h
…
llama-quant.cpp
…
llama-quant.h
…
llama-sampling.cpp
…
llama-sampling.h
…
llama-vocab.cpp
…
llama-vocab.h
…
llama.cpp
…
unicode-data.cpp
…
unicode-data.h
…
unicode.cpp
…
unicode.h
…