Files
llama.cpp/examples
Georgi Gerganov bf08e00643 llama : refactor k-shift implementation + KV defragmentation (#5691)
* llama : refactor k-shift implementation

ggml-ci

* llama : rename llama_kv_cache_seq_shift to llama_kv_cache_seq_add

* llama : cont k-shift refactoring + normalize type names

ggml-ci

* minor : fix MPI builds

* llama : reuse n_rot from the build context

ggml-ci

* llama : revert enum name changes from this PR

ggml-ci

* llama : update llama_rope_type

* llama : add comment about rope values

* llama : fix build

* passkey : apply kv cache updates explicitly

ggml-ci

* llama : change name to llama_kv_cache_update()

* llama : add llama_kv_cache_seq_pos_max()

* passkey : fix llama_kv_cache_seq_pos_max() usage

* llama : some llama_kv_cell simplifications

* llama : add llama_kv_cache_compress (EXPERIMENTAL)

* llama : add alternative KV cache merging (EXPERIMENTAL)

* llama : add llama_kv_cache_defrag

* llama : comments

* llama : remove llama_kv_cache_compress

will add in a separate PR

ggml-ci

* llama : defragment via non-overlapping moves

* llama : ggml_graph based defrag implementation

ggml-ci

* llama : switch the loop order in build_defrag

* llama : add comments
2024-02-25 22:12:24 +02:00
..
2024-01-14 09:45:56 +02:00
2024-02-16 11:31:07 +02:00
2023-12-21 23:08:14 +02:00
2024-02-16 11:31:07 +02:00
2024-02-25 12:09:09 +02:00
2024-02-16 11:31:07 +02:00
2024-02-16 11:31:07 +02:00
2024-02-16 11:31:07 +02:00
2024-02-16 11:31:07 +02:00
2024-02-16 11:31:07 +02:00
2023-03-29 20:21:09 +03:00
2023-08-30 09:29:32 +03:00