mirror of
https://github.com/ggml-org/llama.cpp.git
synced 2025-08-15 20:53:00 -04:00
fix compile
This commit is contained in:
@@ -406,7 +406,7 @@ struct llama_batch_ext * llama_batch_ext_init_from_embd(
|
|||||||
}
|
}
|
||||||
|
|
||||||
int32_t llama_batch_ext_set_pos(struct llama_batch_ext * batch, llama_pos * pos, size_t n_pos) {
|
int32_t llama_batch_ext_set_pos(struct llama_batch_ext * batch, llama_pos * pos, size_t n_pos) {
|
||||||
if (batch->n_tokens != n_pos) {
|
if ((size_t) batch->n_tokens != n_pos) {
|
||||||
return -1;
|
return -1;
|
||||||
}
|
}
|
||||||
memcpy(batch->pos, pos, n_pos * sizeof(llama_pos));
|
memcpy(batch->pos, pos, n_pos * sizeof(llama_pos));
|
||||||
|
Reference in New Issue
Block a user