* llama : the WPM vocabs use the CLS token as BOS
ggml-ci
* llama : add comment
}
llama_token llama_token_bos_impl(const struct llama_vocab & vocab) {
- return vocab.special_bos_id;
+ return vocab.type != LLAMA_VOCAB_TYPE_WPM ? vocab.special_bos_id : vocab.special_cls_id;
}
llama_token llama_token_eos_impl(const struct llama_vocab & vocab) {
id special_unk_id = 0;
id special_sep_id = LLAMA_TOKEN_NULL;
id special_pad_id = LLAMA_TOKEN_NULL;
- id special_cls_id = LLAMA_TOKEN_NULL;
+ id special_cls_id = LLAMA_TOKEN_NULL; // TODO: revisit if this is really needed https://github.com/ggerganov/llama.cpp/pull/10930
id special_mask_id = LLAMA_TOKEN_NULL;
id linefeed_id = 13;