Commit History

Автор SHA1 Съобщение Дата
  crasm c7e9701f86 llama : add ability to cancel model loading (#4462) преди 2 години
  Marcus Dunn 31f27758fa llama : allow getting n_batch from llama_context in c api (#4540) преди 2 години
  slaren c6c4fc081c lora : add support for non-llama models (#3333) преди 2 години
  crasm 6391817cd1 llama : document logits_all deprecation (#4418) преди 2 години
  Georgi Gerganov bcc0eb4591 llama : per-layer KV cache + quantum K cache (#4309) преди 2 години
  Kerfuffle 5aa365d88f llama : allow overriding GGUF metadata when loading model (#4092) преди 2 години
  crasm 3014b5415d Update docs for yarn_ext_factor <0.0 as unspecified instead of NaN (#4189) преди 2 години
  Georgi Gerganov 6b0a7420d0 llama : KV cache view API + better KV cache management (#4170) преди 2 години
  slaren e85bb1a8e7 llama : add functions to get the model's metadata (#4013) преди 2 години
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) преди 2 години
  Georgi Gerganov 05816027d6 common : YAYF (yet another YARN fix) (#3925) преди 2 години
  cebtenzzre 898aeca90a llama : implement YaRN RoPE scaling (#2268) преди 2 години
  kalomaze 238657db23 samplers : Min-P sampler implementation [alternative to Top P/Top K] (#3841) преди 2 години
  Kerfuffle 6e08281e58 Extend llama_kv_cache_seq_rm to allow matching any sequence (#3843) преди 2 години
  Georgi Gerganov d69d777c02 ggml : quantization refactoring (#3833) преди 2 години
  Georgi Gerganov ee1a0ec9cb llama : add option for greedy sampling with probs (#3813) преди 2 години
  Georgi Gerganov 2f9ec7e271 cuda : improve text-generation and batched decoding performance (#3776) преди 2 години
  Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) преди 2 години
  Georgi Gerganov d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) преди 2 години
  Georgi Gerganov 0e89203b51 speculative : add tree-based sampling example (#3624) преди 2 години
  staviq 1a159553f9 tokenizer : special token handling (#3538) преди 2 години
  Georgi Gerganov ac2219fef3 llama : fix session saving/loading (#3400) преди 2 години
  Alex Klinkhamer 48be797ffb llama : expose model's rope_freq_scale in the API (#3418) преди 2 години
  vvhg1 c97f01c362 infill : add new example + extend server API (#3296) преди 2 години
  slaren 40e07a60f9 llama.cpp : add documentation about rope_freq_base and scale values (#3401) преди 2 години
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) преди 2 години
  xaedes 0e76a8992c train : finetune LORA (#2632) преди 2 години
  Georgi Gerganov ec893798b7 llama : custom attention mask + parallel decoding + no context swaps (#3228) преди 2 години
  Rickard Hallerbäck dc6897404e metal : reusing llama.cpp logging (#3152) преди 2 години
  goerch b08e75baea Fixing the last deviations from sentencepiece indicated by test-tokenizer-1 (#3170) преди 2 години