Commit Verlauf

Autor SHA1 Nachricht Datum
  Kawrakow 469e75d0a3 llama : restore intended k-quants mixes for MoE models (#4872) vor 2 Jahren
  Kawrakow 49662cbed3 ggml : SOTA 2-bit quants (add IQ2_XS) (#4856) vor 2 Jahren
  Kawrakow dd5ae06405 SOTA 2-bit quants (#4773) vor 2 Jahren
  Georgi Gerganov 52531fdff8 main : add self-extend support (#4815) vor 2 Jahren
  Georgi Gerganov b0034d93ce examples : add passkey test (#3856) vor 2 Jahren
  Marcus Dunn 0040d42eeb llama : replace all API facing `int`'s with `int32_t` (#4577) vor 2 Jahren
  crasm c7e9701f86 llama : add ability to cancel model loading (#4462) vor 2 Jahren
  Marcus Dunn 31f27758fa llama : allow getting n_batch from llama_context in c api (#4540) vor 2 Jahren
  slaren c6c4fc081c lora : add support for non-llama models (#3333) vor 2 Jahren
  crasm 6391817cd1 llama : document logits_all deprecation (#4418) vor 2 Jahren
  Georgi Gerganov bcc0eb4591 llama : per-layer KV cache + quantum K cache (#4309) vor 2 Jahren
  Kerfuffle 5aa365d88f llama : allow overriding GGUF metadata when loading model (#4092) vor 2 Jahren
  crasm 3014b5415d Update docs for yarn_ext_factor <0.0 as unspecified instead of NaN (#4189) vor 2 Jahren
  Georgi Gerganov 6b0a7420d0 llama : KV cache view API + better KV cache management (#4170) vor 2 Jahren
  slaren e85bb1a8e7 llama : add functions to get the model's metadata (#4013) vor 2 Jahren
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) vor 2 Jahren
  Georgi Gerganov 05816027d6 common : YAYF (yet another YARN fix) (#3925) vor 2 Jahren
  cebtenzzre 898aeca90a llama : implement YaRN RoPE scaling (#2268) vor 2 Jahren
  kalomaze 238657db23 samplers : Min-P sampler implementation [alternative to Top P/Top K] (#3841) vor 2 Jahren
  Kerfuffle 6e08281e58 Extend llama_kv_cache_seq_rm to allow matching any sequence (#3843) vor 2 Jahren
  Georgi Gerganov d69d777c02 ggml : quantization refactoring (#3833) vor 2 Jahren
  Georgi Gerganov ee1a0ec9cb llama : add option for greedy sampling with probs (#3813) vor 2 Jahren
  Georgi Gerganov 2f9ec7e271 cuda : improve text-generation and batched decoding performance (#3776) vor 2 Jahren
  Marcus Dunn 5be6c803fa llama : remove token functions with `context` args in favor of `model` (#3720) vor 2 Jahren
  Georgi Gerganov d1031cf49c sampling : refactor init to use llama_sampling_params (#3696) vor 2 Jahren
  Georgi Gerganov 0e89203b51 speculative : add tree-based sampling example (#3624) vor 2 Jahren
  staviq 1a159553f9 tokenizer : special token handling (#3538) vor 2 Jahren
  Georgi Gerganov ac2219fef3 llama : fix session saving/loading (#3400) vor 2 Jahren
  Alex Klinkhamer 48be797ffb llama : expose model's rope_freq_scale in the API (#3418) vor 2 Jahren
  vvhg1 c97f01c362 infill : add new example + extend server API (#3296) vor 2 Jahren