Commit Verlauf

Autor SHA1 Nachricht Datum
  Jared Van Bortel 1ec3332ade YaRN : store rope scaling type as int32_t in memory (#5285) vor 2 Jahren
  Georgi Gerganov 5cb04dbc16 llama : remove LLAMA_MAX_DEVICES and LLAMA_SUPPORTS_GPU_OFFLOAD (#5240) vor 2 Jahren
  Kawrakow f4d7e54974 SOTA 3-bit quants (#5196) vor 2 Jahren
  Jared Van Bortel fbf1ddec69 Nomic Vulkan backend (#4456) vor 2 Jahren
  0cc4m 2307523d32 ggml : add Vulkan backend (#2059) vor 2 Jahren
  Abhilash Majumder 0f648573dd ggml : add unified SYCL backend for Intel GPUs (#2690) vor 2 Jahren
  l3utterfly 5eaf9964fc llama : dynamic temperature sampling (#4972) vor 2 Jahren
  Kawrakow 66d575c45c llama : add Q3_K_XS (#5060) vor 2 Jahren
  Georgi Gerganov 44a1a4a41a backend : add eval callback (#4935) vor 2 Jahren
  David Friehs 4483396751 llama : apply classifier-free guidance to logits directly (#4951) vor 2 Jahren
  Kawrakow 147b17ac94 2-bit quantizations (#4897) vor 2 Jahren
  David Friehs df845cc982 llama : minimize size used for state save/load (#4820) vor 2 Jahren
  slaren e7e4df031b llama : ggml-backend integration (#4766) vor 2 Jahren
  Kawrakow 469e75d0a3 llama : restore intended k-quants mixes for MoE models (#4872) vor 2 Jahren
  Kawrakow 49662cbed3 ggml : SOTA 2-bit quants (add IQ2_XS) (#4856) vor 2 Jahren
  Kawrakow dd5ae06405 SOTA 2-bit quants (#4773) vor 2 Jahren
  Georgi Gerganov 52531fdff8 main : add self-extend support (#4815) vor 2 Jahren
  Georgi Gerganov b0034d93ce examples : add passkey test (#3856) vor 2 Jahren
  Marcus Dunn 0040d42eeb llama : replace all API facing `int`'s with `int32_t` (#4577) vor 2 Jahren
  crasm c7e9701f86 llama : add ability to cancel model loading (#4462) vor 2 Jahren
  Marcus Dunn 31f27758fa llama : allow getting n_batch from llama_context in c api (#4540) vor 2 Jahren
  slaren c6c4fc081c lora : add support for non-llama models (#3333) vor 2 Jahren
  crasm 6391817cd1 llama : document logits_all deprecation (#4418) vor 2 Jahren
  Georgi Gerganov bcc0eb4591 llama : per-layer KV cache + quantum K cache (#4309) vor 2 Jahren
  Kerfuffle 5aa365d88f llama : allow overriding GGUF metadata when loading model (#4092) vor 2 Jahren
  crasm 3014b5415d Update docs for yarn_ext_factor <0.0 as unspecified instead of NaN (#4189) vor 2 Jahren
  Georgi Gerganov 6b0a7420d0 llama : KV cache view API + better KV cache management (#4170) vor 2 Jahren
  slaren e85bb1a8e7 llama : add functions to get the model's metadata (#4013) vor 2 Jahren
  Kerfuffle 91f6499393 Respect tokenizer.ggml.add_bos_token value when tokenizing (#4040) vor 2 Jahren
  Georgi Gerganov 05816027d6 common : YAYF (yet another YARN fix) (#3925) vor 2 Jahren