Histórico de Commits

Autor SHA1 Mensagem Data
  Pierrick Hymbert 3ab8b3a92e llama : cleanup unused mmq flags (#5772) há 1 ano atrás
  Marcus Dunn d5ab29757e llama : constified `llama_set_state_data`'s `src` (#5774) há 1 ano atrás
  Georgi Gerganov 08c5ee87e4 llama : remove deprecated API (#5770) há 1 ano atrás
  Kawrakow 0becb22ac0 IQ4_XS: a 4.25 bpw quantization (#5747) há 1 ano atrás
  Georgi Gerganov 9d533a77d0 llama : fix defrag bugs + add parameter (#5735) há 1 ano atrás
  Kawrakow a33e6a0d2a Adding IQ2_S and IQ2_M to complete coverage of the 2-3 bit quantization range (#5721) há 1 ano atrás
  Georgi Gerganov bf08e00643 llama : refactor k-shift implementation + KV defragmentation (#5691) há 1 ano atrás
  Georgi Gerganov ab336a9d5e code : normalize enum names (#5697) há 1 ano atrás
  Kawrakow 4c4cb30736 IQ3_S: a much better alternative to Q3_K (#5676) há 1 ano atrás
  Xuan Son Nguyen 7c8bcc11dc Add docs for llama_chat_apply_template (#5645) há 1 ano atrás
  Kawrakow a14679cc30 IQ4_NL: 4-bit non-linear quants with blocks of 32 (#5590) há 1 ano atrás
  Xuan Son Nguyen 11b12de39b llama : add llama_chat_apply_template() (#5538) há 1 ano atrás
  Kawrakow bd2d4e393b 1.5 bit quantization (#5453) há 1 ano atrás
  bmwl f486f6e1e5 ggml : add numa options (#5377) há 1 ano atrás
  Douglas Hanley 4524290e87 Use correct type of pooling for embedding models (#5500) há 1 ano atrás
  Douglas Hanley 03bf161eb6 llama : support batched embeddings (#5466) há 2 anos atrás
  Douglas Hanley 2891c8aa9a Add support for BERT embedding models (#5423) há 2 anos atrás
  Jared Van Bortel 1ec3332ade YaRN : store rope scaling type as int32_t in memory (#5285) há 2 anos atrás
  Georgi Gerganov 5cb04dbc16 llama : remove LLAMA_MAX_DEVICES and LLAMA_SUPPORTS_GPU_OFFLOAD (#5240) há 2 anos atrás
  Kawrakow f4d7e54974 SOTA 3-bit quants (#5196) há 2 anos atrás
  Jared Van Bortel fbf1ddec69 Nomic Vulkan backend (#4456) há 2 anos atrás
  0cc4m 2307523d32 ggml : add Vulkan backend (#2059) há 2 anos atrás
  Abhilash Majumder 0f648573dd ggml : add unified SYCL backend for Intel GPUs (#2690) há 2 anos atrás
  l3utterfly 5eaf9964fc llama : dynamic temperature sampling (#4972) há 2 anos atrás
  Kawrakow 66d575c45c llama : add Q3_K_XS (#5060) há 2 anos atrás
  Georgi Gerganov 44a1a4a41a backend : add eval callback (#4935) há 2 anos atrás
  David Friehs 4483396751 llama : apply classifier-free guidance to logits directly (#4951) há 2 anos atrás
  Kawrakow 147b17ac94 2-bit quantizations (#4897) há 2 anos atrás
  David Friehs df845cc982 llama : minimize size used for state save/load (#4820) há 2 anos atrás
  slaren e7e4df031b llama : ggml-backend integration (#4766) há 2 anos atrás