Histórico de Commits

Autor SHA1 Mensagem Data
  Johannes Gäßler 799fc22689 CUDA: Faster Mixtral prompt processing (#4538) há 2 anos atrás
  Eric Sommerlade 328b83de23 ggml : fixed check for _MSC_VER (#4535) há 2 anos atrás
  arlo-phoenix a7aee47b98 ggml-cuda: Fix HIP build (#4528) há 2 anos atrás
  Georgi Gerganov 0e18b2e7d0 llama.swiftui : add tinyllama 1.1B F16 há 2 anos atrás
  Georgi Gerganov 6ff39b129d llama.swiftui : add more models há 2 anos atrás
  Ebey Abraham b9e74f9bca llama : add phi-2 + fix NeoX rope + ggml_mul_mat_set_prec (#4490) há 2 anos atrás
  hankcs 3c04bf6da8 llama : fix try_override for bool_value which always return true (#4519) há 2 anos atrás
  Jared Van Bortel 2994f0c5a2 decode : fix logits_valid for legacy API (#4516) há 2 anos atrás
  Georgi Gerganov b1306c4394 readme : update hot topics há 2 anos atrás
  Georgi Gerganov 800a489e4a llama.swiftui : add bench functionality (#4483) há 2 anos atrás
  Jared Van Bortel f7f468a97d gguf-py : fail fast on nonsensical special token IDs (#4489) há 2 anos atrás
  Matheus Gabriel Alves Silva 919c40660f build : Check the ROCm installation location (#4485) há 2 anos atrás
  slaren 45668633fd finetune : keep allocs alive until all allocations are done (#4486) há 2 anos atrás
  olexiyb 0ffc92d2d2 server : disable llm logs if SERVER_VERBOSE is off (#3792) há 2 anos atrás
  AdithyanI 8edd2b40fd server : fix grammar being ignored (#4494) há 2 anos atrás
  Alexey Parfenov eb16dae7e7 server : fix possible ambiguity in content type charset (#4501) há 2 anos atrás
  mzcu 62bd52b7bf server : allow requests larger than 8K (#4500) há 2 anos atrás
  Bach Le 5daa5f54fd Link to cublas dynamically on Windows even with LLAMA_STATIC (#4506) há 2 anos atrás
  slaren c6c4fc081c lora : add support for non-llama models (#3333) há 2 anos atrás
  Jared Van Bortel 8a5be3bd58 llama : sanity checks for access to logits (#4274) há 2 anos atrás
  ShadovvBeast 88ae8952b6 server : add optional API Key Authentication example (#4441) há 2 anos atrás
  slaren ee4725a686 ggml : group mul_mat_id rows by matrix (cpu only) (#4480) há 2 anos atrás
  slaren 6744dbe924 ggml : use ggml_row_size where possible (#4472) há 2 anos atrás
  slaren cafcd4f895 ggml : remove n_dims from ggml_tensor (#4469) há 2 anos atrás
  wonjun Jang c50e400163 py : add protobuf dependency (#4466) há 2 anos atrás
  LostRuins 20a68a7030 ggml : add ggml_row_size() (fixes llama out of space) (#4461) há 2 anos atrás
  Georgi Gerganov 55e87c3749 ggml : fix OpenCL broadcast requirement for ggml_mul (close #4453) há 2 anos atrás
  wonjun Jang 873637afc7 convert : support loading vocab from fast tokenizer config (#3633) há 2 anos atrás
  BarfingLemurs 0353a18401 readme : update supported model list (#4457) há 2 anos atrás
  shibe2 948ff137ec server : fix handling of characters that span multiple tokens when streaming (#4446) há 2 anos atrás