Histórico de Commits

Autor SHA1 Mensagem Data
  Denis Spasyuk a8db2a9ce6 Update llama-cli documentation (#8315) há 1 ano atrás
  Olivier Chafik 1c641e6aac `build`: rename main → llama-cli, server → llama-server, llava-cli → llama-llava-cli, etc... (#7809) há 1 ano atrás
  arch-btw 9973e81c5c readme : remove -ins (#7759) há 1 ano atrás
  Georgi Gerganov 1442677f92 common : refactor cli arg parsing (#7675) há 1 ano atrás
  Amir 11474e756d examples: cache hf model when --model not provided (#7353) há 1 ano atrás
  omahs 04976db7a8 docs: fix typos (#7124) há 1 ano atrás
  Olivier Chafik 8843a98c2b Improve usability of --model-url & related flags (#6930) há 1 ano atrás
  Olivier Chafik 7593639ce3 `main`: add --json-schema / -j flag (#6659) há 1 ano atrás
  Rene Leonhardt 5c4d767ac0 chore: Fix markdown warnings (#6625) há 1 ano atrás
  Ting Sun cfc4d75df6 doc: fix outdated default value of batch size (#6336) há 1 ano atrás
  slaren 280345968d cuda : rename build flag to LLAMA_CUDA (#6299) há 1 ano atrás
  Pierrick Hymbert d01b3c4c32 common: llama_load_model_from_url using --model-url (#6098) há 1 ano atrás
  bmwl f486f6e1e5 ggml : add numa options (#5377) há 1 ano atrás
  Richard Kiss 532dd74e38 Fix some documentation typos/grammar mistakes (#4032) há 2 anos atrás
  kalomaze 238657db23 samplers : Min-P sampler implementation [alternative to Top P/Top K] (#3841) há 2 anos atrás
  slaren 16bc66d947 llama.cpp : split llama_context_params into model and context params (#3301) há 2 anos atrás
  Roland 2d770505a8 llama : remove mtest (#3177) há 2 anos atrás
  ZHAOKAI WANG 69fdbb9abc readme : quick start command fix (#2908) há 2 anos atrás
  Evan Jones f5fe98d11b docs : add grammar docs (#2701) há 2 anos atrás
  Christian Demsar e59fcb2bc1 Add --n-predict -2 for stopping generation on full context (#2565) há 2 anos atrás
  klosax f3c3b4b167 Add --rope-scale parameter (#2544) há 2 anos atrás
  Weird Constructor d91f3f0c55 readme : fix the description of the Tail free sampling (TFS) method (#2431) há 2 anos atrás
  Howard Su 32c5411631 Revert "Support using mmap when applying LoRA (#2095)" (#2206) há 2 anos atrás
  Howard Su 2347463201 Support using mmap when applying LoRA (#2095) há 2 anos atrás
  Howard Su b8c8dda75f Use unsigned for random seed (#2006) há 2 anos atrás
  zrm b853d45601 ggml : add NUMA support (#1556) há 2 anos atrás
  Johannes Gäßler 254a7a7a5f CUDA full GPU acceleration, KV cache in VRAM (#1827) há 2 anos atrás
  Johannes Gäßler 17366df842 Multi GPU support, CUDA refactor, CUDA scratch buffer (#1703) há 2 anos atrás
  Kerfuffle 1b78ed2081 Only show -ngl option when relevant + other doc/arg handling updates (#1625) há 2 anos atrás
  Kerfuffle 66874d4fbc Some improvements to loading the session with --prompt-cache (#1550) há 2 anos atrás