Историја ревизија

Аутор SHA1 Порука Датум
  Howard Su b8c8dda75f Use unsigned for random seed (#2006) пре 2 година
  Johannes Gäßler 7f9753fa12 CUDA GPU acceleration for LoRAs + f16 models (#1970) пре 2 година
  zrm b853d45601 ggml : add NUMA support (#1556) пре 2 година
  Didzis Gosko 527b6fba1d llama : make model stateless and context stateful (llama_state) (#1797) пре 2 година
  Johannes Gäßler 2c9380dd2f Only one CUDA stream per device for async compute (#1898) пре 2 година
  Borislav Stanimirov 9cbf50c041 build : fix and ignore MSVC warnings (#1889) пре 2 година
  Johannes Gäßler 6b8312e797 Better error when using both LoRA + GPU layers (#1861) пре 2 година
  Johannes Gäßler 254a7a7a5f CUDA full GPU acceleration, KV cache in VRAM (#1827) пре 2 година
  Kerfuffle fa84c4b3e8 Fix issue where interactive mode crashes when input exceeds ctx size (#1789) пре 2 година
  Willy Tarreau 35a84916fb main: add the possibility to open the prompt cache read-only (#1640) пре 2 година
  Johannes Gäßler 17366df842 Multi GPU support, CUDA refactor, CUDA scratch buffer (#1703) пре 2 година
  Georgi Gerganov ecb217db4f llama : Metal inference (#1642) пре 2 година
  Kerfuffle 1b78ed2081 Only show -ngl option when relevant + other doc/arg handling updates (#1625) пре 2 година
  Vladimir Zorin 337aea1139 examples : add --alias option to gpt_params to set use friendly model name (#1614) пре 2 година
  DannyDaemonic d2c59b8ba4 Fix for mingw (#1462) пре 2 година
  Jason McCartney 7694b52b9a main : make reverse prompt option act as a stop token in non-interactive mode (#1032) пре 2 година
  Georgi Gerganov 4b7e245adf minor : fix compile warnings пре 2 година
  Stephan Walter dc271c52ed Remove unused n_parts parameter (#1509) пре 2 година
  zrm 63d20469b8 fix get_num_physical_cores() (#1436) пре 2 година
  Johannes Gäßler 905d87b70a ggml : GPU-accelerated token generation (#1412) пре 2 година
  Johannes Gäßler 773ee249fb CLI args use - instead of _, backwards compatible (#1416) пре 2 година
  Evan Jones cf348a60e0 main : add option to save full output to session (#1338) пре 2 година
  DannyDaemonic e6a46b0ed1 Locale fix for Windows (#1379) пре 2 година
  DannyDaemonic 41654efea8 Interface improvements and `--multiline-input` (previously `--author-mode`) (#1040) пре 2 година
  Georgi Gerganov f9a6364912 llama : require first token to be BOS (#1303) пре 2 година
  Johannes Gäßler 1f48b0abcf Documented CUDA reproducibility, added warning (#1346) пре 2 година
  44670 2edbdb0f99 main : add --in-suffix option (#1318) пре 2 година
  DannyDaemonic db1080876a Only escape prompts when used with `-e` (#1311) пре 2 година
  DannyDaemonic 2485d7a4d3 Process escape sequences given in prompts (#1173) пре 2 година
  slaren bf4b22ffe4 fix missing parameters in `llama_init_from_gpt_params` (#1293) пре 2 година