Sitoutushistoria

Tekijä SHA1 Viesti Päivämäärä
  Georgi Gerganov c7868b0753 minor : fix trailing whitespace 2 vuotta sitten
  Georgi Gerganov 79da24b58c readme : update hot topics 2 vuotta sitten
  Georgi Gerganov cf658adc83 llm : add Falcon support (#2717) 2 vuotta sitten
  Georgi Gerganov a192860cfe minor : fix trailing whitespace 2 vuotta sitten
  Olivier Chafik 95385241a9 examples : restore the functionality to import llama2.c models (#2685) 2 vuotta sitten
  slaren 335acd2ffd fix convert-lora-to-ggml.py (#2738) 2 vuotta sitten
  klosax 5290c38e6e main : insert bos if no tokens (#2727) 2 vuotta sitten
  akawrykow cc34dbda96 gitignore : fix for windows (#2729) 2 vuotta sitten
  Cebtenzzre 7c2227a197 chmod : make scripts executable (#2675) 2 vuotta sitten
  JohnnyB f19dca04ea devops : RPM Specs (#2723) 2 vuotta sitten
  Kawrakow 8207214b6a Fix values shown in the quantize tool help (#2735) 2 vuotta sitten
  Kawrakow 62959e740e Strided perplexity (#2714) 2 vuotta sitten
  IgnacioFDM 7f7ddd5002 Fix ggml to gguf conversion on Windows (#2733) 2 vuotta sitten
  Xiao-Yong Jin b8ad1b66b2 server : allow json array in prompt or content for direct token input (#2306) 2 vuotta sitten
  Evan Jones f5fe98d11b docs : add grammar docs (#2701) 2 vuotta sitten
  Kerfuffle 777f42ba18 Improve handling of special tokens in GGML to GGUF converter (#2725) 2 vuotta sitten
  goerch 46ef5b5fcf llama : fix whitespace escaping in tokenizer (#2724) 2 vuotta sitten
  Johannes Gäßler c63bb1d16a CUDA: use mul_mat_q kernels by default (#2683) 2 vuotta sitten
  Alex Petenchea 3b6cfe7c92 convert.py : clarifying error message (#2718) 2 vuotta sitten
  Jiahao Li 800c9635b4 Fix CUDA softmax by subtracting max value before exp (#2665) 2 vuotta sitten
  Georgi Gerganov deb7dfca4b gguf : add ftype meta info to the model (#2710) 2 vuotta sitten
  Kawrakow bac66994cf Quantization imrovements for k_quants (#2707) 2 vuotta sitten
  slaren 519c981f8b embedding : evaluate prompt in batches (#2713) 2 vuotta sitten
  slaren 1123f7fbdf ggml-cuda : use graph allocator (#2684) 2 vuotta sitten
  Georgi Gerganov ef3f333d37 ggml : sync latest (SAM + SD operators, CUDA alibi) (#2709) 2 vuotta sitten
  slaren 8e4364f2af llama-bench : minor fixes (#2695) 2 vuotta sitten
  Kylin 1e3bc523d8 ggml : support CUDA's half type for aarch64(#1455) (#2670) 2 vuotta sitten
  Shouzheng Liu 14b1d7e6f7 metal : add missing barriers for mul-mat (#2699) 2 vuotta sitten
  Jhen-Jie Hong 226255b44e server : fallback to default if client param is null (#2688) 2 vuotta sitten
  Kerfuffle 930523c8e1 Fix convert-llama-ggmlv3-to-gguf.py vocab conversion (#2698) 2 vuotta sitten