История коммитов

Автор SHA1 Сообщение Дата
  momonga c42f0ec6b3 examples : fix gpt-neox (#2943) 2 лет назад
  Kerfuffle 5d6f19f16b Allow quantize to only copy tensors, some other improvements (#2931) 2 лет назад
  m3ndax ee8654bcd0 minor : add const qualifiers (#2853) 2 лет назад
  Cebtenzzre ef15649972 build : fix most gcc and clang warnings (#2861) 2 лет назад
  DannyDaemonic e8422de39e @vxiiduu's fix for PrefetchVirtualMemory (#2930) 2 лет назад
  Johannes Gäßler 8afe228000 CUDA: mul_mat_q=true llama_context_params default (#2912) 2 лет назад
  Kawrakow e37e69dcc3 10X faster BPE tokenizer (#2876) 2 лет назад
  xaedes 44c117f41e train : mem usage and other improvements (#2439) 2 лет назад
  Johannes Gäßler 6b73ef1201 YAML result logging + preset script (#2657) 2 лет назад
  grahameth be475f60af llama.cpp : fix wrong vsnprintf call in MS compiler (#2856) 2 лет назад
  Georgi Gerganov c10704d01e llama : fix MPI threads (close #2827) 2 лет назад
  Kawrakow 463173a6c0 llama : speedup tokenization (#2831) 2 лет назад
  Georgi Gerganov eaa13a48ff falcon : fix CUDA inference by making K and Q contiguous (#2830) 2 лет назад
  Kawrakow a6d1189fdd k_quants tuning for Falcon-7b (#2816) 2 лет назад
  Georgi Gerganov d0cee0d36d gguf : add 64-bit support (GGUF v2) (#2821) 2 лет назад
  Georgi Gerganov edd4c14817 llama : more tokenizer fixes (#2810) 2 лет назад
  Przemysław Pawełczyk 1591e2e590 ggml : detect SSSE3 (#2825) 2 лет назад
  Tim Miller c7d92e6dfe llama : use Unicode Escape Sequence to replace encoded characters (#2814) 2 лет назад
  Cebtenzzre 741ca7dd1c llama : move #includes out of _GNU_SOURCE conditional (#2817) 2 лет назад
  Cebtenzzre 50526f37eb llama : use std::abs in llama_sample_tail_free (#2800) 2 лет назад
  Georgi Gerganov 04f4b1eb10 k-quants : remove unnecessary tensor shape restrictions (#2811) 2 лет назад
  Kawrakow 7592375403 Better perplexity for 2- and 3-bit quantization for LLaMA-v2-70B (#2807) 2 лет назад
  klosax 2ba83c8685 Fix spm whitespaces (#2806) 2 лет назад
  Matt Pulver c82742ac9c llama : add llama_beam_search() (#2267) 2 лет назад
  slaren 154725c543 llama-bench : add model sizes (#2771) 2 лет назад
  Henri Vasserman 6bbc598a63 ROCm Port (#1087) 2 лет назад
  Georgi Gerganov 3f460a2b72 cuda : add RoPE kernel for mode == 2 (NeoX) (#2760) 2 лет назад
  slaren 0d3094f0c7 gguf : add rope_freq_base parameter for CodeLlama (#2769) 2 лет назад
  Shouzheng Liu 38b16dfca6 metal : bug-fix when enable ggml-alloc (#2757) 2 лет назад
  slaren fea95c682d fix convert.py for codellama, add llama 34B to the list of recognized models (#2768) 2 лет назад