Преглед на файлове

llama : fix integer overflow during quantization (#6063)

Georgi Gerganov преди 1 година
родител
ревизия
4755afd1cb
променени са 1 файла, в които са добавени 1 реда и са изтрити 1 реда
  1. 1 1
      llama.cpp

+ 1 - 1
llama.cpp

@@ -11977,7 +11977,7 @@ static ggml_type llama_tensor_get_type(quantize_state_internal & qs, ggml_type n
     return new_type;
 }
 
-static int32_t llama_tensor_quantize_internal(enum ggml_type new_type, const float * f32_data, void * new_data, const int chunk_size, int nrows, int n_per_row, const float * imatrix, std::vector<std::thread> & workers, const int nthread) {
+static size_t llama_tensor_quantize_internal(enum ggml_type new_type, const float * f32_data, void * new_data, const int chunk_size, int nrows, int n_per_row, const float * imatrix, std::vector<std::thread> & workers, const int nthread) {
     std::mutex mutex;
     int counter = 0;
     size_t new_size = 0;