server: rewrite message handling
[fio.git] / iolog.c
diff --git a/iolog.c b/iolog.c
index 35c656e8f3f7455a3b12b64a6b9528cfc03c3622..650a21b0beb9143c46916a07675df1f4c6ded915 100644 (file)
--- a/iolog.c
+++ b/iolog.c
@@ -1115,8 +1115,24 @@ err:
        goto done;
 }
 
+static int gz_init_worker(struct submit_worker *sw)
+{
+       struct thread_data *td = sw->wq->td;
+
+       if (!fio_option_is_set(&td->o, log_gz_cpumask))
+               return 0;
+
+       if (fio_setaffinity(gettid(), td->o.log_gz_cpumask) == -1) {
+               log_err("gz: failed to set CPU affinity\n");
+               return 1;
+       }
+
+       return 0;
+}
+
 static struct workqueue_ops log_compress_wq_ops = {
-       .fn     = gz_work,
+       .fn             = gz_work,
+       .init_worker_fn = gz_init_worker,
        .nice   = 1,
 };
 
@@ -1138,15 +1154,17 @@ void iolog_compress_exit(struct thread_data *td)
 }
 
 /*
- * Queue work item to compress the existing log entries. We copy the
- * samples, and reset the log sample count to 0 (so the logging will
- * continue to use the memory associated with the log). If called with
- * wait == 1, will not return until the log compression has completed.
+ * Queue work item to compress the existing log entries. We reset the
+ * current log to a small size, and reference the existing log in the
+ * data that we queue for compression. Once compression has been done,
+ * this old log is freed. If called with wait == 1, will not return until
+ * the log compression has completed.
  */
 int iolog_flush(struct io_log *log, int wait)
 {
        struct iolog_flush_data *data;
-       size_t sample_size;
+
+       io_u_quiesce(log->td);
 
        data = malloc(sizeof(*data));
        if (!data)
@@ -1154,16 +1172,12 @@ int iolog_flush(struct io_log *log, int wait)
 
        data->log = log;
 
-       sample_size = log->nr_samples * log_entry_sz(log);
-       data->samples = malloc(sample_size);
-       if (!data->samples) {
-               free(data);
-               return 1;
-       }
-
-       memcpy(data->samples, log->log, sample_size);
+       data->samples = log->log;
        data->nr_samples = log->nr_samples;
+
        log->nr_samples = 0;
+       log->max_samples = 128;
+       log->log = malloc(log->max_samples * log_entry_sz(log));
 
        data->wait = wait;
        if (data->wait) {