Add the 'zbd' debug level
[fio.git] / engines / glusterfs_async.c
1 /*
2  * glusterfs engine
3  *
4  * IO engine using Glusterfs's gfapi async interface
5  *
6  */
7 #include "gfapi.h"
8 #define NOT_YET 1
9 struct fio_gf_iou {
10         struct io_u *io_u;
11         int io_complete;
12 };
13
14 static struct io_u *fio_gf_event(struct thread_data *td, int event)
15 {
16         struct gf_data *gf_data = td->io_ops_data;
17
18         dprint(FD_IO, "%s\n", __FUNCTION__);
19         return gf_data->aio_events[event];
20 }
21
22 static int fio_gf_getevents(struct thread_data *td, unsigned int min,
23                             unsigned int max, const struct timespec *t)
24 {
25         struct gf_data *g = td->io_ops_data;
26         unsigned int events = 0;
27         struct io_u *io_u;
28         int i;
29
30         dprint(FD_IO, "%s\n", __FUNCTION__);
31         do {
32                 io_u_qiter(&td->io_u_all, io_u, i) {
33                         struct fio_gf_iou *io;
34
35                         if (!(io_u->flags & IO_U_F_FLIGHT))
36                                 continue;
37
38                         io = io_u->engine_data;
39                         if (io->io_complete) {
40                                 io->io_complete = 0;
41                                 g->aio_events[events] = io_u;
42                                 events++;
43
44                                 if (events >= max)
45                                         break;
46                         }
47
48                 }
49                 if (events < min)
50                         usleep(100);
51                 else
52                         break;
53
54         } while (1);
55
56         return events;
57 }
58
59 static void fio_gf_io_u_free(struct thread_data *td, struct io_u *io_u)
60 {
61         struct fio_gf_iou *io = io_u->engine_data;
62
63         if (io) {
64                 if (io->io_complete)
65                         log_err("incomplete IO found.\n");
66                 io_u->engine_data = NULL;
67                 free(io);
68         }
69 }
70
71 static int fio_gf_io_u_init(struct thread_data *td, struct io_u *io_u)
72 {
73     struct fio_gf_iou *io;
74         dprint(FD_FILE, "%s\n", __FUNCTION__);
75     
76     io = malloc(sizeof(struct fio_gf_iou));
77     if (!io) {
78         td_verror(td, errno, "malloc");
79         return 1;
80     }
81     io->io_complete = 0;
82     io->io_u = io_u;
83     io_u->engine_data = io;
84         return 0;
85 }
86
87 static void gf_async_cb(glfs_fd_t * fd, ssize_t ret, void *data)
88 {
89         struct io_u *io_u = data;
90         struct fio_gf_iou *iou = io_u->engine_data;
91
92         dprint(FD_IO, "%s ret %zd\n", __FUNCTION__, ret);
93         iou->io_complete = 1;
94 }
95
96 static enum fio_q_status fio_gf_async_queue(struct thread_data fio_unused * td,
97                                             struct io_u *io_u)
98 {
99         struct gf_data *g = td->io_ops_data;
100         int r;
101
102         dprint(FD_IO, "%s op %s\n", __FUNCTION__, io_ddir_name(io_u->ddir));
103
104         fio_ro_check(td, io_u);
105
106         if (io_u->ddir == DDIR_READ)
107                 r = glfs_pread_async(g->fd, io_u->xfer_buf, io_u->xfer_buflen,
108                                      io_u->offset, 0, gf_async_cb, io_u);
109         else if (io_u->ddir == DDIR_WRITE)
110                 r = glfs_pwrite_async(g->fd, io_u->xfer_buf, io_u->xfer_buflen,
111                                       io_u->offset, 0, gf_async_cb, io_u);
112 #if defined(CONFIG_GF_TRIM)
113         else if (io_u->ddir == DDIR_TRIM)
114                 r = glfs_discard_async(g->fd, io_u->offset, io_u->xfer_buflen,
115                                        gf_async_cb, io_u);
116 #endif
117         else if (io_u->ddir == DDIR_DATASYNC)
118                 r = glfs_fdatasync_async(g->fd, gf_async_cb, io_u);
119         else if (io_u->ddir == DDIR_SYNC)
120                 r = glfs_fsync_async(g->fd, gf_async_cb, io_u);
121         else
122                 r = EINVAL;
123
124         if (r) {
125                 log_err("glfs queue failed.\n");
126                 io_u->error = r;
127                 goto failed;
128         }
129         return FIO_Q_QUEUED;
130
131 failed:
132         io_u->error = r;
133         td_verror(td, io_u->error, "xfer");
134         return FIO_Q_COMPLETED;
135 }
136
137 static int fio_gf_async_setup(struct thread_data *td)
138 {
139         struct gf_data *g;
140         int r;
141
142 #if defined(NOT_YET)
143         log_err("the async interface is still very experimental...\n");
144 #endif
145         r = fio_gf_setup(td);
146         if (r)
147                 return r;
148
149         td->o.use_thread = 1;
150         g = td->io_ops_data;
151         g->aio_events = calloc(td->o.iodepth, sizeof(struct io_u *));
152         if (!g->aio_events) {
153                 r = -ENOMEM;
154                 fio_gf_cleanup(td);
155                 return r;
156         }
157
158         return r;
159 }
160
161 static struct ioengine_ops ioengine = {
162         .name = "gfapi_async",
163         .version = FIO_IOOPS_VERSION,
164         .init = fio_gf_async_setup,
165         .cleanup = fio_gf_cleanup,
166         .queue = fio_gf_async_queue,
167         .open_file = fio_gf_open_file,
168         .close_file = fio_gf_close_file,
169         .unlink_file = fio_gf_unlink_file,
170         .get_file_size = fio_gf_get_file_size,
171         .getevents = fio_gf_getevents,
172         .event = fio_gf_event,
173         .io_u_init = fio_gf_io_u_init,
174         .io_u_free = fio_gf_io_u_free,
175         .options = gfapi_options,
176         .option_struct_size = sizeof(struct gf_options),
177         .flags = FIO_DISKLESSIO,
178 };
179
180 static void fio_init fio_gf_register(void)
181 {
182         register_ioengine(&ioengine);
183 }
184
185 static void fio_exit fio_gf_unregister(void)
186 {
187         unregister_ioengine(&ioengine);
188 }