t/axmap: add regression case for recent overlap failure case
[fio.git] / lib / axmap.c
1 /*
2  * Bitmap of bitmaps, where each layer is number-of-bits-per-word smaller than
3  * the previous. Hence an 'axmap', since we axe each previous layer into a
4  * much smaller piece. I swear, that is why it's named like that. It has
5  * nothing to do with anything remotely narcissistic.
6  *
7  * A set bit at layer N indicates a full word at layer N-1, and so forth. As
8  * the bitmap becomes progressively more full, checking for existence
9  * becomes cheaper (since fewer layers are walked, making it a lot more
10  * cache friendly) and locating the next free space likewise.
11  *
12  * Axmaps get pretty close to optimal (1 bit per block) space usage, since
13  * layers quickly diminish in size. Doing the size math is straight forward,
14  * since we have log64(blocks) layers of maps. For 20000 blocks, overhead
15  * is roughly 1.9%, or 1.019 bits per block. The number quickly converges
16  * towards 1.0158, or 1.58% of overhead.
17  */
18 #include <stdio.h>
19 #include <stdlib.h>
20 #include <string.h>
21 #include <assert.h>
22
23 #include "../arch/arch.h"
24 #include "axmap.h"
25 #include "../minmax.h"
26
27 #if BITS_PER_LONG == 64
28 #define UNIT_SHIFT              6
29 #elif BITS_PER_LONG == 32
30 #define UNIT_SHIFT              5
31 #else
32 #error "Number of arch bits unknown"
33 #endif
34
35 #define BLOCKS_PER_UNIT         (1U << UNIT_SHIFT)
36 #define BLOCKS_PER_UNIT_MASK    (BLOCKS_PER_UNIT - 1)
37
38 #define firstfree_valid(b)      ((b)->first_free != (uint64_t) -1)
39
40 static const unsigned long bit_masks[] = {
41         0x0000000000000000, 0x0000000000000001, 0x0000000000000003, 0x0000000000000007,
42         0x000000000000000f, 0x000000000000001f, 0x000000000000003f, 0x000000000000007f,
43         0x00000000000000ff, 0x00000000000001ff, 0x00000000000003ff, 0x00000000000007ff,
44         0x0000000000000fff, 0x0000000000001fff, 0x0000000000003fff, 0x0000000000007fff,
45         0x000000000000ffff, 0x000000000001ffff, 0x000000000003ffff, 0x000000000007ffff,
46         0x00000000000fffff, 0x00000000001fffff, 0x00000000003fffff, 0x00000000007fffff,
47         0x0000000000ffffff, 0x0000000001ffffff, 0x0000000003ffffff, 0x0000000007ffffff,
48         0x000000000fffffff, 0x000000001fffffff, 0x000000003fffffff, 0x000000007fffffff,
49         0x00000000ffffffff,
50 #if BITS_PER_LONG == 64
51         0x00000001ffffffff, 0x00000003ffffffff, 0x00000007ffffffff, 0x0000000fffffffff,
52         0x0000001fffffffff, 0x0000003fffffffff, 0x0000007fffffffff, 0x000000ffffffffff,
53         0x000001ffffffffff, 0x000003ffffffffff, 0x000007ffffffffff, 0x00000fffffffffff,
54         0x00001fffffffffff, 0x00003fffffffffff, 0x00007fffffffffff, 0x0000ffffffffffff,
55         0x0001ffffffffffff, 0x0003ffffffffffff, 0x0007ffffffffffff, 0x000fffffffffffff,
56         0x001fffffffffffff, 0x003fffffffffffff, 0x007fffffffffffff, 0x00ffffffffffffff,
57         0x01ffffffffffffff, 0x03ffffffffffffff, 0x07ffffffffffffff, 0x0fffffffffffffff,
58         0x1fffffffffffffff, 0x3fffffffffffffff, 0x7fffffffffffffff, 0xffffffffffffffff
59 #endif
60 };
61
62 struct axmap_level {
63         int level;
64         unsigned long map_size;
65         unsigned long *map;
66 };
67
68 struct axmap {
69         unsigned int nr_levels;
70         struct axmap_level *levels;
71         uint64_t first_free;
72         uint64_t nr_bits;
73 };
74
75 static inline unsigned long ulog64(unsigned long val, unsigned int log)
76 {
77         while (log-- && val)
78                 val >>= UNIT_SHIFT;
79
80         return val;
81 }
82
83 void axmap_reset(struct axmap *axmap)
84 {
85         int i;
86
87         for (i = 0; i < axmap->nr_levels; i++) {
88                 struct axmap_level *al = &axmap->levels[i];
89
90                 memset(al->map, 0, al->map_size * sizeof(unsigned long));
91         }
92
93         axmap->first_free = 0;
94 }
95
96 void axmap_free(struct axmap *axmap)
97 {
98         unsigned int i;
99
100         if (!axmap)
101                 return;
102
103         for (i = 0; i < axmap->nr_levels; i++)
104                 free(axmap->levels[i].map);
105
106         free(axmap->levels);
107         free(axmap);
108 }
109
110 struct axmap *axmap_new(unsigned long nr_bits)
111 {
112         struct axmap *axmap;
113         unsigned int i, levels;
114
115         axmap = malloc(sizeof(*axmap));
116         if (!axmap)
117                 return NULL;
118
119         levels = 1;
120         i = (nr_bits + BLOCKS_PER_UNIT - 1) >> UNIT_SHIFT;
121         while (i > 1) {
122                 i = (i + BLOCKS_PER_UNIT - 1) >> UNIT_SHIFT;
123                 levels++;
124         }
125
126         axmap->nr_levels = levels;
127         axmap->levels = calloc(axmap->nr_levels, sizeof(struct axmap_level));
128         axmap->nr_bits = nr_bits;
129
130         for (i = 0; i < axmap->nr_levels; i++) {
131                 struct axmap_level *al = &axmap->levels[i];
132
133                 al->level = i;
134                 al->map_size = (nr_bits + BLOCKS_PER_UNIT - 1) >> UNIT_SHIFT;
135                 al->map = malloc(al->map_size * sizeof(unsigned long));
136                 if (!al->map)
137                         goto err;
138
139                 nr_bits = (nr_bits + BLOCKS_PER_UNIT - 1) >> UNIT_SHIFT;
140         }
141
142         axmap_reset(axmap);
143         return axmap;
144 err:
145         for (i = 0; i < axmap->nr_levels; i++)
146                 if (axmap->levels[i].map)
147                         free(axmap->levels[i].map);
148
149         free(axmap->levels);
150         free(axmap);
151         return NULL;
152 }
153
154 static bool axmap_handler(struct axmap *axmap, uint64_t bit_nr,
155                           bool (*func)(struct axmap_level *, unsigned long, unsigned int,
156                           void *), void *data)
157 {
158         struct axmap_level *al;
159         int i;
160
161         for (i = 0; i < axmap->nr_levels; i++) {
162                 unsigned long index = ulog64(bit_nr, i);
163                 unsigned long offset = index >> UNIT_SHIFT;
164                 unsigned int bit = index & BLOCKS_PER_UNIT_MASK;
165
166                 al = &axmap->levels[i];
167
168                 if (func(al, offset, bit, data))
169                         return true;
170         }
171
172         return false;
173 }
174
175 static bool axmap_handler_topdown(struct axmap *axmap, uint64_t bit_nr,
176         bool (*func)(struct axmap_level *, unsigned long, unsigned int, void *))
177 {
178         int i;
179
180         for (i = axmap->nr_levels - 1; i >= 0; i--) {
181                 unsigned long index = ulog64(bit_nr, i);
182                 unsigned long offset = index >> UNIT_SHIFT;
183                 unsigned int bit = index & BLOCKS_PER_UNIT_MASK;
184
185                 if (func(&axmap->levels[i], offset, bit, NULL))
186                         return true;
187         }
188
189         return false;
190 }
191
192 static bool axmap_clear_fn(struct axmap_level *al, unsigned long offset,
193                            unsigned int bit, void *unused)
194 {
195         if (!(al->map[offset] & (1UL << bit)))
196                 return true;
197
198         al->map[offset] &= ~(1UL << bit);
199         return false;
200 }
201
202 void axmap_clear(struct axmap *axmap, uint64_t bit_nr)
203 {
204         axmap_handler(axmap, bit_nr, axmap_clear_fn, NULL);
205
206         if (bit_nr < axmap->first_free)
207                 axmap->first_free = bit_nr;
208 }
209
210 struct axmap_set_data {
211         unsigned int nr_bits;
212         unsigned int set_bits;
213 };
214
215 static bool axmap_set_fn(struct axmap_level *al, unsigned long offset,
216                          unsigned int bit, void *__data)
217 {
218         struct axmap_set_data *data = __data;
219         unsigned long mask, overlap;
220         unsigned int nr_bits;
221
222         nr_bits = min(data->nr_bits, BLOCKS_PER_UNIT - bit);
223
224         mask = bit_masks[nr_bits] << bit;
225
226         /*
227          * Mask off any potential overlap, only sets contig regions
228          */
229         overlap = al->map[offset] & mask;
230         if (overlap == mask) {
231 done:
232                 data->set_bits = 0;
233                 return true;
234         }
235
236         if (overlap) {
237                 const int __bit = ffz(~overlap);
238
239                 nr_bits = __bit - bit;
240                 if (!nr_bits)
241                         goto done;
242
243                 mask = bit_masks[nr_bits] << bit;
244         }
245
246         assert(mask);
247         assert(!(al->map[offset] & mask));
248         al->map[offset] |= mask;
249
250         if (!al->level)
251                 data->set_bits = nr_bits;
252
253         data->nr_bits = 1;
254         return al->map[offset] != -1UL;
255 }
256
257 static void __axmap_set(struct axmap *axmap, uint64_t bit_nr,
258                          struct axmap_set_data *data)
259 {
260         unsigned int set_bits, nr_bits = data->nr_bits;
261
262         if (axmap->first_free >= bit_nr &&
263             axmap->first_free < bit_nr + data->nr_bits)
264                 axmap->first_free = -1ULL;
265
266         if (bit_nr > axmap->nr_bits)
267                 return;
268         else if (bit_nr + nr_bits > axmap->nr_bits)
269                 nr_bits = axmap->nr_bits - bit_nr;
270
271         set_bits = 0;
272         while (nr_bits) {
273                 axmap_handler(axmap, bit_nr, axmap_set_fn, data);
274                 set_bits += data->set_bits;
275
276                 if (!data->set_bits ||
277                     data->set_bits != (BLOCKS_PER_UNIT - nr_bits))
278                         break;
279
280                 nr_bits -= data->set_bits;
281                 bit_nr += data->set_bits;
282
283                 data->nr_bits = nr_bits;
284         }
285
286         data->set_bits = set_bits;
287 }
288
289 void axmap_set(struct axmap *axmap, uint64_t bit_nr)
290 {
291         struct axmap_set_data data = { .nr_bits = 1, };
292
293         __axmap_set(axmap, bit_nr, &data);
294 }
295
296 unsigned int axmap_set_nr(struct axmap *axmap, uint64_t bit_nr,
297                           unsigned int nr_bits)
298 {
299         unsigned int set_bits = 0;
300
301         do {
302                 struct axmap_set_data data = { .nr_bits = nr_bits, };
303                 unsigned int max_bits, this_set;
304
305                 max_bits = BLOCKS_PER_UNIT - (bit_nr & BLOCKS_PER_UNIT_MASK);
306                 if (nr_bits > max_bits)
307                         data.nr_bits = max_bits;
308
309                 this_set = data.nr_bits;
310                 __axmap_set(axmap, bit_nr, &data);
311                 set_bits += data.set_bits;
312                 if (data.set_bits != this_set)
313                         break;
314
315                 nr_bits -= data.set_bits;
316                 bit_nr += data.set_bits;
317         } while (nr_bits);
318
319         return set_bits;
320 }
321
322 static bool axmap_isset_fn(struct axmap_level *al, unsigned long offset,
323                            unsigned int bit, void *unused)
324 {
325         return (al->map[offset] & (1UL << bit)) != 0;
326 }
327
328 bool axmap_isset(struct axmap *axmap, uint64_t bit_nr)
329 {
330         if (bit_nr <= axmap->nr_bits)
331                 return axmap_handler_topdown(axmap, bit_nr, axmap_isset_fn);
332
333         return false;
334 }
335
336 static uint64_t axmap_find_first_free(struct axmap *axmap, unsigned int level,
337                                        uint64_t index)
338 {
339         uint64_t ret = -1ULL;
340         unsigned long j;
341         int i;
342
343         /*
344          * Start at the bottom, then converge towards first free bit at the top
345          */
346         for (i = level; i >= 0; i--) {
347                 struct axmap_level *al = &axmap->levels[i];
348
349                 if (index >= al->map_size)
350                         goto err;
351
352                 for (j = index; j < al->map_size; j++) {
353                         if (al->map[j] == -1UL)
354                                 continue;
355
356                         /*
357                          * First free bit here is our index into the first
358                          * free bit at the next higher level
359                          */
360                         ret = index = (j << UNIT_SHIFT) + ffz(al->map[j]);
361                         break;
362                 }
363         }
364
365         if (ret < axmap->nr_bits)
366                 return ret;
367
368 err:
369         return (uint64_t) -1ULL;
370 }
371
372 static uint64_t axmap_first_free(struct axmap *axmap)
373 {
374         if (!firstfree_valid(axmap))
375                 axmap->first_free = axmap_find_first_free(axmap, axmap->nr_levels - 1, 0);
376
377         return axmap->first_free;
378 }
379
380 struct axmap_next_free_data {
381         unsigned int level;
382         unsigned long offset;
383         uint64_t bit;
384 };
385
386 static bool axmap_next_free_fn(struct axmap_level *al, unsigned long offset,
387                                unsigned int bit, void *__data)
388 {
389         struct axmap_next_free_data *data = __data;
390         uint64_t mask = ~bit_masks[(data->bit + 1) & BLOCKS_PER_UNIT_MASK];
391
392         if (!(mask & ~al->map[offset]))
393                 return false;
394
395         if (al->map[offset] != -1UL) {
396                 data->level = al->level;
397                 data->offset = offset;
398                 return true;
399         }
400
401         data->bit = (data->bit + BLOCKS_PER_UNIT - 1) / BLOCKS_PER_UNIT;
402         return false;
403 }
404
405 /*
406  * 'bit_nr' is already set. Find the next free bit after this one.
407  */
408 uint64_t axmap_next_free(struct axmap *axmap, uint64_t bit_nr)
409 {
410         struct axmap_next_free_data data = { .level = -1U, .bit = bit_nr, };
411         uint64_t ret;
412
413         if (firstfree_valid(axmap) && bit_nr < axmap->first_free)
414                 return axmap->first_free;
415
416         if (!axmap_handler(axmap, bit_nr, axmap_next_free_fn, &data))
417                 return axmap_first_free(axmap);
418
419         assert(data.level != -1U);
420
421         /*
422          * In the rare case that the map is unaligned, we might end up
423          * finding an offset that's beyond the valid end. For that case,
424          * find the first free one, the map is practically full.
425          */
426         ret = axmap_find_first_free(axmap, data.level, data.offset);
427         if (ret != -1ULL)
428                 return ret;
429
430         return axmap_first_free(axmap);
431 }