Merge tag 'gpio-v4.7-1' of git://git.kernel.org/pub/scm/linux/kernel/git/linusw/linux...
[linux-2.6-block.git] / kernel / irq / irqdomain.c
1 #define pr_fmt(fmt)  "irq: " fmt
2
3 #include <linux/debugfs.h>
4 #include <linux/hardirq.h>
5 #include <linux/interrupt.h>
6 #include <linux/irq.h>
7 #include <linux/irqdesc.h>
8 #include <linux/irqdomain.h>
9 #include <linux/module.h>
10 #include <linux/mutex.h>
11 #include <linux/of.h>
12 #include <linux/of_address.h>
13 #include <linux/of_irq.h>
14 #include <linux/topology.h>
15 #include <linux/seq_file.h>
16 #include <linux/slab.h>
17 #include <linux/smp.h>
18 #include <linux/fs.h>
19
20 static LIST_HEAD(irq_domain_list);
21 static DEFINE_MUTEX(irq_domain_mutex);
22
23 static DEFINE_MUTEX(revmap_trees_mutex);
24 static struct irq_domain *irq_default_domain;
25
26 static void irq_domain_check_hierarchy(struct irq_domain *domain);
27
28 struct irqchip_fwid {
29         struct fwnode_handle fwnode;
30         char *name;
31         void *data;
32 };
33
34 /**
35  * irq_domain_alloc_fwnode - Allocate a fwnode_handle suitable for
36  *                           identifying an irq domain
37  * @data: optional user-provided data
38  *
39  * Allocate a struct device_node, and return a poiner to the embedded
40  * fwnode_handle (or NULL on failure).
41  */
42 struct fwnode_handle *irq_domain_alloc_fwnode(void *data)
43 {
44         struct irqchip_fwid *fwid;
45         char *name;
46
47         fwid = kzalloc(sizeof(*fwid), GFP_KERNEL);
48         name = kasprintf(GFP_KERNEL, "irqchip@%p", data);
49
50         if (!fwid || !name) {
51                 kfree(fwid);
52                 kfree(name);
53                 return NULL;
54         }
55
56         fwid->name = name;
57         fwid->data = data;
58         fwid->fwnode.type = FWNODE_IRQCHIP;
59         return &fwid->fwnode;
60 }
61 EXPORT_SYMBOL_GPL(irq_domain_alloc_fwnode);
62
63 /**
64  * irq_domain_free_fwnode - Free a non-OF-backed fwnode_handle
65  *
66  * Free a fwnode_handle allocated with irq_domain_alloc_fwnode.
67  */
68 void irq_domain_free_fwnode(struct fwnode_handle *fwnode)
69 {
70         struct irqchip_fwid *fwid;
71
72         if (WARN_ON(!is_fwnode_irqchip(fwnode)))
73                 return;
74
75         fwid = container_of(fwnode, struct irqchip_fwid, fwnode);
76         kfree(fwid->name);
77         kfree(fwid);
78 }
79 EXPORT_SYMBOL_GPL(irq_domain_free_fwnode);
80
81 /**
82  * __irq_domain_add() - Allocate a new irq_domain data structure
83  * @of_node: optional device-tree node of the interrupt controller
84  * @size: Size of linear map; 0 for radix mapping only
85  * @hwirq_max: Maximum number of interrupts supported by controller
86  * @direct_max: Maximum value of direct maps; Use ~0 for no limit; 0 for no
87  *              direct mapping
88  * @ops: domain callbacks
89  * @host_data: Controller private data pointer
90  *
91  * Allocates and initialize and irq_domain structure.
92  * Returns pointer to IRQ domain, or NULL on failure.
93  */
94 struct irq_domain *__irq_domain_add(struct fwnode_handle *fwnode, int size,
95                                     irq_hw_number_t hwirq_max, int direct_max,
96                                     const struct irq_domain_ops *ops,
97                                     void *host_data)
98 {
99         struct irq_domain *domain;
100         struct device_node *of_node;
101
102         of_node = to_of_node(fwnode);
103
104         domain = kzalloc_node(sizeof(*domain) + (sizeof(unsigned int) * size),
105                               GFP_KERNEL, of_node_to_nid(of_node));
106         if (WARN_ON(!domain))
107                 return NULL;
108
109         of_node_get(of_node);
110
111         /* Fill structure */
112         INIT_RADIX_TREE(&domain->revmap_tree, GFP_KERNEL);
113         domain->ops = ops;
114         domain->host_data = host_data;
115         domain->fwnode = fwnode;
116         domain->hwirq_max = hwirq_max;
117         domain->revmap_size = size;
118         domain->revmap_direct_max_irq = direct_max;
119         irq_domain_check_hierarchy(domain);
120
121         mutex_lock(&irq_domain_mutex);
122         list_add(&domain->link, &irq_domain_list);
123         mutex_unlock(&irq_domain_mutex);
124
125         pr_debug("Added domain %s\n", domain->name);
126         return domain;
127 }
128 EXPORT_SYMBOL_GPL(__irq_domain_add);
129
130 /**
131  * irq_domain_remove() - Remove an irq domain.
132  * @domain: domain to remove
133  *
134  * This routine is used to remove an irq domain. The caller must ensure
135  * that all mappings within the domain have been disposed of prior to
136  * use, depending on the revmap type.
137  */
138 void irq_domain_remove(struct irq_domain *domain)
139 {
140         mutex_lock(&irq_domain_mutex);
141
142         /*
143          * radix_tree_delete() takes care of destroying the root
144          * node when all entries are removed. Shout if there are
145          * any mappings left.
146          */
147         WARN_ON(domain->revmap_tree.height);
148
149         list_del(&domain->link);
150
151         /*
152          * If the going away domain is the default one, reset it.
153          */
154         if (unlikely(irq_default_domain == domain))
155                 irq_set_default_host(NULL);
156
157         mutex_unlock(&irq_domain_mutex);
158
159         pr_debug("Removed domain %s\n", domain->name);
160
161         of_node_put(irq_domain_get_of_node(domain));
162         kfree(domain);
163 }
164 EXPORT_SYMBOL_GPL(irq_domain_remove);
165
166 /**
167  * irq_domain_add_simple() - Register an irq_domain and optionally map a range of irqs
168  * @of_node: pointer to interrupt controller's device tree node.
169  * @size: total number of irqs in mapping
170  * @first_irq: first number of irq block assigned to the domain,
171  *      pass zero to assign irqs on-the-fly. If first_irq is non-zero, then
172  *      pre-map all of the irqs in the domain to virqs starting at first_irq.
173  * @ops: domain callbacks
174  * @host_data: Controller private data pointer
175  *
176  * Allocates an irq_domain, and optionally if first_irq is positive then also
177  * allocate irq_descs and map all of the hwirqs to virqs starting at first_irq.
178  *
179  * This is intended to implement the expected behaviour for most
180  * interrupt controllers. If device tree is used, then first_irq will be 0 and
181  * irqs get mapped dynamically on the fly. However, if the controller requires
182  * static virq assignments (non-DT boot) then it will set that up correctly.
183  */
184 struct irq_domain *irq_domain_add_simple(struct device_node *of_node,
185                                          unsigned int size,
186                                          unsigned int first_irq,
187                                          const struct irq_domain_ops *ops,
188                                          void *host_data)
189 {
190         struct irq_domain *domain;
191
192         domain = __irq_domain_add(of_node_to_fwnode(of_node), size, size, 0, ops, host_data);
193         if (!domain)
194                 return NULL;
195
196         if (first_irq > 0) {
197                 if (IS_ENABLED(CONFIG_SPARSE_IRQ)) {
198                         /* attempt to allocated irq_descs */
199                         int rc = irq_alloc_descs(first_irq, first_irq, size,
200                                                  of_node_to_nid(of_node));
201                         if (rc < 0)
202                                 pr_info("Cannot allocate irq_descs @ IRQ%d, assuming pre-allocated\n",
203                                         first_irq);
204                 }
205                 irq_domain_associate_many(domain, first_irq, 0, size);
206         }
207
208         return domain;
209 }
210 EXPORT_SYMBOL_GPL(irq_domain_add_simple);
211
212 /**
213  * irq_domain_add_legacy() - Allocate and register a legacy revmap irq_domain.
214  * @of_node: pointer to interrupt controller's device tree node.
215  * @size: total number of irqs in legacy mapping
216  * @first_irq: first number of irq block assigned to the domain
217  * @first_hwirq: first hwirq number to use for the translation. Should normally
218  *               be '0', but a positive integer can be used if the effective
219  *               hwirqs numbering does not begin at zero.
220  * @ops: map/unmap domain callbacks
221  * @host_data: Controller private data pointer
222  *
223  * Note: the map() callback will be called before this function returns
224  * for all legacy interrupts except 0 (which is always the invalid irq for
225  * a legacy controller).
226  */
227 struct irq_domain *irq_domain_add_legacy(struct device_node *of_node,
228                                          unsigned int size,
229                                          unsigned int first_irq,
230                                          irq_hw_number_t first_hwirq,
231                                          const struct irq_domain_ops *ops,
232                                          void *host_data)
233 {
234         struct irq_domain *domain;
235
236         domain = __irq_domain_add(of_node_to_fwnode(of_node), first_hwirq + size,
237                                   first_hwirq + size, 0, ops, host_data);
238         if (domain)
239                 irq_domain_associate_many(domain, first_irq, first_hwirq, size);
240
241         return domain;
242 }
243 EXPORT_SYMBOL_GPL(irq_domain_add_legacy);
244
245 /**
246  * irq_find_matching_fwspec() - Locates a domain for a given fwspec
247  * @fwspec: FW specifier for an interrupt
248  * @bus_token: domain-specific data
249  */
250 struct irq_domain *irq_find_matching_fwspec(struct irq_fwspec *fwspec,
251                                             enum irq_domain_bus_token bus_token)
252 {
253         struct irq_domain *h, *found = NULL;
254         struct fwnode_handle *fwnode = fwspec->fwnode;
255         int rc;
256
257         /* We might want to match the legacy controller last since
258          * it might potentially be set to match all interrupts in
259          * the absence of a device node. This isn't a problem so far
260          * yet though...
261          *
262          * bus_token == DOMAIN_BUS_ANY matches any domain, any other
263          * values must generate an exact match for the domain to be
264          * selected.
265          */
266         mutex_lock(&irq_domain_mutex);
267         list_for_each_entry(h, &irq_domain_list, link) {
268                 if (h->ops->select && fwspec->param_count)
269                         rc = h->ops->select(h, fwspec, bus_token);
270                 else if (h->ops->match)
271                         rc = h->ops->match(h, to_of_node(fwnode), bus_token);
272                 else
273                         rc = ((fwnode != NULL) && (h->fwnode == fwnode) &&
274                               ((bus_token == DOMAIN_BUS_ANY) ||
275                                (h->bus_token == bus_token)));
276
277                 if (rc) {
278                         found = h;
279                         break;
280                 }
281         }
282         mutex_unlock(&irq_domain_mutex);
283         return found;
284 }
285 EXPORT_SYMBOL_GPL(irq_find_matching_fwspec);
286
287 /**
288  * irq_set_default_host() - Set a "default" irq domain
289  * @domain: default domain pointer
290  *
291  * For convenience, it's possible to set a "default" domain that will be used
292  * whenever NULL is passed to irq_create_mapping(). It makes life easier for
293  * platforms that want to manipulate a few hard coded interrupt numbers that
294  * aren't properly represented in the device-tree.
295  */
296 void irq_set_default_host(struct irq_domain *domain)
297 {
298         pr_debug("Default domain set to @0x%p\n", domain);
299
300         irq_default_domain = domain;
301 }
302 EXPORT_SYMBOL_GPL(irq_set_default_host);
303
304 void irq_domain_disassociate(struct irq_domain *domain, unsigned int irq)
305 {
306         struct irq_data *irq_data = irq_get_irq_data(irq);
307         irq_hw_number_t hwirq;
308
309         if (WARN(!irq_data || irq_data->domain != domain,
310                  "virq%i doesn't exist; cannot disassociate\n", irq))
311                 return;
312
313         hwirq = irq_data->hwirq;
314         irq_set_status_flags(irq, IRQ_NOREQUEST);
315
316         /* remove chip and handler */
317         irq_set_chip_and_handler(irq, NULL, NULL);
318
319         /* Make sure it's completed */
320         synchronize_irq(irq);
321
322         /* Tell the PIC about it */
323         if (domain->ops->unmap)
324                 domain->ops->unmap(domain, irq);
325         smp_mb();
326
327         irq_data->domain = NULL;
328         irq_data->hwirq = 0;
329
330         /* Clear reverse map for this hwirq */
331         if (hwirq < domain->revmap_size) {
332                 domain->linear_revmap[hwirq] = 0;
333         } else {
334                 mutex_lock(&revmap_trees_mutex);
335                 radix_tree_delete(&domain->revmap_tree, hwirq);
336                 mutex_unlock(&revmap_trees_mutex);
337         }
338 }
339
340 int irq_domain_associate(struct irq_domain *domain, unsigned int virq,
341                          irq_hw_number_t hwirq)
342 {
343         struct irq_data *irq_data = irq_get_irq_data(virq);
344         int ret;
345
346         if (WARN(hwirq >= domain->hwirq_max,
347                  "error: hwirq 0x%x is too large for %s\n", (int)hwirq, domain->name))
348                 return -EINVAL;
349         if (WARN(!irq_data, "error: virq%i is not allocated", virq))
350                 return -EINVAL;
351         if (WARN(irq_data->domain, "error: virq%i is already associated", virq))
352                 return -EINVAL;
353
354         mutex_lock(&irq_domain_mutex);
355         irq_data->hwirq = hwirq;
356         irq_data->domain = domain;
357         if (domain->ops->map) {
358                 ret = domain->ops->map(domain, virq, hwirq);
359                 if (ret != 0) {
360                         /*
361                          * If map() returns -EPERM, this interrupt is protected
362                          * by the firmware or some other service and shall not
363                          * be mapped. Don't bother telling the user about it.
364                          */
365                         if (ret != -EPERM) {
366                                 pr_info("%s didn't like hwirq-0x%lx to VIRQ%i mapping (rc=%d)\n",
367                                        domain->name, hwirq, virq, ret);
368                         }
369                         irq_data->domain = NULL;
370                         irq_data->hwirq = 0;
371                         mutex_unlock(&irq_domain_mutex);
372                         return ret;
373                 }
374
375                 /* If not already assigned, give the domain the chip's name */
376                 if (!domain->name && irq_data->chip)
377                         domain->name = irq_data->chip->name;
378         }
379
380         if (hwirq < domain->revmap_size) {
381                 domain->linear_revmap[hwirq] = virq;
382         } else {
383                 mutex_lock(&revmap_trees_mutex);
384                 radix_tree_insert(&domain->revmap_tree, hwirq, irq_data);
385                 mutex_unlock(&revmap_trees_mutex);
386         }
387         mutex_unlock(&irq_domain_mutex);
388
389         irq_clear_status_flags(virq, IRQ_NOREQUEST);
390
391         return 0;
392 }
393 EXPORT_SYMBOL_GPL(irq_domain_associate);
394
395 void irq_domain_associate_many(struct irq_domain *domain, unsigned int irq_base,
396                                irq_hw_number_t hwirq_base, int count)
397 {
398         struct device_node *of_node;
399         int i;
400
401         of_node = irq_domain_get_of_node(domain);
402         pr_debug("%s(%s, irqbase=%i, hwbase=%i, count=%i)\n", __func__,
403                 of_node_full_name(of_node), irq_base, (int)hwirq_base, count);
404
405         for (i = 0; i < count; i++) {
406                 irq_domain_associate(domain, irq_base + i, hwirq_base + i);
407         }
408 }
409 EXPORT_SYMBOL_GPL(irq_domain_associate_many);
410
411 /**
412  * irq_create_direct_mapping() - Allocate an irq for direct mapping
413  * @domain: domain to allocate the irq for or NULL for default domain
414  *
415  * This routine is used for irq controllers which can choose the hardware
416  * interrupt numbers they generate. In such a case it's simplest to use
417  * the linux irq as the hardware interrupt number. It still uses the linear
418  * or radix tree to store the mapping, but the irq controller can optimize
419  * the revmap path by using the hwirq directly.
420  */
421 unsigned int irq_create_direct_mapping(struct irq_domain *domain)
422 {
423         struct device_node *of_node;
424         unsigned int virq;
425
426         if (domain == NULL)
427                 domain = irq_default_domain;
428
429         of_node = irq_domain_get_of_node(domain);
430         virq = irq_alloc_desc_from(1, of_node_to_nid(of_node));
431         if (!virq) {
432                 pr_debug("create_direct virq allocation failed\n");
433                 return 0;
434         }
435         if (virq >= domain->revmap_direct_max_irq) {
436                 pr_err("ERROR: no free irqs available below %i maximum\n",
437                         domain->revmap_direct_max_irq);
438                 irq_free_desc(virq);
439                 return 0;
440         }
441         pr_debug("create_direct obtained virq %d\n", virq);
442
443         if (irq_domain_associate(domain, virq, virq)) {
444                 irq_free_desc(virq);
445                 return 0;
446         }
447
448         return virq;
449 }
450 EXPORT_SYMBOL_GPL(irq_create_direct_mapping);
451
452 /**
453  * irq_create_mapping() - Map a hardware interrupt into linux irq space
454  * @domain: domain owning this hardware interrupt or NULL for default domain
455  * @hwirq: hardware irq number in that domain space
456  *
457  * Only one mapping per hardware interrupt is permitted. Returns a linux
458  * irq number.
459  * If the sense/trigger is to be specified, set_irq_type() should be called
460  * on the number returned from that call.
461  */
462 unsigned int irq_create_mapping(struct irq_domain *domain,
463                                 irq_hw_number_t hwirq)
464 {
465         struct device_node *of_node;
466         int virq;
467
468         pr_debug("irq_create_mapping(0x%p, 0x%lx)\n", domain, hwirq);
469
470         /* Look for default domain if nececssary */
471         if (domain == NULL)
472                 domain = irq_default_domain;
473         if (domain == NULL) {
474                 WARN(1, "%s(, %lx) called with NULL domain\n", __func__, hwirq);
475                 return 0;
476         }
477         pr_debug("-> using domain @%p\n", domain);
478
479         of_node = irq_domain_get_of_node(domain);
480
481         /* Check if mapping already exists */
482         virq = irq_find_mapping(domain, hwirq);
483         if (virq) {
484                 pr_debug("-> existing mapping on virq %d\n", virq);
485                 return virq;
486         }
487
488         /* Allocate a virtual interrupt number */
489         virq = irq_domain_alloc_descs(-1, 1, hwirq, of_node_to_nid(of_node));
490         if (virq <= 0) {
491                 pr_debug("-> virq allocation failed\n");
492                 return 0;
493         }
494
495         if (irq_domain_associate(domain, virq, hwirq)) {
496                 irq_free_desc(virq);
497                 return 0;
498         }
499
500         pr_debug("irq %lu on domain %s mapped to virtual irq %u\n",
501                 hwirq, of_node_full_name(of_node), virq);
502
503         return virq;
504 }
505 EXPORT_SYMBOL_GPL(irq_create_mapping);
506
507 /**
508  * irq_create_strict_mappings() - Map a range of hw irqs to fixed linux irqs
509  * @domain: domain owning the interrupt range
510  * @irq_base: beginning of linux IRQ range
511  * @hwirq_base: beginning of hardware IRQ range
512  * @count: Number of interrupts to map
513  *
514  * This routine is used for allocating and mapping a range of hardware
515  * irqs to linux irqs where the linux irq numbers are at pre-defined
516  * locations. For use by controllers that already have static mappings
517  * to insert in to the domain.
518  *
519  * Non-linear users can use irq_create_identity_mapping() for IRQ-at-a-time
520  * domain insertion.
521  *
522  * 0 is returned upon success, while any failure to establish a static
523  * mapping is treated as an error.
524  */
525 int irq_create_strict_mappings(struct irq_domain *domain, unsigned int irq_base,
526                                irq_hw_number_t hwirq_base, int count)
527 {
528         struct device_node *of_node;
529         int ret;
530
531         of_node = irq_domain_get_of_node(domain);
532         ret = irq_alloc_descs(irq_base, irq_base, count,
533                               of_node_to_nid(of_node));
534         if (unlikely(ret < 0))
535                 return ret;
536
537         irq_domain_associate_many(domain, irq_base, hwirq_base, count);
538         return 0;
539 }
540 EXPORT_SYMBOL_GPL(irq_create_strict_mappings);
541
542 static int irq_domain_translate(struct irq_domain *d,
543                                 struct irq_fwspec *fwspec,
544                                 irq_hw_number_t *hwirq, unsigned int *type)
545 {
546 #ifdef CONFIG_IRQ_DOMAIN_HIERARCHY
547         if (d->ops->translate)
548                 return d->ops->translate(d, fwspec, hwirq, type);
549 #endif
550         if (d->ops->xlate)
551                 return d->ops->xlate(d, to_of_node(fwspec->fwnode),
552                                      fwspec->param, fwspec->param_count,
553                                      hwirq, type);
554
555         /* If domain has no translation, then we assume interrupt line */
556         *hwirq = fwspec->param[0];
557         return 0;
558 }
559
560 static void of_phandle_args_to_fwspec(struct of_phandle_args *irq_data,
561                                       struct irq_fwspec *fwspec)
562 {
563         int i;
564
565         fwspec->fwnode = irq_data->np ? &irq_data->np->fwnode : NULL;
566         fwspec->param_count = irq_data->args_count;
567
568         for (i = 0; i < irq_data->args_count; i++)
569                 fwspec->param[i] = irq_data->args[i];
570 }
571
572 unsigned int irq_create_fwspec_mapping(struct irq_fwspec *fwspec)
573 {
574         struct irq_domain *domain;
575         irq_hw_number_t hwirq;
576         unsigned int type = IRQ_TYPE_NONE;
577         int virq;
578
579         if (fwspec->fwnode) {
580                 domain = irq_find_matching_fwspec(fwspec, DOMAIN_BUS_WIRED);
581                 if (!domain)
582                         domain = irq_find_matching_fwspec(fwspec, DOMAIN_BUS_ANY);
583         } else {
584                 domain = irq_default_domain;
585         }
586
587         if (!domain) {
588                 pr_warn("no irq domain found for %s !\n",
589                         of_node_full_name(to_of_node(fwspec->fwnode)));
590                 return 0;
591         }
592
593         if (irq_domain_translate(domain, fwspec, &hwirq, &type))
594                 return 0;
595
596         if (irq_domain_is_hierarchy(domain)) {
597                 /*
598                  * If we've already configured this interrupt,
599                  * don't do it again, or hell will break loose.
600                  */
601                 virq = irq_find_mapping(domain, hwirq);
602                 if (virq)
603                         return virq;
604
605                 virq = irq_domain_alloc_irqs(domain, 1, NUMA_NO_NODE, fwspec);
606                 if (virq <= 0)
607                         return 0;
608         } else {
609                 /* Create mapping */
610                 virq = irq_create_mapping(domain, hwirq);
611                 if (!virq)
612                         return virq;
613         }
614
615         /* Set type if specified and different than the current one */
616         if (type != IRQ_TYPE_NONE &&
617             type != irq_get_trigger_type(virq))
618                 irq_set_irq_type(virq, type);
619         return virq;
620 }
621 EXPORT_SYMBOL_GPL(irq_create_fwspec_mapping);
622
623 unsigned int irq_create_of_mapping(struct of_phandle_args *irq_data)
624 {
625         struct irq_fwspec fwspec;
626
627         of_phandle_args_to_fwspec(irq_data, &fwspec);
628         return irq_create_fwspec_mapping(&fwspec);
629 }
630 EXPORT_SYMBOL_GPL(irq_create_of_mapping);
631
632 /**
633  * irq_dispose_mapping() - Unmap an interrupt
634  * @virq: linux irq number of the interrupt to unmap
635  */
636 void irq_dispose_mapping(unsigned int virq)
637 {
638         struct irq_data *irq_data = irq_get_irq_data(virq);
639         struct irq_domain *domain;
640
641         if (!virq || !irq_data)
642                 return;
643
644         domain = irq_data->domain;
645         if (WARN_ON(domain == NULL))
646                 return;
647
648         irq_domain_disassociate(domain, virq);
649         irq_free_desc(virq);
650 }
651 EXPORT_SYMBOL_GPL(irq_dispose_mapping);
652
653 /**
654  * irq_find_mapping() - Find a linux irq from an hw irq number.
655  * @domain: domain owning this hardware interrupt
656  * @hwirq: hardware irq number in that domain space
657  */
658 unsigned int irq_find_mapping(struct irq_domain *domain,
659                               irq_hw_number_t hwirq)
660 {
661         struct irq_data *data;
662
663         /* Look for default domain if nececssary */
664         if (domain == NULL)
665                 domain = irq_default_domain;
666         if (domain == NULL)
667                 return 0;
668
669         if (hwirq < domain->revmap_direct_max_irq) {
670                 data = irq_domain_get_irq_data(domain, hwirq);
671                 if (data && data->hwirq == hwirq)
672                         return hwirq;
673         }
674
675         /* Check if the hwirq is in the linear revmap. */
676         if (hwirq < domain->revmap_size)
677                 return domain->linear_revmap[hwirq];
678
679         rcu_read_lock();
680         data = radix_tree_lookup(&domain->revmap_tree, hwirq);
681         rcu_read_unlock();
682         return data ? data->irq : 0;
683 }
684 EXPORT_SYMBOL_GPL(irq_find_mapping);
685
686 #ifdef CONFIG_IRQ_DOMAIN_DEBUG
687 static int virq_debug_show(struct seq_file *m, void *private)
688 {
689         unsigned long flags;
690         struct irq_desc *desc;
691         struct irq_domain *domain;
692         struct radix_tree_iter iter;
693         void *data, **slot;
694         int i;
695
696         seq_printf(m, " %-16s  %-6s  %-10s  %-10s  %s\n",
697                    "name", "mapped", "linear-max", "direct-max", "devtree-node");
698         mutex_lock(&irq_domain_mutex);
699         list_for_each_entry(domain, &irq_domain_list, link) {
700                 struct device_node *of_node;
701                 int count = 0;
702                 of_node = irq_domain_get_of_node(domain);
703                 radix_tree_for_each_slot(slot, &domain->revmap_tree, &iter, 0)
704                         count++;
705                 seq_printf(m, "%c%-16s  %6u  %10u  %10u  %s\n",
706                            domain == irq_default_domain ? '*' : ' ', domain->name,
707                            domain->revmap_size + count, domain->revmap_size,
708                            domain->revmap_direct_max_irq,
709                            of_node ? of_node_full_name(of_node) : "");
710         }
711         mutex_unlock(&irq_domain_mutex);
712
713         seq_printf(m, "%-5s  %-7s  %-15s  %-*s  %6s  %-14s  %s\n", "irq", "hwirq",
714                       "chip name", (int)(2 * sizeof(void *) + 2), "chip data",
715                       "active", "type", "domain");
716
717         for (i = 1; i < nr_irqs; i++) {
718                 desc = irq_to_desc(i);
719                 if (!desc)
720                         continue;
721
722                 raw_spin_lock_irqsave(&desc->lock, flags);
723                 domain = desc->irq_data.domain;
724
725                 if (domain) {
726                         struct irq_chip *chip;
727                         int hwirq = desc->irq_data.hwirq;
728                         bool direct;
729
730                         seq_printf(m, "%5d  ", i);
731                         seq_printf(m, "0x%05x  ", hwirq);
732
733                         chip = irq_desc_get_chip(desc);
734                         seq_printf(m, "%-15s  ", (chip && chip->name) ? chip->name : "none");
735
736                         data = irq_desc_get_chip_data(desc);
737                         seq_printf(m, data ? "0x%p  " : "  %p  ", data);
738
739                         seq_printf(m, "   %c    ", (desc->action && desc->action->handler) ? '*' : ' ');
740                         direct = (i == hwirq) && (i < domain->revmap_direct_max_irq);
741                         seq_printf(m, "%6s%-8s  ",
742                                    (hwirq < domain->revmap_size) ? "LINEAR" : "RADIX",
743                                    direct ? "(DIRECT)" : "");
744                         seq_printf(m, "%s\n", desc->irq_data.domain->name);
745                 }
746
747                 raw_spin_unlock_irqrestore(&desc->lock, flags);
748         }
749
750         return 0;
751 }
752
753 static int virq_debug_open(struct inode *inode, struct file *file)
754 {
755         return single_open(file, virq_debug_show, inode->i_private);
756 }
757
758 static const struct file_operations virq_debug_fops = {
759         .open = virq_debug_open,
760         .read = seq_read,
761         .llseek = seq_lseek,
762         .release = single_release,
763 };
764
765 static int __init irq_debugfs_init(void)
766 {
767         if (debugfs_create_file("irq_domain_mapping", S_IRUGO, NULL,
768                                  NULL, &virq_debug_fops) == NULL)
769                 return -ENOMEM;
770
771         return 0;
772 }
773 __initcall(irq_debugfs_init);
774 #endif /* CONFIG_IRQ_DOMAIN_DEBUG */
775
776 /**
777  * irq_domain_xlate_onecell() - Generic xlate for direct one cell bindings
778  *
779  * Device Tree IRQ specifier translation function which works with one cell
780  * bindings where the cell value maps directly to the hwirq number.
781  */
782 int irq_domain_xlate_onecell(struct irq_domain *d, struct device_node *ctrlr,
783                              const u32 *intspec, unsigned int intsize,
784                              unsigned long *out_hwirq, unsigned int *out_type)
785 {
786         if (WARN_ON(intsize < 1))
787                 return -EINVAL;
788         *out_hwirq = intspec[0];
789         *out_type = IRQ_TYPE_NONE;
790         return 0;
791 }
792 EXPORT_SYMBOL_GPL(irq_domain_xlate_onecell);
793
794 /**
795  * irq_domain_xlate_twocell() - Generic xlate for direct two cell bindings
796  *
797  * Device Tree IRQ specifier translation function which works with two cell
798  * bindings where the cell values map directly to the hwirq number
799  * and linux irq flags.
800  */
801 int irq_domain_xlate_twocell(struct irq_domain *d, struct device_node *ctrlr,
802                         const u32 *intspec, unsigned int intsize,
803                         irq_hw_number_t *out_hwirq, unsigned int *out_type)
804 {
805         if (WARN_ON(intsize < 2))
806                 return -EINVAL;
807         *out_hwirq = intspec[0];
808         *out_type = intspec[1] & IRQ_TYPE_SENSE_MASK;
809         return 0;
810 }
811 EXPORT_SYMBOL_GPL(irq_domain_xlate_twocell);
812
813 /**
814  * irq_domain_xlate_onetwocell() - Generic xlate for one or two cell bindings
815  *
816  * Device Tree IRQ specifier translation function which works with either one
817  * or two cell bindings where the cell values map directly to the hwirq number
818  * and linux irq flags.
819  *
820  * Note: don't use this function unless your interrupt controller explicitly
821  * supports both one and two cell bindings.  For the majority of controllers
822  * the _onecell() or _twocell() variants above should be used.
823  */
824 int irq_domain_xlate_onetwocell(struct irq_domain *d,
825                                 struct device_node *ctrlr,
826                                 const u32 *intspec, unsigned int intsize,
827                                 unsigned long *out_hwirq, unsigned int *out_type)
828 {
829         if (WARN_ON(intsize < 1))
830                 return -EINVAL;
831         *out_hwirq = intspec[0];
832         *out_type = (intsize > 1) ? intspec[1] : IRQ_TYPE_NONE;
833         return 0;
834 }
835 EXPORT_SYMBOL_GPL(irq_domain_xlate_onetwocell);
836
837 const struct irq_domain_ops irq_domain_simple_ops = {
838         .xlate = irq_domain_xlate_onetwocell,
839 };
840 EXPORT_SYMBOL_GPL(irq_domain_simple_ops);
841
842 int irq_domain_alloc_descs(int virq, unsigned int cnt, irq_hw_number_t hwirq,
843                            int node)
844 {
845         unsigned int hint;
846
847         if (virq >= 0) {
848                 virq = irq_alloc_descs(virq, virq, cnt, node);
849         } else {
850                 hint = hwirq % nr_irqs;
851                 if (hint == 0)
852                         hint++;
853                 virq = irq_alloc_descs_from(hint, cnt, node);
854                 if (virq <= 0 && hint > 1)
855                         virq = irq_alloc_descs_from(1, cnt, node);
856         }
857
858         return virq;
859 }
860
861 #ifdef  CONFIG_IRQ_DOMAIN_HIERARCHY
862 /**
863  * irq_domain_create_hierarchy - Add a irqdomain into the hierarchy
864  * @parent:     Parent irq domain to associate with the new domain
865  * @flags:      Irq domain flags associated to the domain
866  * @size:       Size of the domain. See below
867  * @fwnode:     Optional fwnode of the interrupt controller
868  * @ops:        Pointer to the interrupt domain callbacks
869  * @host_data:  Controller private data pointer
870  *
871  * If @size is 0 a tree domain is created, otherwise a linear domain.
872  *
873  * If successful the parent is associated to the new domain and the
874  * domain flags are set.
875  * Returns pointer to IRQ domain, or NULL on failure.
876  */
877 struct irq_domain *irq_domain_create_hierarchy(struct irq_domain *parent,
878                                             unsigned int flags,
879                                             unsigned int size,
880                                             struct fwnode_handle *fwnode,
881                                             const struct irq_domain_ops *ops,
882                                             void *host_data)
883 {
884         struct irq_domain *domain;
885
886         if (size)
887                 domain = irq_domain_create_linear(fwnode, size, ops, host_data);
888         else
889                 domain = irq_domain_create_tree(fwnode, ops, host_data);
890         if (domain) {
891                 domain->parent = parent;
892                 domain->flags |= flags;
893         }
894
895         return domain;
896 }
897 EXPORT_SYMBOL_GPL(irq_domain_create_hierarchy);
898
899 static void irq_domain_insert_irq(int virq)
900 {
901         struct irq_data *data;
902
903         for (data = irq_get_irq_data(virq); data; data = data->parent_data) {
904                 struct irq_domain *domain = data->domain;
905                 irq_hw_number_t hwirq = data->hwirq;
906
907                 if (hwirq < domain->revmap_size) {
908                         domain->linear_revmap[hwirq] = virq;
909                 } else {
910                         mutex_lock(&revmap_trees_mutex);
911                         radix_tree_insert(&domain->revmap_tree, hwirq, data);
912                         mutex_unlock(&revmap_trees_mutex);
913                 }
914
915                 /* If not already assigned, give the domain the chip's name */
916                 if (!domain->name && data->chip)
917                         domain->name = data->chip->name;
918         }
919
920         irq_clear_status_flags(virq, IRQ_NOREQUEST);
921 }
922
923 static void irq_domain_remove_irq(int virq)
924 {
925         struct irq_data *data;
926
927         irq_set_status_flags(virq, IRQ_NOREQUEST);
928         irq_set_chip_and_handler(virq, NULL, NULL);
929         synchronize_irq(virq);
930         smp_mb();
931
932         for (data = irq_get_irq_data(virq); data; data = data->parent_data) {
933                 struct irq_domain *domain = data->domain;
934                 irq_hw_number_t hwirq = data->hwirq;
935
936                 if (hwirq < domain->revmap_size) {
937                         domain->linear_revmap[hwirq] = 0;
938                 } else {
939                         mutex_lock(&revmap_trees_mutex);
940                         radix_tree_delete(&domain->revmap_tree, hwirq);
941                         mutex_unlock(&revmap_trees_mutex);
942                 }
943         }
944 }
945
946 static struct irq_data *irq_domain_insert_irq_data(struct irq_domain *domain,
947                                                    struct irq_data *child)
948 {
949         struct irq_data *irq_data;
950
951         irq_data = kzalloc_node(sizeof(*irq_data), GFP_KERNEL,
952                                 irq_data_get_node(child));
953         if (irq_data) {
954                 child->parent_data = irq_data;
955                 irq_data->irq = child->irq;
956                 irq_data->common = child->common;
957                 irq_data->domain = domain;
958         }
959
960         return irq_data;
961 }
962
963 static void irq_domain_free_irq_data(unsigned int virq, unsigned int nr_irqs)
964 {
965         struct irq_data *irq_data, *tmp;
966         int i;
967
968         for (i = 0; i < nr_irqs; i++) {
969                 irq_data = irq_get_irq_data(virq + i);
970                 tmp = irq_data->parent_data;
971                 irq_data->parent_data = NULL;
972                 irq_data->domain = NULL;
973
974                 while (tmp) {
975                         irq_data = tmp;
976                         tmp = tmp->parent_data;
977                         kfree(irq_data);
978                 }
979         }
980 }
981
982 static int irq_domain_alloc_irq_data(struct irq_domain *domain,
983                                      unsigned int virq, unsigned int nr_irqs)
984 {
985         struct irq_data *irq_data;
986         struct irq_domain *parent;
987         int i;
988
989         /* The outermost irq_data is embedded in struct irq_desc */
990         for (i = 0; i < nr_irqs; i++) {
991                 irq_data = irq_get_irq_data(virq + i);
992                 irq_data->domain = domain;
993
994                 for (parent = domain->parent; parent; parent = parent->parent) {
995                         irq_data = irq_domain_insert_irq_data(parent, irq_data);
996                         if (!irq_data) {
997                                 irq_domain_free_irq_data(virq, i + 1);
998                                 return -ENOMEM;
999                         }
1000                 }
1001         }
1002
1003         return 0;
1004 }
1005
1006 /**
1007  * irq_domain_get_irq_data - Get irq_data associated with @virq and @domain
1008  * @domain:     domain to match
1009  * @virq:       IRQ number to get irq_data
1010  */
1011 struct irq_data *irq_domain_get_irq_data(struct irq_domain *domain,
1012                                          unsigned int virq)
1013 {
1014         struct irq_data *irq_data;
1015
1016         for (irq_data = irq_get_irq_data(virq); irq_data;
1017              irq_data = irq_data->parent_data)
1018                 if (irq_data->domain == domain)
1019                         return irq_data;
1020
1021         return NULL;
1022 }
1023 EXPORT_SYMBOL_GPL(irq_domain_get_irq_data);
1024
1025 /**
1026  * irq_domain_set_hwirq_and_chip - Set hwirq and irqchip of @virq at @domain
1027  * @domain:     Interrupt domain to match
1028  * @virq:       IRQ number
1029  * @hwirq:      The hwirq number
1030  * @chip:       The associated interrupt chip
1031  * @chip_data:  The associated chip data
1032  */
1033 int irq_domain_set_hwirq_and_chip(struct irq_domain *domain, unsigned int virq,
1034                                   irq_hw_number_t hwirq, struct irq_chip *chip,
1035                                   void *chip_data)
1036 {
1037         struct irq_data *irq_data = irq_domain_get_irq_data(domain, virq);
1038
1039         if (!irq_data)
1040                 return -ENOENT;
1041
1042         irq_data->hwirq = hwirq;
1043         irq_data->chip = chip ? chip : &no_irq_chip;
1044         irq_data->chip_data = chip_data;
1045
1046         return 0;
1047 }
1048 EXPORT_SYMBOL_GPL(irq_domain_set_hwirq_and_chip);
1049
1050 /**
1051  * irq_domain_set_info - Set the complete data for a @virq in @domain
1052  * @domain:             Interrupt domain to match
1053  * @virq:               IRQ number
1054  * @hwirq:              The hardware interrupt number
1055  * @chip:               The associated interrupt chip
1056  * @chip_data:          The associated interrupt chip data
1057  * @handler:            The interrupt flow handler
1058  * @handler_data:       The interrupt flow handler data
1059  * @handler_name:       The interrupt handler name
1060  */
1061 void irq_domain_set_info(struct irq_domain *domain, unsigned int virq,
1062                          irq_hw_number_t hwirq, struct irq_chip *chip,
1063                          void *chip_data, irq_flow_handler_t handler,
1064                          void *handler_data, const char *handler_name)
1065 {
1066         irq_domain_set_hwirq_and_chip(domain, virq, hwirq, chip, chip_data);
1067         __irq_set_handler(virq, handler, 0, handler_name);
1068         irq_set_handler_data(virq, handler_data);
1069 }
1070 EXPORT_SYMBOL(irq_domain_set_info);
1071
1072 /**
1073  * irq_domain_reset_irq_data - Clear hwirq, chip and chip_data in @irq_data
1074  * @irq_data:   The pointer to irq_data
1075  */
1076 void irq_domain_reset_irq_data(struct irq_data *irq_data)
1077 {
1078         irq_data->hwirq = 0;
1079         irq_data->chip = &no_irq_chip;
1080         irq_data->chip_data = NULL;
1081 }
1082 EXPORT_SYMBOL_GPL(irq_domain_reset_irq_data);
1083
1084 /**
1085  * irq_domain_free_irqs_common - Clear irq_data and free the parent
1086  * @domain:     Interrupt domain to match
1087  * @virq:       IRQ number to start with
1088  * @nr_irqs:    The number of irqs to free
1089  */
1090 void irq_domain_free_irqs_common(struct irq_domain *domain, unsigned int virq,
1091                                  unsigned int nr_irqs)
1092 {
1093         struct irq_data *irq_data;
1094         int i;
1095
1096         for (i = 0; i < nr_irqs; i++) {
1097                 irq_data = irq_domain_get_irq_data(domain, virq + i);
1098                 if (irq_data)
1099                         irq_domain_reset_irq_data(irq_data);
1100         }
1101         irq_domain_free_irqs_parent(domain, virq, nr_irqs);
1102 }
1103 EXPORT_SYMBOL_GPL(irq_domain_free_irqs_common);
1104
1105 /**
1106  * irq_domain_free_irqs_top - Clear handler and handler data, clear irqdata and free parent
1107  * @domain:     Interrupt domain to match
1108  * @virq:       IRQ number to start with
1109  * @nr_irqs:    The number of irqs to free
1110  */
1111 void irq_domain_free_irqs_top(struct irq_domain *domain, unsigned int virq,
1112                               unsigned int nr_irqs)
1113 {
1114         int i;
1115
1116         for (i = 0; i < nr_irqs; i++) {
1117                 irq_set_handler_data(virq + i, NULL);
1118                 irq_set_handler(virq + i, NULL);
1119         }
1120         irq_domain_free_irqs_common(domain, virq, nr_irqs);
1121 }
1122
1123 static bool irq_domain_is_auto_recursive(struct irq_domain *domain)
1124 {
1125         return domain->flags & IRQ_DOMAIN_FLAG_AUTO_RECURSIVE;
1126 }
1127
1128 static void irq_domain_free_irqs_recursive(struct irq_domain *domain,
1129                                            unsigned int irq_base,
1130                                            unsigned int nr_irqs)
1131 {
1132         domain->ops->free(domain, irq_base, nr_irqs);
1133         if (irq_domain_is_auto_recursive(domain)) {
1134                 BUG_ON(!domain->parent);
1135                 irq_domain_free_irqs_recursive(domain->parent, irq_base,
1136                                                nr_irqs);
1137         }
1138 }
1139
1140 int irq_domain_alloc_irqs_recursive(struct irq_domain *domain,
1141                                     unsigned int irq_base,
1142                                     unsigned int nr_irqs, void *arg)
1143 {
1144         int ret = 0;
1145         struct irq_domain *parent = domain->parent;
1146         bool recursive = irq_domain_is_auto_recursive(domain);
1147
1148         BUG_ON(recursive && !parent);
1149         if (recursive)
1150                 ret = irq_domain_alloc_irqs_recursive(parent, irq_base,
1151                                                       nr_irqs, arg);
1152         if (ret >= 0)
1153                 ret = domain->ops->alloc(domain, irq_base, nr_irqs, arg);
1154         if (ret < 0 && recursive)
1155                 irq_domain_free_irqs_recursive(parent, irq_base, nr_irqs);
1156
1157         return ret;
1158 }
1159
1160 /**
1161  * __irq_domain_alloc_irqs - Allocate IRQs from domain
1162  * @domain:     domain to allocate from
1163  * @irq_base:   allocate specified IRQ nubmer if irq_base >= 0
1164  * @nr_irqs:    number of IRQs to allocate
1165  * @node:       NUMA node id for memory allocation
1166  * @arg:        domain specific argument
1167  * @realloc:    IRQ descriptors have already been allocated if true
1168  *
1169  * Allocate IRQ numbers and initialized all data structures to support
1170  * hierarchy IRQ domains.
1171  * Parameter @realloc is mainly to support legacy IRQs.
1172  * Returns error code or allocated IRQ number
1173  *
1174  * The whole process to setup an IRQ has been split into two steps.
1175  * The first step, __irq_domain_alloc_irqs(), is to allocate IRQ
1176  * descriptor and required hardware resources. The second step,
1177  * irq_domain_activate_irq(), is to program hardwares with preallocated
1178  * resources. In this way, it's easier to rollback when failing to
1179  * allocate resources.
1180  */
1181 int __irq_domain_alloc_irqs(struct irq_domain *domain, int irq_base,
1182                             unsigned int nr_irqs, int node, void *arg,
1183                             bool realloc)
1184 {
1185         int i, ret, virq;
1186
1187         if (domain == NULL) {
1188                 domain = irq_default_domain;
1189                 if (WARN(!domain, "domain is NULL; cannot allocate IRQ\n"))
1190                         return -EINVAL;
1191         }
1192
1193         if (!domain->ops->alloc) {
1194                 pr_debug("domain->ops->alloc() is NULL\n");
1195                 return -ENOSYS;
1196         }
1197
1198         if (realloc && irq_base >= 0) {
1199                 virq = irq_base;
1200         } else {
1201                 virq = irq_domain_alloc_descs(irq_base, nr_irqs, 0, node);
1202                 if (virq < 0) {
1203                         pr_debug("cannot allocate IRQ(base %d, count %d)\n",
1204                                  irq_base, nr_irqs);
1205                         return virq;
1206                 }
1207         }
1208
1209         if (irq_domain_alloc_irq_data(domain, virq, nr_irqs)) {
1210                 pr_debug("cannot allocate memory for IRQ%d\n", virq);
1211                 ret = -ENOMEM;
1212                 goto out_free_desc;
1213         }
1214
1215         mutex_lock(&irq_domain_mutex);
1216         ret = irq_domain_alloc_irqs_recursive(domain, virq, nr_irqs, arg);
1217         if (ret < 0) {
1218                 mutex_unlock(&irq_domain_mutex);
1219                 goto out_free_irq_data;
1220         }
1221         for (i = 0; i < nr_irqs; i++)
1222                 irq_domain_insert_irq(virq + i);
1223         mutex_unlock(&irq_domain_mutex);
1224
1225         return virq;
1226
1227 out_free_irq_data:
1228         irq_domain_free_irq_data(virq, nr_irqs);
1229 out_free_desc:
1230         irq_free_descs(virq, nr_irqs);
1231         return ret;
1232 }
1233
1234 /**
1235  * irq_domain_free_irqs - Free IRQ number and associated data structures
1236  * @virq:       base IRQ number
1237  * @nr_irqs:    number of IRQs to free
1238  */
1239 void irq_domain_free_irqs(unsigned int virq, unsigned int nr_irqs)
1240 {
1241         struct irq_data *data = irq_get_irq_data(virq);
1242         int i;
1243
1244         if (WARN(!data || !data->domain || !data->domain->ops->free,
1245                  "NULL pointer, cannot free irq\n"))
1246                 return;
1247
1248         mutex_lock(&irq_domain_mutex);
1249         for (i = 0; i < nr_irqs; i++)
1250                 irq_domain_remove_irq(virq + i);
1251         irq_domain_free_irqs_recursive(data->domain, virq, nr_irqs);
1252         mutex_unlock(&irq_domain_mutex);
1253
1254         irq_domain_free_irq_data(virq, nr_irqs);
1255         irq_free_descs(virq, nr_irqs);
1256 }
1257
1258 /**
1259  * irq_domain_alloc_irqs_parent - Allocate interrupts from parent domain
1260  * @irq_base:   Base IRQ number
1261  * @nr_irqs:    Number of IRQs to allocate
1262  * @arg:        Allocation data (arch/domain specific)
1263  *
1264  * Check whether the domain has been setup recursive. If not allocate
1265  * through the parent domain.
1266  */
1267 int irq_domain_alloc_irqs_parent(struct irq_domain *domain,
1268                                  unsigned int irq_base, unsigned int nr_irqs,
1269                                  void *arg)
1270 {
1271         /* irq_domain_alloc_irqs_recursive() has called parent's alloc() */
1272         if (irq_domain_is_auto_recursive(domain))
1273                 return 0;
1274
1275         domain = domain->parent;
1276         if (domain)
1277                 return irq_domain_alloc_irqs_recursive(domain, irq_base,
1278                                                        nr_irqs, arg);
1279         return -ENOSYS;
1280 }
1281 EXPORT_SYMBOL_GPL(irq_domain_alloc_irqs_parent);
1282
1283 /**
1284  * irq_domain_free_irqs_parent - Free interrupts from parent domain
1285  * @irq_base:   Base IRQ number
1286  * @nr_irqs:    Number of IRQs to free
1287  *
1288  * Check whether the domain has been setup recursive. If not free
1289  * through the parent domain.
1290  */
1291 void irq_domain_free_irqs_parent(struct irq_domain *domain,
1292                                  unsigned int irq_base, unsigned int nr_irqs)
1293 {
1294         /* irq_domain_free_irqs_recursive() will call parent's free */
1295         if (!irq_domain_is_auto_recursive(domain) && domain->parent)
1296                 irq_domain_free_irqs_recursive(domain->parent, irq_base,
1297                                                nr_irqs);
1298 }
1299 EXPORT_SYMBOL_GPL(irq_domain_free_irqs_parent);
1300
1301 /**
1302  * irq_domain_activate_irq - Call domain_ops->activate recursively to activate
1303  *                           interrupt
1304  * @irq_data:   outermost irq_data associated with interrupt
1305  *
1306  * This is the second step to call domain_ops->activate to program interrupt
1307  * controllers, so the interrupt could actually get delivered.
1308  */
1309 void irq_domain_activate_irq(struct irq_data *irq_data)
1310 {
1311         if (irq_data && irq_data->domain) {
1312                 struct irq_domain *domain = irq_data->domain;
1313
1314                 if (irq_data->parent_data)
1315                         irq_domain_activate_irq(irq_data->parent_data);
1316                 if (domain->ops->activate)
1317                         domain->ops->activate(domain, irq_data);
1318         }
1319 }
1320
1321 /**
1322  * irq_domain_deactivate_irq - Call domain_ops->deactivate recursively to
1323  *                             deactivate interrupt
1324  * @irq_data: outermost irq_data associated with interrupt
1325  *
1326  * It calls domain_ops->deactivate to program interrupt controllers to disable
1327  * interrupt delivery.
1328  */
1329 void irq_domain_deactivate_irq(struct irq_data *irq_data)
1330 {
1331         if (irq_data && irq_data->domain) {
1332                 struct irq_domain *domain = irq_data->domain;
1333
1334                 if (domain->ops->deactivate)
1335                         domain->ops->deactivate(domain, irq_data);
1336                 if (irq_data->parent_data)
1337                         irq_domain_deactivate_irq(irq_data->parent_data);
1338         }
1339 }
1340
1341 static void irq_domain_check_hierarchy(struct irq_domain *domain)
1342 {
1343         /* Hierarchy irq_domains must implement callback alloc() */
1344         if (domain->ops->alloc)
1345                 domain->flags |= IRQ_DOMAIN_FLAG_HIERARCHY;
1346 }
1347 #else   /* CONFIG_IRQ_DOMAIN_HIERARCHY */
1348 /**
1349  * irq_domain_get_irq_data - Get irq_data associated with @virq and @domain
1350  * @domain:     domain to match
1351  * @virq:       IRQ number to get irq_data
1352  */
1353 struct irq_data *irq_domain_get_irq_data(struct irq_domain *domain,
1354                                          unsigned int virq)
1355 {
1356         struct irq_data *irq_data = irq_get_irq_data(virq);
1357
1358         return (irq_data && irq_data->domain == domain) ? irq_data : NULL;
1359 }
1360 EXPORT_SYMBOL_GPL(irq_domain_get_irq_data);
1361
1362 /**
1363  * irq_domain_set_info - Set the complete data for a @virq in @domain
1364  * @domain:             Interrupt domain to match
1365  * @virq:               IRQ number
1366  * @hwirq:              The hardware interrupt number
1367  * @chip:               The associated interrupt chip
1368  * @chip_data:          The associated interrupt chip data
1369  * @handler:            The interrupt flow handler
1370  * @handler_data:       The interrupt flow handler data
1371  * @handler_name:       The interrupt handler name
1372  */
1373 void irq_domain_set_info(struct irq_domain *domain, unsigned int virq,
1374                          irq_hw_number_t hwirq, struct irq_chip *chip,
1375                          void *chip_data, irq_flow_handler_t handler,
1376                          void *handler_data, const char *handler_name)
1377 {
1378         irq_set_chip_and_handler_name(virq, chip, handler, handler_name);
1379         irq_set_chip_data(virq, chip_data);
1380         irq_set_handler_data(virq, handler_data);
1381 }
1382
1383 static void irq_domain_check_hierarchy(struct irq_domain *domain)
1384 {
1385 }
1386 #endif  /* CONFIG_IRQ_DOMAIN_HIERARCHY */