Merge tag 'for-5.19/fbdev-1' of git://git.kernel.org/pub/scm/linux/kernel/git/deller...
[linux-block.git] / drivers / perf / hisilicon / hisi_pcie_pmu.c
CommitLineData
8404b0fb
QL
1// SPDX-License-Identifier: GPL-2.0-only
2/*
3 * This driver adds support for PCIe PMU RCiEP device. Related
4 * perf events are bandwidth, latency etc.
5 *
6 * Copyright (C) 2021 HiSilicon Limited
7 * Author: Qi Liu <liuqi115@huawei.com>
8 */
9#include <linux/bitfield.h>
10#include <linux/bitmap.h>
11#include <linux/bug.h>
12#include <linux/device.h>
13#include <linux/err.h>
14#include <linux/interrupt.h>
15#include <linux/irq.h>
16#include <linux/kernel.h>
17#include <linux/list.h>
18#include <linux/module.h>
19#include <linux/pci.h>
20#include <linux/perf_event.h>
21
22#define DRV_NAME "hisi_pcie_pmu"
23/* Define registers */
24#define HISI_PCIE_GLOBAL_CTRL 0x00
25#define HISI_PCIE_EVENT_CTRL 0x010
26#define HISI_PCIE_CNT 0x090
27#define HISI_PCIE_EXT_CNT 0x110
28#define HISI_PCIE_INT_STAT 0x150
29#define HISI_PCIE_INT_MASK 0x154
30#define HISI_PCIE_REG_BDF 0xfe0
31#define HISI_PCIE_REG_VERSION 0xfe4
32#define HISI_PCIE_REG_INFO 0xfe8
33
34/* Define command in HISI_PCIE_GLOBAL_CTRL */
35#define HISI_PCIE_GLOBAL_EN 0x01
36#define HISI_PCIE_GLOBAL_NONE 0
37
38/* Define command in HISI_PCIE_EVENT_CTRL */
39#define HISI_PCIE_EVENT_EN BIT_ULL(20)
40#define HISI_PCIE_RESET_CNT BIT_ULL(22)
41#define HISI_PCIE_INIT_SET BIT_ULL(34)
42#define HISI_PCIE_THR_EN BIT_ULL(26)
43#define HISI_PCIE_TARGET_EN BIT_ULL(32)
44#define HISI_PCIE_TRIG_EN BIT_ULL(52)
45
46/* Define offsets in HISI_PCIE_EVENT_CTRL */
47#define HISI_PCIE_EVENT_M GENMASK_ULL(15, 0)
48#define HISI_PCIE_THR_MODE_M GENMASK_ULL(27, 27)
49#define HISI_PCIE_THR_M GENMASK_ULL(31, 28)
50#define HISI_PCIE_TARGET_M GENMASK_ULL(52, 36)
51#define HISI_PCIE_TRIG_MODE_M GENMASK_ULL(53, 53)
52#define HISI_PCIE_TRIG_M GENMASK_ULL(59, 56)
53
54#define HISI_PCIE_MAX_COUNTERS 8
55#define HISI_PCIE_REG_STEP 8
56#define HISI_PCIE_THR_MAX_VAL 10
57#define HISI_PCIE_TRIG_MAX_VAL 10
58#define HISI_PCIE_MAX_PERIOD (GENMASK_ULL(63, 0))
59#define HISI_PCIE_INIT_VAL BIT_ULL(63)
60
61struct hisi_pcie_pmu {
62 struct perf_event *hw_events[HISI_PCIE_MAX_COUNTERS];
63 struct hlist_node node;
64 struct pci_dev *pdev;
65 struct pmu pmu;
66 void __iomem *base;
67 int irq;
68 u32 identifier;
69 /* Minimum and maximum BDF of root ports monitored by PMU */
70 u16 bdf_min;
71 u16 bdf_max;
72 int on_cpu;
73};
74
75struct hisi_pcie_reg_pair {
76 u16 lo;
77 u16 hi;
78};
79
80#define to_pcie_pmu(p) (container_of((p), struct hisi_pcie_pmu, pmu))
81#define GET_PCI_DEVFN(bdf) ((bdf) & 0xff)
82
83#define HISI_PCIE_PMU_FILTER_ATTR(_name, _config, _hi, _lo) \
84 static u64 hisi_pcie_get_##_name(struct perf_event *event) \
85 { \
86 return FIELD_GET(GENMASK(_hi, _lo), event->attr._config); \
87 } \
88
89HISI_PCIE_PMU_FILTER_ATTR(event, config, 16, 0);
90HISI_PCIE_PMU_FILTER_ATTR(thr_len, config1, 3, 0);
91HISI_PCIE_PMU_FILTER_ATTR(thr_mode, config1, 4, 4);
92HISI_PCIE_PMU_FILTER_ATTR(trig_len, config1, 8, 5);
93HISI_PCIE_PMU_FILTER_ATTR(trig_mode, config1, 9, 9);
94HISI_PCIE_PMU_FILTER_ATTR(port, config2, 15, 0);
95HISI_PCIE_PMU_FILTER_ATTR(bdf, config2, 31, 16);
96
97static ssize_t hisi_pcie_format_sysfs_show(struct device *dev, struct device_attribute *attr,
98 char *buf)
99{
100 struct dev_ext_attribute *eattr;
101
102 eattr = container_of(attr, struct dev_ext_attribute, attr);
103
104 return sysfs_emit(buf, "%s\n", (char *)eattr->var);
105}
106
107static ssize_t hisi_pcie_event_sysfs_show(struct device *dev, struct device_attribute *attr,
108 char *buf)
109{
110 struct perf_pmu_events_attr *pmu_attr =
111 container_of(attr, struct perf_pmu_events_attr, attr);
112
113 return sysfs_emit(buf, "config=0x%llx\n", pmu_attr->id);
114}
115
116#define HISI_PCIE_PMU_FORMAT_ATTR(_name, _format) \
117 (&((struct dev_ext_attribute[]){ \
118 { .attr = __ATTR(_name, 0444, hisi_pcie_format_sysfs_show, \
119 NULL), \
120 .var = (void *)_format } \
121 })[0].attr.attr)
122
123#define HISI_PCIE_PMU_EVENT_ATTR(_name, _id) \
124 PMU_EVENT_ATTR_ID(_name, hisi_pcie_event_sysfs_show, _id)
125
126static ssize_t cpumask_show(struct device *dev, struct device_attribute *attr, char *buf)
127{
128 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(dev_get_drvdata(dev));
129
130 return cpumap_print_to_pagebuf(true, buf, cpumask_of(pcie_pmu->on_cpu));
131}
132static DEVICE_ATTR_RO(cpumask);
133
134static ssize_t identifier_show(struct device *dev, struct device_attribute *attr, char *buf)
135{
136 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(dev_get_drvdata(dev));
137
138 return sysfs_emit(buf, "%#x\n", pcie_pmu->identifier);
139}
140static DEVICE_ATTR_RO(identifier);
141
142static ssize_t bus_show(struct device *dev, struct device_attribute *attr, char *buf)
143{
144 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(dev_get_drvdata(dev));
145
146 return sysfs_emit(buf, "%#04x\n", PCI_BUS_NUM(pcie_pmu->bdf_min));
147}
148static DEVICE_ATTR_RO(bus);
149
150static struct hisi_pcie_reg_pair
151hisi_pcie_parse_reg_value(struct hisi_pcie_pmu *pcie_pmu, u32 reg_off)
152{
153 u32 val = readl_relaxed(pcie_pmu->base + reg_off);
154 struct hisi_pcie_reg_pair regs = {
155 .lo = val,
156 .hi = val >> 16,
157 };
158
159 return regs;
160}
161
162/*
163 * Hardware counter and ext_counter work together for bandwidth, latency, bus
164 * utilization and buffer occupancy events. For example, RX memory write latency
165 * events(index = 0x0010), counter counts total delay cycles and ext_counter
166 * counts RX memory write PCIe packets number.
167 *
168 * As we don't want PMU driver to process these two data, "delay cycles" can
169 * be treated as an independent event(index = 0x0010), "RX memory write packets
170 * number" as another(index = 0x10010). BIT 16 is used to distinguish and 0-15
171 * bits are "real" event index, which can be used to set HISI_PCIE_EVENT_CTRL.
172 */
173#define EXT_COUNTER_IS_USED(idx) ((idx) & BIT(16))
174
175static u32 hisi_pcie_get_real_event(struct perf_event *event)
176{
177 return hisi_pcie_get_event(event) & GENMASK(15, 0);
178}
179
180static u32 hisi_pcie_pmu_get_offset(u32 offset, u32 idx)
181{
182 return offset + HISI_PCIE_REG_STEP * idx;
183}
184
185static u32 hisi_pcie_pmu_readl(struct hisi_pcie_pmu *pcie_pmu, u32 reg_offset,
186 u32 idx)
187{
188 u32 offset = hisi_pcie_pmu_get_offset(reg_offset, idx);
189
190 return readl_relaxed(pcie_pmu->base + offset);
191}
192
193static void hisi_pcie_pmu_writel(struct hisi_pcie_pmu *pcie_pmu, u32 reg_offset, u32 idx, u32 val)
194{
195 u32 offset = hisi_pcie_pmu_get_offset(reg_offset, idx);
196
197 writel_relaxed(val, pcie_pmu->base + offset);
198}
199
200static u64 hisi_pcie_pmu_readq(struct hisi_pcie_pmu *pcie_pmu, u32 reg_offset, u32 idx)
201{
202 u32 offset = hisi_pcie_pmu_get_offset(reg_offset, idx);
203
204 return readq_relaxed(pcie_pmu->base + offset);
205}
206
207static void hisi_pcie_pmu_writeq(struct hisi_pcie_pmu *pcie_pmu, u32 reg_offset, u32 idx, u64 val)
208{
209 u32 offset = hisi_pcie_pmu_get_offset(reg_offset, idx);
210
211 writeq_relaxed(val, pcie_pmu->base + offset);
212}
213
214static void hisi_pcie_pmu_config_filter(struct perf_event *event)
215{
216 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
217 struct hw_perf_event *hwc = &event->hw;
218 u64 reg = HISI_PCIE_INIT_SET;
219 u64 port, trig_len, thr_len;
220
221 /* Config HISI_PCIE_EVENT_CTRL according to event. */
222 reg |= FIELD_PREP(HISI_PCIE_EVENT_M, hisi_pcie_get_real_event(event));
223
224 /* Config HISI_PCIE_EVENT_CTRL according to root port or EP device. */
225 port = hisi_pcie_get_port(event);
226 if (port)
227 reg |= FIELD_PREP(HISI_PCIE_TARGET_M, port);
228 else
229 reg |= HISI_PCIE_TARGET_EN |
230 FIELD_PREP(HISI_PCIE_TARGET_M, hisi_pcie_get_bdf(event));
231
232 /* Config HISI_PCIE_EVENT_CTRL according to trigger condition. */
233 trig_len = hisi_pcie_get_trig_len(event);
234 if (trig_len) {
235 reg |= FIELD_PREP(HISI_PCIE_TRIG_M, trig_len);
236 reg |= FIELD_PREP(HISI_PCIE_TRIG_MODE_M, hisi_pcie_get_trig_mode(event));
237 reg |= HISI_PCIE_TRIG_EN;
238 }
239
240 /* Config HISI_PCIE_EVENT_CTRL according to threshold condition. */
241 thr_len = hisi_pcie_get_thr_len(event);
242 if (thr_len) {
243 reg |= FIELD_PREP(HISI_PCIE_THR_M, thr_len);
244 reg |= FIELD_PREP(HISI_PCIE_THR_MODE_M, hisi_pcie_get_thr_mode(event));
245 reg |= HISI_PCIE_THR_EN;
246 }
247
248 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EVENT_CTRL, hwc->idx, reg);
249}
250
251static void hisi_pcie_pmu_clear_filter(struct perf_event *event)
252{
253 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
254 struct hw_perf_event *hwc = &event->hw;
255
256 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EVENT_CTRL, hwc->idx, HISI_PCIE_INIT_SET);
257}
258
259static bool hisi_pcie_pmu_valid_requester_id(struct hisi_pcie_pmu *pcie_pmu, u32 bdf)
260{
261 struct pci_dev *root_port, *pdev;
262 u16 rp_bdf;
263
264 pdev = pci_get_domain_bus_and_slot(pci_domain_nr(pcie_pmu->pdev->bus), PCI_BUS_NUM(bdf),
265 GET_PCI_DEVFN(bdf));
266 if (!pdev)
267 return false;
268
269 root_port = pcie_find_root_port(pdev);
270 if (!root_port) {
271 pci_dev_put(pdev);
272 return false;
273 }
274
275 pci_dev_put(pdev);
276 rp_bdf = pci_dev_id(root_port);
277 return rp_bdf >= pcie_pmu->bdf_min && rp_bdf <= pcie_pmu->bdf_max;
278}
279
280static bool hisi_pcie_pmu_valid_filter(struct perf_event *event,
281 struct hisi_pcie_pmu *pcie_pmu)
282{
283 u32 requester_id = hisi_pcie_get_bdf(event);
284
285 if (hisi_pcie_get_thr_len(event) > HISI_PCIE_THR_MAX_VAL)
286 return false;
287
288 if (hisi_pcie_get_trig_len(event) > HISI_PCIE_TRIG_MAX_VAL)
289 return false;
290
291 if (requester_id) {
292 if (!hisi_pcie_pmu_valid_requester_id(pcie_pmu, requester_id))
293 return false;
294 }
295
296 return true;
297}
298
299static bool hisi_pcie_pmu_cmp_event(struct perf_event *target,
300 struct perf_event *event)
301{
302 return hisi_pcie_get_real_event(target) == hisi_pcie_get_real_event(event);
303}
304
305static bool hisi_pcie_pmu_validate_event_group(struct perf_event *event)
306{
307 struct perf_event *sibling, *leader = event->group_leader;
308 struct perf_event *event_group[HISI_PCIE_MAX_COUNTERS];
309 int counters = 1;
310 int num;
311
312 event_group[0] = leader;
313 if (!is_software_event(leader)) {
314 if (leader->pmu != event->pmu)
315 return false;
316
317 if (leader != event && !hisi_pcie_pmu_cmp_event(leader, event))
318 event_group[counters++] = event;
319 }
320
321 for_each_sibling_event(sibling, event->group_leader) {
322 if (is_software_event(sibling))
323 continue;
324
325 if (sibling->pmu != event->pmu)
326 return false;
327
328 for (num = 0; num < counters; num++) {
329 if (hisi_pcie_pmu_cmp_event(event_group[num], sibling))
330 break;
331 }
332
333 if (num == counters)
334 event_group[counters++] = sibling;
335 }
336
337 return counters <= HISI_PCIE_MAX_COUNTERS;
338}
339
340static int hisi_pcie_pmu_event_init(struct perf_event *event)
341{
342 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
343 struct hw_perf_event *hwc = &event->hw;
344
345 event->cpu = pcie_pmu->on_cpu;
346
347 if (EXT_COUNTER_IS_USED(hisi_pcie_get_event(event)))
348 hwc->event_base = HISI_PCIE_EXT_CNT;
349 else
350 hwc->event_base = HISI_PCIE_CNT;
351
352 if (event->attr.type != event->pmu->type)
353 return -ENOENT;
354
355 /* Sampling is not supported. */
356 if (is_sampling_event(event) || event->attach_state & PERF_ATTACH_TASK)
357 return -EOPNOTSUPP;
358
359 if (!hisi_pcie_pmu_valid_filter(event, pcie_pmu))
360 return -EINVAL;
361
362 if (!hisi_pcie_pmu_validate_event_group(event))
363 return -EINVAL;
364
365 return 0;
366}
367
368static u64 hisi_pcie_pmu_read_counter(struct perf_event *event)
369{
370 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
371 u32 idx = event->hw.idx;
372
373 return hisi_pcie_pmu_readq(pcie_pmu, event->hw.event_base, idx);
374}
375
376static int hisi_pcie_pmu_find_related_event(struct hisi_pcie_pmu *pcie_pmu,
377 struct perf_event *event)
378{
379 struct perf_event *sibling;
380 int idx;
381
382 for (idx = 0; idx < HISI_PCIE_MAX_COUNTERS; idx++) {
383 sibling = pcie_pmu->hw_events[idx];
384 if (!sibling)
385 continue;
386
387 if (!hisi_pcie_pmu_cmp_event(sibling, event))
388 continue;
389
390 /* Related events must be used in group */
391 if (sibling->group_leader == event->group_leader)
392 return idx;
393 else
394 return -EINVAL;
395 }
396
397 return idx;
398}
399
400static int hisi_pcie_pmu_get_event_idx(struct hisi_pcie_pmu *pcie_pmu)
401{
402 int idx;
403
404 for (idx = 0; idx < HISI_PCIE_MAX_COUNTERS; idx++) {
405 if (!pcie_pmu->hw_events[idx])
406 return idx;
407 }
408
409 return -EINVAL;
410}
411
412static void hisi_pcie_pmu_event_update(struct perf_event *event)
413{
414 struct hw_perf_event *hwc = &event->hw;
415 u64 new_cnt, prev_cnt, delta;
416
417 do {
418 prev_cnt = local64_read(&hwc->prev_count);
419 new_cnt = hisi_pcie_pmu_read_counter(event);
420 } while (local64_cmpxchg(&hwc->prev_count, prev_cnt,
421 new_cnt) != prev_cnt);
422
423 delta = (new_cnt - prev_cnt) & HISI_PCIE_MAX_PERIOD;
424 local64_add(delta, &event->count);
425}
426
427static void hisi_pcie_pmu_read(struct perf_event *event)
428{
429 hisi_pcie_pmu_event_update(event);
430}
431
432static void hisi_pcie_pmu_set_period(struct perf_event *event)
433{
434 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
435 struct hw_perf_event *hwc = &event->hw;
436 int idx = hwc->idx;
437
438 local64_set(&hwc->prev_count, HISI_PCIE_INIT_VAL);
439 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_CNT, idx, HISI_PCIE_INIT_VAL);
440 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EXT_CNT, idx, HISI_PCIE_INIT_VAL);
441}
442
443static void hisi_pcie_pmu_enable_counter(struct hisi_pcie_pmu *pcie_pmu, struct hw_perf_event *hwc)
444{
445 u32 idx = hwc->idx;
446 u64 val;
447
448 val = hisi_pcie_pmu_readq(pcie_pmu, HISI_PCIE_EVENT_CTRL, idx);
449 val |= HISI_PCIE_EVENT_EN;
450 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EVENT_CTRL, idx, val);
451}
452
453static void hisi_pcie_pmu_disable_counter(struct hisi_pcie_pmu *pcie_pmu, struct hw_perf_event *hwc)
454{
455 u32 idx = hwc->idx;
456 u64 val;
457
458 val = hisi_pcie_pmu_readq(pcie_pmu, HISI_PCIE_EVENT_CTRL, idx);
459 val &= ~HISI_PCIE_EVENT_EN;
460 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EVENT_CTRL, idx, val);
461}
462
463static void hisi_pcie_pmu_enable_int(struct hisi_pcie_pmu *pcie_pmu, struct hw_perf_event *hwc)
464{
465 u32 idx = hwc->idx;
466
467 hisi_pcie_pmu_writel(pcie_pmu, HISI_PCIE_INT_MASK, idx, 0);
468}
469
470static void hisi_pcie_pmu_disable_int(struct hisi_pcie_pmu *pcie_pmu, struct hw_perf_event *hwc)
471{
472 u32 idx = hwc->idx;
473
474 hisi_pcie_pmu_writel(pcie_pmu, HISI_PCIE_INT_MASK, idx, 1);
475}
476
477static void hisi_pcie_pmu_reset_counter(struct hisi_pcie_pmu *pcie_pmu, int idx)
478{
479 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EVENT_CTRL, idx, HISI_PCIE_RESET_CNT);
480 hisi_pcie_pmu_writeq(pcie_pmu, HISI_PCIE_EVENT_CTRL, idx, HISI_PCIE_INIT_SET);
481}
482
483static void hisi_pcie_pmu_start(struct perf_event *event, int flags)
484{
485 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
486 struct hw_perf_event *hwc = &event->hw;
487 int idx = hwc->idx;
488 u64 prev_cnt;
489
490 if (WARN_ON_ONCE(!(hwc->state & PERF_HES_STOPPED)))
491 return;
492
493 WARN_ON_ONCE(!(hwc->state & PERF_HES_UPTODATE));
494 hwc->state = 0;
495
496 hisi_pcie_pmu_config_filter(event);
497 hisi_pcie_pmu_enable_counter(pcie_pmu, hwc);
498 hisi_pcie_pmu_enable_int(pcie_pmu, hwc);
499 hisi_pcie_pmu_set_period(event);
500
501 if (flags & PERF_EF_RELOAD) {
502 prev_cnt = local64_read(&hwc->prev_count);
503 hisi_pcie_pmu_writeq(pcie_pmu, hwc->event_base, idx, prev_cnt);
504 }
505
506 perf_event_update_userpage(event);
507}
508
509static void hisi_pcie_pmu_stop(struct perf_event *event, int flags)
510{
511 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
512 struct hw_perf_event *hwc = &event->hw;
513
514 hisi_pcie_pmu_event_update(event);
515 hisi_pcie_pmu_disable_int(pcie_pmu, hwc);
516 hisi_pcie_pmu_disable_counter(pcie_pmu, hwc);
517 hisi_pcie_pmu_clear_filter(event);
518 WARN_ON_ONCE(hwc->state & PERF_HES_STOPPED);
519 hwc->state |= PERF_HES_STOPPED;
520
521 if (hwc->state & PERF_HES_UPTODATE)
522 return;
523
524 hwc->state |= PERF_HES_UPTODATE;
525}
526
527static int hisi_pcie_pmu_add(struct perf_event *event, int flags)
528{
529 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
530 struct hw_perf_event *hwc = &event->hw;
531 int idx;
532
533 hwc->state = PERF_HES_STOPPED | PERF_HES_UPTODATE;
534
535 /* Check all working events to find a related event. */
536 idx = hisi_pcie_pmu_find_related_event(pcie_pmu, event);
537 if (idx < 0)
538 return idx;
539
540 /* Current event shares an enabled counter with the related event */
541 if (idx < HISI_PCIE_MAX_COUNTERS) {
542 hwc->idx = idx;
543 goto start_count;
544 }
545
546 idx = hisi_pcie_pmu_get_event_idx(pcie_pmu);
547 if (idx < 0)
548 return idx;
549
550 hwc->idx = idx;
551 pcie_pmu->hw_events[idx] = event;
552 /* Reset Counter to avoid previous statistic interference. */
553 hisi_pcie_pmu_reset_counter(pcie_pmu, idx);
554
555start_count:
556 if (flags & PERF_EF_START)
557 hisi_pcie_pmu_start(event, PERF_EF_RELOAD);
558
559 return 0;
560}
561
562static void hisi_pcie_pmu_del(struct perf_event *event, int flags)
563{
564 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(event->pmu);
565 struct hw_perf_event *hwc = &event->hw;
566
567 hisi_pcie_pmu_stop(event, PERF_EF_UPDATE);
568 pcie_pmu->hw_events[hwc->idx] = NULL;
569 perf_event_update_userpage(event);
570}
571
572static void hisi_pcie_pmu_enable(struct pmu *pmu)
573{
574 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(pmu);
575 int num;
576
577 for (num = 0; num < HISI_PCIE_MAX_COUNTERS; num++) {
578 if (pcie_pmu->hw_events[num])
579 break;
580 }
581
582 if (num == HISI_PCIE_MAX_COUNTERS)
583 return;
584
585 writel(HISI_PCIE_GLOBAL_EN, pcie_pmu->base + HISI_PCIE_GLOBAL_CTRL);
586}
587
588static void hisi_pcie_pmu_disable(struct pmu *pmu)
589{
590 struct hisi_pcie_pmu *pcie_pmu = to_pcie_pmu(pmu);
591
592 writel(HISI_PCIE_GLOBAL_NONE, pcie_pmu->base + HISI_PCIE_GLOBAL_CTRL);
593}
594
595static irqreturn_t hisi_pcie_pmu_irq(int irq, void *data)
596{
597 struct hisi_pcie_pmu *pcie_pmu = data;
598 irqreturn_t ret = IRQ_NONE;
599 struct perf_event *event;
600 u32 overflown;
601 int idx;
602
603 for (idx = 0; idx < HISI_PCIE_MAX_COUNTERS; idx++) {
604 overflown = hisi_pcie_pmu_readl(pcie_pmu, HISI_PCIE_INT_STAT, idx);
605 if (!overflown)
606 continue;
607
608 /* Clear status of interrupt. */
609 hisi_pcie_pmu_writel(pcie_pmu, HISI_PCIE_INT_STAT, idx, 1);
610 event = pcie_pmu->hw_events[idx];
611 if (!event)
612 continue;
613
614 hisi_pcie_pmu_event_update(event);
615 hisi_pcie_pmu_set_period(event);
616 ret = IRQ_HANDLED;
617 }
618
619 return ret;
620}
621
622static int hisi_pcie_pmu_irq_register(struct pci_dev *pdev, struct hisi_pcie_pmu *pcie_pmu)
623{
624 int irq, ret;
625
626 ret = pci_alloc_irq_vectors(pdev, 1, 1, PCI_IRQ_MSI);
627 if (ret < 0) {
628 pci_err(pdev, "Failed to enable MSI vectors: %d\n", ret);
629 return ret;
630 }
631
632 irq = pci_irq_vector(pdev, 0);
633 ret = request_irq(irq, hisi_pcie_pmu_irq, IRQF_NOBALANCING | IRQF_NO_THREAD, DRV_NAME,
634 pcie_pmu);
635 if (ret) {
636 pci_err(pdev, "Failed to register IRQ: %d\n", ret);
637 pci_free_irq_vectors(pdev);
638 return ret;
639 }
640
641 pcie_pmu->irq = irq;
642
643 return 0;
644}
645
646static void hisi_pcie_pmu_irq_unregister(struct pci_dev *pdev, struct hisi_pcie_pmu *pcie_pmu)
647{
648 free_irq(pcie_pmu->irq, pcie_pmu);
649 pci_free_irq_vectors(pdev);
650}
651
652static int hisi_pcie_pmu_online_cpu(unsigned int cpu, struct hlist_node *node)
653{
654 struct hisi_pcie_pmu *pcie_pmu = hlist_entry_safe(node, struct hisi_pcie_pmu, node);
655
656 if (pcie_pmu->on_cpu == -1) {
657 pcie_pmu->on_cpu = cpu;
658 WARN_ON(irq_set_affinity(pcie_pmu->irq, cpumask_of(cpu)));
659 }
660
661 return 0;
662}
663
664static int hisi_pcie_pmu_offline_cpu(unsigned int cpu, struct hlist_node *node)
665{
666 struct hisi_pcie_pmu *pcie_pmu = hlist_entry_safe(node, struct hisi_pcie_pmu, node);
667 unsigned int target;
668
669 /* Nothing to do if this CPU doesn't own the PMU */
670 if (pcie_pmu->on_cpu != cpu)
671 return 0;
672
673 pcie_pmu->on_cpu = -1;
674 /* Choose a new CPU from all online cpus. */
675 target = cpumask_first(cpu_online_mask);
676 if (target >= nr_cpu_ids) {
677 pci_err(pcie_pmu->pdev, "There is no CPU to set\n");
678 return 0;
679 }
680
681 perf_pmu_migrate_context(&pcie_pmu->pmu, cpu, target);
682 /* Use this CPU for event counting */
683 pcie_pmu->on_cpu = target;
684 WARN_ON(irq_set_affinity(pcie_pmu->irq, cpumask_of(target)));
685
686 return 0;
687}
688
689static struct attribute *hisi_pcie_pmu_events_attr[] = {
690 HISI_PCIE_PMU_EVENT_ATTR(rx_mwr_latency, 0x0010),
691 HISI_PCIE_PMU_EVENT_ATTR(rx_mwr_cnt, 0x10010),
692 HISI_PCIE_PMU_EVENT_ATTR(rx_mrd_latency, 0x0210),
693 HISI_PCIE_PMU_EVENT_ATTR(rx_mrd_cnt, 0x10210),
694 HISI_PCIE_PMU_EVENT_ATTR(tx_mrd_latency, 0x0011),
695 HISI_PCIE_PMU_EVENT_ATTR(tx_mrd_cnt, 0x10011),
696 HISI_PCIE_PMU_EVENT_ATTR(rx_mrd_flux, 0x1005),
697 HISI_PCIE_PMU_EVENT_ATTR(rx_mrd_time, 0x11005),
698 HISI_PCIE_PMU_EVENT_ATTR(tx_mrd_flux, 0x2004),
699 HISI_PCIE_PMU_EVENT_ATTR(tx_mrd_time, 0x12004),
700 NULL
701};
702
703static struct attribute_group hisi_pcie_pmu_events_group = {
704 .name = "events",
705 .attrs = hisi_pcie_pmu_events_attr,
706};
707
708static struct attribute *hisi_pcie_pmu_format_attr[] = {
709 HISI_PCIE_PMU_FORMAT_ATTR(event, "config:0-16"),
710 HISI_PCIE_PMU_FORMAT_ATTR(thr_len, "config1:0-3"),
711 HISI_PCIE_PMU_FORMAT_ATTR(thr_mode, "config1:4"),
712 HISI_PCIE_PMU_FORMAT_ATTR(trig_len, "config1:5-8"),
713 HISI_PCIE_PMU_FORMAT_ATTR(trig_mode, "config1:9"),
714 HISI_PCIE_PMU_FORMAT_ATTR(port, "config2:0-15"),
715 HISI_PCIE_PMU_FORMAT_ATTR(bdf, "config2:16-31"),
716 NULL
717};
718
719static const struct attribute_group hisi_pcie_pmu_format_group = {
720 .name = "format",
721 .attrs = hisi_pcie_pmu_format_attr,
722};
723
724static struct attribute *hisi_pcie_pmu_bus_attrs[] = {
725 &dev_attr_bus.attr,
726 NULL
727};
728
729static const struct attribute_group hisi_pcie_pmu_bus_attr_group = {
730 .attrs = hisi_pcie_pmu_bus_attrs,
731};
732
733static struct attribute *hisi_pcie_pmu_cpumask_attrs[] = {
734 &dev_attr_cpumask.attr,
735 NULL
736};
737
738static const struct attribute_group hisi_pcie_pmu_cpumask_attr_group = {
739 .attrs = hisi_pcie_pmu_cpumask_attrs,
740};
741
742static struct attribute *hisi_pcie_pmu_identifier_attrs[] = {
743 &dev_attr_identifier.attr,
744 NULL
745};
746
747static const struct attribute_group hisi_pcie_pmu_identifier_attr_group = {
748 .attrs = hisi_pcie_pmu_identifier_attrs,
749};
750
751static const struct attribute_group *hisi_pcie_pmu_attr_groups[] = {
752 &hisi_pcie_pmu_events_group,
753 &hisi_pcie_pmu_format_group,
754 &hisi_pcie_pmu_bus_attr_group,
755 &hisi_pcie_pmu_cpumask_attr_group,
756 &hisi_pcie_pmu_identifier_attr_group,
757 NULL
758};
759
760static int hisi_pcie_alloc_pmu(struct pci_dev *pdev, struct hisi_pcie_pmu *pcie_pmu)
761{
762 struct hisi_pcie_reg_pair regs;
763 u16 sicl_id, core_id;
764 char *name;
765
766 regs = hisi_pcie_parse_reg_value(pcie_pmu, HISI_PCIE_REG_BDF);
767 pcie_pmu->bdf_min = regs.lo;
768 pcie_pmu->bdf_max = regs.hi;
769
770 regs = hisi_pcie_parse_reg_value(pcie_pmu, HISI_PCIE_REG_INFO);
771 sicl_id = regs.hi;
772 core_id = regs.lo;
773
774 name = devm_kasprintf(&pdev->dev, GFP_KERNEL, "hisi_pcie%u_core%u", sicl_id, core_id);
775 if (!name)
776 return -ENOMEM;
777
778 pcie_pmu->pdev = pdev;
779 pcie_pmu->on_cpu = -1;
780 pcie_pmu->identifier = readl(pcie_pmu->base + HISI_PCIE_REG_VERSION);
781 pcie_pmu->pmu = (struct pmu) {
782 .name = name,
783 .module = THIS_MODULE,
784 .event_init = hisi_pcie_pmu_event_init,
785 .pmu_enable = hisi_pcie_pmu_enable,
786 .pmu_disable = hisi_pcie_pmu_disable,
787 .add = hisi_pcie_pmu_add,
788 .del = hisi_pcie_pmu_del,
789 .start = hisi_pcie_pmu_start,
790 .stop = hisi_pcie_pmu_stop,
791 .read = hisi_pcie_pmu_read,
792 .task_ctx_nr = perf_invalid_context,
793 .attr_groups = hisi_pcie_pmu_attr_groups,
794 .capabilities = PERF_PMU_CAP_NO_EXCLUDE,
795 };
796
797 return 0;
798}
799
800static int hisi_pcie_init_pmu(struct pci_dev *pdev, struct hisi_pcie_pmu *pcie_pmu)
801{
802 int ret;
803
804 pcie_pmu->base = pci_ioremap_bar(pdev, 2);
805 if (!pcie_pmu->base) {
806 pci_err(pdev, "Ioremap failed for pcie_pmu resource\n");
807 return -ENOMEM;
808 }
809
810 ret = hisi_pcie_alloc_pmu(pdev, pcie_pmu);
811 if (ret)
812 goto err_iounmap;
813
814 ret = hisi_pcie_pmu_irq_register(pdev, pcie_pmu);
815 if (ret)
816 goto err_iounmap;
817
818 ret = cpuhp_state_add_instance(CPUHP_AP_PERF_ARM_HISI_PCIE_PMU_ONLINE, &pcie_pmu->node);
819 if (ret) {
820 pci_err(pdev, "Failed to register hotplug: %d\n", ret);
821 goto err_irq_unregister;
822 }
823
824 ret = perf_pmu_register(&pcie_pmu->pmu, pcie_pmu->pmu.name, -1);
825 if (ret) {
826 pci_err(pdev, "Failed to register PCIe PMU: %d\n", ret);
827 goto err_hotplug_unregister;
828 }
829
830 return ret;
831
832err_hotplug_unregister:
833 cpuhp_state_remove_instance_nocalls(
834 CPUHP_AP_PERF_ARM_HISI_PCIE_PMU_ONLINE, &pcie_pmu->node);
835
836err_irq_unregister:
837 hisi_pcie_pmu_irq_unregister(pdev, pcie_pmu);
838
839err_iounmap:
840 iounmap(pcie_pmu->base);
841
842 return ret;
843}
844
845static void hisi_pcie_uninit_pmu(struct pci_dev *pdev)
846{
847 struct hisi_pcie_pmu *pcie_pmu = pci_get_drvdata(pdev);
848
849 perf_pmu_unregister(&pcie_pmu->pmu);
850 cpuhp_state_remove_instance_nocalls(
851 CPUHP_AP_PERF_ARM_HISI_PCIE_PMU_ONLINE, &pcie_pmu->node);
852 hisi_pcie_pmu_irq_unregister(pdev, pcie_pmu);
853 iounmap(pcie_pmu->base);
854}
855
856static int hisi_pcie_init_dev(struct pci_dev *pdev)
857{
858 int ret;
859
860 ret = pcim_enable_device(pdev);
861 if (ret) {
862 pci_err(pdev, "Failed to enable PCI device: %d\n", ret);
863 return ret;
864 }
865
866 ret = pcim_iomap_regions(pdev, BIT(2), DRV_NAME);
867 if (ret < 0) {
868 pci_err(pdev, "Failed to request PCI mem regions: %d\n", ret);
869 return ret;
870 }
871
872 pci_set_master(pdev);
873
874 return 0;
875}
876
877static int hisi_pcie_pmu_probe(struct pci_dev *pdev, const struct pci_device_id *id)
878{
879 struct hisi_pcie_pmu *pcie_pmu;
880 int ret;
881
882 pcie_pmu = devm_kzalloc(&pdev->dev, sizeof(*pcie_pmu), GFP_KERNEL);
883 if (!pcie_pmu)
884 return -ENOMEM;
885
886 ret = hisi_pcie_init_dev(pdev);
887 if (ret)
888 return ret;
889
890 ret = hisi_pcie_init_pmu(pdev, pcie_pmu);
891 if (ret)
892 return ret;
893
894 pci_set_drvdata(pdev, pcie_pmu);
895
896 return ret;
897}
898
899static void hisi_pcie_pmu_remove(struct pci_dev *pdev)
900{
901 hisi_pcie_uninit_pmu(pdev);
902 pci_set_drvdata(pdev, NULL);
903}
904
905static const struct pci_device_id hisi_pcie_pmu_ids[] = {
906 { PCI_DEVICE(PCI_VENDOR_ID_HUAWEI, 0xa12d) },
907 { 0, }
908};
909MODULE_DEVICE_TABLE(pci, hisi_pcie_pmu_ids);
910
911static struct pci_driver hisi_pcie_pmu_driver = {
912 .name = DRV_NAME,
913 .id_table = hisi_pcie_pmu_ids,
914 .probe = hisi_pcie_pmu_probe,
915 .remove = hisi_pcie_pmu_remove,
916};
917
918static int __init hisi_pcie_module_init(void)
919{
920 int ret;
921
922 ret = cpuhp_setup_state_multi(CPUHP_AP_PERF_ARM_HISI_PCIE_PMU_ONLINE,
923 "AP_PERF_ARM_HISI_PCIE_PMU_ONLINE",
924 hisi_pcie_pmu_online_cpu,
925 hisi_pcie_pmu_offline_cpu);
926 if (ret) {
927 pr_err("Failed to setup PCIe PMU hotplug: %d\n", ret);
928 return ret;
929 }
930
931 ret = pci_register_driver(&hisi_pcie_pmu_driver);
932 if (ret)
933 cpuhp_remove_multi_state(CPUHP_AP_PERF_ARM_HISI_PCIE_PMU_ONLINE);
934
935 return ret;
936}
937module_init(hisi_pcie_module_init);
938
939static void __exit hisi_pcie_module_exit(void)
940{
941 pci_unregister_driver(&hisi_pcie_pmu_driver);
942 cpuhp_remove_multi_state(CPUHP_AP_PERF_ARM_HISI_PCIE_PMU_ONLINE);
943}
944module_exit(hisi_pcie_module_exit);
945
946MODULE_DESCRIPTION("HiSilicon PCIe PMU driver");
947MODULE_LICENSE("GPL v2");
948MODULE_AUTHOR("Qi Liu <liuqi115@huawei.com>");