net: dsa: export bridging offload helpers to drivers
[linux-block.git] / net / dsa / dsa_priv.h
1 /* SPDX-License-Identifier: GPL-2.0-or-later */
2 /*
3  * net/dsa/dsa_priv.h - Hardware switch handling
4  * Copyright (c) 2008-2009 Marvell Semiconductor
5  */
6
7 #ifndef __DSA_PRIV_H
8 #define __DSA_PRIV_H
9
10 #include <linux/if_bridge.h>
11 #include <linux/phy.h>
12 #include <linux/netdevice.h>
13 #include <linux/netpoll.h>
14 #include <net/dsa.h>
15 #include <net/gro_cells.h>
16
17 #define DSA_MAX_NUM_OFFLOADING_BRIDGES          BITS_PER_LONG
18
19 enum {
20         DSA_NOTIFIER_AGEING_TIME,
21         DSA_NOTIFIER_BRIDGE_JOIN,
22         DSA_NOTIFIER_BRIDGE_LEAVE,
23         DSA_NOTIFIER_FDB_ADD,
24         DSA_NOTIFIER_FDB_DEL,
25         DSA_NOTIFIER_HOST_FDB_ADD,
26         DSA_NOTIFIER_HOST_FDB_DEL,
27         DSA_NOTIFIER_HSR_JOIN,
28         DSA_NOTIFIER_HSR_LEAVE,
29         DSA_NOTIFIER_LAG_CHANGE,
30         DSA_NOTIFIER_LAG_JOIN,
31         DSA_NOTIFIER_LAG_LEAVE,
32         DSA_NOTIFIER_MDB_ADD,
33         DSA_NOTIFIER_MDB_DEL,
34         DSA_NOTIFIER_HOST_MDB_ADD,
35         DSA_NOTIFIER_HOST_MDB_DEL,
36         DSA_NOTIFIER_VLAN_ADD,
37         DSA_NOTIFIER_VLAN_DEL,
38         DSA_NOTIFIER_MTU,
39         DSA_NOTIFIER_TAG_PROTO,
40         DSA_NOTIFIER_MRP_ADD,
41         DSA_NOTIFIER_MRP_DEL,
42         DSA_NOTIFIER_MRP_ADD_RING_ROLE,
43         DSA_NOTIFIER_MRP_DEL_RING_ROLE,
44         DSA_NOTIFIER_TAG_8021Q_VLAN_ADD,
45         DSA_NOTIFIER_TAG_8021Q_VLAN_DEL,
46 };
47
48 /* DSA_NOTIFIER_AGEING_TIME */
49 struct dsa_notifier_ageing_time_info {
50         unsigned int ageing_time;
51 };
52
53 /* DSA_NOTIFIER_BRIDGE_* */
54 struct dsa_notifier_bridge_info {
55         struct net_device *br;
56         int tree_index;
57         int sw_index;
58         int port;
59 };
60
61 /* DSA_NOTIFIER_FDB_* */
62 struct dsa_notifier_fdb_info {
63         int sw_index;
64         int port;
65         const unsigned char *addr;
66         u16 vid;
67 };
68
69 /* DSA_NOTIFIER_MDB_* */
70 struct dsa_notifier_mdb_info {
71         const struct switchdev_obj_port_mdb *mdb;
72         int sw_index;
73         int port;
74 };
75
76 /* DSA_NOTIFIER_LAG_* */
77 struct dsa_notifier_lag_info {
78         struct net_device *lag;
79         int sw_index;
80         int port;
81
82         struct netdev_lag_upper_info *info;
83 };
84
85 /* DSA_NOTIFIER_VLAN_* */
86 struct dsa_notifier_vlan_info {
87         const struct switchdev_obj_port_vlan *vlan;
88         int sw_index;
89         int port;
90         struct netlink_ext_ack *extack;
91 };
92
93 /* DSA_NOTIFIER_MTU */
94 struct dsa_notifier_mtu_info {
95         bool targeted_match;
96         int sw_index;
97         int port;
98         int mtu;
99 };
100
101 /* DSA_NOTIFIER_TAG_PROTO_* */
102 struct dsa_notifier_tag_proto_info {
103         const struct dsa_device_ops *tag_ops;
104 };
105
106 /* DSA_NOTIFIER_MRP_* */
107 struct dsa_notifier_mrp_info {
108         const struct switchdev_obj_mrp *mrp;
109         int sw_index;
110         int port;
111 };
112
113 /* DSA_NOTIFIER_MRP_* */
114 struct dsa_notifier_mrp_ring_role_info {
115         const struct switchdev_obj_ring_role_mrp *mrp;
116         int sw_index;
117         int port;
118 };
119
120 /* DSA_NOTIFIER_TAG_8021Q_VLAN_* */
121 struct dsa_notifier_tag_8021q_vlan_info {
122         int tree_index;
123         int sw_index;
124         int port;
125         u16 vid;
126 };
127
128 struct dsa_switchdev_event_work {
129         struct dsa_switch *ds;
130         int port;
131         struct net_device *dev;
132         struct work_struct work;
133         unsigned long event;
134         /* Specific for SWITCHDEV_FDB_ADD_TO_DEVICE and
135          * SWITCHDEV_FDB_DEL_TO_DEVICE
136          */
137         unsigned char addr[ETH_ALEN];
138         u16 vid;
139         bool host_addr;
140 };
141
142 /* DSA_NOTIFIER_HSR_* */
143 struct dsa_notifier_hsr_info {
144         struct net_device *hsr;
145         int sw_index;
146         int port;
147 };
148
149 struct dsa_slave_priv {
150         /* Copy of CPU port xmit for faster access in slave transmit hot path */
151         struct sk_buff *        (*xmit)(struct sk_buff *skb,
152                                         struct net_device *dev);
153
154         struct gro_cells        gcells;
155
156         /* DSA port data, such as switch, port index, etc. */
157         struct dsa_port         *dp;
158
159 #ifdef CONFIG_NET_POLL_CONTROLLER
160         struct netpoll          *netpoll;
161 #endif
162
163         /* TC context */
164         struct list_head        mall_tc_list;
165 };
166
167 /* dsa.c */
168 const struct dsa_device_ops *dsa_tag_driver_get(int tag_protocol);
169 void dsa_tag_driver_put(const struct dsa_device_ops *ops);
170 const struct dsa_device_ops *dsa_find_tagger_by_name(const char *buf);
171
172 bool dsa_schedule_work(struct work_struct *work);
173 void dsa_flush_workqueue(void);
174 const char *dsa_tag_protocol_to_str(const struct dsa_device_ops *ops);
175
176 static inline int dsa_tag_protocol_overhead(const struct dsa_device_ops *ops)
177 {
178         return ops->needed_headroom + ops->needed_tailroom;
179 }
180
181 /* master.c */
182 int dsa_master_setup(struct net_device *dev, struct dsa_port *cpu_dp);
183 void dsa_master_teardown(struct net_device *dev);
184
185 static inline struct net_device *dsa_master_find_slave(struct net_device *dev,
186                                                        int device, int port)
187 {
188         struct dsa_port *cpu_dp = dev->dsa_ptr;
189         struct dsa_switch_tree *dst = cpu_dp->dst;
190         struct dsa_port *dp;
191
192         list_for_each_entry(dp, &dst->ports, list)
193                 if (dp->ds->index == device && dp->index == port &&
194                     dp->type == DSA_PORT_TYPE_USER)
195                         return dp->slave;
196
197         return NULL;
198 }
199
200 /* port.c */
201 void dsa_port_set_tag_protocol(struct dsa_port *cpu_dp,
202                                const struct dsa_device_ops *tag_ops);
203 int dsa_port_set_state(struct dsa_port *dp, u8 state, bool do_fast_age);
204 int dsa_port_enable_rt(struct dsa_port *dp, struct phy_device *phy);
205 int dsa_port_enable(struct dsa_port *dp, struct phy_device *phy);
206 void dsa_port_disable_rt(struct dsa_port *dp);
207 void dsa_port_disable(struct dsa_port *dp);
208 int dsa_port_bridge_join(struct dsa_port *dp, struct net_device *br,
209                          struct netlink_ext_ack *extack);
210 void dsa_port_pre_bridge_leave(struct dsa_port *dp, struct net_device *br);
211 void dsa_port_bridge_leave(struct dsa_port *dp, struct net_device *br);
212 int dsa_port_lag_change(struct dsa_port *dp,
213                         struct netdev_lag_lower_state_info *linfo);
214 int dsa_port_lag_join(struct dsa_port *dp, struct net_device *lag_dev,
215                       struct netdev_lag_upper_info *uinfo,
216                       struct netlink_ext_ack *extack);
217 void dsa_port_pre_lag_leave(struct dsa_port *dp, struct net_device *lag_dev);
218 void dsa_port_lag_leave(struct dsa_port *dp, struct net_device *lag_dev);
219 int dsa_port_vlan_filtering(struct dsa_port *dp, bool vlan_filtering,
220                             struct netlink_ext_ack *extack);
221 bool dsa_port_skip_vlan_configuration(struct dsa_port *dp);
222 int dsa_port_ageing_time(struct dsa_port *dp, clock_t ageing_clock);
223 int dsa_port_mtu_change(struct dsa_port *dp, int new_mtu,
224                         bool targeted_match);
225 int dsa_port_fdb_add(struct dsa_port *dp, const unsigned char *addr,
226                      u16 vid);
227 int dsa_port_fdb_del(struct dsa_port *dp, const unsigned char *addr,
228                      u16 vid);
229 int dsa_port_host_fdb_add(struct dsa_port *dp, const unsigned char *addr,
230                           u16 vid);
231 int dsa_port_host_fdb_del(struct dsa_port *dp, const unsigned char *addr,
232                           u16 vid);
233 int dsa_port_fdb_dump(struct dsa_port *dp, dsa_fdb_dump_cb_t *cb, void *data);
234 int dsa_port_mdb_add(const struct dsa_port *dp,
235                      const struct switchdev_obj_port_mdb *mdb);
236 int dsa_port_mdb_del(const struct dsa_port *dp,
237                      const struct switchdev_obj_port_mdb *mdb);
238 int dsa_port_host_mdb_add(const struct dsa_port *dp,
239                           const struct switchdev_obj_port_mdb *mdb);
240 int dsa_port_host_mdb_del(const struct dsa_port *dp,
241                           const struct switchdev_obj_port_mdb *mdb);
242 int dsa_port_pre_bridge_flags(const struct dsa_port *dp,
243                               struct switchdev_brport_flags flags,
244                               struct netlink_ext_ack *extack);
245 int dsa_port_bridge_flags(struct dsa_port *dp,
246                           struct switchdev_brport_flags flags,
247                           struct netlink_ext_ack *extack);
248 int dsa_port_vlan_add(struct dsa_port *dp,
249                       const struct switchdev_obj_port_vlan *vlan,
250                       struct netlink_ext_ack *extack);
251 int dsa_port_vlan_del(struct dsa_port *dp,
252                       const struct switchdev_obj_port_vlan *vlan);
253 int dsa_port_mrp_add(const struct dsa_port *dp,
254                      const struct switchdev_obj_mrp *mrp);
255 int dsa_port_mrp_del(const struct dsa_port *dp,
256                      const struct switchdev_obj_mrp *mrp);
257 int dsa_port_mrp_add_ring_role(const struct dsa_port *dp,
258                                const struct switchdev_obj_ring_role_mrp *mrp);
259 int dsa_port_mrp_del_ring_role(const struct dsa_port *dp,
260                                const struct switchdev_obj_ring_role_mrp *mrp);
261 int dsa_port_phylink_create(struct dsa_port *dp);
262 int dsa_port_link_register_of(struct dsa_port *dp);
263 void dsa_port_link_unregister_of(struct dsa_port *dp);
264 int dsa_port_hsr_join(struct dsa_port *dp, struct net_device *hsr);
265 void dsa_port_hsr_leave(struct dsa_port *dp, struct net_device *hsr);
266 int dsa_port_tag_8021q_vlan_add(struct dsa_port *dp, u16 vid, bool broadcast);
267 void dsa_port_tag_8021q_vlan_del(struct dsa_port *dp, u16 vid, bool broadcast);
268
269 /* slave.c */
270 extern const struct dsa_device_ops notag_netdev_ops;
271 extern struct notifier_block dsa_slave_switchdev_notifier;
272 extern struct notifier_block dsa_slave_switchdev_blocking_notifier;
273
274 void dsa_slave_mii_bus_init(struct dsa_switch *ds);
275 int dsa_slave_create(struct dsa_port *dp);
276 void dsa_slave_destroy(struct net_device *slave_dev);
277 int dsa_slave_suspend(struct net_device *slave_dev);
278 int dsa_slave_resume(struct net_device *slave_dev);
279 int dsa_slave_register_notifier(void);
280 void dsa_slave_unregister_notifier(void);
281 void dsa_slave_setup_tagger(struct net_device *slave);
282 int dsa_slave_change_mtu(struct net_device *dev, int new_mtu);
283 int dsa_slave_manage_vlan_filtering(struct net_device *dev,
284                                     bool vlan_filtering);
285
286 static inline struct dsa_port *dsa_slave_to_port(const struct net_device *dev)
287 {
288         struct dsa_slave_priv *p = netdev_priv(dev);
289
290         return p->dp;
291 }
292
293 static inline struct net_device *
294 dsa_slave_to_master(const struct net_device *dev)
295 {
296         struct dsa_port *dp = dsa_slave_to_port(dev);
297
298         return dp->cpu_dp->master;
299 }
300
301 /* If under a bridge with vlan_filtering=0, make sure to send pvid-tagged
302  * frames as untagged, since the bridge will not untag them.
303  */
304 static inline struct sk_buff *dsa_untag_bridge_pvid(struct sk_buff *skb)
305 {
306         struct dsa_port *dp = dsa_slave_to_port(skb->dev);
307         struct net_device *br = dsa_port_bridge_dev_get(dp);
308         struct net_device *dev = skb->dev;
309         struct net_device *upper_dev;
310         u16 vid, pvid, proto;
311         int err;
312
313         if (!br || br_vlan_enabled(br))
314                 return skb;
315
316         err = br_vlan_get_proto(br, &proto);
317         if (err)
318                 return skb;
319
320         /* Move VLAN tag from data to hwaccel */
321         if (!skb_vlan_tag_present(skb) && skb->protocol == htons(proto)) {
322                 skb = skb_vlan_untag(skb);
323                 if (!skb)
324                         return NULL;
325         }
326
327         if (!skb_vlan_tag_present(skb))
328                 return skb;
329
330         vid = skb_vlan_tag_get_id(skb);
331
332         /* We already run under an RCU read-side critical section since
333          * we are called from netif_receive_skb_list_internal().
334          */
335         err = br_vlan_get_pvid_rcu(dev, &pvid);
336         if (err)
337                 return skb;
338
339         if (vid != pvid)
340                 return skb;
341
342         /* The sad part about attempting to untag from DSA is that we
343          * don't know, unless we check, if the skb will end up in
344          * the bridge's data path - br_allowed_ingress() - or not.
345          * For example, there might be an 8021q upper for the
346          * default_pvid of the bridge, which will steal VLAN-tagged traffic
347          * from the bridge's data path. This is a configuration that DSA
348          * supports because vlan_filtering is 0. In that case, we should
349          * definitely keep the tag, to make sure it keeps working.
350          */
351         upper_dev = __vlan_find_dev_deep_rcu(br, htons(proto), vid);
352         if (upper_dev)
353                 return skb;
354
355         __vlan_hwaccel_clear_tag(skb);
356
357         return skb;
358 }
359
360 /* For switches without hardware support for DSA tagging to be able
361  * to support termination through the bridge.
362  */
363 static inline struct net_device *
364 dsa_find_designated_bridge_port_by_vid(struct net_device *master, u16 vid)
365 {
366         struct dsa_port *cpu_dp = master->dsa_ptr;
367         struct dsa_switch_tree *dst = cpu_dp->dst;
368         struct bridge_vlan_info vinfo;
369         struct net_device *slave;
370         struct dsa_port *dp;
371         int err;
372
373         list_for_each_entry(dp, &dst->ports, list) {
374                 if (dp->type != DSA_PORT_TYPE_USER)
375                         continue;
376
377                 if (!dp->bridge_dev)
378                         continue;
379
380                 if (dp->stp_state != BR_STATE_LEARNING &&
381                     dp->stp_state != BR_STATE_FORWARDING)
382                         continue;
383
384                 /* Since the bridge might learn this packet, keep the CPU port
385                  * affinity with the port that will be used for the reply on
386                  * xmit.
387                  */
388                 if (dp->cpu_dp != cpu_dp)
389                         continue;
390
391                 slave = dp->slave;
392
393                 err = br_vlan_get_info_rcu(slave, vid, &vinfo);
394                 if (err)
395                         continue;
396
397                 return slave;
398         }
399
400         return NULL;
401 }
402
403 /* If the ingress port offloads the bridge, we mark the frame as autonomously
404  * forwarded by hardware, so the software bridge doesn't forward in twice, back
405  * to us, because we already did. However, if we're in fallback mode and we do
406  * software bridging, we are not offloading it, therefore the dp->bridge_dev
407  * pointer is not populated, and flooding needs to be done by software (we are
408  * effectively operating in standalone ports mode).
409  */
410 static inline void dsa_default_offload_fwd_mark(struct sk_buff *skb)
411 {
412         struct dsa_port *dp = dsa_slave_to_port(skb->dev);
413
414         skb->offload_fwd_mark = !!(dp->bridge_dev);
415 }
416
417 /* Helper for removing DSA header tags from packets in the RX path.
418  * Must not be called before skb_pull(len).
419  *                                                                 skb->data
420  *                                                                         |
421  *                                                                         v
422  * |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |
423  * +-----------------------+-----------------------+---------------+-------+
424  * |    Destination MAC    |      Source MAC       |  DSA header   | EType |
425  * +-----------------------+-----------------------+---------------+-------+
426  *                                                 |               |
427  * <----- len ----->                               <----- len ----->
428  *                 |
429  *       >>>>>>>   v
430  *       >>>>>>>   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |
431  *       >>>>>>>   +-----------------------+-----------------------+-------+
432  *       >>>>>>>   |    Destination MAC    |      Source MAC       | EType |
433  *                 +-----------------------+-----------------------+-------+
434  *                                                                         ^
435  *                                                                         |
436  *                                                                 skb->data
437  */
438 static inline void dsa_strip_etype_header(struct sk_buff *skb, int len)
439 {
440         memmove(skb->data - ETH_HLEN, skb->data - ETH_HLEN - len, 2 * ETH_ALEN);
441 }
442
443 /* Helper for creating space for DSA header tags in TX path packets.
444  * Must not be called before skb_push(len).
445  *
446  * Before:
447  *
448  *       <<<<<<<   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |
449  * ^     <<<<<<<   +-----------------------+-----------------------+-------+
450  * |     <<<<<<<   |    Destination MAC    |      Source MAC       | EType |
451  * |               +-----------------------+-----------------------+-------+
452  * <----- len ----->
453  * |
454  * |
455  * skb->data
456  *
457  * After:
458  *
459  * |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |   |
460  * +-----------------------+-----------------------+---------------+-------+
461  * |    Destination MAC    |      Source MAC       |  DSA header   | EType |
462  * +-----------------------+-----------------------+---------------+-------+
463  * ^                                               |               |
464  * |                                               <----- len ----->
465  * skb->data
466  */
467 static inline void dsa_alloc_etype_header(struct sk_buff *skb, int len)
468 {
469         memmove(skb->data, skb->data + len, 2 * ETH_ALEN);
470 }
471
472 /* On RX, eth_type_trans() on the DSA master pulls ETH_HLEN bytes starting from
473  * skb_mac_header(skb), which leaves skb->data pointing at the first byte after
474  * what the DSA master perceives as the EtherType (the beginning of the L3
475  * protocol). Since DSA EtherType header taggers treat the EtherType as part of
476  * the DSA tag itself, and the EtherType is 2 bytes in length, the DSA header
477  * is located 2 bytes behind skb->data. Note that EtherType in this context
478  * means the first 2 bytes of the DSA header, not the encapsulated EtherType
479  * that will become visible after the DSA header is stripped.
480  */
481 static inline void *dsa_etype_header_pos_rx(struct sk_buff *skb)
482 {
483         return skb->data - 2;
484 }
485
486 /* On TX, skb->data points to skb_mac_header(skb), which means that EtherType
487  * header taggers start exactly where the EtherType is (the EtherType is
488  * treated as part of the DSA header).
489  */
490 static inline void *dsa_etype_header_pos_tx(struct sk_buff *skb)
491 {
492         return skb->data + 2 * ETH_ALEN;
493 }
494
495 /* switch.c */
496 int dsa_switch_register_notifier(struct dsa_switch *ds);
497 void dsa_switch_unregister_notifier(struct dsa_switch *ds);
498
499 /* dsa2.c */
500 void dsa_lag_map(struct dsa_switch_tree *dst, struct net_device *lag);
501 void dsa_lag_unmap(struct dsa_switch_tree *dst, struct net_device *lag);
502 int dsa_tree_notify(struct dsa_switch_tree *dst, unsigned long e, void *v);
503 int dsa_broadcast(unsigned long e, void *v);
504 int dsa_tree_change_tag_proto(struct dsa_switch_tree *dst,
505                               struct net_device *master,
506                               const struct dsa_device_ops *tag_ops,
507                               const struct dsa_device_ops *old_tag_ops);
508 unsigned int dsa_bridge_num_get(const struct net_device *bridge_dev, int max);
509 void dsa_bridge_num_put(const struct net_device *bridge_dev,
510                         unsigned int bridge_num);
511
512 /* tag_8021q.c */
513 int dsa_tag_8021q_bridge_join(struct dsa_switch *ds,
514                               struct dsa_notifier_bridge_info *info);
515 int dsa_tag_8021q_bridge_leave(struct dsa_switch *ds,
516                                struct dsa_notifier_bridge_info *info);
517 int dsa_switch_tag_8021q_vlan_add(struct dsa_switch *ds,
518                                   struct dsa_notifier_tag_8021q_vlan_info *info);
519 int dsa_switch_tag_8021q_vlan_del(struct dsa_switch *ds,
520                                   struct dsa_notifier_tag_8021q_vlan_info *info);
521
522 extern struct list_head dsa_tree_list;
523
524 #endif