xsk: Add rcu_read_lock around the XSK wakeup
authorMaxim Mikityanskiy <maximmi@mellanox.com>
Tue, 17 Dec 2019 16:20:42 +0000 (16:20 +0000)
committerDaniel Borkmann <daniel@iogearbox.net>
Thu, 19 Dec 2019 15:20:48 +0000 (16:20 +0100)
The XSK wakeup callback in drivers makes some sanity checks before
triggering NAPI. However, some configuration changes may occur during
this function that affect the result of those checks. For example, the
interface can go down, and all the resources will be destroyed after the
checks in the wakeup function, but before it attempts to use these
resources. Wrap this callback in rcu_read_lock to allow driver to
synchronize_rcu before actually destroying the resources.

xsk_wakeup is a new function that encapsulates calling ndo_xsk_wakeup
wrapped into the RCU lock. After this commit, xsk_poll starts using
xsk_wakeup and checks xs->zc instead of ndo_xsk_wakeup != NULL to decide
ndo_xsk_wakeup should be called. It also fixes a bug introduced with the
need_wakeup feature: a non-zero-copy socket may be used with a driver
supporting zero-copy, and in this case ndo_xsk_wakeup should not be
called, so the xs->zc check is the correct one.

Fixes: 77cd0d7b3f25 ("xsk: add support for need_wakeup flag in AF_XDP rings")
Signed-off-by: Maxim Mikityanskiy <maximmi@mellanox.com>
Signed-off-by: Björn Töpel <bjorn.topel@intel.com>
Signed-off-by: Daniel Borkmann <daniel@iogearbox.net>
Link: https://lore.kernel.org/bpf/20191217162023.16011-2-maximmi@mellanox.com
net/xdp/xsk.c

index 956793893c9dec2752b8e6a3140cc44c0e633df3..328f661b83b2ec5c86440e310515d9244aad6b5a 100644 (file)
@@ -334,12 +334,21 @@ out:
 }
 EXPORT_SYMBOL(xsk_umem_consume_tx);
 
-static int xsk_zc_xmit(struct xdp_sock *xs)
+static int xsk_wakeup(struct xdp_sock *xs, u8 flags)
 {
        struct net_device *dev = xs->dev;
+       int err;
+
+       rcu_read_lock();
+       err = dev->netdev_ops->ndo_xsk_wakeup(dev, xs->queue_id, flags);
+       rcu_read_unlock();
+
+       return err;
+}
 
-       return dev->netdev_ops->ndo_xsk_wakeup(dev, xs->queue_id,
-                                              XDP_WAKEUP_TX);
+static int xsk_zc_xmit(struct xdp_sock *xs)
+{
+       return xsk_wakeup(xs, XDP_WAKEUP_TX);
 }
 
 static void xsk_destruct_skb(struct sk_buff *skb)
@@ -453,19 +462,16 @@ static __poll_t xsk_poll(struct file *file, struct socket *sock,
        __poll_t mask = datagram_poll(file, sock, wait);
        struct sock *sk = sock->sk;
        struct xdp_sock *xs = xdp_sk(sk);
-       struct net_device *dev;
        struct xdp_umem *umem;
 
        if (unlikely(!xsk_is_bound(xs)))
                return mask;
 
-       dev = xs->dev;
        umem = xs->umem;
 
        if (umem->need_wakeup) {
-               if (dev->netdev_ops->ndo_xsk_wakeup)
-                       dev->netdev_ops->ndo_xsk_wakeup(dev, xs->queue_id,
-                                                       umem->need_wakeup);
+               if (xs->zc)
+                       xsk_wakeup(xs, umem->need_wakeup);
                else
                        /* Poll needs to drive Tx also in copy mode */
                        __xsk_sendmsg(sk);