idpf: fix corrupted frames and skb leaks in singleq mode
authorAlexander Lobakin <aleksander.lobakin@intel.com>
Mon, 11 Dec 2023 12:31:44 +0000 (13:31 +0100)
committerTony Nguyen <anthony.l.nguyen@intel.com>
Tue, 26 Dec 2023 17:04:53 +0000 (09:04 -0800)
idpf_ring::skb serves only for keeping an incomplete frame between
several NAPI Rx polling cycles, as one cycle may end up before
processing the end of packet descriptor. The pointer is taken from
the ring onto the stack before entering the loop and gets written
there after the loop exits. When inside the loop, only the onstack
pointer is used.
For some reason, the logics is broken in the singleq mode, where the
pointer is taken from the ring each iteration. This means that if a
frame got fragmented into several descriptors, each fragment will have
its own skb, but only the last one will be passed up the stack
(containing garbage), leaving the rest leaked.
Then, on ifdown, rxq::skb is being freed only in the splitq mode, while
it can point to a valid skb in singleq as well. This can lead to a yet
another skb leak.
Just don't touch the ring skb field inside the polling loop, letting
the onstack skb pointer work as expected: build a new skb if it's the
first frame descriptor and attach a frag otherwise. On ifdown, free
rxq::skb unconditionally if the pointer is non-NULL.

Fixes: a5ab9ee0df0b ("idpf: add singleq start_xmit and napi poll")
Reviewed-by: Przemek Kitszel <przemyslaw.kitszel@intel.com>
Reviewed-by: Michal Kubiak <michal.kubiak@intel.com>
Reviewed-by: Simon Horman <horms@kernel.org>
Reviewed-by: Eric Dumazet <edumazet@google.com>
Signed-off-by: Alexander Lobakin <aleksander.lobakin@intel.com>
Tested-by: Scott Register <scott.register@intel.com>
Signed-off-by: Tony Nguyen <anthony.l.nguyen@intel.com>
drivers/net/ethernet/intel/idpf/idpf_singleq_txrx.c
drivers/net/ethernet/intel/idpf/idpf_txrx.c

index 81288a17da2a2e05c3b978b475c6afdac95aef1c..20c4b3a6471068ecc09f9adc31cd7f79af87c66d 100644 (file)
@@ -1044,7 +1044,6 @@ static int idpf_rx_singleq_clean(struct idpf_queue *rx_q, int budget)
                }
 
                idpf_rx_sync_for_cpu(rx_buf, fields.size);
-               skb = rx_q->skb;
                if (skb)
                        idpf_rx_add_frag(rx_buf, skb, fields.size);
                else
index 1f728a9004d9e40d4434534422a42c8c537f5eae..9e942e5baf39419fa1d94e01f39798d14cbc2018 100644 (file)
@@ -396,7 +396,7 @@ static void idpf_rx_desc_rel(struct idpf_queue *rxq, bool bufq, s32 q_model)
        if (!rxq)
                return;
 
-       if (!bufq && idpf_is_queue_model_split(q_model) && rxq->skb) {
+       if (rxq->skb) {
                dev_kfree_skb_any(rxq->skb);
                rxq->skb = NULL;
        }