nvme-tcp: fix incorrect h2cdata pdu offset accounting
authorSagi Grimberg <sagi@grimberg.me>
Tue, 14 Sep 2021 15:38:55 +0000 (18:38 +0300)
committerChristoph Hellwig <hch@lst.de>
Tue, 21 Sep 2021 07:17:15 +0000 (09:17 +0200)
commite371af033c560b9dd1e861f8f0b503142bf0a06c
treec3cacb125f4586143fec4521da03d03a584cde48
parentbdaa1365667103e7a754e87c08b846a979ce322b
nvme-tcp: fix incorrect h2cdata pdu offset accounting

When the controller sends us multiple r2t PDUs in a single
request we need to account for it correctly as our send/recv
context run concurrently (i.e. we get a new r2t with r2t_offset
before we updated our iterator and req->data_sent marker). This
can cause wrong offsets to be sent to the controller.

To fix that, we will first know that this may happen only in
the send sequence of the last page, hence we will take
the r2t_offset to the h2c PDU data_offset, and in
nvme_tcp_try_send_data loop, we make sure to increment
the request markers also when we completed a PDU but
we are expecting more r2t PDUs as we still did not send
the entire data of the request.

Fixes: 825619b09ad3 ("nvme-tcp: fix possible use-after-completion")
Reported-by: Nowak, Lukasz <Lukasz.Nowak@Dell.com>
Tested-by: Nowak, Lukasz <Lukasz.Nowak@Dell.com>
Signed-off-by: Sagi Grimberg <sagi@grimberg.me>
Reviewed-by: Keith Busch <kbusch@kernel.org>
Signed-off-by: Christoph Hellwig <hch@lst.de>
drivers/nvme/host/tcp.c