crypto: algif - explicitly mark end of data
authortadeusz.struk@intel.com <tadeusz.struk@intel.com>
Wed, 1 Apr 2015 20:53:06 +0000 (13:53 -0700)
committerDavid S. Miller <davem@davemloft.net>
Thu, 2 Apr 2015 02:59:28 +0000 (22:59 -0400)
After the TX sgl is expanded we need to explicitly mark end of data
at the last buffer that contains data.

Changes in v2
 - use type 'bool' and true/false for 'mark'.

Signed-off-by: Tadeusz Struk <tadeusz.struk@intel.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
crypto/algif_skcipher.c

index 2db1eb776932e0e525a807d236d9845da7a5826b..0aa02635ceda67a0591c6eb2a25a1d789a8a2012 100644 (file)
@@ -509,11 +509,11 @@ static int skcipher_recvmsg_async(struct socket *sock, struct msghdr *msg,
        struct skcipher_async_req *sreq;
        struct ablkcipher_request *req;
        struct skcipher_async_rsgl *last_rsgl = NULL;
-       unsigned int len = 0, tx_nents = skcipher_all_sg_nents(ctx);
+       unsigned int txbufs = 0, len = 0, tx_nents = skcipher_all_sg_nents(ctx);
        unsigned int reqlen = sizeof(struct skcipher_async_req) +
                                GET_REQ_SIZE(ctx) + GET_IV_SIZE(ctx);
-       int i = 0;
        int err = -ENOMEM;
+       bool mark = false;
 
        lock_sock(sk);
        req = kmalloc(reqlen, GFP_KERNEL);
@@ -555,7 +555,7 @@ static int skcipher_recvmsg_async(struct socket *sock, struct msghdr *msg,
                             iov_iter_count(&msg->msg_iter));
                used = min_t(unsigned long, used, sg->length);
 
-               if (i == tx_nents) {
+               if (txbufs == tx_nents) {
                        struct scatterlist *tmp;
                        int x;
                        /* Ran out of tx slots in async request
@@ -573,10 +573,11 @@ static int skcipher_recvmsg_async(struct socket *sock, struct msghdr *msg,
                        kfree(sreq->tsg);
                        sreq->tsg = tmp;
                        tx_nents *= 2;
+                       mark = true;
                }
                /* Need to take over the tx sgl from ctx
                 * to the asynch req - these sgls will be freed later */
-               sg_set_page(sreq->tsg + i++, sg_page(sg), sg->length,
+               sg_set_page(sreq->tsg + txbufs++, sg_page(sg), sg->length,
                            sg->offset);
 
                if (list_empty(&sreq->list)) {
@@ -604,6 +605,9 @@ static int skcipher_recvmsg_async(struct socket *sock, struct msghdr *msg,
                iov_iter_advance(&msg->msg_iter, used);
        }
 
+       if (mark)
+               sg_mark_end(sreq->tsg + txbufs - 1);
+
        ablkcipher_request_set_crypt(req, sreq->tsg, sreq->first_sgl.sgl.sg,
                                     len, sreq->iv);
        err = ctx->enc ? crypto_ablkcipher_encrypt(req) :