crypto: ccp - Use skcipher for fallback
authorHerbert Xu <herbert@gondor.apana.org.au>
Wed, 29 Jun 2016 10:04:01 +0000 (18:04 +0800)
committerHerbert Xu <herbert@gondor.apana.org.au>
Fri, 1 Jul 2016 15:45:08 +0000 (23:45 +0800)
This patch replaces use of the obsolete ablkcipher with skcipher.

Signed-off-by: Herbert Xu <herbert@gondor.apana.org.au>
drivers/crypto/ccp/ccp-crypto-aes-xts.c
drivers/crypto/ccp/ccp-crypto.h

index 0d0d4529ee36013b9eef60e1f7d18b7df9961705..58a4244b4752997fdc645304db0f1f881451e67f 100644 (file)
@@ -14,9 +14,8 @@
 #include <linux/sched.h>
 #include <linux/delay.h>
 #include <linux/scatterlist.h>
-#include <linux/crypto.h>
-#include <crypto/algapi.h>
 #include <crypto/aes.h>
+#include <crypto/internal/skcipher.h>
 #include <crypto/scatterwalk.h>
 
 #include "ccp-crypto.h"
@@ -110,15 +109,12 @@ static int ccp_aes_xts_setkey(struct crypto_ablkcipher *tfm, const u8 *key,
        ctx->u.aes.key_len = key_len / 2;
        sg_init_one(&ctx->u.aes.key_sg, ctx->u.aes.key, key_len);
 
-       return crypto_ablkcipher_setkey(ctx->u.aes.tfm_ablkcipher, key,
-                                       key_len);
+       return crypto_skcipher_setkey(ctx->u.aes.tfm_skcipher, key, key_len);
 }
 
 static int ccp_aes_xts_crypt(struct ablkcipher_request *req,
                             unsigned int encrypt)
 {
-       struct crypto_tfm *tfm =
-               crypto_ablkcipher_tfm(crypto_ablkcipher_reqtfm(req));
        struct ccp_ctx *ctx = crypto_tfm_ctx(req->base.tfm);
        struct ccp_aes_req_ctx *rctx = ablkcipher_request_ctx(req);
        unsigned int unit;
@@ -146,14 +142,19 @@ static int ccp_aes_xts_crypt(struct ablkcipher_request *req,
 
        if ((unit_size == CCP_XTS_AES_UNIT_SIZE__LAST) ||
            (ctx->u.aes.key_len != AES_KEYSIZE_128)) {
+               SKCIPHER_REQUEST_ON_STACK(subreq, ctx->u.aes.tfm_skcipher);
+
                /* Use the fallback to process the request for any
                 * unsupported unit sizes or key sizes
                 */
-               ablkcipher_request_set_tfm(req, ctx->u.aes.tfm_ablkcipher);
-               ret = (encrypt) ? crypto_ablkcipher_encrypt(req) :
-                                 crypto_ablkcipher_decrypt(req);
-               ablkcipher_request_set_tfm(req, __crypto_ablkcipher_cast(tfm));
-
+               skcipher_request_set_tfm(subreq, ctx->u.aes.tfm_skcipher);
+               skcipher_request_set_callback(subreq, req->base.flags,
+                                             NULL, NULL);
+               skcipher_request_set_crypt(subreq, req->src, req->dst,
+                                          req->nbytes, req->info);
+               ret = encrypt ? crypto_skcipher_encrypt(subreq) :
+                               crypto_skcipher_decrypt(subreq);
+               skcipher_request_zero(subreq);
                return ret;
        }
 
@@ -192,23 +193,21 @@ static int ccp_aes_xts_decrypt(struct ablkcipher_request *req)
 static int ccp_aes_xts_cra_init(struct crypto_tfm *tfm)
 {
        struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
-       struct crypto_ablkcipher *fallback_tfm;
+       struct crypto_skcipher *fallback_tfm;
 
        ctx->complete = ccp_aes_xts_complete;
        ctx->u.aes.key_len = 0;
 
-       fallback_tfm = crypto_alloc_ablkcipher(crypto_tfm_alg_name(tfm), 0,
-                                              CRYPTO_ALG_ASYNC |
-                                              CRYPTO_ALG_NEED_FALLBACK);
+       fallback_tfm = crypto_alloc_skcipher("xts(aes)", 0,
+                                            CRYPTO_ALG_ASYNC |
+                                            CRYPTO_ALG_NEED_FALLBACK);
        if (IS_ERR(fallback_tfm)) {
-               pr_warn("could not load fallback driver %s\n",
-                       crypto_tfm_alg_name(tfm));
+               pr_warn("could not load fallback driver xts(aes)\n");
                return PTR_ERR(fallback_tfm);
        }
-       ctx->u.aes.tfm_ablkcipher = fallback_tfm;
+       ctx->u.aes.tfm_skcipher = fallback_tfm;
 
-       tfm->crt_ablkcipher.reqsize = sizeof(struct ccp_aes_req_ctx) +
-                                     fallback_tfm->base.crt_ablkcipher.reqsize;
+       tfm->crt_ablkcipher.reqsize = sizeof(struct ccp_aes_req_ctx);
 
        return 0;
 }
@@ -217,9 +216,7 @@ static void ccp_aes_xts_cra_exit(struct crypto_tfm *tfm)
 {
        struct ccp_ctx *ctx = crypto_tfm_ctx(tfm);
 
-       if (ctx->u.aes.tfm_ablkcipher)
-               crypto_free_ablkcipher(ctx->u.aes.tfm_ablkcipher);
-       ctx->u.aes.tfm_ablkcipher = NULL;
+       crypto_free_skcipher(ctx->u.aes.tfm_skcipher);
 }
 
 static int ccp_register_aes_xts_alg(struct list_head *head,
index a326ec20bfa877c1a2dce78c5f15f3a5ec0731f4..8335b32e815e4203c67e2c06643a7fe023485809 100644 (file)
@@ -17,7 +17,6 @@
 #include <linux/wait.h>
 #include <linux/pci.h>
 #include <linux/ccp.h>
-#include <linux/crypto.h>
 #include <crypto/algapi.h>
 #include <crypto/aes.h>
 #include <crypto/ctr.h>
@@ -69,7 +68,7 @@ static inline struct ccp_crypto_ahash_alg *
 /***** AES related defines *****/
 struct ccp_aes_ctx {
        /* Fallback cipher for XTS with unsupported unit sizes */
-       struct crypto_ablkcipher *tfm_ablkcipher;
+       struct crypto_skcipher *tfm_skcipher;
 
        /* Cipher used to generate CMAC K1/K2 keys */
        struct crypto_cipher *tfm_cipher;