staging: erofs: clean up z_erofs_map_blocks_iter
authorGao Xiang <gaoxiang25@huawei.com>
Tue, 18 Sep 2018 14:25:34 +0000 (22:25 +0800)
committerGreg Kroah-Hartman <gregkh@linuxfoundation.org>
Tue, 18 Sep 2018 14:33:43 +0000 (16:33 +0200)
This patch mainly introduces `vle_map_blocks_iter_ctx' to clean up
z_erofs_map_blocks_iter and vle_get_logical_extent_head.

It changes the return value of `vle_get_logical_extent_head' to int
for the later error handing. In addition, it also renames `pcn' to
`pblk' since only `pblk' exists in erofs compression ondisk format.

Reviewed-by: Chao Yu <yuchao0@huawei.com>
Signed-off-by: Gao Xiang <gaoxiang25@huawei.com>
Signed-off-by: Greg Kroah-Hartman <gregkh@linuxfoundation.org>
drivers/staging/erofs/unzip_vle.c

index d16e3dc84765f1d4d5e17f00709383f89648b65f..1e89ff640ccbebc4f89a5c41cef252ac6513bb1c 100644 (file)
@@ -1410,6 +1410,13 @@ const struct address_space_operations z_erofs_vle_normalaccess_aops = {
        .readpages = z_erofs_vle_normalaccess_readpages,
 };
 
+/*
+ * Variable-sized Logical Extent (Fixed Physical Cluster) Compression Mode
+ * ---
+ * VLE compression mode attempts to compress a number of logical data into
+ * a physical cluster with a fixed size.
+ * VLE compression mode uses "struct z_erofs_vle_decompressed_index".
+ */
 #define __vle_cluster_advise(x, bit, bits) \
        ((le16_to_cpu(x) >> (bit)) & ((1 << (bits)) - 1))
 
@@ -1465,90 +1472,96 @@ vle_extent_blkoff(struct inode *inode, pgoff_t index)
        return erofs_blkoff(iloc(sbi, vi->nid) + ofs);
 }
 
-/*
- * Variable-sized Logical Extent (Fixed Physical Cluster) Compression Mode
- * ---
- * VLE compression mode attempts to compress a number of logical data into
- * a physical cluster with a fixed size.
- * VLE compression mode uses "struct z_erofs_vle_decompressed_index".
- */
-static erofs_off_t vle_get_logical_extent_head(
-       struct inode *inode,
-       struct page **page_iter,
-       void **kaddr_iter,
-       unsigned int lcn,       /* logical cluster number */
-       erofs_blk_t *pcn,
-       unsigned int *flags)
+struct vle_map_blocks_iter_ctx {
+       struct inode *inode;
+       struct super_block *sb;
+       unsigned int clusterbits;
+
+       struct page **mpage_ret;
+       void **kaddr_ret;
+};
+
+static int
+vle_get_logical_extent_head(const struct vle_map_blocks_iter_ctx *ctx,
+                           unsigned int lcn,   /* logical cluster number */
+                           unsigned long long *ofs,
+                           erofs_blk_t *pblk,
+                           unsigned int *flags)
 {
-       /* for extent meta */
-       struct page *page = *page_iter;
-       erofs_blk_t blkaddr = vle_extent_blkaddr(inode, lcn);
+       const unsigned int clustersize = 1 << ctx->clusterbits;
+       const erofs_blk_t mblk = vle_extent_blkaddr(ctx->inode, lcn);
+       struct page *mpage = *ctx->mpage_ret;   /* extent metapage */
+
        struct z_erofs_vle_decompressed_index *di;
-       unsigned long long ofs;
-       struct super_block *const sb = inode->i_sb;
-       const unsigned int clusterbits = EROFS_SB(sb)->clusterbits;
-       const unsigned int clustersize = 1 << clusterbits;
-       unsigned int delta0;
-
-       if (page->index != blkaddr) {
-               kunmap_atomic(*kaddr_iter);
-               unlock_page(page);
-               put_page(page);
+       unsigned int cluster_type, delta0;
 
-               page = erofs_get_meta_page_nofail(sb, blkaddr, false);
-               *page_iter = page;
-               *kaddr_iter = kmap_atomic(page);
+       if (mpage->index != mblk) {
+               kunmap_atomic(*ctx->kaddr_ret);
+               unlock_page(mpage);
+               put_page(mpage);
+
+               mpage = erofs_get_meta_page_nofail(ctx->sb, mblk, false);
+               *ctx->mpage_ret = mpage;
+               *ctx->kaddr_ret = kmap_atomic(mpage);
        }
 
-       di = *kaddr_iter + vle_extent_blkoff(inode, lcn);
-       switch (vle_cluster_type(di)) {
+       di = *ctx->kaddr_ret + vle_extent_blkoff(ctx->inode, lcn);
+
+       cluster_type = vle_cluster_type(di);
+       switch (cluster_type) {
        case Z_EROFS_VLE_CLUSTER_TYPE_NONHEAD:
                delta0 = le16_to_cpu(di->di_u.delta[0]);
                DBG_BUGON(!delta0);
                DBG_BUGON(lcn < delta0);
 
-               ofs = vle_get_logical_extent_head(inode,
-                       page_iter, kaddr_iter,
-                       lcn - delta0, pcn, flags);
-               break;
+               return vle_get_logical_extent_head(ctx,
+                       lcn - delta0, ofs, pblk, flags);
        case Z_EROFS_VLE_CLUSTER_TYPE_PLAIN:
                *flags ^= EROFS_MAP_ZIPPED;
+               /* fallthrough */
        case Z_EROFS_VLE_CLUSTER_TYPE_HEAD:
                /* clustersize should be a power of two */
-               ofs = ((u64)lcn << clusterbits) +
+               *ofs = ((u64)lcn << ctx->clusterbits) +
                        (le16_to_cpu(di->di_clusterofs) & (clustersize - 1));
-               *pcn = le32_to_cpu(di->di_u.blkaddr);
+               *pblk = le32_to_cpu(di->di_u.blkaddr);
                break;
        default:
                BUG_ON(1);
        }
-       return ofs;
+       return 0;
 }
 
 int z_erofs_map_blocks_iter(struct inode *inode,
        struct erofs_map_blocks *map,
        struct page **mpage_ret, int flags)
 {
+       void *kaddr;
+       const struct vle_map_blocks_iter_ctx ctx = {
+               .inode = inode,
+               .sb = inode->i_sb,
+               .clusterbits = EROFS_I_SB(inode)->clusterbits,
+               .mpage_ret = mpage_ret,
+               .kaddr_ret = &kaddr
+       };
+       const unsigned int clustersize = 1 << ctx.clusterbits;
+       /* if both m_(l,p)len are 0, regularize l_lblk, l_lofs, etc... */
+       const bool initial = !map->m_llen;
+
        /* logicial extent (start, end) offset */
        unsigned long long ofs, end;
-       struct z_erofs_vle_decompressed_index *di;
-       erofs_blk_t e_blkaddr, pcn;
-       unsigned int lcn, logical_cluster_ofs, cluster_type;
+       unsigned int lcn;
        u32 ofs_rem;
+
+       /* initialize `pblk' to keep gcc from printing foolish warnings */
+       erofs_blk_t mblk, pblk = 0;
        struct page *mpage = *mpage_ret;
-       void *kaddr;
-       bool initial;
-       struct super_block *const sb = inode->i_sb;
-       const unsigned int clusterbits = EROFS_SB(sb)->clusterbits;
-       const unsigned int clustersize = 1 << clusterbits;
+       struct z_erofs_vle_decompressed_index *di;
+       unsigned int cluster_type, logical_cluster_ofs;
        int err = 0;
 
-       /* if both m_(l,p)len are 0, regularize l_lblk, l_lofs, etc... */
-       initial = !map->m_llen;
-
        /* when trying to read beyond EOF, leave it unmapped */
        if (unlikely(map->m_la >= inode->i_size)) {
-               BUG_ON(!initial);
+               DBG_BUGON(!initial);
                map->m_llen = map->m_la + 1 - inode->i_size;
                map->m_la = inode->i_size;
                map->m_flags = 0;
@@ -1561,16 +1574,16 @@ int z_erofs_map_blocks_iter(struct inode *inode,
        ofs = map->m_la + map->m_llen;
 
        /* clustersize should be power of two */
-       lcn = ofs >> clusterbits;
+       lcn = ofs >> ctx.clusterbits;
        ofs_rem = ofs & (clustersize - 1);
 
-       e_blkaddr = vle_extent_blkaddr(inode, lcn);
+       mblk = vle_extent_blkaddr(inode, lcn);
 
-       if (mpage == NULL || mpage->index != e_blkaddr) {
+       if (!mpage || mpage->index != mblk) {
                if (mpage != NULL)
                        put_page(mpage);
 
-               mpage = erofs_get_meta_page_nofail(sb, e_blkaddr, false);
+               mpage = erofs_get_meta_page_nofail(ctx.sb, mblk, false);
                *mpage_ret = mpage;
        } else {
                lock_page(mpage);
@@ -1580,8 +1593,8 @@ int z_erofs_map_blocks_iter(struct inode *inode,
        kaddr = kmap_atomic(mpage);
        di = kaddr + vle_extent_blkoff(inode, lcn);
 
-       debugln("%s, lcn %u e_blkaddr %u e_blkoff %u", __func__, lcn,
-               e_blkaddr, vle_extent_blkoff(inode, lcn));
+       debugln("%s, lcn %u mblk %u e_blkoff %u", __func__, lcn,
+               mblk, vle_extent_blkoff(inode, lcn));
 
        err = vle_decompressed_index_clusterofs(&logical_cluster_ofs,
                                                clustersize, di);
@@ -1608,13 +1621,13 @@ int z_erofs_map_blocks_iter(struct inode *inode,
                /* fallthrough */
        case Z_EROFS_VLE_CLUSTER_TYPE_HEAD:
                if (ofs_rem == logical_cluster_ofs) {
-                       pcn = le32_to_cpu(di->di_u.blkaddr);
+                       pblk = le32_to_cpu(di->di_u.blkaddr);
                        goto exact_hitted;
                }
 
                if (ofs_rem > logical_cluster_ofs) {
                        ofs = (u64)lcn * clustersize | logical_cluster_ofs;
-                       pcn = le32_to_cpu(di->di_u.blkaddr);
+                       pblk = le32_to_cpu(di->di_u.blkaddr);
                        break;
                }
 
@@ -1629,9 +1642,12 @@ int z_erofs_map_blocks_iter(struct inode *inode,
                /* fallthrough */
        case Z_EROFS_VLE_CLUSTER_TYPE_NONHEAD:
                /* get the correspoinding first chunk */
-               ofs = vle_get_logical_extent_head(inode, mpage_ret,
-                       &kaddr, lcn, &pcn, &map->m_flags);
+               err = vle_get_logical_extent_head(&ctx, lcn, &ofs,
+                                                 &pblk, &map->m_flags);
                mpage = *mpage_ret;
+
+               if (unlikely(err))
+                       goto unmap_out;
                break;
        default:
                errln("unknown cluster type %u at offset %llu of nid %llu",
@@ -1644,7 +1660,7 @@ int z_erofs_map_blocks_iter(struct inode *inode,
 exact_hitted:
        map->m_llen = end - ofs;
        map->m_plen = clustersize;
-       map->m_pa = blknr_to_addr(pcn);
+       map->m_pa = blknr_to_addr(pblk);
        map->m_flags |= EROFS_MAP_MAPPED;
 unmap_out:
        kunmap_atomic(kaddr);