IB/core: Add passing an offset into the SG to ib_map_mr_sg
authorChristoph Hellwig <hch@lst.de>
Tue, 3 May 2016 16:01:04 +0000 (18:01 +0200)
committerDoug Ledford <dledford@redhat.com>
Fri, 13 May 2016 17:37:11 +0000 (13:37 -0400)
Signed-off-by: Christoph Hellwig <hch@lst.de>
Tested-by: Steve Wise <swise@opengridcomputing.com>
Reviewed-by: Bart Van Assche <bart.vanassche@sandisk.com>
Reviewed-by: Sagi Grimberg <sagi@grimberg.me>
Reviewed-by: Steve Wise <swise@opengridcomputing.com>
Signed-off-by: Doug Ledford <dledford@redhat.com>
19 files changed:
drivers/infiniband/core/verbs.c
drivers/infiniband/hw/cxgb3/iwch_provider.c
drivers/infiniband/hw/cxgb4/iw_cxgb4.h
drivers/infiniband/hw/cxgb4/mem.c
drivers/infiniband/hw/i40iw/i40iw_verbs.c
drivers/infiniband/hw/mlx4/mlx4_ib.h
drivers/infiniband/hw/mlx4/mr.c
drivers/infiniband/hw/mlx5/mlx5_ib.h
drivers/infiniband/hw/mlx5/mr.c
drivers/infiniband/hw/nes/nes_verbs.c
drivers/infiniband/hw/ocrdma/ocrdma_verbs.c
drivers/infiniband/hw/ocrdma/ocrdma_verbs.h
drivers/infiniband/ulp/iser/iser_memory.c
drivers/infiniband/ulp/isert/ib_isert.c
drivers/infiniband/ulp/srp/ib_srp.c
include/rdma/ib_verbs.h
net/rds/ib_frmr.c
net/sunrpc/xprtrdma/frwr_ops.c
net/sunrpc/xprtrdma/svc_rdma_recvfrom.c

index b65b3541e7329e9d716dd40fb81189db97ec9700..73fa9da1d0840d865f88413c804ebaa10f38975b 100644 (file)
@@ -1597,6 +1597,7 @@ EXPORT_SYMBOL(ib_set_vf_guid);
  * @mr:            memory region
  * @sg:            dma mapped scatterlist
  * @sg_nents:      number of entries in sg
+ * @sg_offset:     offset in bytes into sg
  * @page_size:     page vector desired page size
  *
  * Constraints:
@@ -1615,17 +1616,15 @@ EXPORT_SYMBOL(ib_set_vf_guid);
  * After this completes successfully, the  memory region
  * is ready for registration.
  */
-int ib_map_mr_sg(struct ib_mr *mr,
-                struct scatterlist *sg,
-                int sg_nents,
-                unsigned int page_size)
+int ib_map_mr_sg(struct ib_mr *mr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset, unsigned int page_size)
 {
        if (unlikely(!mr->device->map_mr_sg))
                return -ENOSYS;
 
        mr->page_size = page_size;
 
-       return mr->device->map_mr_sg(mr, sg, sg_nents);
+       return mr->device->map_mr_sg(mr, sg, sg_nents, sg_offset);
 }
 EXPORT_SYMBOL(ib_map_mr_sg);
 
@@ -1635,6 +1634,7 @@ EXPORT_SYMBOL(ib_map_mr_sg);
  * @mr:            memory region
  * @sgl:           dma mapped scatterlist
  * @sg_nents:      number of entries in sg
+ * @sg_offset:     offset in bytes into sg
  * @set_page:      driver page assignment function pointer
  *
  * Core service helper for drivers to convert the largest
@@ -1645,10 +1645,8 @@ EXPORT_SYMBOL(ib_map_mr_sg);
  * Returns the number of sg elements that were assigned to
  * a page vector.
  */
-int ib_sg_to_pages(struct ib_mr *mr,
-                  struct scatterlist *sgl,
-                  int sg_nents,
-                  int (*set_page)(struct ib_mr *, u64))
+int ib_sg_to_pages(struct ib_mr *mr, struct scatterlist *sgl, int sg_nents,
+               unsigned int sg_offset, int (*set_page)(struct ib_mr *, u64))
 {
        struct scatterlist *sg;
        u64 last_end_dma_addr = 0;
@@ -1656,12 +1654,12 @@ int ib_sg_to_pages(struct ib_mr *mr,
        u64 page_mask = ~((u64)mr->page_size - 1);
        int i, ret;
 
-       mr->iova = sg_dma_address(&sgl[0]);
+       mr->iova = sg_dma_address(&sgl[0]) + sg_offset;
        mr->length = 0;
 
        for_each_sg(sgl, sg, sg_nents, i) {
-               u64 dma_addr = sg_dma_address(sg);
-               unsigned int dma_len = sg_dma_len(sg);
+               u64 dma_addr = sg_dma_address(sg) + sg_offset;
+               unsigned int dma_len = sg_dma_len(sg) - sg_offset;
                u64 end_dma_addr = dma_addr + dma_len;
                u64 page_addr = dma_addr & page_mask;
 
@@ -1694,6 +1692,8 @@ next_page:
                mr->length += dma_len;
                last_end_dma_addr = end_dma_addr;
                last_page_off = end_dma_addr & ~page_mask;
+
+               sg_offset = 0;
        }
 
        return i;
index 3234a8be16f6c53e4d155920cb766236b0f74306..608aa0c16dc3e9631f3d8ffc31f3ed0e618687a8 100644 (file)
@@ -783,15 +783,14 @@ static int iwch_set_page(struct ib_mr *ibmr, u64 addr)
        return 0;
 }
 
-static int iwch_map_mr_sg(struct ib_mr *ibmr,
-                         struct scatterlist *sg,
-                         int sg_nents)
+static int iwch_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg,
+               int sg_nents, unsigned sg_offset)
 {
        struct iwch_mr *mhp = to_iwch_mr(ibmr);
 
        mhp->npages = 0;
 
-       return ib_sg_to_pages(ibmr, sg, sg_nents, iwch_set_page);
+       return ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset, iwch_set_page);
 }
 
 static int iwch_destroy_qp(struct ib_qp *ib_qp)
index df43f871ab61cba60d44986cc4ac17c7881a3777..067cb3f909c16b323f5b4fa48be376d675610546 100644 (file)
@@ -917,9 +917,8 @@ void c4iw_qp_rem_ref(struct ib_qp *qp);
 struct ib_mr *c4iw_alloc_mr(struct ib_pd *pd,
                            enum ib_mr_type mr_type,
                            u32 max_num_sg);
-int c4iw_map_mr_sg(struct ib_mr *ibmr,
-                  struct scatterlist *sg,
-                  int sg_nents);
+int c4iw_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset);
 int c4iw_dealloc_mw(struct ib_mw *mw);
 struct ib_mw *c4iw_alloc_mw(struct ib_pd *pd, enum ib_mw_type type,
                            struct ib_udata *udata);
index 008be07d560432b7a0954a0e7676e71b2ef61d04..38afb3d2dd9284475dd681ae28a4f2e08dcbbb45 100644 (file)
@@ -690,15 +690,14 @@ static int c4iw_set_page(struct ib_mr *ibmr, u64 addr)
        return 0;
 }
 
-int c4iw_map_mr_sg(struct ib_mr *ibmr,
-                  struct scatterlist *sg,
-                  int sg_nents)
+int c4iw_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset)
 {
        struct c4iw_mr *mhp = to_c4iw_mr(ibmr);
 
        mhp->mpl_len = 0;
 
-       return ib_sg_to_pages(ibmr, sg, sg_nents, c4iw_set_page);
+       return ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset, c4iw_set_page);
 }
 
 int c4iw_dereg_mr(struct ib_mr *ib_mr)
index eaa79c9fc8217576cce4104e86f2a21ab62d4d76..825430e376fc5ea861000341bf11201ca53fa93d 100644 (file)
@@ -1573,12 +1573,13 @@ static int i40iw_set_page(struct ib_mr *ibmr, u64 addr)
  * @sg: scatter gather list for fmr
  * @sg_nents: number of sg pages
  */
-static int i40iw_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents)
+static int i40iw_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg,
+                          int sg_nents, unsigned int sg_offset)
 {
        struct i40iw_mr *iwmr = to_iwmr(ibmr);
 
        iwmr->npages = 0;
-       return ib_sg_to_pages(ibmr, sg, sg_nents, i40iw_set_page);
+       return ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset, i40iw_set_page);
 }
 
 /**
index 1eca01cebe51f6cc044a8e3430d25bfe114f13e0..ba328177eae9930ec197e66dc86cbb5533eaf838 100644 (file)
@@ -717,9 +717,8 @@ int mlx4_ib_dealloc_mw(struct ib_mw *mw);
 struct ib_mr *mlx4_ib_alloc_mr(struct ib_pd *pd,
                               enum ib_mr_type mr_type,
                               u32 max_num_sg);
-int mlx4_ib_map_mr_sg(struct ib_mr *ibmr,
-                     struct scatterlist *sg,
-                     int sg_nents);
+int mlx4_ib_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset);
 int mlx4_ib_modify_cq(struct ib_cq *cq, u16 cq_count, u16 cq_period);
 int mlx4_ib_resize_cq(struct ib_cq *ibcq, int entries, struct ib_udata *udata);
 struct ib_cq *mlx4_ib_create_cq(struct ib_device *ibdev,
index ce0b5aa8eb9b3a5695f9a9ae02d3f153f7dcc145..b04f6238e7e2fb4277cd7591033c68da83e62d24 100644 (file)
@@ -528,9 +528,8 @@ static int mlx4_set_page(struct ib_mr *ibmr, u64 addr)
        return 0;
 }
 
-int mlx4_ib_map_mr_sg(struct ib_mr *ibmr,
-                     struct scatterlist *sg,
-                     int sg_nents)
+int mlx4_ib_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset)
 {
        struct mlx4_ib_mr *mr = to_mmr(ibmr);
        int rc;
@@ -541,7 +540,7 @@ int mlx4_ib_map_mr_sg(struct ib_mr *ibmr,
                                   sizeof(u64) * mr->max_pages,
                                   DMA_TO_DEVICE);
 
-       rc = ib_sg_to_pages(ibmr, sg, sg_nents, mlx4_set_page);
+       rc = ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset, mlx4_set_page);
 
        ib_dma_sync_single_for_device(ibmr->device, mr->page_map,
                                      sizeof(u64) * mr->max_pages,
index b46c25542a7c6285d6c5088f2006889d59eaf10f..8c835b2be39e549404467d86f90eaac8ed314611 100644 (file)
@@ -712,9 +712,8 @@ int mlx5_ib_dereg_mr(struct ib_mr *ibmr);
 struct ib_mr *mlx5_ib_alloc_mr(struct ib_pd *pd,
                               enum ib_mr_type mr_type,
                               u32 max_num_sg);
-int mlx5_ib_map_mr_sg(struct ib_mr *ibmr,
-                     struct scatterlist *sg,
-                     int sg_nents);
+int mlx5_ib_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset);
 int mlx5_ib_process_mad(struct ib_device *ibdev, int mad_flags, u8 port_num,
                        const struct ib_wc *in_wc, const struct ib_grh *in_grh,
                        const struct ib_mad_hdr *in, size_t in_mad_size,
index 4d5bff151cdf09957942f35255d84df2286f572b..b678eac0f8b3f400280216b9f2e81d008bc2b2a1 100644 (file)
@@ -1751,24 +1751,27 @@ done:
 static int
 mlx5_ib_sg_to_klms(struct mlx5_ib_mr *mr,
                   struct scatterlist *sgl,
-                  unsigned short sg_nents)
+                  unsigned short sg_nents,
+                  unsigned int sg_offset)
 {
        struct scatterlist *sg = sgl;
        struct mlx5_klm *klms = mr->descs;
        u32 lkey = mr->ibmr.pd->local_dma_lkey;
        int i;
 
-       mr->ibmr.iova = sg_dma_address(sg);
+       mr->ibmr.iova = sg_dma_address(sg) + sg_offset;
        mr->ibmr.length = 0;
        mr->ndescs = sg_nents;
 
        for_each_sg(sgl, sg, sg_nents, i) {
                if (unlikely(i > mr->max_descs))
                        break;
-               klms[i].va = cpu_to_be64(sg_dma_address(sg));
-               klms[i].bcount = cpu_to_be32(sg_dma_len(sg));
+               klms[i].va = cpu_to_be64(sg_dma_address(sg) + sg_offset);
+               klms[i].bcount = cpu_to_be32(sg_dma_len(sg) - sg_offset);
                klms[i].key = cpu_to_be32(lkey);
                mr->ibmr.length += sg_dma_len(sg);
+
+               sg_offset = 0;
        }
 
        return i;
@@ -1788,9 +1791,8 @@ static int mlx5_set_page(struct ib_mr *ibmr, u64 addr)
        return 0;
 }
 
-int mlx5_ib_map_mr_sg(struct ib_mr *ibmr,
-                     struct scatterlist *sg,
-                     int sg_nents)
+int mlx5_ib_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset)
 {
        struct mlx5_ib_mr *mr = to_mmr(ibmr);
        int n;
@@ -1802,9 +1804,10 @@ int mlx5_ib_map_mr_sg(struct ib_mr *ibmr,
                                   DMA_TO_DEVICE);
 
        if (mr->access_mode == MLX5_ACCESS_MODE_KLM)
-               n = mlx5_ib_sg_to_klms(mr, sg, sg_nents);
+               n = mlx5_ib_sg_to_klms(mr, sg, sg_nents, sg_offset);
        else
-               n = ib_sg_to_pages(ibmr, sg, sg_nents, mlx5_set_page);
+               n = ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset,
+                               mlx5_set_page);
 
        ib_dma_sync_single_for_device(ibmr->device, mr->desc_map,
                                      mr->desc_size * mr->max_descs,
index fba69a39a7eb496cb80ae819c231917e48203c17..698aab65a28635a5aa76ab2ae61eedfe23d99ab4 100644 (file)
@@ -402,15 +402,14 @@ static int nes_set_page(struct ib_mr *ibmr, u64 addr)
        return 0;
 }
 
-static int nes_map_mr_sg(struct ib_mr *ibmr,
-                        struct scatterlist *sg,
-                        int sg_nents)
+static int nes_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg,
+               int sg_nents, unsigned int sg_offset)
 {
        struct nes_mr *nesmr = to_nesmr(ibmr);
 
        nesmr->npages = 0;
 
-       return ib_sg_to_pages(ibmr, sg, sg_nents, nes_set_page);
+       return ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset, nes_set_page);
 }
 
 /**
index a8496a18e20d667614cf7b2c71408cc046c22b3d..9ddd55022bafc0bbd6a262ca1e64fd264413f374 100644 (file)
@@ -3081,13 +3081,12 @@ static int ocrdma_set_page(struct ib_mr *ibmr, u64 addr)
        return 0;
 }
 
-int ocrdma_map_mr_sg(struct ib_mr *ibmr,
-                    struct scatterlist *sg,
-                    int sg_nents)
+int ocrdma_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset)
 {
        struct ocrdma_mr *mr = get_ocrdma_mr(ibmr);
 
        mr->npages = 0;
 
-       return ib_sg_to_pages(ibmr, sg, sg_nents, ocrdma_set_page);
+       return ib_sg_to_pages(ibmr, sg, sg_nents, sg_offset, ocrdma_set_page);
 }
index 8b517fd3677924099a1d08663035de8f19a09d79..b290e5dfc5f1f87f82f5e50cdb4343f63fa4259e 100644 (file)
@@ -122,8 +122,7 @@ struct ib_mr *ocrdma_reg_user_mr(struct ib_pd *, u64 start, u64 length,
 struct ib_mr *ocrdma_alloc_mr(struct ib_pd *pd,
                              enum ib_mr_type mr_type,
                              u32 max_num_sg);
-int ocrdma_map_mr_sg(struct ib_mr *ibmr,
-                    struct scatterlist *sg,
-                    int sg_nents);
+int ocrdma_map_mr_sg(struct ib_mr *ibmr, struct scatterlist *sg, int sg_nents,
+               unsigned sg_offset);
 
 #endif                         /* __OCRDMA_VERBS_H__ */
index 9a391cc5b9b3f45f16f0a49138aeda5b96030b01..44cc85f206f3410fc25d01c5c3b94f5ab00caac6 100644 (file)
@@ -236,7 +236,7 @@ int iser_fast_reg_fmr(struct iscsi_iser_task *iser_task,
        page_vec->npages = 0;
        page_vec->fake_mr.page_size = SIZE_4K;
        plen = ib_sg_to_pages(&page_vec->fake_mr, mem->sg,
-                             mem->size, iser_set_page);
+                             mem->size, 0, iser_set_page);
        if (unlikely(plen < mem->size)) {
                iser_err("page vec too short to hold this SG\n");
                iser_data_buf_dump(mem, device->ib_device);
@@ -446,7 +446,7 @@ static int iser_fast_reg_mr(struct iscsi_iser_task *iser_task,
 
        ib_update_fast_reg_key(mr, ib_inc_rkey(mr->rkey));
 
-       n = ib_map_mr_sg(mr, mem->sg, mem->size, SIZE_4K);
+       n = ib_map_mr_sg(mr, mem->sg, mem->size, 0, SIZE_4K);
        if (unlikely(n != mem->size)) {
                iser_err("failed to map sg (%d/%d)\n",
                         n, mem->size);
index 411e4464ca235bc984d5bc34c723a52e06071f31..a44a73639cbad067fb385b48db075b61b4dc9701 100644 (file)
@@ -2461,7 +2461,7 @@ isert_fast_reg_mr(struct isert_conn *isert_conn,
                wr = &inv_wr;
        }
 
-       n = ib_map_mr_sg(mr, mem->sg, mem->nents, PAGE_SIZE);
+       n = ib_map_mr_sg(mr, mem->sg, mem->nents, 0, PAGE_SIZE);
        if (unlikely(n != mem->nents)) {
                isert_err("failed to map mr sg (%d/%d)\n",
                         n, mem->nents);
index 427dee3a3ab04f9a4d372177ed5306dbfd2d0bd9..412df56bd84f56ff649ee1f5fcaca2f766f3d231 100644 (file)
@@ -1329,7 +1329,7 @@ static int srp_map_finish_fr(struct srp_map_state *state,
        rkey = ib_inc_rkey(desc->mr->rkey);
        ib_update_fast_reg_key(desc->mr, rkey);
 
-       n = ib_map_mr_sg(desc->mr, state->sg, sg_nents, dev->mr_page_size);
+       n = ib_map_mr_sg(desc->mr, state->sg, sg_nents, 0, dev->mr_page_size);
        if (unlikely(n < 0))
                return n;
 
index fb2cef4e97471bbeb67dc950f88736dd34a21b3c..24d0d82a07b4c6361cf3e40323c854dcb00d1e13 100644 (file)
@@ -1827,7 +1827,8 @@ struct ib_device {
                                               u32 max_num_sg);
        int                        (*map_mr_sg)(struct ib_mr *mr,
                                                struct scatterlist *sg,
-                                               int sg_nents);
+                                               int sg_nents,
+                                               unsigned sg_offset);
        struct ib_mw *             (*alloc_mw)(struct ib_pd *pd,
                                               enum ib_mw_type type,
                                               struct ib_udata *udata);
@@ -3111,29 +3112,23 @@ struct net_device *ib_get_net_dev_by_params(struct ib_device *dev, u8 port,
                                            u16 pkey, const union ib_gid *gid,
                                            const struct sockaddr *addr);
 
-int ib_map_mr_sg(struct ib_mr *mr,
-                struct scatterlist *sg,
-                int sg_nents,
-                unsigned int page_size);
+int ib_map_mr_sg(struct ib_mr *mr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset, unsigned int page_size);
 
 static inline int
-ib_map_mr_sg_zbva(struct ib_mr *mr,
-                 struct scatterlist *sg,
-                 int sg_nents,
-                 unsigned int page_size)
+ib_map_mr_sg_zbva(struct ib_mr *mr, struct scatterlist *sg, int sg_nents,
+               unsigned int sg_offset, unsigned int page_size)
 {
        int n;
 
-       n = ib_map_mr_sg(mr, sg, sg_nents, page_size);
+       n = ib_map_mr_sg(mr, sg, sg_nents, sg_offset, page_size);
        mr->iova = 0;
 
        return n;
 }
 
-int ib_sg_to_pages(struct ib_mr *mr,
-                  struct scatterlist *sgl,
-                  int sg_nents,
-                  int (*set_page)(struct ib_mr *, u64));
+int ib_sg_to_pages(struct ib_mr *mr, struct scatterlist *sgl, int sg_nents,
+               unsigned int sg_offset, int (*set_page)(struct ib_mr *, u64));
 
 void ib_drain_rq(struct ib_qp *qp);
 void ib_drain_sq(struct ib_qp *qp);
index 93ff038ea9d1ce1cde783a877d629216babab8a6..d921adc62765dba0bbaec9a7489227348405082e 100644 (file)
@@ -111,7 +111,7 @@ static int rds_ib_post_reg_frmr(struct rds_ib_mr *ibmr)
                cpu_relax();
        }
 
-       ret = ib_map_mr_sg_zbva(frmr->mr, ibmr->sg, ibmr->sg_len, PAGE_SIZE);
+       ret = ib_map_mr_sg_zbva(frmr->mr, ibmr->sg, ibmr->sg_len, 0, PAGE_SIZE);
        if (unlikely(ret != ibmr->sg_len))
                return ret < 0 ? ret : -EINVAL;
 
index c250924a9fd3c6489a123a46ee9f5dc6ae67366e..3274a4a33231713d290c22c542ac8ea30e1889b5 100644 (file)
@@ -421,7 +421,7 @@ frwr_op_map(struct rpcrdma_xprt *r_xprt, struct rpcrdma_mr_seg *seg,
                return -ENOMEM;
        }
 
-       n = ib_map_mr_sg(mr, frmr->sg, frmr->sg_nents, PAGE_SIZE);
+       n = ib_map_mr_sg(mr, frmr->sg, frmr->sg_nents, 0, PAGE_SIZE);
        if (unlikely(n != frmr->sg_nents)) {
                pr_err("RPC:       %s: failed to map mr %p (%u/%u)\n",
                       __func__, frmr->fr_mr, n, frmr->sg_nents);
index 3b24a646eb46725219011ffe859d998a0af06bb3..19a74e95cd381c40469cfc773e76358c8a59e2a1 100644 (file)
@@ -281,7 +281,7 @@ int rdma_read_chunk_frmr(struct svcxprt_rdma *xprt,
        }
        atomic_inc(&xprt->sc_dma_used);
 
-       n = ib_map_mr_sg(frmr->mr, frmr->sg, frmr->sg_nents, PAGE_SIZE);
+       n = ib_map_mr_sg(frmr->mr, frmr->sg, frmr->sg_nents, 0, PAGE_SIZE);
        if (unlikely(n != frmr->sg_nents)) {
                pr_err("svcrdma: failed to map mr %p (%d/%d elements)\n",
                       frmr->mr, n, frmr->sg_nents);