sunrpc: use better NUMA affinities
authorEric Dumazet <eric.dumazet@gmail.com>
Thu, 28 Jul 2011 18:04:09 +0000 (20:04 +0200)
committerJ. Bruce Fields <bfields@redhat.com>
Fri, 19 Aug 2011 17:25:36 +0000 (13:25 -0400)
Use NUMA aware allocations to reduce latencies and increase throughput.

sunrpc kthreads can use kthread_create_on_node() if pool_mode is
"percpu" or "pernode", and svc_prepare_thread()/svc_init_buffer() can
also take into account NUMA node affinity for memory allocations.

Signed-off-by: Eric Dumazet <eric.dumazet@gmail.com>
CC: "J. Bruce Fields" <bfields@fieldses.org>
CC: Neil Brown <neilb@suse.de>
CC: David Miller <davem@davemloft.net>
Reviewed-by: Greg Banks <gnb@fastmail.fm>
[bfields@redhat.com: fix up caller nfs41_callback_up]
Signed-off-by: J. Bruce Fields <bfields@redhat.com>
fs/lockd/svc.c
fs/nfs/callback.c
include/linux/sunrpc/svc.h
net/sunrpc/svc.c

index abfff9d7979dc60b57646b6129cdb7dd279c6041..c061b9aa7ddb165c4b5241e73d9c8bb943f2f678 100644 (file)
@@ -282,7 +282,7 @@ int lockd_up(void)
        /*
         * Create the kernel thread and wait for it to start.
         */
-       nlmsvc_rqst = svc_prepare_thread(serv, &serv->sv_pools[0]);
+       nlmsvc_rqst = svc_prepare_thread(serv, &serv->sv_pools[0], NUMA_NO_NODE);
        if (IS_ERR(nlmsvc_rqst)) {
                error = PTR_ERR(nlmsvc_rqst);
                nlmsvc_rqst = NULL;
index e3d29426905848101510bf0fea21f4fa2378794a..516f3375e067d584aa26b2a65d82f4946b647e30 100644 (file)
@@ -125,7 +125,7 @@ nfs4_callback_up(struct svc_serv *serv)
        else
                goto out_err;
 
-       return svc_prepare_thread(serv, &serv->sv_pools[0]);
+       return svc_prepare_thread(serv, &serv->sv_pools[0], NUMA_NO_NODE);
 
 out_err:
        if (ret == 0)
@@ -199,7 +199,7 @@ nfs41_callback_up(struct svc_serv *serv, struct rpc_xprt *xprt)
        INIT_LIST_HEAD(&serv->sv_cb_list);
        spin_lock_init(&serv->sv_cb_lock);
        init_waitqueue_head(&serv->sv_cb_waitq);
-       rqstp = svc_prepare_thread(serv, &serv->sv_pools[0]);
+       rqstp = svc_prepare_thread(serv, &serv->sv_pools[0], NUMA_NO_NODE);
        if (IS_ERR(rqstp)) {
                svc_xprt_put(serv->sv_bc_xprt);
                serv->sv_bc_xprt = NULL;
index 223588a976a096af5f214b28e6e66e507a9b2e89..a78a51e93373549b1dcccbf03ac255fbe1e3e94f 100644 (file)
@@ -404,7 +404,7 @@ struct svc_procedure {
 struct svc_serv *svc_create(struct svc_program *, unsigned int,
                            void (*shutdown)(struct svc_serv *));
 struct svc_rqst *svc_prepare_thread(struct svc_serv *serv,
-                                       struct svc_pool *pool);
+                                       struct svc_pool *pool, int node);
 void              svc_exit_thread(struct svc_rqst *);
 struct svc_serv *  svc_create_pooled(struct svc_program *, unsigned int,
                        void (*shutdown)(struct svc_serv *),
index 6a69a1131fb77eb8014f77f404e26389976a3445..30d70abb4e2c7e7577758b4857401a04b1992b0f 100644 (file)
@@ -295,6 +295,18 @@ svc_pool_map_put(void)
 }
 
 
+static int svc_pool_map_get_node(unsigned int pidx)
+{
+       const struct svc_pool_map *m = &svc_pool_map;
+
+       if (m->count) {
+               if (m->mode == SVC_POOL_PERCPU)
+                       return cpu_to_node(m->pool_to[pidx]);
+               if (m->mode == SVC_POOL_PERNODE)
+                       return m->pool_to[pidx];
+       }
+       return NUMA_NO_NODE;
+}
 /*
  * Set the given thread's cpus_allowed mask so that it
  * will only run on cpus in the given pool.
@@ -499,7 +511,7 @@ EXPORT_SYMBOL_GPL(svc_destroy);
  * We allocate pages and place them in rq_argpages.
  */
 static int
-svc_init_buffer(struct svc_rqst *rqstp, unsigned int size)
+svc_init_buffer(struct svc_rqst *rqstp, unsigned int size, int node)
 {
        unsigned int pages, arghi;
 
@@ -513,7 +525,7 @@ svc_init_buffer(struct svc_rqst *rqstp, unsigned int size)
        arghi = 0;
        BUG_ON(pages > RPCSVC_MAXPAGES);
        while (pages) {
-               struct page *p = alloc_page(GFP_KERNEL);
+               struct page *p = alloc_pages_node(node, GFP_KERNEL, 0);
                if (!p)
                        break;
                rqstp->rq_pages[arghi++] = p;
@@ -536,11 +548,11 @@ svc_release_buffer(struct svc_rqst *rqstp)
 }
 
 struct svc_rqst *
-svc_prepare_thread(struct svc_serv *serv, struct svc_pool *pool)
+svc_prepare_thread(struct svc_serv *serv, struct svc_pool *pool, int node)
 {
        struct svc_rqst *rqstp;
 
-       rqstp = kzalloc(sizeof(*rqstp), GFP_KERNEL);
+       rqstp = kzalloc_node(sizeof(*rqstp), GFP_KERNEL, node);
        if (!rqstp)
                goto out_enomem;
 
@@ -554,15 +566,15 @@ svc_prepare_thread(struct svc_serv *serv, struct svc_pool *pool)
        rqstp->rq_server = serv;
        rqstp->rq_pool = pool;
 
-       rqstp->rq_argp = kmalloc(serv->sv_xdrsize, GFP_KERNEL);
+       rqstp->rq_argp = kmalloc_node(serv->sv_xdrsize, GFP_KERNEL, node);
        if (!rqstp->rq_argp)
                goto out_thread;
 
-       rqstp->rq_resp = kmalloc(serv->sv_xdrsize, GFP_KERNEL);
+       rqstp->rq_resp = kmalloc_node(serv->sv_xdrsize, GFP_KERNEL, node);
        if (!rqstp->rq_resp)
                goto out_thread;
 
-       if (!svc_init_buffer(rqstp, serv->sv_max_mesg))
+       if (!svc_init_buffer(rqstp, serv->sv_max_mesg, node))
                goto out_thread;
 
        return rqstp;
@@ -647,6 +659,7 @@ svc_set_num_threads(struct svc_serv *serv, struct svc_pool *pool, int nrservs)
        struct svc_pool *chosen_pool;
        int error = 0;
        unsigned int state = serv->sv_nrthreads-1;
+       int node;
 
        if (pool == NULL) {
                /* The -1 assumes caller has done a svc_get() */
@@ -662,14 +675,16 @@ svc_set_num_threads(struct svc_serv *serv, struct svc_pool *pool, int nrservs)
                nrservs--;
                chosen_pool = choose_pool(serv, pool, &state);
 
-               rqstp = svc_prepare_thread(serv, chosen_pool);
+               node = svc_pool_map_get_node(chosen_pool->sp_id);
+               rqstp = svc_prepare_thread(serv, chosen_pool, node);
                if (IS_ERR(rqstp)) {
                        error = PTR_ERR(rqstp);
                        break;
                }
 
                __module_get(serv->sv_module);
-               task = kthread_create(serv->sv_function, rqstp, serv->sv_name);
+               task = kthread_create_on_node(serv->sv_function, rqstp,
+                                             node, serv->sv_name);
                if (IS_ERR(task)) {
                        error = PTR_ERR(task);
                        module_put(serv->sv_module);