rxrpc: Separate the connection's protocol service ID from the lookup ID
[linux-2.6-block.git] / net / rxrpc / af_rxrpc.c
1 /* AF_RXRPC implementation
2  *
3  * Copyright (C) 2007 Red Hat, Inc. All Rights Reserved.
4  * Written by David Howells (dhowells@redhat.com)
5  *
6  * This program is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU General Public License
8  * as published by the Free Software Foundation; either version
9  * 2 of the License, or (at your option) any later version.
10  */
11
12 #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
13
14 #include <linux/module.h>
15 #include <linux/kernel.h>
16 #include <linux/net.h>
17 #include <linux/slab.h>
18 #include <linux/skbuff.h>
19 #include <linux/random.h>
20 #include <linux/poll.h>
21 #include <linux/proc_fs.h>
22 #include <linux/key-type.h>
23 #include <net/net_namespace.h>
24 #include <net/sock.h>
25 #include <net/af_rxrpc.h>
26 #define CREATE_TRACE_POINTS
27 #include "ar-internal.h"
28
29 MODULE_DESCRIPTION("RxRPC network protocol");
30 MODULE_AUTHOR("Red Hat, Inc.");
31 MODULE_LICENSE("GPL");
32 MODULE_ALIAS_NETPROTO(PF_RXRPC);
33
34 unsigned int rxrpc_debug; // = RXRPC_DEBUG_KPROTO;
35 module_param_named(debug, rxrpc_debug, uint, S_IWUSR | S_IRUGO);
36 MODULE_PARM_DESC(debug, "RxRPC debugging mask");
37
38 static struct proto rxrpc_proto;
39 static const struct proto_ops rxrpc_rpc_ops;
40
41 /* current debugging ID */
42 atomic_t rxrpc_debug_id;
43
44 /* count of skbs currently in use */
45 atomic_t rxrpc_n_tx_skbs, rxrpc_n_rx_skbs;
46
47 struct workqueue_struct *rxrpc_workqueue;
48
49 static void rxrpc_sock_destructor(struct sock *);
50
51 /*
52  * see if an RxRPC socket is currently writable
53  */
54 static inline int rxrpc_writable(struct sock *sk)
55 {
56         return atomic_read(&sk->sk_wmem_alloc) < (size_t) sk->sk_sndbuf;
57 }
58
59 /*
60  * wait for write bufferage to become available
61  */
62 static void rxrpc_write_space(struct sock *sk)
63 {
64         _enter("%p", sk);
65         rcu_read_lock();
66         if (rxrpc_writable(sk)) {
67                 struct socket_wq *wq = rcu_dereference(sk->sk_wq);
68
69                 if (skwq_has_sleeper(wq))
70                         wake_up_interruptible(&wq->wait);
71                 sk_wake_async(sk, SOCK_WAKE_SPACE, POLL_OUT);
72         }
73         rcu_read_unlock();
74 }
75
76 /*
77  * validate an RxRPC address
78  */
79 static int rxrpc_validate_address(struct rxrpc_sock *rx,
80                                   struct sockaddr_rxrpc *srx,
81                                   int len)
82 {
83         unsigned int tail;
84
85         if (len < sizeof(struct sockaddr_rxrpc))
86                 return -EINVAL;
87
88         if (srx->srx_family != AF_RXRPC)
89                 return -EAFNOSUPPORT;
90
91         if (srx->transport_type != SOCK_DGRAM)
92                 return -ESOCKTNOSUPPORT;
93
94         len -= offsetof(struct sockaddr_rxrpc, transport);
95         if (srx->transport_len < sizeof(sa_family_t) ||
96             srx->transport_len > len)
97                 return -EINVAL;
98
99         if (srx->transport.family != rx->family)
100                 return -EAFNOSUPPORT;
101
102         switch (srx->transport.family) {
103         case AF_INET:
104                 if (srx->transport_len < sizeof(struct sockaddr_in))
105                         return -EINVAL;
106                 tail = offsetof(struct sockaddr_rxrpc, transport.sin.__pad);
107                 break;
108
109 #ifdef CONFIG_AF_RXRPC_IPV6
110         case AF_INET6:
111                 if (srx->transport_len < sizeof(struct sockaddr_in6))
112                         return -EINVAL;
113                 tail = offsetof(struct sockaddr_rxrpc, transport) +
114                         sizeof(struct sockaddr_in6);
115                 break;
116 #endif
117
118         default:
119                 return -EAFNOSUPPORT;
120         }
121
122         if (tail < len)
123                 memset((void *)srx + tail, 0, len - tail);
124         _debug("INET: %pISp", &srx->transport);
125         return 0;
126 }
127
128 /*
129  * bind a local address to an RxRPC socket
130  */
131 static int rxrpc_bind(struct socket *sock, struct sockaddr *saddr, int len)
132 {
133         struct sockaddr_rxrpc *srx = (struct sockaddr_rxrpc *)saddr;
134         struct rxrpc_local *local;
135         struct rxrpc_sock *rx = rxrpc_sk(sock->sk);
136         u16 service_id = srx->srx_service;
137         int ret;
138
139         _enter("%p,%p,%d", rx, saddr, len);
140
141         ret = rxrpc_validate_address(rx, srx, len);
142         if (ret < 0)
143                 goto error;
144
145         lock_sock(&rx->sk);
146
147         if (rx->sk.sk_state != RXRPC_UNBOUND) {
148                 ret = -EINVAL;
149                 goto error_unlock;
150         }
151
152         memcpy(&rx->srx, srx, sizeof(rx->srx));
153
154         local = rxrpc_lookup_local(sock_net(&rx->sk), &rx->srx);
155         if (IS_ERR(local)) {
156                 ret = PTR_ERR(local);
157                 goto error_unlock;
158         }
159
160         if (service_id) {
161                 write_lock(&local->services_lock);
162                 if (rcu_access_pointer(local->service))
163                         goto service_in_use;
164                 rx->local = local;
165                 rcu_assign_pointer(local->service, rx);
166                 write_unlock(&local->services_lock);
167
168                 rx->sk.sk_state = RXRPC_SERVER_BOUND;
169         } else {
170                 rx->local = local;
171                 rx->sk.sk_state = RXRPC_CLIENT_BOUND;
172         }
173
174         release_sock(&rx->sk);
175         _leave(" = 0");
176         return 0;
177
178 service_in_use:
179         write_unlock(&local->services_lock);
180         rxrpc_put_local(local);
181         ret = -EADDRINUSE;
182 error_unlock:
183         release_sock(&rx->sk);
184 error:
185         _leave(" = %d", ret);
186         return ret;
187 }
188
189 /*
190  * set the number of pending calls permitted on a listening socket
191  */
192 static int rxrpc_listen(struct socket *sock, int backlog)
193 {
194         struct sock *sk = sock->sk;
195         struct rxrpc_sock *rx = rxrpc_sk(sk);
196         unsigned int max, old;
197         int ret;
198
199         _enter("%p,%d", rx, backlog);
200
201         lock_sock(&rx->sk);
202
203         switch (rx->sk.sk_state) {
204         case RXRPC_UNBOUND:
205                 ret = -EADDRNOTAVAIL;
206                 break;
207         case RXRPC_SERVER_BOUND:
208                 ASSERT(rx->local != NULL);
209                 max = READ_ONCE(rxrpc_max_backlog);
210                 ret = -EINVAL;
211                 if (backlog == INT_MAX)
212                         backlog = max;
213                 else if (backlog < 0 || backlog > max)
214                         break;
215                 old = sk->sk_max_ack_backlog;
216                 sk->sk_max_ack_backlog = backlog;
217                 ret = rxrpc_service_prealloc(rx, GFP_KERNEL);
218                 if (ret == 0)
219                         rx->sk.sk_state = RXRPC_SERVER_LISTENING;
220                 else
221                         sk->sk_max_ack_backlog = old;
222                 break;
223         case RXRPC_SERVER_LISTENING:
224                 if (backlog == 0) {
225                         rx->sk.sk_state = RXRPC_SERVER_LISTEN_DISABLED;
226                         sk->sk_max_ack_backlog = 0;
227                         rxrpc_discard_prealloc(rx);
228                         ret = 0;
229                         break;
230                 }
231         default:
232                 ret = -EBUSY;
233                 break;
234         }
235
236         release_sock(&rx->sk);
237         _leave(" = %d", ret);
238         return ret;
239 }
240
241 /**
242  * rxrpc_kernel_begin_call - Allow a kernel service to begin a call
243  * @sock: The socket on which to make the call
244  * @srx: The address of the peer to contact
245  * @key: The security context to use (defaults to socket setting)
246  * @user_call_ID: The ID to use
247  * @gfp: The allocation constraints
248  * @notify_rx: Where to send notifications instead of socket queue
249  *
250  * Allow a kernel service to begin a call on the nominated socket.  This just
251  * sets up all the internal tracking structures and allocates connection and
252  * call IDs as appropriate.  The call to be used is returned.
253  *
254  * The default socket destination address and security may be overridden by
255  * supplying @srx and @key.
256  */
257 struct rxrpc_call *rxrpc_kernel_begin_call(struct socket *sock,
258                                            struct sockaddr_rxrpc *srx,
259                                            struct key *key,
260                                            unsigned long user_call_ID,
261                                            gfp_t gfp,
262                                            rxrpc_notify_rx_t notify_rx)
263 {
264         struct rxrpc_conn_parameters cp;
265         struct rxrpc_call *call;
266         struct rxrpc_sock *rx = rxrpc_sk(sock->sk);
267         int ret;
268
269         _enter(",,%x,%lx", key_serial(key), user_call_ID);
270
271         ret = rxrpc_validate_address(rx, srx, sizeof(*srx));
272         if (ret < 0)
273                 return ERR_PTR(ret);
274
275         lock_sock(&rx->sk);
276
277         if (!key)
278                 key = rx->key;
279         if (key && !key->payload.data[0])
280                 key = NULL; /* a no-security key */
281
282         memset(&cp, 0, sizeof(cp));
283         cp.local                = rx->local;
284         cp.key                  = key;
285         cp.security_level       = 0;
286         cp.exclusive            = false;
287         cp.service_id           = srx->srx_service;
288         call = rxrpc_new_client_call(rx, &cp, srx, user_call_ID, gfp);
289         /* The socket has been unlocked. */
290         if (!IS_ERR(call))
291                 call->notify_rx = notify_rx;
292
293         mutex_unlock(&call->user_mutex);
294         _leave(" = %p", call);
295         return call;
296 }
297 EXPORT_SYMBOL(rxrpc_kernel_begin_call);
298
299 /**
300  * rxrpc_kernel_end_call - Allow a kernel service to end a call it was using
301  * @sock: The socket the call is on
302  * @call: The call to end
303  *
304  * Allow a kernel service to end a call it was using.  The call must be
305  * complete before this is called (the call should be aborted if necessary).
306  */
307 void rxrpc_kernel_end_call(struct socket *sock, struct rxrpc_call *call)
308 {
309         _enter("%d{%d}", call->debug_id, atomic_read(&call->usage));
310
311         mutex_lock(&call->user_mutex);
312         rxrpc_release_call(rxrpc_sk(sock->sk), call);
313         mutex_unlock(&call->user_mutex);
314         rxrpc_put_call(call, rxrpc_call_put_kernel);
315 }
316 EXPORT_SYMBOL(rxrpc_kernel_end_call);
317
318 /**
319  * rxrpc_kernel_new_call_notification - Get notifications of new calls
320  * @sock: The socket to intercept received messages on
321  * @notify_new_call: Function to be called when new calls appear
322  * @discard_new_call: Function to discard preallocated calls
323  *
324  * Allow a kernel service to be given notifications about new calls.
325  */
326 void rxrpc_kernel_new_call_notification(
327         struct socket *sock,
328         rxrpc_notify_new_call_t notify_new_call,
329         rxrpc_discard_new_call_t discard_new_call)
330 {
331         struct rxrpc_sock *rx = rxrpc_sk(sock->sk);
332
333         rx->notify_new_call = notify_new_call;
334         rx->discard_new_call = discard_new_call;
335 }
336 EXPORT_SYMBOL(rxrpc_kernel_new_call_notification);
337
338 /*
339  * connect an RxRPC socket
340  * - this just targets it at a specific destination; no actual connection
341  *   negotiation takes place
342  */
343 static int rxrpc_connect(struct socket *sock, struct sockaddr *addr,
344                          int addr_len, int flags)
345 {
346         struct sockaddr_rxrpc *srx = (struct sockaddr_rxrpc *)addr;
347         struct rxrpc_sock *rx = rxrpc_sk(sock->sk);
348         int ret;
349
350         _enter("%p,%p,%d,%d", rx, addr, addr_len, flags);
351
352         ret = rxrpc_validate_address(rx, srx, addr_len);
353         if (ret < 0) {
354                 _leave(" = %d [bad addr]", ret);
355                 return ret;
356         }
357
358         lock_sock(&rx->sk);
359
360         ret = -EISCONN;
361         if (test_bit(RXRPC_SOCK_CONNECTED, &rx->flags))
362                 goto error;
363
364         switch (rx->sk.sk_state) {
365         case RXRPC_UNBOUND:
366                 rx->sk.sk_state = RXRPC_CLIENT_UNBOUND;
367         case RXRPC_CLIENT_UNBOUND:
368         case RXRPC_CLIENT_BOUND:
369                 break;
370         default:
371                 ret = -EBUSY;
372                 goto error;
373         }
374
375         rx->connect_srx = *srx;
376         set_bit(RXRPC_SOCK_CONNECTED, &rx->flags);
377         ret = 0;
378
379 error:
380         release_sock(&rx->sk);
381         return ret;
382 }
383
384 /*
385  * send a message through an RxRPC socket
386  * - in a client this does a number of things:
387  *   - finds/sets up a connection for the security specified (if any)
388  *   - initiates a call (ID in control data)
389  *   - ends the request phase of a call (if MSG_MORE is not set)
390  *   - sends a call data packet
391  *   - may send an abort (abort code in control data)
392  */
393 static int rxrpc_sendmsg(struct socket *sock, struct msghdr *m, size_t len)
394 {
395         struct rxrpc_local *local;
396         struct rxrpc_sock *rx = rxrpc_sk(sock->sk);
397         int ret;
398
399         _enter(",{%d},,%zu", rx->sk.sk_state, len);
400
401         if (m->msg_flags & MSG_OOB)
402                 return -EOPNOTSUPP;
403
404         if (m->msg_name) {
405                 ret = rxrpc_validate_address(rx, m->msg_name, m->msg_namelen);
406                 if (ret < 0) {
407                         _leave(" = %d [bad addr]", ret);
408                         return ret;
409                 }
410         }
411
412         lock_sock(&rx->sk);
413
414         switch (rx->sk.sk_state) {
415         case RXRPC_UNBOUND:
416                 rx->srx.srx_family = AF_RXRPC;
417                 rx->srx.srx_service = 0;
418                 rx->srx.transport_type = SOCK_DGRAM;
419                 rx->srx.transport.family = rx->family;
420                 switch (rx->family) {
421                 case AF_INET:
422                         rx->srx.transport_len = sizeof(struct sockaddr_in);
423                         break;
424 #ifdef CONFIG_AF_RXRPC_IPV6
425                 case AF_INET6:
426                         rx->srx.transport_len = sizeof(struct sockaddr_in6);
427                         break;
428 #endif
429                 default:
430                         ret = -EAFNOSUPPORT;
431                         goto error_unlock;
432                 }
433                 local = rxrpc_lookup_local(sock_net(sock->sk), &rx->srx);
434                 if (IS_ERR(local)) {
435                         ret = PTR_ERR(local);
436                         goto error_unlock;
437                 }
438
439                 rx->local = local;
440                 rx->sk.sk_state = RXRPC_CLIENT_UNBOUND;
441                 /* Fall through */
442
443         case RXRPC_CLIENT_UNBOUND:
444         case RXRPC_CLIENT_BOUND:
445                 if (!m->msg_name &&
446                     test_bit(RXRPC_SOCK_CONNECTED, &rx->flags)) {
447                         m->msg_name = &rx->connect_srx;
448                         m->msg_namelen = sizeof(rx->connect_srx);
449                 }
450         case RXRPC_SERVER_BOUND:
451         case RXRPC_SERVER_LISTENING:
452                 ret = rxrpc_do_sendmsg(rx, m, len);
453                 /* The socket has been unlocked */
454                 goto out;
455         default:
456                 ret = -EINVAL;
457                 goto error_unlock;
458         }
459
460 error_unlock:
461         release_sock(&rx->sk);
462 out:
463         _leave(" = %d", ret);
464         return ret;
465 }
466
467 /*
468  * set RxRPC socket options
469  */
470 static int rxrpc_setsockopt(struct socket *sock, int level, int optname,
471                             char __user *optval, unsigned int optlen)
472 {
473         struct rxrpc_sock *rx = rxrpc_sk(sock->sk);
474         unsigned int min_sec_level;
475         int ret;
476
477         _enter(",%d,%d,,%d", level, optname, optlen);
478
479         lock_sock(&rx->sk);
480         ret = -EOPNOTSUPP;
481
482         if (level == SOL_RXRPC) {
483                 switch (optname) {
484                 case RXRPC_EXCLUSIVE_CONNECTION:
485                         ret = -EINVAL;
486                         if (optlen != 0)
487                                 goto error;
488                         ret = -EISCONN;
489                         if (rx->sk.sk_state != RXRPC_UNBOUND)
490                                 goto error;
491                         rx->exclusive = true;
492                         goto success;
493
494                 case RXRPC_SECURITY_KEY:
495                         ret = -EINVAL;
496                         if (rx->key)
497                                 goto error;
498                         ret = -EISCONN;
499                         if (rx->sk.sk_state != RXRPC_UNBOUND)
500                                 goto error;
501                         ret = rxrpc_request_key(rx, optval, optlen);
502                         goto error;
503
504                 case RXRPC_SECURITY_KEYRING:
505                         ret = -EINVAL;
506                         if (rx->key)
507                                 goto error;
508                         ret = -EISCONN;
509                         if (rx->sk.sk_state != RXRPC_UNBOUND)
510                                 goto error;
511                         ret = rxrpc_server_keyring(rx, optval, optlen);
512                         goto error;
513
514                 case RXRPC_MIN_SECURITY_LEVEL:
515                         ret = -EINVAL;
516                         if (optlen != sizeof(unsigned int))
517                                 goto error;
518                         ret = -EISCONN;
519                         if (rx->sk.sk_state != RXRPC_UNBOUND)
520                                 goto error;
521                         ret = get_user(min_sec_level,
522                                        (unsigned int __user *) optval);
523                         if (ret < 0)
524                                 goto error;
525                         ret = -EINVAL;
526                         if (min_sec_level > RXRPC_SECURITY_MAX)
527                                 goto error;
528                         rx->min_sec_level = min_sec_level;
529                         goto success;
530
531                 default:
532                         break;
533                 }
534         }
535
536 success:
537         ret = 0;
538 error:
539         release_sock(&rx->sk);
540         return ret;
541 }
542
543 /*
544  * permit an RxRPC socket to be polled
545  */
546 static unsigned int rxrpc_poll(struct file *file, struct socket *sock,
547                                poll_table *wait)
548 {
549         struct sock *sk = sock->sk;
550         struct rxrpc_sock *rx = rxrpc_sk(sk);
551         unsigned int mask;
552
553         sock_poll_wait(file, sk_sleep(sk), wait);
554         mask = 0;
555
556         /* the socket is readable if there are any messages waiting on the Rx
557          * queue */
558         if (!list_empty(&rx->recvmsg_q))
559                 mask |= POLLIN | POLLRDNORM;
560
561         /* the socket is writable if there is space to add new data to the
562          * socket; there is no guarantee that any particular call in progress
563          * on the socket may have space in the Tx ACK window */
564         if (rxrpc_writable(sk))
565                 mask |= POLLOUT | POLLWRNORM;
566
567         return mask;
568 }
569
570 /*
571  * create an RxRPC socket
572  */
573 static int rxrpc_create(struct net *net, struct socket *sock, int protocol,
574                         int kern)
575 {
576         struct rxrpc_sock *rx;
577         struct sock *sk;
578
579         _enter("%p,%d", sock, protocol);
580
581         /* we support transport protocol UDP/UDP6 only */
582         if (protocol != PF_INET &&
583             IS_ENABLED(CONFIG_AF_RXRPC_IPV6) && protocol != PF_INET6)
584                 return -EPROTONOSUPPORT;
585
586         if (sock->type != SOCK_DGRAM)
587                 return -ESOCKTNOSUPPORT;
588
589         sock->ops = &rxrpc_rpc_ops;
590         sock->state = SS_UNCONNECTED;
591
592         sk = sk_alloc(net, PF_RXRPC, GFP_KERNEL, &rxrpc_proto, kern);
593         if (!sk)
594                 return -ENOMEM;
595
596         sock_init_data(sock, sk);
597         sock_set_flag(sk, SOCK_RCU_FREE);
598         sk->sk_state            = RXRPC_UNBOUND;
599         sk->sk_write_space      = rxrpc_write_space;
600         sk->sk_max_ack_backlog  = 0;
601         sk->sk_destruct         = rxrpc_sock_destructor;
602
603         rx = rxrpc_sk(sk);
604         rx->family = protocol;
605         rx->calls = RB_ROOT;
606
607         spin_lock_init(&rx->incoming_lock);
608         INIT_LIST_HEAD(&rx->sock_calls);
609         INIT_LIST_HEAD(&rx->to_be_accepted);
610         INIT_LIST_HEAD(&rx->recvmsg_q);
611         rwlock_init(&rx->recvmsg_lock);
612         rwlock_init(&rx->call_lock);
613         memset(&rx->srx, 0, sizeof(rx->srx));
614
615         _leave(" = 0 [%p]", rx);
616         return 0;
617 }
618
619 /*
620  * Kill all the calls on a socket and shut it down.
621  */
622 static int rxrpc_shutdown(struct socket *sock, int flags)
623 {
624         struct sock *sk = sock->sk;
625         struct rxrpc_sock *rx = rxrpc_sk(sk);
626         int ret = 0;
627
628         _enter("%p,%d", sk, flags);
629
630         if (flags != SHUT_RDWR)
631                 return -EOPNOTSUPP;
632         if (sk->sk_state == RXRPC_CLOSE)
633                 return -ESHUTDOWN;
634
635         lock_sock(sk);
636
637         spin_lock_bh(&sk->sk_receive_queue.lock);
638         if (sk->sk_state < RXRPC_CLOSE) {
639                 sk->sk_state = RXRPC_CLOSE;
640                 sk->sk_shutdown = SHUTDOWN_MASK;
641         } else {
642                 ret = -ESHUTDOWN;
643         }
644         spin_unlock_bh(&sk->sk_receive_queue.lock);
645
646         rxrpc_discard_prealloc(rx);
647
648         release_sock(sk);
649         return ret;
650 }
651
652 /*
653  * RxRPC socket destructor
654  */
655 static void rxrpc_sock_destructor(struct sock *sk)
656 {
657         _enter("%p", sk);
658
659         rxrpc_purge_queue(&sk->sk_receive_queue);
660
661         WARN_ON(atomic_read(&sk->sk_wmem_alloc));
662         WARN_ON(!sk_unhashed(sk));
663         WARN_ON(sk->sk_socket);
664
665         if (!sock_flag(sk, SOCK_DEAD)) {
666                 printk("Attempt to release alive rxrpc socket: %p\n", sk);
667                 return;
668         }
669 }
670
671 /*
672  * release an RxRPC socket
673  */
674 static int rxrpc_release_sock(struct sock *sk)
675 {
676         struct rxrpc_sock *rx = rxrpc_sk(sk);
677
678         _enter("%p{%d,%d}", sk, sk->sk_state, atomic_read(&sk->sk_refcnt));
679
680         /* declare the socket closed for business */
681         sock_orphan(sk);
682         sk->sk_shutdown = SHUTDOWN_MASK;
683
684         spin_lock_bh(&sk->sk_receive_queue.lock);
685         sk->sk_state = RXRPC_CLOSE;
686         spin_unlock_bh(&sk->sk_receive_queue.lock);
687
688         if (rx->local && rcu_access_pointer(rx->local->service) == rx) {
689                 write_lock(&rx->local->services_lock);
690                 rcu_assign_pointer(rx->local->service, NULL);
691                 write_unlock(&rx->local->services_lock);
692         }
693
694         /* try to flush out this socket */
695         rxrpc_discard_prealloc(rx);
696         rxrpc_release_calls_on_socket(rx);
697         flush_workqueue(rxrpc_workqueue);
698         rxrpc_purge_queue(&sk->sk_receive_queue);
699
700         rxrpc_put_local(rx->local);
701         rx->local = NULL;
702         key_put(rx->key);
703         rx->key = NULL;
704         key_put(rx->securities);
705         rx->securities = NULL;
706         sock_put(sk);
707
708         _leave(" = 0");
709         return 0;
710 }
711
712 /*
713  * release an RxRPC BSD socket on close() or equivalent
714  */
715 static int rxrpc_release(struct socket *sock)
716 {
717         struct sock *sk = sock->sk;
718
719         _enter("%p{%p}", sock, sk);
720
721         if (!sk)
722                 return 0;
723
724         sock->sk = NULL;
725
726         return rxrpc_release_sock(sk);
727 }
728
729 /*
730  * RxRPC network protocol
731  */
732 static const struct proto_ops rxrpc_rpc_ops = {
733         .family         = PF_RXRPC,
734         .owner          = THIS_MODULE,
735         .release        = rxrpc_release,
736         .bind           = rxrpc_bind,
737         .connect        = rxrpc_connect,
738         .socketpair     = sock_no_socketpair,
739         .accept         = sock_no_accept,
740         .getname        = sock_no_getname,
741         .poll           = rxrpc_poll,
742         .ioctl          = sock_no_ioctl,
743         .listen         = rxrpc_listen,
744         .shutdown       = rxrpc_shutdown,
745         .setsockopt     = rxrpc_setsockopt,
746         .getsockopt     = sock_no_getsockopt,
747         .sendmsg        = rxrpc_sendmsg,
748         .recvmsg        = rxrpc_recvmsg,
749         .mmap           = sock_no_mmap,
750         .sendpage       = sock_no_sendpage,
751 };
752
753 static struct proto rxrpc_proto = {
754         .name           = "RXRPC",
755         .owner          = THIS_MODULE,
756         .obj_size       = sizeof(struct rxrpc_sock),
757         .max_header     = sizeof(struct rxrpc_wire_header),
758 };
759
760 static const struct net_proto_family rxrpc_family_ops = {
761         .family = PF_RXRPC,
762         .create = rxrpc_create,
763         .owner  = THIS_MODULE,
764 };
765
766 /*
767  * initialise and register the RxRPC protocol
768  */
769 static int __init af_rxrpc_init(void)
770 {
771         int ret = -1;
772         unsigned int tmp;
773
774         BUILD_BUG_ON(sizeof(struct rxrpc_skb_priv) > FIELD_SIZEOF(struct sk_buff, cb));
775
776         get_random_bytes(&tmp, sizeof(tmp));
777         tmp &= 0x3fffffff;
778         if (tmp == 0)
779                 tmp = 1;
780         idr_set_cursor(&rxrpc_client_conn_ids, tmp);
781
782         ret = -ENOMEM;
783         rxrpc_call_jar = kmem_cache_create(
784                 "rxrpc_call_jar", sizeof(struct rxrpc_call), 0,
785                 SLAB_HWCACHE_ALIGN, NULL);
786         if (!rxrpc_call_jar) {
787                 pr_notice("Failed to allocate call jar\n");
788                 goto error_call_jar;
789         }
790
791         rxrpc_workqueue = alloc_workqueue("krxrpcd", 0, 1);
792         if (!rxrpc_workqueue) {
793                 pr_notice("Failed to allocate work queue\n");
794                 goto error_work_queue;
795         }
796
797         ret = rxrpc_init_security();
798         if (ret < 0) {
799                 pr_crit("Cannot initialise security\n");
800                 goto error_security;
801         }
802
803         ret = register_pernet_subsys(&rxrpc_net_ops);
804         if (ret)
805                 goto error_pernet;
806
807         ret = proto_register(&rxrpc_proto, 1);
808         if (ret < 0) {
809                 pr_crit("Cannot register protocol\n");
810                 goto error_proto;
811         }
812
813         ret = sock_register(&rxrpc_family_ops);
814         if (ret < 0) {
815                 pr_crit("Cannot register socket family\n");
816                 goto error_sock;
817         }
818
819         ret = register_key_type(&key_type_rxrpc);
820         if (ret < 0) {
821                 pr_crit("Cannot register client key type\n");
822                 goto error_key_type;
823         }
824
825         ret = register_key_type(&key_type_rxrpc_s);
826         if (ret < 0) {
827                 pr_crit("Cannot register server key type\n");
828                 goto error_key_type_s;
829         }
830
831         ret = rxrpc_sysctl_init();
832         if (ret < 0) {
833                 pr_crit("Cannot register sysctls\n");
834                 goto error_sysctls;
835         }
836
837         return 0;
838
839 error_sysctls:
840         unregister_key_type(&key_type_rxrpc_s);
841 error_key_type_s:
842         unregister_key_type(&key_type_rxrpc);
843 error_key_type:
844         sock_unregister(PF_RXRPC);
845 error_sock:
846         proto_unregister(&rxrpc_proto);
847 error_proto:
848         unregister_pernet_subsys(&rxrpc_net_ops);
849 error_pernet:
850         rxrpc_exit_security();
851 error_security:
852         destroy_workqueue(rxrpc_workqueue);
853 error_work_queue:
854         kmem_cache_destroy(rxrpc_call_jar);
855 error_call_jar:
856         return ret;
857 }
858
859 /*
860  * unregister the RxRPC protocol
861  */
862 static void __exit af_rxrpc_exit(void)
863 {
864         _enter("");
865         rxrpc_sysctl_exit();
866         unregister_key_type(&key_type_rxrpc_s);
867         unregister_key_type(&key_type_rxrpc);
868         sock_unregister(PF_RXRPC);
869         proto_unregister(&rxrpc_proto);
870         unregister_pernet_subsys(&rxrpc_net_ops);
871         ASSERTCMP(atomic_read(&rxrpc_n_tx_skbs), ==, 0);
872         ASSERTCMP(atomic_read(&rxrpc_n_rx_skbs), ==, 0);
873
874         /* Make sure the local and peer records pinned by any dying connections
875          * are released.
876          */
877         rcu_barrier();
878         rxrpc_destroy_client_conn_ids();
879
880         destroy_workqueue(rxrpc_workqueue);
881         rxrpc_exit_security();
882         kmem_cache_destroy(rxrpc_call_jar);
883         _leave("");
884 }
885
886 module_init(af_rxrpc_init);
887 module_exit(af_rxrpc_exit);