0a8d70d1691886e7ace4747c739cb8d66db48638
[linux-2.6-block.git] / include / net / xfrm.h
1 /* SPDX-License-Identifier: GPL-2.0 */
2 #ifndef _NET_XFRM_H
3 #define _NET_XFRM_H
4
5 #include <linux/compiler.h>
6 #include <linux/xfrm.h>
7 #include <linux/spinlock.h>
8 #include <linux/list.h>
9 #include <linux/skbuff.h>
10 #include <linux/socket.h>
11 #include <linux/pfkeyv2.h>
12 #include <linux/ipsec.h>
13 #include <linux/in6.h>
14 #include <linux/mutex.h>
15 #include <linux/audit.h>
16 #include <linux/slab.h>
17 #include <linux/refcount.h>
18
19 #include <net/sock.h>
20 #include <net/dst.h>
21 #include <net/ip.h>
22 #include <net/route.h>
23 #include <net/ipv6.h>
24 #include <net/ip6_fib.h>
25 #include <net/flow.h>
26 #include <net/gro_cells.h>
27
28 #include <linux/interrupt.h>
29
30 #ifdef CONFIG_XFRM_STATISTICS
31 #include <net/snmp.h>
32 #endif
33
34 #define XFRM_PROTO_ESP          50
35 #define XFRM_PROTO_AH           51
36 #define XFRM_PROTO_COMP         108
37 #define XFRM_PROTO_IPIP         4
38 #define XFRM_PROTO_IPV6         41
39 #define XFRM_PROTO_ROUTING      IPPROTO_ROUTING
40 #define XFRM_PROTO_DSTOPTS      IPPROTO_DSTOPTS
41
42 #define XFRM_ALIGN4(len)        (((len) + 3) & ~3)
43 #define XFRM_ALIGN8(len)        (((len) + 7) & ~7)
44 #define MODULE_ALIAS_XFRM_MODE(family, encap) \
45         MODULE_ALIAS("xfrm-mode-" __stringify(family) "-" __stringify(encap))
46 #define MODULE_ALIAS_XFRM_TYPE(family, proto) \
47         MODULE_ALIAS("xfrm-type-" __stringify(family) "-" __stringify(proto))
48 #define MODULE_ALIAS_XFRM_OFFLOAD_TYPE(family, proto) \
49         MODULE_ALIAS("xfrm-offload-" __stringify(family) "-" __stringify(proto))
50
51 #ifdef CONFIG_XFRM_STATISTICS
52 #define XFRM_INC_STATS(net, field)      SNMP_INC_STATS((net)->mib.xfrm_statistics, field)
53 #else
54 #define XFRM_INC_STATS(net, field)      ((void)(net))
55 #endif
56
57
58 /* Organization of SPD aka "XFRM rules"
59    ------------------------------------
60
61    Basic objects:
62    - policy rule, struct xfrm_policy (=SPD entry)
63    - bundle of transformations, struct dst_entry == struct xfrm_dst (=SA bundle)
64    - instance of a transformer, struct xfrm_state (=SA)
65    - template to clone xfrm_state, struct xfrm_tmpl
66
67    SPD is plain linear list of xfrm_policy rules, ordered by priority.
68    (To be compatible with existing pfkeyv2 implementations,
69    many rules with priority of 0x7fffffff are allowed to exist and
70    such rules are ordered in an unpredictable way, thanks to bsd folks.)
71
72    Lookup is plain linear search until the first match with selector.
73
74    If "action" is "block", then we prohibit the flow, otherwise:
75    if "xfrms_nr" is zero, the flow passes untransformed. Otherwise,
76    policy entry has list of up to XFRM_MAX_DEPTH transformations,
77    described by templates xfrm_tmpl. Each template is resolved
78    to a complete xfrm_state (see below) and we pack bundle of transformations
79    to a dst_entry returned to requestor.
80
81    dst -. xfrm  .-> xfrm_state #1
82     |---. child .-> dst -. xfrm .-> xfrm_state #2
83                      |---. child .-> dst -. xfrm .-> xfrm_state #3
84                                       |---. child .-> NULL
85
86    Bundles are cached at xrfm_policy struct (field ->bundles).
87
88
89    Resolution of xrfm_tmpl
90    -----------------------
91    Template contains:
92    1. ->mode            Mode: transport or tunnel
93    2. ->id.proto        Protocol: AH/ESP/IPCOMP
94    3. ->id.daddr        Remote tunnel endpoint, ignored for transport mode.
95       Q: allow to resolve security gateway?
96    4. ->id.spi          If not zero, static SPI.
97    5. ->saddr           Local tunnel endpoint, ignored for transport mode.
98    6. ->algos           List of allowed algos. Plain bitmask now.
99       Q: ealgos, aalgos, calgos. What a mess...
100    7. ->share           Sharing mode.
101       Q: how to implement private sharing mode? To add struct sock* to
102       flow id?
103
104    Having this template we search through SAD searching for entries
105    with appropriate mode/proto/algo, permitted by selector.
106    If no appropriate entry found, it is requested from key manager.
107
108    PROBLEMS:
109    Q: How to find all the bundles referring to a physical path for
110       PMTU discovery? Seems, dst should contain list of all parents...
111       and enter to infinite locking hierarchy disaster.
112       No! It is easier, we will not search for them, let them find us.
113       We add genid to each dst plus pointer to genid of raw IP route,
114       pmtu disc will update pmtu on raw IP route and increase its genid.
115       dst_check() will see this for top level and trigger resyncing
116       metrics. Plus, it will be made via sk->sk_dst_cache. Solved.
117  */
118
119 struct xfrm_state_walk {
120         struct list_head        all;
121         u8                      state;
122         u8                      dying;
123         u8                      proto;
124         u32                     seq;
125         struct xfrm_address_filter *filter;
126 };
127
128 struct xfrm_state_offload {
129         struct net_device       *dev;
130         unsigned long           offload_handle;
131         unsigned int            num_exthdrs;
132         u8                      flags;
133 };
134
135 /* Full description of state of transformer. */
136 struct xfrm_state {
137         possible_net_t          xs_net;
138         union {
139                 struct hlist_node       gclist;
140                 struct hlist_node       bydst;
141         };
142         struct hlist_node       bysrc;
143         struct hlist_node       byspi;
144
145         refcount_t              refcnt;
146         spinlock_t              lock;
147
148         struct xfrm_id          id;
149         struct xfrm_selector    sel;
150         struct xfrm_mark        mark;
151         u32                     if_id;
152         u32                     tfcpad;
153
154         u32                     genid;
155
156         /* Key manager bits */
157         struct xfrm_state_walk  km;
158
159         /* Parameters of this state. */
160         struct {
161                 u32             reqid;
162                 u8              mode;
163                 u8              replay_window;
164                 u8              aalgo, ealgo, calgo;
165                 u8              flags;
166                 u16             family;
167                 xfrm_address_t  saddr;
168                 int             header_len;
169                 int             trailer_len;
170                 u32             extra_flags;
171                 struct xfrm_mark        smark;
172         } props;
173
174         struct xfrm_lifetime_cfg lft;
175
176         /* Data for transformer */
177         struct xfrm_algo_auth   *aalg;
178         struct xfrm_algo        *ealg;
179         struct xfrm_algo        *calg;
180         struct xfrm_algo_aead   *aead;
181         const char              *geniv;
182
183         /* Data for encapsulator */
184         struct xfrm_encap_tmpl  *encap;
185
186         /* Data for care-of address */
187         xfrm_address_t  *coaddr;
188
189         /* IPComp needs an IPIP tunnel for handling uncompressed packets */
190         struct xfrm_state       *tunnel;
191
192         /* If a tunnel, number of users + 1 */
193         atomic_t                tunnel_users;
194
195         /* State for replay detection */
196         struct xfrm_replay_state replay;
197         struct xfrm_replay_state_esn *replay_esn;
198
199         /* Replay detection state at the time we sent the last notification */
200         struct xfrm_replay_state preplay;
201         struct xfrm_replay_state_esn *preplay_esn;
202
203         /* The functions for replay detection. */
204         const struct xfrm_replay *repl;
205
206         /* internal flag that only holds state for delayed aevent at the
207          * moment
208         */
209         u32                     xflags;
210
211         /* Replay detection notification settings */
212         u32                     replay_maxage;
213         u32                     replay_maxdiff;
214
215         /* Replay detection notification timer */
216         struct timer_list       rtimer;
217
218         /* Statistics */
219         struct xfrm_stats       stats;
220
221         struct xfrm_lifetime_cur curlft;
222         struct tasklet_hrtimer  mtimer;
223
224         struct xfrm_state_offload xso;
225
226         /* used to fix curlft->add_time when changing date */
227         long            saved_tmo;
228
229         /* Last used time */
230         time64_t                lastused;
231
232         struct page_frag xfrag;
233
234         /* Reference to data common to all the instances of this
235          * transformer. */
236         const struct xfrm_type  *type;
237         struct xfrm_mode        *inner_mode;
238         struct xfrm_mode        *inner_mode_iaf;
239         struct xfrm_mode        *outer_mode;
240
241         const struct xfrm_type_offload  *type_offload;
242
243         /* Security context */
244         struct xfrm_sec_ctx     *security;
245
246         /* Private data of this transformer, format is opaque,
247          * interpreted by xfrm_type methods. */
248         void                    *data;
249 };
250
251 static inline struct net *xs_net(struct xfrm_state *x)
252 {
253         return read_pnet(&x->xs_net);
254 }
255
256 /* xflags - make enum if more show up */
257 #define XFRM_TIME_DEFER 1
258 #define XFRM_SOFT_EXPIRE 2
259
260 enum {
261         XFRM_STATE_VOID,
262         XFRM_STATE_ACQ,
263         XFRM_STATE_VALID,
264         XFRM_STATE_ERROR,
265         XFRM_STATE_EXPIRED,
266         XFRM_STATE_DEAD
267 };
268
269 /* callback structure passed from either netlink or pfkey */
270 struct km_event {
271         union {
272                 u32 hard;
273                 u32 proto;
274                 u32 byid;
275                 u32 aevent;
276                 u32 type;
277         } data;
278
279         u32     seq;
280         u32     portid;
281         u32     event;
282         struct net *net;
283 };
284
285 struct xfrm_replay {
286         void    (*advance)(struct xfrm_state *x, __be32 net_seq);
287         int     (*check)(struct xfrm_state *x,
288                          struct sk_buff *skb,
289                          __be32 net_seq);
290         int     (*recheck)(struct xfrm_state *x,
291                            struct sk_buff *skb,
292                            __be32 net_seq);
293         void    (*notify)(struct xfrm_state *x, int event);
294         int     (*overflow)(struct xfrm_state *x, struct sk_buff *skb);
295 };
296
297 struct xfrm_if_cb {
298         struct xfrm_if  *(*decode_session)(struct sk_buff *skb);
299 };
300
301 void xfrm_if_register_cb(const struct xfrm_if_cb *ifcb);
302 void xfrm_if_unregister_cb(void);
303
304 struct net_device;
305 struct xfrm_type;
306 struct xfrm_dst;
307 struct xfrm_policy_afinfo {
308         struct dst_ops          *dst_ops;
309         struct dst_entry        *(*dst_lookup)(struct net *net,
310                                                int tos, int oif,
311                                                const xfrm_address_t *saddr,
312                                                const xfrm_address_t *daddr,
313                                                u32 mark);
314         int                     (*get_saddr)(struct net *net, int oif,
315                                              xfrm_address_t *saddr,
316                                              xfrm_address_t *daddr,
317                                              u32 mark);
318         void                    (*decode_session)(struct sk_buff *skb,
319                                                   struct flowi *fl,
320                                                   int reverse);
321         int                     (*get_tos)(const struct flowi *fl);
322         int                     (*init_path)(struct xfrm_dst *path,
323                                              struct dst_entry *dst,
324                                              int nfheader_len);
325         int                     (*fill_dst)(struct xfrm_dst *xdst,
326                                             struct net_device *dev,
327                                             const struct flowi *fl);
328         struct dst_entry        *(*blackhole_route)(struct net *net, struct dst_entry *orig);
329 };
330
331 int xfrm_policy_register_afinfo(const struct xfrm_policy_afinfo *afinfo, int family);
332 void xfrm_policy_unregister_afinfo(const struct xfrm_policy_afinfo *afinfo);
333 void km_policy_notify(struct xfrm_policy *xp, int dir,
334                       const struct km_event *c);
335 void km_state_notify(struct xfrm_state *x, const struct km_event *c);
336
337 struct xfrm_tmpl;
338 int km_query(struct xfrm_state *x, struct xfrm_tmpl *t,
339              struct xfrm_policy *pol);
340 void km_state_expired(struct xfrm_state *x, int hard, u32 portid);
341 int __xfrm_state_delete(struct xfrm_state *x);
342
343 struct xfrm_state_afinfo {
344         unsigned int                    family;
345         unsigned int                    proto;
346         __be16                          eth_proto;
347         struct module                   *owner;
348         const struct xfrm_type          *type_map[IPPROTO_MAX];
349         const struct xfrm_type_offload  *type_offload_map[IPPROTO_MAX];
350         struct xfrm_mode                *mode_map[XFRM_MODE_MAX];
351
352         int                     (*init_flags)(struct xfrm_state *x);
353         void                    (*init_tempsel)(struct xfrm_selector *sel,
354                                                 const struct flowi *fl);
355         void                    (*init_temprop)(struct xfrm_state *x,
356                                                 const struct xfrm_tmpl *tmpl,
357                                                 const xfrm_address_t *daddr,
358                                                 const xfrm_address_t *saddr);
359         int                     (*tmpl_sort)(struct xfrm_tmpl **dst, struct xfrm_tmpl **src, int n);
360         int                     (*state_sort)(struct xfrm_state **dst, struct xfrm_state **src, int n);
361         int                     (*output)(struct net *net, struct sock *sk, struct sk_buff *skb);
362         int                     (*output_finish)(struct sock *sk, struct sk_buff *skb);
363         int                     (*extract_input)(struct xfrm_state *x,
364                                                  struct sk_buff *skb);
365         int                     (*extract_output)(struct xfrm_state *x,
366                                                   struct sk_buff *skb);
367         int                     (*transport_finish)(struct sk_buff *skb,
368                                                     int async);
369         void                    (*local_error)(struct sk_buff *skb, u32 mtu);
370 };
371
372 int xfrm_state_register_afinfo(struct xfrm_state_afinfo *afinfo);
373 int xfrm_state_unregister_afinfo(struct xfrm_state_afinfo *afinfo);
374 struct xfrm_state_afinfo *xfrm_state_get_afinfo(unsigned int family);
375 struct xfrm_state_afinfo *xfrm_state_afinfo_get_rcu(unsigned int family);
376
377 struct xfrm_input_afinfo {
378         unsigned int            family;
379         int                     (*callback)(struct sk_buff *skb, u8 protocol,
380                                             int err);
381 };
382
383 int xfrm_input_register_afinfo(const struct xfrm_input_afinfo *afinfo);
384 int xfrm_input_unregister_afinfo(const struct xfrm_input_afinfo *afinfo);
385
386 void xfrm_flush_gc(void);
387 void xfrm_state_delete_tunnel(struct xfrm_state *x);
388
389 struct xfrm_type {
390         char                    *description;
391         struct module           *owner;
392         u8                      proto;
393         u8                      flags;
394 #define XFRM_TYPE_NON_FRAGMENT  1
395 #define XFRM_TYPE_REPLAY_PROT   2
396 #define XFRM_TYPE_LOCAL_COADDR  4
397 #define XFRM_TYPE_REMOTE_COADDR 8
398
399         int                     (*init_state)(struct xfrm_state *x);
400         void                    (*destructor)(struct xfrm_state *);
401         int                     (*input)(struct xfrm_state *, struct sk_buff *skb);
402         int                     (*output)(struct xfrm_state *, struct sk_buff *pskb);
403         int                     (*reject)(struct xfrm_state *, struct sk_buff *,
404                                           const struct flowi *);
405         int                     (*hdr_offset)(struct xfrm_state *, struct sk_buff *, u8 **);
406         /* Estimate maximal size of result of transformation of a dgram */
407         u32                     (*get_mtu)(struct xfrm_state *, int size);
408 };
409
410 int xfrm_register_type(const struct xfrm_type *type, unsigned short family);
411 int xfrm_unregister_type(const struct xfrm_type *type, unsigned short family);
412
413 struct xfrm_type_offload {
414         char            *description;
415         struct module   *owner;
416         u8              proto;
417         void            (*encap)(struct xfrm_state *, struct sk_buff *pskb);
418         int             (*input_tail)(struct xfrm_state *x, struct sk_buff *skb);
419         int             (*xmit)(struct xfrm_state *, struct sk_buff *pskb, netdev_features_t features);
420 };
421
422 int xfrm_register_type_offload(const struct xfrm_type_offload *type, unsigned short family);
423 int xfrm_unregister_type_offload(const struct xfrm_type_offload *type, unsigned short family);
424
425 struct xfrm_mode {
426         /*
427          * Remove encapsulation header.
428          *
429          * The IP header will be moved over the top of the encapsulation
430          * header.
431          *
432          * On entry, the transport header shall point to where the IP header
433          * should be and the network header shall be set to where the IP
434          * header currently is.  skb->data shall point to the start of the
435          * payload.
436          */
437         int (*input2)(struct xfrm_state *x, struct sk_buff *skb);
438
439         /*
440          * This is the actual input entry point.
441          *
442          * For transport mode and equivalent this would be identical to
443          * input2 (which does not need to be set).  While tunnel mode
444          * and equivalent would set this to the tunnel encapsulation function
445          * xfrm4_prepare_input that would in turn call input2.
446          */
447         int (*input)(struct xfrm_state *x, struct sk_buff *skb);
448
449         /*
450          * Add encapsulation header.
451          *
452          * On exit, the transport header will be set to the start of the
453          * encapsulation header to be filled in by x->type->output and
454          * the mac header will be set to the nextheader (protocol for
455          * IPv4) field of the extension header directly preceding the
456          * encapsulation header, or in its absence, that of the top IP
457          * header.  The value of the network header will always point
458          * to the top IP header while skb->data will point to the payload.
459          */
460         int (*output2)(struct xfrm_state *x,struct sk_buff *skb);
461
462         /*
463          * This is the actual output entry point.
464          *
465          * For transport mode and equivalent this would be identical to
466          * output2 (which does not need to be set).  While tunnel mode
467          * and equivalent would set this to a tunnel encapsulation function
468          * (xfrm4_prepare_output or xfrm6_prepare_output) that would in turn
469          * call output2.
470          */
471         int (*output)(struct xfrm_state *x, struct sk_buff *skb);
472
473         /*
474          * Adjust pointers into the packet and do GSO segmentation.
475          */
476         struct sk_buff *(*gso_segment)(struct xfrm_state *x, struct sk_buff *skb, netdev_features_t features);
477
478         /*
479          * Adjust pointers into the packet when IPsec is done at layer2.
480          */
481         void (*xmit)(struct xfrm_state *x, struct sk_buff *skb);
482
483         struct xfrm_state_afinfo *afinfo;
484         struct module *owner;
485         unsigned int encap;
486         int flags;
487 };
488
489 /* Flags for xfrm_mode. */
490 enum {
491         XFRM_MODE_FLAG_TUNNEL = 1,
492 };
493
494 int xfrm_register_mode(struct xfrm_mode *mode, int family);
495 int xfrm_unregister_mode(struct xfrm_mode *mode, int family);
496
497 static inline int xfrm_af2proto(unsigned int family)
498 {
499         switch(family) {
500         case AF_INET:
501                 return IPPROTO_IPIP;
502         case AF_INET6:
503                 return IPPROTO_IPV6;
504         default:
505                 return 0;
506         }
507 }
508
509 static inline struct xfrm_mode *xfrm_ip2inner_mode(struct xfrm_state *x, int ipproto)
510 {
511         if ((ipproto == IPPROTO_IPIP && x->props.family == AF_INET) ||
512             (ipproto == IPPROTO_IPV6 && x->props.family == AF_INET6))
513                 return x->inner_mode;
514         else
515                 return x->inner_mode_iaf;
516 }
517
518 struct xfrm_tmpl {
519 /* id in template is interpreted as:
520  * daddr - destination of tunnel, may be zero for transport mode.
521  * spi   - zero to acquire spi. Not zero if spi is static, then
522  *         daddr must be fixed too.
523  * proto - AH/ESP/IPCOMP
524  */
525         struct xfrm_id          id;
526
527 /* Source address of tunnel. Ignored, if it is not a tunnel. */
528         xfrm_address_t          saddr;
529
530         unsigned short          encap_family;
531
532         u32                     reqid;
533
534 /* Mode: transport, tunnel etc. */
535         u8                      mode;
536
537 /* Sharing mode: unique, this session only, this user only etc. */
538         u8                      share;
539
540 /* May skip this transfomration if no SA is found */
541         u8                      optional;
542
543 /* Skip aalgos/ealgos/calgos checks. */
544         u8                      allalgs;
545
546 /* Bit mask of algos allowed for acquisition */
547         u32                     aalgos;
548         u32                     ealgos;
549         u32                     calgos;
550 };
551
552 #define XFRM_MAX_DEPTH          6
553 #define XFRM_MAX_OFFLOAD_DEPTH  1
554
555 struct xfrm_policy_walk_entry {
556         struct list_head        all;
557         u8                      dead;
558 };
559
560 struct xfrm_policy_walk {
561         struct xfrm_policy_walk_entry walk;
562         u8 type;
563         u32 seq;
564 };
565
566 struct xfrm_policy_queue {
567         struct sk_buff_head     hold_queue;
568         struct timer_list       hold_timer;
569         unsigned long           timeout;
570 };
571
572 struct xfrm_policy {
573         possible_net_t          xp_net;
574         struct hlist_node       bydst;
575         struct hlist_node       byidx;
576
577         /* This lock only affects elements except for entry. */
578         rwlock_t                lock;
579         refcount_t              refcnt;
580         u32                     pos;
581         struct timer_list       timer;
582
583         atomic_t                genid;
584         u32                     priority;
585         u32                     index;
586         u32                     if_id;
587         struct xfrm_mark        mark;
588         struct xfrm_selector    selector;
589         struct xfrm_lifetime_cfg lft;
590         struct xfrm_lifetime_cur curlft;
591         struct xfrm_policy_walk_entry walk;
592         struct xfrm_policy_queue polq;
593         bool                    bydst_reinsert;
594         u8                      type;
595         u8                      action;
596         u8                      flags;
597         u8                      xfrm_nr;
598         u16                     family;
599         struct xfrm_sec_ctx     *security;
600         struct xfrm_tmpl        xfrm_vec[XFRM_MAX_DEPTH];
601         struct hlist_node       bydst_inexact_list;
602         struct rcu_head         rcu;
603 };
604
605 static inline struct net *xp_net(const struct xfrm_policy *xp)
606 {
607         return read_pnet(&xp->xp_net);
608 }
609
610 struct xfrm_kmaddress {
611         xfrm_address_t          local;
612         xfrm_address_t          remote;
613         u32                     reserved;
614         u16                     family;
615 };
616
617 struct xfrm_migrate {
618         xfrm_address_t          old_daddr;
619         xfrm_address_t          old_saddr;
620         xfrm_address_t          new_daddr;
621         xfrm_address_t          new_saddr;
622         u8                      proto;
623         u8                      mode;
624         u16                     reserved;
625         u32                     reqid;
626         u16                     old_family;
627         u16                     new_family;
628 };
629
630 #define XFRM_KM_TIMEOUT                30
631 /* what happened */
632 #define XFRM_REPLAY_UPDATE      XFRM_AE_CR
633 #define XFRM_REPLAY_TIMEOUT     XFRM_AE_CE
634
635 /* default aevent timeout in units of 100ms */
636 #define XFRM_AE_ETIME                   10
637 /* Async Event timer multiplier */
638 #define XFRM_AE_ETH_M                   10
639 /* default seq threshold size */
640 #define XFRM_AE_SEQT_SIZE               2
641
642 struct xfrm_mgr {
643         struct list_head        list;
644         int                     (*notify)(struct xfrm_state *x, const struct km_event *c);
645         int                     (*acquire)(struct xfrm_state *x, struct xfrm_tmpl *, struct xfrm_policy *xp);
646         struct xfrm_policy      *(*compile_policy)(struct sock *sk, int opt, u8 *data, int len, int *dir);
647         int                     (*new_mapping)(struct xfrm_state *x, xfrm_address_t *ipaddr, __be16 sport);
648         int                     (*notify_policy)(struct xfrm_policy *x, int dir, const struct km_event *c);
649         int                     (*report)(struct net *net, u8 proto, struct xfrm_selector *sel, xfrm_address_t *addr);
650         int                     (*migrate)(const struct xfrm_selector *sel,
651                                            u8 dir, u8 type,
652                                            const struct xfrm_migrate *m,
653                                            int num_bundles,
654                                            const struct xfrm_kmaddress *k,
655                                            const struct xfrm_encap_tmpl *encap);
656         bool                    (*is_alive)(const struct km_event *c);
657 };
658
659 int xfrm_register_km(struct xfrm_mgr *km);
660 int xfrm_unregister_km(struct xfrm_mgr *km);
661
662 struct xfrm_tunnel_skb_cb {
663         union {
664                 struct inet_skb_parm h4;
665                 struct inet6_skb_parm h6;
666         } header;
667
668         union {
669                 struct ip_tunnel *ip4;
670                 struct ip6_tnl *ip6;
671         } tunnel;
672 };
673
674 #define XFRM_TUNNEL_SKB_CB(__skb) ((struct xfrm_tunnel_skb_cb *)&((__skb)->cb[0]))
675
676 /*
677  * This structure is used for the duration where packets are being
678  * transformed by IPsec.  As soon as the packet leaves IPsec the
679  * area beyond the generic IP part may be overwritten.
680  */
681 struct xfrm_skb_cb {
682         struct xfrm_tunnel_skb_cb header;
683
684         /* Sequence number for replay protection. */
685         union {
686                 struct {
687                         __u32 low;
688                         __u32 hi;
689                 } output;
690                 struct {
691                         __be32 low;
692                         __be32 hi;
693                 } input;
694         } seq;
695 };
696
697 #define XFRM_SKB_CB(__skb) ((struct xfrm_skb_cb *)&((__skb)->cb[0]))
698
699 /*
700  * This structure is used by the afinfo prepare_input/prepare_output functions
701  * to transmit header information to the mode input/output functions.
702  */
703 struct xfrm_mode_skb_cb {
704         struct xfrm_tunnel_skb_cb header;
705
706         /* Copied from header for IPv4, always set to zero and DF for IPv6. */
707         __be16 id;
708         __be16 frag_off;
709
710         /* IP header length (excluding options or extension headers). */
711         u8 ihl;
712
713         /* TOS for IPv4, class for IPv6. */
714         u8 tos;
715
716         /* TTL for IPv4, hop limitfor IPv6. */
717         u8 ttl;
718
719         /* Protocol for IPv4, NH for IPv6. */
720         u8 protocol;
721
722         /* Option length for IPv4, zero for IPv6. */
723         u8 optlen;
724
725         /* Used by IPv6 only, zero for IPv4. */
726         u8 flow_lbl[3];
727 };
728
729 #define XFRM_MODE_SKB_CB(__skb) ((struct xfrm_mode_skb_cb *)&((__skb)->cb[0]))
730
731 /*
732  * This structure is used by the input processing to locate the SPI and
733  * related information.
734  */
735 struct xfrm_spi_skb_cb {
736         struct xfrm_tunnel_skb_cb header;
737
738         unsigned int daddroff;
739         unsigned int family;
740         __be32 seq;
741 };
742
743 #define XFRM_SPI_SKB_CB(__skb) ((struct xfrm_spi_skb_cb *)&((__skb)->cb[0]))
744
745 #ifdef CONFIG_AUDITSYSCALL
746 static inline struct audit_buffer *xfrm_audit_start(const char *op)
747 {
748         struct audit_buffer *audit_buf = NULL;
749
750         if (audit_enabled == AUDIT_OFF)
751                 return NULL;
752         audit_buf = audit_log_start(audit_context(), GFP_ATOMIC,
753                                     AUDIT_MAC_IPSEC_EVENT);
754         if (audit_buf == NULL)
755                 return NULL;
756         audit_log_format(audit_buf, "op=%s", op);
757         return audit_buf;
758 }
759
760 static inline void xfrm_audit_helper_usrinfo(bool task_valid,
761                                              struct audit_buffer *audit_buf)
762 {
763         const unsigned int auid = from_kuid(&init_user_ns, task_valid ?
764                                             audit_get_loginuid(current) :
765                                             INVALID_UID);
766         const unsigned int ses = task_valid ? audit_get_sessionid(current) :
767                 AUDIT_SID_UNSET;
768
769         audit_log_format(audit_buf, " auid=%u ses=%u", auid, ses);
770         audit_log_task_context(audit_buf);
771 }
772
773 void xfrm_audit_policy_add(struct xfrm_policy *xp, int result, bool task_valid);
774 void xfrm_audit_policy_delete(struct xfrm_policy *xp, int result,
775                               bool task_valid);
776 void xfrm_audit_state_add(struct xfrm_state *x, int result, bool task_valid);
777 void xfrm_audit_state_delete(struct xfrm_state *x, int result, bool task_valid);
778 void xfrm_audit_state_replay_overflow(struct xfrm_state *x,
779                                       struct sk_buff *skb);
780 void xfrm_audit_state_replay(struct xfrm_state *x, struct sk_buff *skb,
781                              __be32 net_seq);
782 void xfrm_audit_state_notfound_simple(struct sk_buff *skb, u16 family);
783 void xfrm_audit_state_notfound(struct sk_buff *skb, u16 family, __be32 net_spi,
784                                __be32 net_seq);
785 void xfrm_audit_state_icvfail(struct xfrm_state *x, struct sk_buff *skb,
786                               u8 proto);
787 #else
788
789 static inline void xfrm_audit_policy_add(struct xfrm_policy *xp, int result,
790                                          bool task_valid)
791 {
792 }
793
794 static inline void xfrm_audit_policy_delete(struct xfrm_policy *xp, int result,
795                                             bool task_valid)
796 {
797 }
798
799 static inline void xfrm_audit_state_add(struct xfrm_state *x, int result,
800                                         bool task_valid)
801 {
802 }
803
804 static inline void xfrm_audit_state_delete(struct xfrm_state *x, int result,
805                                            bool task_valid)
806 {
807 }
808
809 static inline void xfrm_audit_state_replay_overflow(struct xfrm_state *x,
810                                              struct sk_buff *skb)
811 {
812 }
813
814 static inline void xfrm_audit_state_replay(struct xfrm_state *x,
815                                            struct sk_buff *skb, __be32 net_seq)
816 {
817 }
818
819 static inline void xfrm_audit_state_notfound_simple(struct sk_buff *skb,
820                                       u16 family)
821 {
822 }
823
824 static inline void xfrm_audit_state_notfound(struct sk_buff *skb, u16 family,
825                                       __be32 net_spi, __be32 net_seq)
826 {
827 }
828
829 static inline void xfrm_audit_state_icvfail(struct xfrm_state *x,
830                                      struct sk_buff *skb, u8 proto)
831 {
832 }
833 #endif /* CONFIG_AUDITSYSCALL */
834
835 static inline void xfrm_pol_hold(struct xfrm_policy *policy)
836 {
837         if (likely(policy != NULL))
838                 refcount_inc(&policy->refcnt);
839 }
840
841 void xfrm_policy_destroy(struct xfrm_policy *policy);
842
843 static inline void xfrm_pol_put(struct xfrm_policy *policy)
844 {
845         if (refcount_dec_and_test(&policy->refcnt))
846                 xfrm_policy_destroy(policy);
847 }
848
849 static inline void xfrm_pols_put(struct xfrm_policy **pols, int npols)
850 {
851         int i;
852         for (i = npols - 1; i >= 0; --i)
853                 xfrm_pol_put(pols[i]);
854 }
855
856 void __xfrm_state_destroy(struct xfrm_state *);
857
858 static inline void __xfrm_state_put(struct xfrm_state *x)
859 {
860         refcount_dec(&x->refcnt);
861 }
862
863 static inline void xfrm_state_put(struct xfrm_state *x)
864 {
865         if (refcount_dec_and_test(&x->refcnt))
866                 __xfrm_state_destroy(x);
867 }
868
869 static inline void xfrm_state_hold(struct xfrm_state *x)
870 {
871         refcount_inc(&x->refcnt);
872 }
873
874 static inline bool addr_match(const void *token1, const void *token2,
875                               unsigned int prefixlen)
876 {
877         const __be32 *a1 = token1;
878         const __be32 *a2 = token2;
879         unsigned int pdw;
880         unsigned int pbi;
881
882         pdw = prefixlen >> 5;     /* num of whole u32 in prefix */
883         pbi = prefixlen &  0x1f;  /* num of bits in incomplete u32 in prefix */
884
885         if (pdw)
886                 if (memcmp(a1, a2, pdw << 2))
887                         return false;
888
889         if (pbi) {
890                 __be32 mask;
891
892                 mask = htonl((0xffffffff) << (32 - pbi));
893
894                 if ((a1[pdw] ^ a2[pdw]) & mask)
895                         return false;
896         }
897
898         return true;
899 }
900
901 static inline bool addr4_match(__be32 a1, __be32 a2, u8 prefixlen)
902 {
903         /* C99 6.5.7 (3): u32 << 32 is undefined behaviour */
904         if (sizeof(long) == 4 && prefixlen == 0)
905                 return true;
906         return !((a1 ^ a2) & htonl(~0UL << (32 - prefixlen)));
907 }
908
909 static __inline__
910 __be16 xfrm_flowi_sport(const struct flowi *fl, const union flowi_uli *uli)
911 {
912         __be16 port;
913         switch(fl->flowi_proto) {
914         case IPPROTO_TCP:
915         case IPPROTO_UDP:
916         case IPPROTO_UDPLITE:
917         case IPPROTO_SCTP:
918                 port = uli->ports.sport;
919                 break;
920         case IPPROTO_ICMP:
921         case IPPROTO_ICMPV6:
922                 port = htons(uli->icmpt.type);
923                 break;
924         case IPPROTO_MH:
925                 port = htons(uli->mht.type);
926                 break;
927         case IPPROTO_GRE:
928                 port = htons(ntohl(uli->gre_key) >> 16);
929                 break;
930         default:
931                 port = 0;       /*XXX*/
932         }
933         return port;
934 }
935
936 static __inline__
937 __be16 xfrm_flowi_dport(const struct flowi *fl, const union flowi_uli *uli)
938 {
939         __be16 port;
940         switch(fl->flowi_proto) {
941         case IPPROTO_TCP:
942         case IPPROTO_UDP:
943         case IPPROTO_UDPLITE:
944         case IPPROTO_SCTP:
945                 port = uli->ports.dport;
946                 break;
947         case IPPROTO_ICMP:
948         case IPPROTO_ICMPV6:
949                 port = htons(uli->icmpt.code);
950                 break;
951         case IPPROTO_GRE:
952                 port = htons(ntohl(uli->gre_key) & 0xffff);
953                 break;
954         default:
955                 port = 0;       /*XXX*/
956         }
957         return port;
958 }
959
960 bool xfrm_selector_match(const struct xfrm_selector *sel,
961                          const struct flowi *fl, unsigned short family);
962
963 #ifdef CONFIG_SECURITY_NETWORK_XFRM
964 /*      If neither has a context --> match
965  *      Otherwise, both must have a context and the sids, doi, alg must match
966  */
967 static inline bool xfrm_sec_ctx_match(struct xfrm_sec_ctx *s1, struct xfrm_sec_ctx *s2)
968 {
969         return ((!s1 && !s2) ||
970                 (s1 && s2 &&
971                  (s1->ctx_sid == s2->ctx_sid) &&
972                  (s1->ctx_doi == s2->ctx_doi) &&
973                  (s1->ctx_alg == s2->ctx_alg)));
974 }
975 #else
976 static inline bool xfrm_sec_ctx_match(struct xfrm_sec_ctx *s1, struct xfrm_sec_ctx *s2)
977 {
978         return true;
979 }
980 #endif
981
982 /* A struct encoding bundle of transformations to apply to some set of flow.
983  *
984  * xdst->child points to the next element of bundle.
985  * dst->xfrm  points to an instanse of transformer.
986  *
987  * Due to unfortunate limitations of current routing cache, which we
988  * have no time to fix, it mirrors struct rtable and bound to the same
989  * routing key, including saddr,daddr. However, we can have many of
990  * bundles differing by session id. All the bundles grow from a parent
991  * policy rule.
992  */
993 struct xfrm_dst {
994         union {
995                 struct dst_entry        dst;
996                 struct rtable           rt;
997                 struct rt6_info         rt6;
998         } u;
999         struct dst_entry *route;
1000         struct dst_entry *child;
1001         struct dst_entry *path;
1002         struct xfrm_policy *pols[XFRM_POLICY_TYPE_MAX];
1003         int num_pols, num_xfrms;
1004         u32 xfrm_genid;
1005         u32 policy_genid;
1006         u32 route_mtu_cached;
1007         u32 child_mtu_cached;
1008         u32 route_cookie;
1009         u32 path_cookie;
1010 };
1011
1012 static inline struct dst_entry *xfrm_dst_path(const struct dst_entry *dst)
1013 {
1014 #ifdef CONFIG_XFRM
1015         if (dst->xfrm) {
1016                 const struct xfrm_dst *xdst = (const struct xfrm_dst *) dst;
1017
1018                 return xdst->path;
1019         }
1020 #endif
1021         return (struct dst_entry *) dst;
1022 }
1023
1024 static inline struct dst_entry *xfrm_dst_child(const struct dst_entry *dst)
1025 {
1026 #ifdef CONFIG_XFRM
1027         if (dst->xfrm) {
1028                 struct xfrm_dst *xdst = (struct xfrm_dst *) dst;
1029                 return xdst->child;
1030         }
1031 #endif
1032         return NULL;
1033 }
1034
1035 #ifdef CONFIG_XFRM
1036 static inline void xfrm_dst_set_child(struct xfrm_dst *xdst, struct dst_entry *child)
1037 {
1038         xdst->child = child;
1039 }
1040
1041 static inline void xfrm_dst_destroy(struct xfrm_dst *xdst)
1042 {
1043         xfrm_pols_put(xdst->pols, xdst->num_pols);
1044         dst_release(xdst->route);
1045         if (likely(xdst->u.dst.xfrm))
1046                 xfrm_state_put(xdst->u.dst.xfrm);
1047 }
1048 #endif
1049
1050 void xfrm_dst_ifdown(struct dst_entry *dst, struct net_device *dev);
1051
1052 struct xfrm_if_parms {
1053         char name[IFNAMSIZ];    /* name of XFRM device */
1054         int link;               /* ifindex of underlying L2 interface */
1055         u32 if_id;              /* interface identifyer */
1056 };
1057
1058 struct xfrm_if {
1059         struct xfrm_if __rcu *next;     /* next interface in list */
1060         struct net_device *dev;         /* virtual device associated with interface */
1061         struct net_device *phydev;      /* physical device */
1062         struct net *net;                /* netns for packet i/o */
1063         struct xfrm_if_parms p;         /* interface parms */
1064
1065         struct gro_cells gro_cells;
1066 };
1067
1068 struct xfrm_offload {
1069         /* Output sequence number for replay protection on offloading. */
1070         struct {
1071                 __u32 low;
1072                 __u32 hi;
1073         } seq;
1074
1075         __u32                   flags;
1076 #define SA_DELETE_REQ           1
1077 #define CRYPTO_DONE             2
1078 #define CRYPTO_NEXT_DONE        4
1079 #define CRYPTO_FALLBACK         8
1080 #define XFRM_GSO_SEGMENT        16
1081 #define XFRM_GRO                32
1082 #define XFRM_ESP_NO_TRAILER     64
1083 #define XFRM_DEV_RESUME         128
1084
1085         __u32                   status;
1086 #define CRYPTO_SUCCESS                          1
1087 #define CRYPTO_GENERIC_ERROR                    2
1088 #define CRYPTO_TRANSPORT_AH_AUTH_FAILED         4
1089 #define CRYPTO_TRANSPORT_ESP_AUTH_FAILED        8
1090 #define CRYPTO_TUNNEL_AH_AUTH_FAILED            16
1091 #define CRYPTO_TUNNEL_ESP_AUTH_FAILED           32
1092 #define CRYPTO_INVALID_PACKET_SYNTAX            64
1093 #define CRYPTO_INVALID_PROTOCOL                 128
1094
1095         __u8                    proto;
1096 };
1097
1098 struct sec_path {
1099         refcount_t              refcnt;
1100         int                     len;
1101         int                     olen;
1102
1103         struct xfrm_state       *xvec[XFRM_MAX_DEPTH];
1104         struct xfrm_offload     ovec[XFRM_MAX_OFFLOAD_DEPTH];
1105 };
1106
1107 static inline int secpath_exists(struct sk_buff *skb)
1108 {
1109 #ifdef CONFIG_XFRM
1110         return skb->sp != NULL;
1111 #else
1112         return 0;
1113 #endif
1114 }
1115
1116 static inline struct sec_path *
1117 secpath_get(struct sec_path *sp)
1118 {
1119         if (sp)
1120                 refcount_inc(&sp->refcnt);
1121         return sp;
1122 }
1123
1124 void __secpath_destroy(struct sec_path *sp);
1125
1126 static inline void
1127 secpath_put(struct sec_path *sp)
1128 {
1129         if (sp && refcount_dec_and_test(&sp->refcnt))
1130                 __secpath_destroy(sp);
1131 }
1132
1133 struct sec_path *secpath_dup(struct sec_path *src);
1134 int secpath_set(struct sk_buff *skb);
1135
1136 static inline void
1137 secpath_reset(struct sk_buff *skb)
1138 {
1139 #ifdef CONFIG_XFRM
1140         secpath_put(skb->sp);
1141         skb->sp = NULL;
1142 #endif
1143 }
1144
1145 static inline int
1146 xfrm_addr_any(const xfrm_address_t *addr, unsigned short family)
1147 {
1148         switch (family) {
1149         case AF_INET:
1150                 return addr->a4 == 0;
1151         case AF_INET6:
1152                 return ipv6_addr_any(&addr->in6);
1153         }
1154         return 0;
1155 }
1156
1157 static inline int
1158 __xfrm4_state_addr_cmp(const struct xfrm_tmpl *tmpl, const struct xfrm_state *x)
1159 {
1160         return  (tmpl->saddr.a4 &&
1161                  tmpl->saddr.a4 != x->props.saddr.a4);
1162 }
1163
1164 static inline int
1165 __xfrm6_state_addr_cmp(const struct xfrm_tmpl *tmpl, const struct xfrm_state *x)
1166 {
1167         return  (!ipv6_addr_any((struct in6_addr*)&tmpl->saddr) &&
1168                  !ipv6_addr_equal((struct in6_addr *)&tmpl->saddr, (struct in6_addr*)&x->props.saddr));
1169 }
1170
1171 static inline int
1172 xfrm_state_addr_cmp(const struct xfrm_tmpl *tmpl, const struct xfrm_state *x, unsigned short family)
1173 {
1174         switch (family) {
1175         case AF_INET:
1176                 return __xfrm4_state_addr_cmp(tmpl, x);
1177         case AF_INET6:
1178                 return __xfrm6_state_addr_cmp(tmpl, x);
1179         }
1180         return !0;
1181 }
1182
1183 #ifdef CONFIG_XFRM
1184 int __xfrm_policy_check(struct sock *, int dir, struct sk_buff *skb,
1185                         unsigned short family);
1186
1187 static inline int __xfrm_policy_check2(struct sock *sk, int dir,
1188                                        struct sk_buff *skb,
1189                                        unsigned int family, int reverse)
1190 {
1191         struct net *net = dev_net(skb->dev);
1192         int ndir = dir | (reverse ? XFRM_POLICY_MASK + 1 : 0);
1193
1194         if (sk && sk->sk_policy[XFRM_POLICY_IN])
1195                 return __xfrm_policy_check(sk, ndir, skb, family);
1196
1197         return  (!net->xfrm.policy_count[dir] && !skb->sp) ||
1198                 (skb_dst(skb)->flags & DST_NOPOLICY) ||
1199                 __xfrm_policy_check(sk, ndir, skb, family);
1200 }
1201
1202 static inline int xfrm_policy_check(struct sock *sk, int dir, struct sk_buff *skb, unsigned short family)
1203 {
1204         return __xfrm_policy_check2(sk, dir, skb, family, 0);
1205 }
1206
1207 static inline int xfrm4_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
1208 {
1209         return xfrm_policy_check(sk, dir, skb, AF_INET);
1210 }
1211
1212 static inline int xfrm6_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
1213 {
1214         return xfrm_policy_check(sk, dir, skb, AF_INET6);
1215 }
1216
1217 static inline int xfrm4_policy_check_reverse(struct sock *sk, int dir,
1218                                              struct sk_buff *skb)
1219 {
1220         return __xfrm_policy_check2(sk, dir, skb, AF_INET, 1);
1221 }
1222
1223 static inline int xfrm6_policy_check_reverse(struct sock *sk, int dir,
1224                                              struct sk_buff *skb)
1225 {
1226         return __xfrm_policy_check2(sk, dir, skb, AF_INET6, 1);
1227 }
1228
1229 int __xfrm_decode_session(struct sk_buff *skb, struct flowi *fl,
1230                           unsigned int family, int reverse);
1231
1232 static inline int xfrm_decode_session(struct sk_buff *skb, struct flowi *fl,
1233                                       unsigned int family)
1234 {
1235         return __xfrm_decode_session(skb, fl, family, 0);
1236 }
1237
1238 static inline int xfrm_decode_session_reverse(struct sk_buff *skb,
1239                                               struct flowi *fl,
1240                                               unsigned int family)
1241 {
1242         return __xfrm_decode_session(skb, fl, family, 1);
1243 }
1244
1245 int __xfrm_route_forward(struct sk_buff *skb, unsigned short family);
1246
1247 static inline int xfrm_route_forward(struct sk_buff *skb, unsigned short family)
1248 {
1249         struct net *net = dev_net(skb->dev);
1250
1251         return  !net->xfrm.policy_count[XFRM_POLICY_OUT] ||
1252                 (skb_dst(skb)->flags & DST_NOXFRM) ||
1253                 __xfrm_route_forward(skb, family);
1254 }
1255
1256 static inline int xfrm4_route_forward(struct sk_buff *skb)
1257 {
1258         return xfrm_route_forward(skb, AF_INET);
1259 }
1260
1261 static inline int xfrm6_route_forward(struct sk_buff *skb)
1262 {
1263         return xfrm_route_forward(skb, AF_INET6);
1264 }
1265
1266 int __xfrm_sk_clone_policy(struct sock *sk, const struct sock *osk);
1267
1268 static inline int xfrm_sk_clone_policy(struct sock *sk, const struct sock *osk)
1269 {
1270         sk->sk_policy[0] = NULL;
1271         sk->sk_policy[1] = NULL;
1272         if (unlikely(osk->sk_policy[0] || osk->sk_policy[1]))
1273                 return __xfrm_sk_clone_policy(sk, osk);
1274         return 0;
1275 }
1276
1277 int xfrm_policy_delete(struct xfrm_policy *pol, int dir);
1278
1279 static inline void xfrm_sk_free_policy(struct sock *sk)
1280 {
1281         struct xfrm_policy *pol;
1282
1283         pol = rcu_dereference_protected(sk->sk_policy[0], 1);
1284         if (unlikely(pol != NULL)) {
1285                 xfrm_policy_delete(pol, XFRM_POLICY_MAX);
1286                 sk->sk_policy[0] = NULL;
1287         }
1288         pol = rcu_dereference_protected(sk->sk_policy[1], 1);
1289         if (unlikely(pol != NULL)) {
1290                 xfrm_policy_delete(pol, XFRM_POLICY_MAX+1);
1291                 sk->sk_policy[1] = NULL;
1292         }
1293 }
1294
1295 #else
1296
1297 static inline void xfrm_sk_free_policy(struct sock *sk) {}
1298 static inline int xfrm_sk_clone_policy(struct sock *sk, const struct sock *osk) { return 0; }
1299 static inline int xfrm6_route_forward(struct sk_buff *skb) { return 1; }
1300 static inline int xfrm4_route_forward(struct sk_buff *skb) { return 1; }
1301 static inline int xfrm6_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
1302 {
1303         return 1;
1304 }
1305 static inline int xfrm4_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
1306 {
1307         return 1;
1308 }
1309 static inline int xfrm_policy_check(struct sock *sk, int dir, struct sk_buff *skb, unsigned short family)
1310 {
1311         return 1;
1312 }
1313 static inline int xfrm_decode_session_reverse(struct sk_buff *skb,
1314                                               struct flowi *fl,
1315                                               unsigned int family)
1316 {
1317         return -ENOSYS;
1318 }
1319 static inline int xfrm4_policy_check_reverse(struct sock *sk, int dir,
1320                                              struct sk_buff *skb)
1321 {
1322         return 1;
1323 }
1324 static inline int xfrm6_policy_check_reverse(struct sock *sk, int dir,
1325                                              struct sk_buff *skb)
1326 {
1327         return 1;
1328 }
1329 #endif
1330
1331 static __inline__
1332 xfrm_address_t *xfrm_flowi_daddr(const struct flowi *fl, unsigned short family)
1333 {
1334         switch (family){
1335         case AF_INET:
1336                 return (xfrm_address_t *)&fl->u.ip4.daddr;
1337         case AF_INET6:
1338                 return (xfrm_address_t *)&fl->u.ip6.daddr;
1339         }
1340         return NULL;
1341 }
1342
1343 static __inline__
1344 xfrm_address_t *xfrm_flowi_saddr(const struct flowi *fl, unsigned short family)
1345 {
1346         switch (family){
1347         case AF_INET:
1348                 return (xfrm_address_t *)&fl->u.ip4.saddr;
1349         case AF_INET6:
1350                 return (xfrm_address_t *)&fl->u.ip6.saddr;
1351         }
1352         return NULL;
1353 }
1354
1355 static __inline__
1356 void xfrm_flowi_addr_get(const struct flowi *fl,
1357                          xfrm_address_t *saddr, xfrm_address_t *daddr,
1358                          unsigned short family)
1359 {
1360         switch(family) {
1361         case AF_INET:
1362                 memcpy(&saddr->a4, &fl->u.ip4.saddr, sizeof(saddr->a4));
1363                 memcpy(&daddr->a4, &fl->u.ip4.daddr, sizeof(daddr->a4));
1364                 break;
1365         case AF_INET6:
1366                 saddr->in6 = fl->u.ip6.saddr;
1367                 daddr->in6 = fl->u.ip6.daddr;
1368                 break;
1369         }
1370 }
1371
1372 static __inline__ int
1373 __xfrm4_state_addr_check(const struct xfrm_state *x,
1374                          const xfrm_address_t *daddr, const xfrm_address_t *saddr)
1375 {
1376         if (daddr->a4 == x->id.daddr.a4 &&
1377             (saddr->a4 == x->props.saddr.a4 || !saddr->a4 || !x->props.saddr.a4))
1378                 return 1;
1379         return 0;
1380 }
1381
1382 static __inline__ int
1383 __xfrm6_state_addr_check(const struct xfrm_state *x,
1384                          const xfrm_address_t *daddr, const xfrm_address_t *saddr)
1385 {
1386         if (ipv6_addr_equal((struct in6_addr *)daddr, (struct in6_addr *)&x->id.daddr) &&
1387             (ipv6_addr_equal((struct in6_addr *)saddr, (struct in6_addr *)&x->props.saddr) ||
1388              ipv6_addr_any((struct in6_addr *)saddr) ||
1389              ipv6_addr_any((struct in6_addr *)&x->props.saddr)))
1390                 return 1;
1391         return 0;
1392 }
1393
1394 static __inline__ int
1395 xfrm_state_addr_check(const struct xfrm_state *x,
1396                       const xfrm_address_t *daddr, const xfrm_address_t *saddr,
1397                       unsigned short family)
1398 {
1399         switch (family) {
1400         case AF_INET:
1401                 return __xfrm4_state_addr_check(x, daddr, saddr);
1402         case AF_INET6:
1403                 return __xfrm6_state_addr_check(x, daddr, saddr);
1404         }
1405         return 0;
1406 }
1407
1408 static __inline__ int
1409 xfrm_state_addr_flow_check(const struct xfrm_state *x, const struct flowi *fl,
1410                            unsigned short family)
1411 {
1412         switch (family) {
1413         case AF_INET:
1414                 return __xfrm4_state_addr_check(x,
1415                                                 (const xfrm_address_t *)&fl->u.ip4.daddr,
1416                                                 (const xfrm_address_t *)&fl->u.ip4.saddr);
1417         case AF_INET6:
1418                 return __xfrm6_state_addr_check(x,
1419                                                 (const xfrm_address_t *)&fl->u.ip6.daddr,
1420                                                 (const xfrm_address_t *)&fl->u.ip6.saddr);
1421         }
1422         return 0;
1423 }
1424
1425 static inline int xfrm_state_kern(const struct xfrm_state *x)
1426 {
1427         return atomic_read(&x->tunnel_users);
1428 }
1429
1430 static inline int xfrm_id_proto_match(u8 proto, u8 userproto)
1431 {
1432         return (!userproto || proto == userproto ||
1433                 (userproto == IPSEC_PROTO_ANY && (proto == IPPROTO_AH ||
1434                                                   proto == IPPROTO_ESP ||
1435                                                   proto == IPPROTO_COMP)));
1436 }
1437
1438 /*
1439  * xfrm algorithm information
1440  */
1441 struct xfrm_algo_aead_info {
1442         char *geniv;
1443         u16 icv_truncbits;
1444 };
1445
1446 struct xfrm_algo_auth_info {
1447         u16 icv_truncbits;
1448         u16 icv_fullbits;
1449 };
1450
1451 struct xfrm_algo_encr_info {
1452         char *geniv;
1453         u16 blockbits;
1454         u16 defkeybits;
1455 };
1456
1457 struct xfrm_algo_comp_info {
1458         u16 threshold;
1459 };
1460
1461 struct xfrm_algo_desc {
1462         char *name;
1463         char *compat;
1464         u8 available:1;
1465         u8 pfkey_supported:1;
1466         union {
1467                 struct xfrm_algo_aead_info aead;
1468                 struct xfrm_algo_auth_info auth;
1469                 struct xfrm_algo_encr_info encr;
1470                 struct xfrm_algo_comp_info comp;
1471         } uinfo;
1472         struct sadb_alg desc;
1473 };
1474
1475 /* XFRM protocol handlers.  */
1476 struct xfrm4_protocol {
1477         int (*handler)(struct sk_buff *skb);
1478         int (*input_handler)(struct sk_buff *skb, int nexthdr, __be32 spi,
1479                              int encap_type);
1480         int (*cb_handler)(struct sk_buff *skb, int err);
1481         int (*err_handler)(struct sk_buff *skb, u32 info);
1482
1483         struct xfrm4_protocol __rcu *next;
1484         int priority;
1485 };
1486
1487 struct xfrm6_protocol {
1488         int (*handler)(struct sk_buff *skb);
1489         int (*cb_handler)(struct sk_buff *skb, int err);
1490         int (*err_handler)(struct sk_buff *skb, struct inet6_skb_parm *opt,
1491                            u8 type, u8 code, int offset, __be32 info);
1492
1493         struct xfrm6_protocol __rcu *next;
1494         int priority;
1495 };
1496
1497 /* XFRM tunnel handlers.  */
1498 struct xfrm_tunnel {
1499         int (*handler)(struct sk_buff *skb);
1500         int (*err_handler)(struct sk_buff *skb, u32 info);
1501
1502         struct xfrm_tunnel __rcu *next;
1503         int priority;
1504 };
1505
1506 struct xfrm6_tunnel {
1507         int (*handler)(struct sk_buff *skb);
1508         int (*err_handler)(struct sk_buff *skb, struct inet6_skb_parm *opt,
1509                            u8 type, u8 code, int offset, __be32 info);
1510         struct xfrm6_tunnel __rcu *next;
1511         int priority;
1512 };
1513
1514 void xfrm_init(void);
1515 void xfrm4_init(void);
1516 int xfrm_state_init(struct net *net);
1517 void xfrm_state_fini(struct net *net);
1518 void xfrm4_state_init(void);
1519 void xfrm4_protocol_init(void);
1520 #ifdef CONFIG_XFRM
1521 int xfrm6_init(void);
1522 void xfrm6_fini(void);
1523 int xfrm6_state_init(void);
1524 void xfrm6_state_fini(void);
1525 int xfrm6_protocol_init(void);
1526 void xfrm6_protocol_fini(void);
1527 #else
1528 static inline int xfrm6_init(void)
1529 {
1530         return 0;
1531 }
1532 static inline void xfrm6_fini(void)
1533 {
1534         ;
1535 }
1536 #endif
1537
1538 #ifdef CONFIG_XFRM_STATISTICS
1539 int xfrm_proc_init(struct net *net);
1540 void xfrm_proc_fini(struct net *net);
1541 #endif
1542
1543 int xfrm_sysctl_init(struct net *net);
1544 #ifdef CONFIG_SYSCTL
1545 void xfrm_sysctl_fini(struct net *net);
1546 #else
1547 static inline void xfrm_sysctl_fini(struct net *net)
1548 {
1549 }
1550 #endif
1551
1552 void xfrm_state_walk_init(struct xfrm_state_walk *walk, u8 proto,
1553                           struct xfrm_address_filter *filter);
1554 int xfrm_state_walk(struct net *net, struct xfrm_state_walk *walk,
1555                     int (*func)(struct xfrm_state *, int, void*), void *);
1556 void xfrm_state_walk_done(struct xfrm_state_walk *walk, struct net *net);
1557 struct xfrm_state *xfrm_state_alloc(struct net *net);
1558 struct xfrm_state *xfrm_state_find(const xfrm_address_t *daddr,
1559                                    const xfrm_address_t *saddr,
1560                                    const struct flowi *fl,
1561                                    struct xfrm_tmpl *tmpl,
1562                                    struct xfrm_policy *pol, int *err,
1563                                    unsigned short family, u32 if_id);
1564 struct xfrm_state *xfrm_stateonly_find(struct net *net, u32 mark, u32 if_id,
1565                                        xfrm_address_t *daddr,
1566                                        xfrm_address_t *saddr,
1567                                        unsigned short family,
1568                                        u8 mode, u8 proto, u32 reqid);
1569 struct xfrm_state *xfrm_state_lookup_byspi(struct net *net, __be32 spi,
1570                                               unsigned short family);
1571 int xfrm_state_check_expire(struct xfrm_state *x);
1572 void xfrm_state_insert(struct xfrm_state *x);
1573 int xfrm_state_add(struct xfrm_state *x);
1574 int xfrm_state_update(struct xfrm_state *x);
1575 struct xfrm_state *xfrm_state_lookup(struct net *net, u32 mark,
1576                                      const xfrm_address_t *daddr, __be32 spi,
1577                                      u8 proto, unsigned short family);
1578 struct xfrm_state *xfrm_state_lookup_byaddr(struct net *net, u32 mark,
1579                                             const xfrm_address_t *daddr,
1580                                             const xfrm_address_t *saddr,
1581                                             u8 proto,
1582                                             unsigned short family);
1583 #ifdef CONFIG_XFRM_SUB_POLICY
1584 int xfrm_tmpl_sort(struct xfrm_tmpl **dst, struct xfrm_tmpl **src, int n,
1585                    unsigned short family, struct net *net);
1586 int xfrm_state_sort(struct xfrm_state **dst, struct xfrm_state **src, int n,
1587                     unsigned short family);
1588 #else
1589 static inline int xfrm_tmpl_sort(struct xfrm_tmpl **dst, struct xfrm_tmpl **src,
1590                                  int n, unsigned short family, struct net *net)
1591 {
1592         return -ENOSYS;
1593 }
1594
1595 static inline int xfrm_state_sort(struct xfrm_state **dst, struct xfrm_state **src,
1596                                   int n, unsigned short family)
1597 {
1598         return -ENOSYS;
1599 }
1600 #endif
1601
1602 struct xfrmk_sadinfo {
1603         u32 sadhcnt; /* current hash bkts */
1604         u32 sadhmcnt; /* max allowed hash bkts */
1605         u32 sadcnt; /* current running count */
1606 };
1607
1608 struct xfrmk_spdinfo {
1609         u32 incnt;
1610         u32 outcnt;
1611         u32 fwdcnt;
1612         u32 inscnt;
1613         u32 outscnt;
1614         u32 fwdscnt;
1615         u32 spdhcnt;
1616         u32 spdhmcnt;
1617 };
1618
1619 struct xfrm_state *xfrm_find_acq_byseq(struct net *net, u32 mark, u32 seq);
1620 int xfrm_state_delete(struct xfrm_state *x);
1621 int xfrm_state_flush(struct net *net, u8 proto, bool task_valid);
1622 int xfrm_dev_state_flush(struct net *net, struct net_device *dev, bool task_valid);
1623 void xfrm_sad_getinfo(struct net *net, struct xfrmk_sadinfo *si);
1624 void xfrm_spd_getinfo(struct net *net, struct xfrmk_spdinfo *si);
1625 u32 xfrm_replay_seqhi(struct xfrm_state *x, __be32 net_seq);
1626 int xfrm_init_replay(struct xfrm_state *x);
1627 int xfrm_state_mtu(struct xfrm_state *x, int mtu);
1628 int __xfrm_init_state(struct xfrm_state *x, bool init_replay, bool offload);
1629 int xfrm_init_state(struct xfrm_state *x);
1630 int xfrm_prepare_input(struct xfrm_state *x, struct sk_buff *skb);
1631 int xfrm_input(struct sk_buff *skb, int nexthdr, __be32 spi, int encap_type);
1632 int xfrm_input_resume(struct sk_buff *skb, int nexthdr);
1633 int xfrm_trans_queue(struct sk_buff *skb,
1634                      int (*finish)(struct net *, struct sock *,
1635                                    struct sk_buff *));
1636 int xfrm_output_resume(struct sk_buff *skb, int err);
1637 int xfrm_output(struct sock *sk, struct sk_buff *skb);
1638 int xfrm_inner_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1639 void xfrm_local_error(struct sk_buff *skb, int mtu);
1640 int xfrm4_extract_header(struct sk_buff *skb);
1641 int xfrm4_extract_input(struct xfrm_state *x, struct sk_buff *skb);
1642 int xfrm4_rcv_encap(struct sk_buff *skb, int nexthdr, __be32 spi,
1643                     int encap_type);
1644 int xfrm4_transport_finish(struct sk_buff *skb, int async);
1645 int xfrm4_rcv(struct sk_buff *skb);
1646 int xfrm_parse_spi(struct sk_buff *skb, u8 nexthdr, __be32 *spi, __be32 *seq);
1647
1648 static inline int xfrm4_rcv_spi(struct sk_buff *skb, int nexthdr, __be32 spi)
1649 {
1650         XFRM_TUNNEL_SKB_CB(skb)->tunnel.ip4 = NULL;
1651         XFRM_SPI_SKB_CB(skb)->family = AF_INET;
1652         XFRM_SPI_SKB_CB(skb)->daddroff = offsetof(struct iphdr, daddr);
1653         return xfrm_input(skb, nexthdr, spi, 0);
1654 }
1655
1656 int xfrm4_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1657 int xfrm4_prepare_output(struct xfrm_state *x, struct sk_buff *skb);
1658 int xfrm4_output(struct net *net, struct sock *sk, struct sk_buff *skb);
1659 int xfrm4_output_finish(struct sock *sk, struct sk_buff *skb);
1660 int xfrm4_rcv_cb(struct sk_buff *skb, u8 protocol, int err);
1661 int xfrm4_protocol_register(struct xfrm4_protocol *handler, unsigned char protocol);
1662 int xfrm4_protocol_deregister(struct xfrm4_protocol *handler, unsigned char protocol);
1663 int xfrm4_tunnel_register(struct xfrm_tunnel *handler, unsigned short family);
1664 int xfrm4_tunnel_deregister(struct xfrm_tunnel *handler, unsigned short family);
1665 void xfrm4_local_error(struct sk_buff *skb, u32 mtu);
1666 int xfrm6_extract_header(struct sk_buff *skb);
1667 int xfrm6_extract_input(struct xfrm_state *x, struct sk_buff *skb);
1668 int xfrm6_rcv_spi(struct sk_buff *skb, int nexthdr, __be32 spi,
1669                   struct ip6_tnl *t);
1670 int xfrm6_transport_finish(struct sk_buff *skb, int async);
1671 int xfrm6_rcv_tnl(struct sk_buff *skb, struct ip6_tnl *t);
1672 int xfrm6_rcv(struct sk_buff *skb);
1673 int xfrm6_input_addr(struct sk_buff *skb, xfrm_address_t *daddr,
1674                      xfrm_address_t *saddr, u8 proto);
1675 void xfrm6_local_error(struct sk_buff *skb, u32 mtu);
1676 int xfrm6_rcv_cb(struct sk_buff *skb, u8 protocol, int err);
1677 int xfrm6_protocol_register(struct xfrm6_protocol *handler, unsigned char protocol);
1678 int xfrm6_protocol_deregister(struct xfrm6_protocol *handler, unsigned char protocol);
1679 int xfrm6_tunnel_register(struct xfrm6_tunnel *handler, unsigned short family);
1680 int xfrm6_tunnel_deregister(struct xfrm6_tunnel *handler, unsigned short family);
1681 __be32 xfrm6_tunnel_alloc_spi(struct net *net, xfrm_address_t *saddr);
1682 __be32 xfrm6_tunnel_spi_lookup(struct net *net, const xfrm_address_t *saddr);
1683 int xfrm6_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1684 int xfrm6_prepare_output(struct xfrm_state *x, struct sk_buff *skb);
1685 int xfrm6_output(struct net *net, struct sock *sk, struct sk_buff *skb);
1686 int xfrm6_output_finish(struct sock *sk, struct sk_buff *skb);
1687 int xfrm6_find_1stfragopt(struct xfrm_state *x, struct sk_buff *skb,
1688                           u8 **prevhdr);
1689
1690 #ifdef CONFIG_XFRM
1691 int xfrm4_udp_encap_rcv(struct sock *sk, struct sk_buff *skb);
1692 int xfrm_user_policy(struct sock *sk, int optname,
1693                      u8 __user *optval, int optlen);
1694 #else
1695 static inline int xfrm_user_policy(struct sock *sk, int optname, u8 __user *optval, int optlen)
1696 {
1697         return -ENOPROTOOPT;
1698 }
1699
1700 static inline int xfrm4_udp_encap_rcv(struct sock *sk, struct sk_buff *skb)
1701 {
1702         /* should not happen */
1703         kfree_skb(skb);
1704         return 0;
1705 }
1706 #endif
1707
1708 struct dst_entry *__xfrm_dst_lookup(struct net *net, int tos, int oif,
1709                                     const xfrm_address_t *saddr,
1710                                     const xfrm_address_t *daddr,
1711                                     int family, u32 mark);
1712
1713 struct xfrm_policy *xfrm_policy_alloc(struct net *net, gfp_t gfp);
1714
1715 void xfrm_policy_walk_init(struct xfrm_policy_walk *walk, u8 type);
1716 int xfrm_policy_walk(struct net *net, struct xfrm_policy_walk *walk,
1717                      int (*func)(struct xfrm_policy *, int, int, void*),
1718                      void *);
1719 void xfrm_policy_walk_done(struct xfrm_policy_walk *walk, struct net *net);
1720 int xfrm_policy_insert(int dir, struct xfrm_policy *policy, int excl);
1721 struct xfrm_policy *xfrm_policy_bysel_ctx(struct net *net, u32 mark, u32 if_id,
1722                                           u8 type, int dir,
1723                                           struct xfrm_selector *sel,
1724                                           struct xfrm_sec_ctx *ctx, int delete,
1725                                           int *err);
1726 struct xfrm_policy *xfrm_policy_byid(struct net *net, u32 mark, u32 if_id, u8,
1727                                      int dir, u32 id, int delete, int *err);
1728 int xfrm_policy_flush(struct net *net, u8 type, bool task_valid);
1729 void xfrm_policy_hash_rebuild(struct net *net);
1730 u32 xfrm_get_acqseq(void);
1731 int verify_spi_info(u8 proto, u32 min, u32 max);
1732 int xfrm_alloc_spi(struct xfrm_state *x, u32 minspi, u32 maxspi);
1733 struct xfrm_state *xfrm_find_acq(struct net *net, const struct xfrm_mark *mark,
1734                                  u8 mode, u32 reqid, u32 if_id, u8 proto,
1735                                  const xfrm_address_t *daddr,
1736                                  const xfrm_address_t *saddr, int create,
1737                                  unsigned short family);
1738 int xfrm_sk_policy_insert(struct sock *sk, int dir, struct xfrm_policy *pol);
1739
1740 #ifdef CONFIG_XFRM_MIGRATE
1741 int km_migrate(const struct xfrm_selector *sel, u8 dir, u8 type,
1742                const struct xfrm_migrate *m, int num_bundles,
1743                const struct xfrm_kmaddress *k,
1744                const struct xfrm_encap_tmpl *encap);
1745 struct xfrm_state *xfrm_migrate_state_find(struct xfrm_migrate *m, struct net *net);
1746 struct xfrm_state *xfrm_state_migrate(struct xfrm_state *x,
1747                                       struct xfrm_migrate *m,
1748                                       struct xfrm_encap_tmpl *encap);
1749 int xfrm_migrate(const struct xfrm_selector *sel, u8 dir, u8 type,
1750                  struct xfrm_migrate *m, int num_bundles,
1751                  struct xfrm_kmaddress *k, struct net *net,
1752                  struct xfrm_encap_tmpl *encap);
1753 #endif
1754
1755 int km_new_mapping(struct xfrm_state *x, xfrm_address_t *ipaddr, __be16 sport);
1756 void km_policy_expired(struct xfrm_policy *pol, int dir, int hard, u32 portid);
1757 int km_report(struct net *net, u8 proto, struct xfrm_selector *sel,
1758               xfrm_address_t *addr);
1759
1760 void xfrm_input_init(void);
1761 int xfrm_parse_spi(struct sk_buff *skb, u8 nexthdr, __be32 *spi, __be32 *seq);
1762
1763 void xfrm_probe_algs(void);
1764 int xfrm_count_pfkey_auth_supported(void);
1765 int xfrm_count_pfkey_enc_supported(void);
1766 struct xfrm_algo_desc *xfrm_aalg_get_byidx(unsigned int idx);
1767 struct xfrm_algo_desc *xfrm_ealg_get_byidx(unsigned int idx);
1768 struct xfrm_algo_desc *xfrm_aalg_get_byid(int alg_id);
1769 struct xfrm_algo_desc *xfrm_ealg_get_byid(int alg_id);
1770 struct xfrm_algo_desc *xfrm_calg_get_byid(int alg_id);
1771 struct xfrm_algo_desc *xfrm_aalg_get_byname(const char *name, int probe);
1772 struct xfrm_algo_desc *xfrm_ealg_get_byname(const char *name, int probe);
1773 struct xfrm_algo_desc *xfrm_calg_get_byname(const char *name, int probe);
1774 struct xfrm_algo_desc *xfrm_aead_get_byname(const char *name, int icv_len,
1775                                             int probe);
1776
1777 static inline bool xfrm6_addr_equal(const xfrm_address_t *a,
1778                                     const xfrm_address_t *b)
1779 {
1780         return ipv6_addr_equal((const struct in6_addr *)a,
1781                                (const struct in6_addr *)b);
1782 }
1783
1784 static inline bool xfrm_addr_equal(const xfrm_address_t *a,
1785                                    const xfrm_address_t *b,
1786                                    sa_family_t family)
1787 {
1788         switch (family) {
1789         default:
1790         case AF_INET:
1791                 return ((__force u32)a->a4 ^ (__force u32)b->a4) == 0;
1792         case AF_INET6:
1793                 return xfrm6_addr_equal(a, b);
1794         }
1795 }
1796
1797 static inline int xfrm_policy_id2dir(u32 index)
1798 {
1799         return index & 7;
1800 }
1801
1802 #ifdef CONFIG_XFRM
1803 static inline int xfrm_aevent_is_on(struct net *net)
1804 {
1805         struct sock *nlsk;
1806         int ret = 0;
1807
1808         rcu_read_lock();
1809         nlsk = rcu_dereference(net->xfrm.nlsk);
1810         if (nlsk)
1811                 ret = netlink_has_listeners(nlsk, XFRMNLGRP_AEVENTS);
1812         rcu_read_unlock();
1813         return ret;
1814 }
1815
1816 static inline int xfrm_acquire_is_on(struct net *net)
1817 {
1818         struct sock *nlsk;
1819         int ret = 0;
1820
1821         rcu_read_lock();
1822         nlsk = rcu_dereference(net->xfrm.nlsk);
1823         if (nlsk)
1824                 ret = netlink_has_listeners(nlsk, XFRMNLGRP_ACQUIRE);
1825         rcu_read_unlock();
1826
1827         return ret;
1828 }
1829 #endif
1830
1831 static inline unsigned int aead_len(struct xfrm_algo_aead *alg)
1832 {
1833         return sizeof(*alg) + ((alg->alg_key_len + 7) / 8);
1834 }
1835
1836 static inline unsigned int xfrm_alg_len(const struct xfrm_algo *alg)
1837 {
1838         return sizeof(*alg) + ((alg->alg_key_len + 7) / 8);
1839 }
1840
1841 static inline unsigned int xfrm_alg_auth_len(const struct xfrm_algo_auth *alg)
1842 {
1843         return sizeof(*alg) + ((alg->alg_key_len + 7) / 8);
1844 }
1845
1846 static inline unsigned int xfrm_replay_state_esn_len(struct xfrm_replay_state_esn *replay_esn)
1847 {
1848         return sizeof(*replay_esn) + replay_esn->bmp_len * sizeof(__u32);
1849 }
1850
1851 #ifdef CONFIG_XFRM_MIGRATE
1852 static inline int xfrm_replay_clone(struct xfrm_state *x,
1853                                      struct xfrm_state *orig)
1854 {
1855         x->replay_esn = kzalloc(xfrm_replay_state_esn_len(orig->replay_esn),
1856                                 GFP_KERNEL);
1857         if (!x->replay_esn)
1858                 return -ENOMEM;
1859
1860         x->replay_esn->bmp_len = orig->replay_esn->bmp_len;
1861         x->replay_esn->replay_window = orig->replay_esn->replay_window;
1862
1863         x->preplay_esn = kmemdup(x->replay_esn,
1864                                  xfrm_replay_state_esn_len(x->replay_esn),
1865                                  GFP_KERNEL);
1866         if (!x->preplay_esn) {
1867                 kfree(x->replay_esn);
1868                 return -ENOMEM;
1869         }
1870
1871         return 0;
1872 }
1873
1874 static inline struct xfrm_algo_aead *xfrm_algo_aead_clone(struct xfrm_algo_aead *orig)
1875 {
1876         return kmemdup(orig, aead_len(orig), GFP_KERNEL);
1877 }
1878
1879
1880 static inline struct xfrm_algo *xfrm_algo_clone(struct xfrm_algo *orig)
1881 {
1882         return kmemdup(orig, xfrm_alg_len(orig), GFP_KERNEL);
1883 }
1884
1885 static inline struct xfrm_algo_auth *xfrm_algo_auth_clone(struct xfrm_algo_auth *orig)
1886 {
1887         return kmemdup(orig, xfrm_alg_auth_len(orig), GFP_KERNEL);
1888 }
1889
1890 static inline void xfrm_states_put(struct xfrm_state **states, int n)
1891 {
1892         int i;
1893         for (i = 0; i < n; i++)
1894                 xfrm_state_put(*(states + i));
1895 }
1896
1897 static inline void xfrm_states_delete(struct xfrm_state **states, int n)
1898 {
1899         int i;
1900         for (i = 0; i < n; i++)
1901                 xfrm_state_delete(*(states + i));
1902 }
1903 #endif
1904
1905 #ifdef CONFIG_XFRM
1906 static inline struct xfrm_state *xfrm_input_state(struct sk_buff *skb)
1907 {
1908         return skb->sp->xvec[skb->sp->len - 1];
1909 }
1910 #endif
1911
1912 static inline struct xfrm_offload *xfrm_offload(struct sk_buff *skb)
1913 {
1914 #ifdef CONFIG_XFRM
1915         struct sec_path *sp = skb->sp;
1916
1917         if (!sp || !sp->olen || sp->len != sp->olen)
1918                 return NULL;
1919
1920         return &sp->ovec[sp->olen - 1];
1921 #else
1922         return NULL;
1923 #endif
1924 }
1925
1926 void __init xfrm_dev_init(void);
1927
1928 #ifdef CONFIG_XFRM_OFFLOAD
1929 void xfrm_dev_resume(struct sk_buff *skb);
1930 void xfrm_dev_backlog(struct softnet_data *sd);
1931 struct sk_buff *validate_xmit_xfrm(struct sk_buff *skb, netdev_features_t features, bool *again);
1932 int xfrm_dev_state_add(struct net *net, struct xfrm_state *x,
1933                        struct xfrm_user_offload *xuo);
1934 bool xfrm_dev_offload_ok(struct sk_buff *skb, struct xfrm_state *x);
1935
1936 static inline void xfrm_dev_state_advance_esn(struct xfrm_state *x)
1937 {
1938         struct xfrm_state_offload *xso = &x->xso;
1939
1940         if (xso->dev && xso->dev->xfrmdev_ops->xdo_dev_state_advance_esn)
1941                 xso->dev->xfrmdev_ops->xdo_dev_state_advance_esn(x);
1942 }
1943
1944 static inline bool xfrm_dst_offload_ok(struct dst_entry *dst)
1945 {
1946         struct xfrm_state *x = dst->xfrm;
1947         struct xfrm_dst *xdst;
1948
1949         if (!x || !x->type_offload)
1950                 return false;
1951
1952         xdst = (struct xfrm_dst *) dst;
1953         if (!x->xso.offload_handle && !xdst->child->xfrm)
1954                 return true;
1955         if (x->xso.offload_handle && (x->xso.dev == xfrm_dst_path(dst)->dev) &&
1956             !xdst->child->xfrm)
1957                 return true;
1958
1959         return false;
1960 }
1961
1962 static inline void xfrm_dev_state_delete(struct xfrm_state *x)
1963 {
1964         struct xfrm_state_offload *xso = &x->xso;
1965
1966         if (xso->dev)
1967                 xso->dev->xfrmdev_ops->xdo_dev_state_delete(x);
1968 }
1969
1970 static inline void xfrm_dev_state_free(struct xfrm_state *x)
1971 {
1972         struct xfrm_state_offload *xso = &x->xso;
1973         struct net_device *dev = xso->dev;
1974
1975         if (dev && dev->xfrmdev_ops) {
1976                 if (dev->xfrmdev_ops->xdo_dev_state_free)
1977                         dev->xfrmdev_ops->xdo_dev_state_free(x);
1978                 xso->dev = NULL;
1979                 dev_put(dev);
1980         }
1981 }
1982 #else
1983 static inline void xfrm_dev_resume(struct sk_buff *skb)
1984 {
1985 }
1986
1987 static inline void xfrm_dev_backlog(struct softnet_data *sd)
1988 {
1989 }
1990
1991 static inline struct sk_buff *validate_xmit_xfrm(struct sk_buff *skb, netdev_features_t features, bool *again)
1992 {
1993         return skb;
1994 }
1995
1996 static inline int xfrm_dev_state_add(struct net *net, struct xfrm_state *x, struct xfrm_user_offload *xuo)
1997 {
1998         return 0;
1999 }
2000
2001 static inline void xfrm_dev_state_delete(struct xfrm_state *x)
2002 {
2003 }
2004
2005 static inline void xfrm_dev_state_free(struct xfrm_state *x)
2006 {
2007 }
2008
2009 static inline bool xfrm_dev_offload_ok(struct sk_buff *skb, struct xfrm_state *x)
2010 {
2011         return false;
2012 }
2013
2014 static inline void xfrm_dev_state_advance_esn(struct xfrm_state *x)
2015 {
2016 }
2017
2018 static inline bool xfrm_dst_offload_ok(struct dst_entry *dst)
2019 {
2020         return false;
2021 }
2022 #endif
2023
2024 static inline int xfrm_mark_get(struct nlattr **attrs, struct xfrm_mark *m)
2025 {
2026         if (attrs[XFRMA_MARK])
2027                 memcpy(m, nla_data(attrs[XFRMA_MARK]), sizeof(struct xfrm_mark));
2028         else
2029                 m->v = m->m = 0;
2030
2031         return m->v & m->m;
2032 }
2033
2034 static inline int xfrm_mark_put(struct sk_buff *skb, const struct xfrm_mark *m)
2035 {
2036         int ret = 0;
2037
2038         if (m->m | m->v)
2039                 ret = nla_put(skb, XFRMA_MARK, sizeof(struct xfrm_mark), m);
2040         return ret;
2041 }
2042
2043 static inline __u32 xfrm_smark_get(__u32 mark, struct xfrm_state *x)
2044 {
2045         struct xfrm_mark *m = &x->props.smark;
2046
2047         return (m->v & m->m) | (mark & ~m->m);
2048 }
2049
2050 static inline int xfrm_if_id_put(struct sk_buff *skb, __u32 if_id)
2051 {
2052         int ret = 0;
2053
2054         if (if_id)
2055                 ret = nla_put_u32(skb, XFRMA_IF_ID, if_id);
2056         return ret;
2057 }
2058
2059 static inline int xfrm_tunnel_check(struct sk_buff *skb, struct xfrm_state *x,
2060                                     unsigned int family)
2061 {
2062         bool tunnel = false;
2063
2064         switch(family) {
2065         case AF_INET:
2066                 if (XFRM_TUNNEL_SKB_CB(skb)->tunnel.ip4)
2067                         tunnel = true;
2068                 break;
2069         case AF_INET6:
2070                 if (XFRM_TUNNEL_SKB_CB(skb)->tunnel.ip6)
2071                         tunnel = true;
2072                 break;
2073         }
2074         if (tunnel && !(x->outer_mode->flags & XFRM_MODE_FLAG_TUNNEL))
2075                 return -EINVAL;
2076
2077         return 0;
2078 }
2079 #endif  /* _NET_XFRM_H */