net: openvswitch: add masks cache hit counter
authorEelco Chaudron <echaudro@redhat.com>
Fri, 31 Jul 2020 12:20:56 +0000 (14:20 +0200)
committerDavid S. Miller <davem@davemloft.net>
Mon, 3 Aug 2020 22:17:48 +0000 (15:17 -0700)
Add a counter that counts the number of masks cache hits, and
export it through the megaflow netlink statistics.

Reviewed-by: Paolo Abeni <pabeni@redhat.com>
Reviewed-by: Tonghao Zhang <xiangxia.m.yue@gmail.com>
Signed-off-by: Eelco Chaudron <echaudro@redhat.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
include/uapi/linux/openvswitch.h
net/openvswitch/datapath.c
net/openvswitch/datapath.h
net/openvswitch/flow_table.c
net/openvswitch/flow_table.h

index 9b14519e74d93c883a24183869cddf3c45859adb..7cb76e5ca7cf26e470bdac178dc55085df145540 100644 (file)
@@ -102,8 +102,8 @@ struct ovs_dp_megaflow_stats {
        __u64 n_mask_hit;        /* Number of masks used for flow lookups. */
        __u32 n_masks;           /* Number of masks for the datapath. */
        __u32 pad0;              /* Pad for future expension. */
+       __u64 n_cache_hit;       /* Number of cache matches for flow lookups. */
        __u64 pad1;              /* Pad for future expension. */
-       __u64 pad2;              /* Pad for future expension. */
 };
 
 struct ovs_vport_stats {
index 6b6822f82f70b3c6751c7f944d00de26b786c5d4..f45fee7605044de23e2c844fd8f6b3a511aa873c 100644 (file)
@@ -225,13 +225,14 @@ void ovs_dp_process_packet(struct sk_buff *skb, struct sw_flow_key *key)
        struct dp_stats_percpu *stats;
        u64 *stats_counter;
        u32 n_mask_hit;
+       u32 n_cache_hit;
        int error;
 
        stats = this_cpu_ptr(dp->stats_percpu);
 
        /* Look up flow. */
        flow = ovs_flow_tbl_lookup_stats(&dp->table, key, skb_get_hash(skb),
-                                        &n_mask_hit);
+                                        &n_mask_hit, &n_cache_hit);
        if (unlikely(!flow)) {
                struct dp_upcall_info upcall;
 
@@ -262,6 +263,7 @@ out:
        u64_stats_update_begin(&stats->syncp);
        (*stats_counter)++;
        stats->n_mask_hit += n_mask_hit;
+       stats->n_cache_hit += n_cache_hit;
        u64_stats_update_end(&stats->syncp);
 }
 
@@ -699,6 +701,7 @@ static void get_dp_stats(const struct datapath *dp, struct ovs_dp_stats *stats,
                stats->n_missed += local_stats.n_missed;
                stats->n_lost += local_stats.n_lost;
                mega_stats->n_mask_hit += local_stats.n_mask_hit;
+               mega_stats->n_cache_hit += local_stats.n_cache_hit;
        }
 }
 
index 24fcec22fde2ecde8221669a64f979465c9cbd56..38f7d3e66ca61313faab6fa293963f1cf543049c 100644 (file)
  * @n_mask_hit: Number of masks looked up for flow match.
  *   @n_mask_hit / (@n_hit + @n_missed)  will be the average masks looked
  *   up per packet.
+ * @n_cache_hit: The number of received packets that had their mask found using
+ * the mask cache.
  */
 struct dp_stats_percpu {
        u64 n_hit;
        u64 n_missed;
        u64 n_lost;
        u64 n_mask_hit;
+       u64 n_cache_hit;
        struct u64_stats_sync syncp;
 };
 
index af22c9ee28dddcf66f7148a9b3ce15d6f3196d31..a5912ea0535257b23a2bc3adb52be69003086a43 100644 (file)
@@ -667,6 +667,7 @@ static struct sw_flow *flow_lookup(struct flow_table *tbl,
                                   struct mask_array *ma,
                                   const struct sw_flow_key *key,
                                   u32 *n_mask_hit,
+                                  u32 *n_cache_hit,
                                   u32 *index)
 {
        u64 *usage_counters = this_cpu_ptr(ma->masks_usage_cntr);
@@ -682,6 +683,7 @@ static struct sw_flow *flow_lookup(struct flow_table *tbl,
                                u64_stats_update_begin(&ma->syncp);
                                usage_counters[*index]++;
                                u64_stats_update_end(&ma->syncp);
+                               (*n_cache_hit)++;
                                return flow;
                        }
                }
@@ -719,7 +721,8 @@ static struct sw_flow *flow_lookup(struct flow_table *tbl,
 struct sw_flow *ovs_flow_tbl_lookup_stats(struct flow_table *tbl,
                                          const struct sw_flow_key *key,
                                          u32 skb_hash,
-                                         u32 *n_mask_hit)
+                                         u32 *n_mask_hit,
+                                         u32 *n_cache_hit)
 {
        struct mask_array *ma = rcu_dereference(tbl->mask_array);
        struct table_instance *ti = rcu_dereference(tbl->ti);
@@ -729,10 +732,13 @@ struct sw_flow *ovs_flow_tbl_lookup_stats(struct flow_table *tbl,
        int seg;
 
        *n_mask_hit = 0;
+       *n_cache_hit = 0;
        if (unlikely(!skb_hash)) {
                u32 mask_index = 0;
+               u32 cache = 0;
 
-               return flow_lookup(tbl, ti, ma, key, n_mask_hit, &mask_index);
+               return flow_lookup(tbl, ti, ma, key, n_mask_hit, &cache,
+                                  &mask_index);
        }
 
        /* Pre and post recirulation flows usually have the same skb_hash
@@ -753,7 +759,7 @@ struct sw_flow *ovs_flow_tbl_lookup_stats(struct flow_table *tbl,
                e = &entries[index];
                if (e->skb_hash == skb_hash) {
                        flow = flow_lookup(tbl, ti, ma, key, n_mask_hit,
-                                          &e->mask_index);
+                                          n_cache_hit, &e->mask_index);
                        if (!flow)
                                e->skb_hash = 0;
                        return flow;
@@ -766,10 +772,12 @@ struct sw_flow *ovs_flow_tbl_lookup_stats(struct flow_table *tbl,
        }
 
        /* Cache miss, do full lookup. */
-       flow = flow_lookup(tbl, ti, ma, key, n_mask_hit, &ce->mask_index);
+       flow = flow_lookup(tbl, ti, ma, key, n_mask_hit, n_cache_hit,
+                          &ce->mask_index);
        if (flow)
                ce->skb_hash = skb_hash;
 
+       *n_cache_hit = 0;
        return flow;
 }
 
@@ -779,9 +787,10 @@ struct sw_flow *ovs_flow_tbl_lookup(struct flow_table *tbl,
        struct table_instance *ti = rcu_dereference_ovsl(tbl->ti);
        struct mask_array *ma = rcu_dereference_ovsl(tbl->mask_array);
        u32 __always_unused n_mask_hit;
+       u32 __always_unused n_cache_hit;
        u32 index = 0;
 
-       return flow_lookup(tbl, ti, ma, key, &n_mask_hit, &index);
+       return flow_lookup(tbl, ti, ma, key, &n_mask_hit, &n_cache_hit, &index);
 }
 
 struct sw_flow *ovs_flow_tbl_lookup_exact(struct flow_table *tbl,
index 1f664b050e3ba59a867cc4f3d9fc878f1d9555a7..325e939371d8c689f9c5ce1dbe812fcb41ef66a5 100644 (file)
@@ -82,7 +82,8 @@ struct sw_flow *ovs_flow_tbl_dump_next(struct table_instance *table,
 struct sw_flow *ovs_flow_tbl_lookup_stats(struct flow_table *,
                                          const struct sw_flow_key *,
                                          u32 skb_hash,
-                                         u32 *n_mask_hit);
+                                         u32 *n_mask_hit,
+                                         u32 *n_cache_hit);
 struct sw_flow *ovs_flow_tbl_lookup(struct flow_table *,
                                    const struct sw_flow_key *);
 struct sw_flow *ovs_flow_tbl_lookup_exact(struct flow_table *tbl,