net/mlx5e: Handle hardware IPsec limits events
authorLeon Romanovsky <leonro@nvidia.com>
Fri, 2 Dec 2022 20:14:55 +0000 (22:14 +0200)
committerSteffen Klassert <steffen.klassert@secunet.com>
Thu, 8 Dec 2022 09:36:09 +0000 (10:36 +0100)
Enable object changed event to signal IPsec about hitting
soft and hard limits.

Signed-off-by: Leon Romanovsky <leonro@nvidia.com>
Signed-off-by: Steffen Klassert <steffen.klassert@secunet.com>
drivers/net/ethernet/mellanox/mlx5/core/en_accel/ipsec.c
drivers/net/ethernet/mellanox/mlx5/core/en_accel/ipsec.h
drivers/net/ethernet/mellanox/mlx5/core/en_accel/ipsec_offload.c
drivers/net/ethernet/mellanox/mlx5/core/eq.c

index 8d0c605d4cdb18b878b506e57239fd8bc3617e5e..4f176bd8395a76b47896221205f629cc923f097b 100644 (file)
@@ -470,7 +470,7 @@ static void mlx5e_xfrm_update_curlft(struct xfrm_state *x)
                 */
                return;
 
-       err = mlx5e_ipsec_aso_query(sa_entry);
+       err = mlx5e_ipsec_aso_query(sa_entry, NULL);
        if (err)
                return;
 
index aac1e6a83631d2da74c53b7970c38fb911c6261f..e7f21e449268e60282a3a4a94e0e5fe258d4e9e2 100644 (file)
@@ -34,8 +34,6 @@
 #ifndef __MLX5E_IPSEC_H__
 #define __MLX5E_IPSEC_H__
 
-#ifdef CONFIG_MLX5_EN_IPSEC
-
 #include <linux/mlx5/device.h>
 #include <net/xfrm.h>
 #include <linux/idr.h>
@@ -114,10 +112,21 @@ struct mlx5e_ipsec_sw_stats {
 struct mlx5e_ipsec_rx;
 struct mlx5e_ipsec_tx;
 
+struct mlx5e_ipsec_work {
+       struct work_struct work;
+       struct mlx5e_ipsec *ipsec;
+       u32 id;
+};
+
 struct mlx5e_ipsec_aso {
        u8 ctx[MLX5_ST_SZ_BYTES(ipsec_aso)];
        dma_addr_t dma_addr;
        struct mlx5_aso *aso;
+       /* IPsec ASO caches data on every query call,
+        * so in nested calls, we can use this boolean to save
+        * recursive calls to mlx5e_ipsec_aso_query()
+        */
+       u8 use_cache : 1;
 };
 
 struct mlx5e_ipsec {
@@ -131,6 +140,7 @@ struct mlx5e_ipsec {
        struct mlx5e_ipsec_rx *rx_ipv6;
        struct mlx5e_ipsec_tx *tx;
        struct mlx5e_ipsec_aso *aso;
+       struct notifier_block nb;
 };
 
 struct mlx5e_ipsec_esn_state {
@@ -188,6 +198,8 @@ struct mlx5e_ipsec_pol_entry {
        struct mlx5_accel_pol_xfrm_attrs attrs;
 };
 
+#ifdef CONFIG_MLX5_EN_IPSEC
+
 void mlx5e_ipsec_init(struct mlx5e_priv *priv);
 void mlx5e_ipsec_cleanup(struct mlx5e_priv *priv);
 void mlx5e_ipsec_build_netdev(struct mlx5e_priv *priv);
@@ -210,7 +222,8 @@ void mlx5_accel_esp_modify_xfrm(struct mlx5e_ipsec_sa_entry *sa_entry,
 int mlx5e_ipsec_aso_init(struct mlx5e_ipsec *ipsec);
 void mlx5e_ipsec_aso_cleanup(struct mlx5e_ipsec *ipsec);
 
-int mlx5e_ipsec_aso_query(struct mlx5e_ipsec_sa_entry *sa_entry);
+int mlx5e_ipsec_aso_query(struct mlx5e_ipsec_sa_entry *sa_entry,
+                         struct mlx5_wqe_aso_ctrl_seg *data);
 void mlx5e_ipsec_aso_update_curlft(struct mlx5e_ipsec_sa_entry *sa_entry,
                                   u64 *packets);
 
index 8790558ea8591f8c6c59b4a42fdfb3dd4ab7c508..1b5014ffa2574e20f569fca073a65b070cd51e45 100644 (file)
@@ -260,6 +260,73 @@ void mlx5_accel_esp_modify_xfrm(struct mlx5e_ipsec_sa_entry *sa_entry,
        memcpy(&sa_entry->attrs, attrs, sizeof(sa_entry->attrs));
 }
 
+static void mlx5e_ipsec_handle_event(struct work_struct *_work)
+{
+       struct mlx5e_ipsec_work *work =
+               container_of(_work, struct mlx5e_ipsec_work, work);
+       struct mlx5_accel_esp_xfrm_attrs *attrs;
+       struct mlx5e_ipsec_sa_entry *sa_entry;
+       struct mlx5e_ipsec_aso *aso;
+       struct mlx5e_ipsec *ipsec;
+       int ret;
+
+       sa_entry = xa_load(&work->ipsec->sadb, work->id);
+       if (!sa_entry)
+               goto out;
+
+       ipsec = sa_entry->ipsec;
+       aso = ipsec->aso;
+       attrs = &sa_entry->attrs;
+
+       spin_lock(&sa_entry->x->lock);
+       ret = mlx5e_ipsec_aso_query(sa_entry, NULL);
+       if (ret)
+               goto unlock;
+
+       aso->use_cache = true;
+       if (attrs->soft_packet_limit != XFRM_INF)
+               if (!MLX5_GET(ipsec_aso, aso->ctx, soft_lft_arm) ||
+                   !MLX5_GET(ipsec_aso, aso->ctx, hard_lft_arm) ||
+                   !MLX5_GET(ipsec_aso, aso->ctx, remove_flow_enable))
+                       xfrm_state_check_expire(sa_entry->x);
+       aso->use_cache = false;
+
+unlock:
+       spin_unlock(&sa_entry->x->lock);
+out:
+       kfree(work);
+}
+
+static int mlx5e_ipsec_event(struct notifier_block *nb, unsigned long event,
+                            void *data)
+{
+       struct mlx5e_ipsec *ipsec = container_of(nb, struct mlx5e_ipsec, nb);
+       struct mlx5_eqe_obj_change *object;
+       struct mlx5e_ipsec_work *work;
+       struct mlx5_eqe *eqe = data;
+       u16 type;
+
+       if (event != MLX5_EVENT_TYPE_OBJECT_CHANGE)
+               return NOTIFY_DONE;
+
+       object = &eqe->data.obj_change;
+       type = be16_to_cpu(object->obj_type);
+
+       if (type != MLX5_GENERAL_OBJECT_TYPES_IPSEC)
+               return NOTIFY_DONE;
+
+       work = kmalloc(sizeof(*work), GFP_ATOMIC);
+       if (!work)
+               return NOTIFY_DONE;
+
+       INIT_WORK(&work->work, mlx5e_ipsec_handle_event);
+       work->ipsec = ipsec;
+       work->id = be32_to_cpu(object->obj_id);
+
+       queue_work(ipsec->wq, &work->work);
+       return NOTIFY_OK;
+}
+
 int mlx5e_ipsec_aso_init(struct mlx5e_ipsec *ipsec)
 {
        struct mlx5_core_dev *mdev = ipsec->mdev;
@@ -287,6 +354,9 @@ int mlx5e_ipsec_aso_init(struct mlx5e_ipsec *ipsec)
                goto err_aso_create;
        }
 
+       ipsec->nb.notifier_call = mlx5e_ipsec_event;
+       mlx5_notifier_register(mdev, &ipsec->nb);
+
        ipsec->aso = aso;
        return 0;
 
@@ -307,13 +377,33 @@ void mlx5e_ipsec_aso_cleanup(struct mlx5e_ipsec *ipsec)
        aso = ipsec->aso;
        pdev = mlx5_core_dma_dev(mdev);
 
+       mlx5_notifier_unregister(mdev, &ipsec->nb);
        mlx5_aso_destroy(aso->aso);
        dma_unmap_single(pdev, aso->dma_addr, sizeof(aso->ctx),
                         DMA_BIDIRECTIONAL);
        kfree(aso);
 }
 
-int mlx5e_ipsec_aso_query(struct mlx5e_ipsec_sa_entry *sa_entry)
+static void mlx5e_ipsec_aso_copy(struct mlx5_wqe_aso_ctrl_seg *ctrl,
+                                struct mlx5_wqe_aso_ctrl_seg *data)
+{
+       if (!data)
+               return;
+
+       ctrl->data_mask_mode = data->data_mask_mode;
+       ctrl->condition_1_0_operand = data->condition_1_0_operand;
+       ctrl->condition_1_0_offset = data->condition_1_0_offset;
+       ctrl->data_offset_condition_operand = data->data_offset_condition_operand;
+       ctrl->condition_0_data = data->condition_0_data;
+       ctrl->condition_0_mask = data->condition_0_mask;
+       ctrl->condition_1_data = data->condition_1_data;
+       ctrl->condition_1_mask = data->condition_1_mask;
+       ctrl->bitwise_data = data->bitwise_data;
+       ctrl->data_mask = data->data_mask;
+}
+
+int mlx5e_ipsec_aso_query(struct mlx5e_ipsec_sa_entry *sa_entry,
+                         struct mlx5_wqe_aso_ctrl_seg *data)
 {
        struct mlx5e_ipsec *ipsec = sa_entry->ipsec;
        struct mlx5e_ipsec_aso *aso = ipsec->aso;
@@ -323,6 +413,10 @@ int mlx5e_ipsec_aso_query(struct mlx5e_ipsec_sa_entry *sa_entry)
        struct mlx5_aso_wqe *wqe;
        u8 ds_cnt;
 
+       lockdep_assert_held(&sa_entry->x->lock);
+       if (aso->use_cache)
+               return 0;
+
        res = &mdev->mlx5e_res.hw_objs;
 
        memset(aso->ctx, 0, sizeof(aso->ctx));
@@ -336,6 +430,7 @@ int mlx5e_ipsec_aso_query(struct mlx5e_ipsec_sa_entry *sa_entry)
                cpu_to_be32(lower_32_bits(aso->dma_addr) | ASO_CTRL_READ_EN);
        ctrl->va_h = cpu_to_be32(upper_32_bits(aso->dma_addr));
        ctrl->l_key = cpu_to_be32(res->mkey);
+       mlx5e_ipsec_aso_copy(ctrl, data);
 
        mlx5_aso_post_wqe(aso->aso, false, &wqe->ctrl);
        return mlx5_aso_poll_cq(aso->aso, false);
index a0242dc15741c7853e5dffaad1629cff1f07050e..8f7580fec1937d498f348d651bdd200d33a26148 100644 (file)
@@ -19,6 +19,7 @@
 #include "diag/fw_tracer.h"
 #include "mlx5_irq.h"
 #include "devlink.h"
+#include "en_accel/ipsec.h"
 
 enum {
        MLX5_EQE_OWNER_INIT_VAL = 0x1,
@@ -578,6 +579,10 @@ static void gather_async_events_mask(struct mlx5_core_dev *dev, u64 mask[4])
        if (MLX5_CAP_MACSEC(dev, log_max_macsec_offload))
                async_event_mask |= (1ull << MLX5_EVENT_TYPE_OBJECT_CHANGE);
 
+       if (mlx5_ipsec_device_caps(dev) & MLX5_IPSEC_CAP_PACKET_OFFLOAD)
+               async_event_mask |=
+                       (1ull << MLX5_EVENT_TYPE_OBJECT_CHANGE);
+
        mask[0] = async_event_mask;
 
        if (MLX5_CAP_GEN(dev, event_cap))