accel/ivpu: Initialize context with SSID = 1
authorKarol Wachowski <karol.wachowski@linux.intel.com>
Fri, 1 Sep 2023 09:49:52 +0000 (11:49 +0200)
committerStanislaw Gruszka <stanislaw.gruszka@linux.intel.com>
Mon, 4 Sep 2023 09:01:26 +0000 (11:01 +0200)
Context with SSID = 1 is reserved and accesses on that context happen
only when context is uninitialized on the VPU side. Such access triggers
MMU fault (0xa) "Invalid CD Fetch", which doesn't contain any useful
information besides context ID.

This commit will change that state, now (0x10) "Translation fault" will
be triggered and accessed address will shown in the log.

Signed-off-by: Karol Wachowski <karol.wachowski@linux.intel.com>
Reviewed-by: Stanislaw Gruszka <stanislaw.gruszka@linux.intel.com>
Reviewed-by: Jeffrey Hugo <quic_jhugo@quicinc.com>
Signed-off-by: Stanislaw Gruszka <stanislaw.gruszka@linux.intel.com>
Link: https://patchwork.freedesktop.org/patch/msgid/20230901094957.168898-7-stanislaw.gruszka@linux.intel.com
drivers/accel/ivpu/ivpu_drv.c
drivers/accel/ivpu/ivpu_drv.h
drivers/accel/ivpu/ivpu_mmu_context.c
drivers/accel/ivpu/ivpu_mmu_context.h

index b10b2909f05ff743a0b6f802fc916e39f04bee9a..5310b54f036d804951e8e0648bdefd631fa3391f 100644 (file)
@@ -543,10 +543,14 @@ static int ivpu_dev_init(struct ivpu_device *vdev)
        if (ret)
                goto err_mmu_gctx_fini;
 
-       ret = ivpu_fw_init(vdev);
+       ret = ivpu_mmu_reserved_context_init(vdev);
        if (ret)
                goto err_mmu_gctx_fini;
 
+       ret = ivpu_fw_init(vdev);
+       if (ret)
+               goto err_mmu_rctx_fini;
+
        ret = ivpu_ipc_init(vdev);
        if (ret)
                goto err_fw_fini;
@@ -575,6 +579,8 @@ err_ipc_fini:
        ivpu_ipc_fini(vdev);
 err_fw_fini:
        ivpu_fw_fini(vdev);
+err_mmu_rctx_fini:
+       ivpu_mmu_reserved_context_fini(vdev);
 err_mmu_gctx_fini:
        ivpu_mmu_global_context_fini(vdev);
 err_power_down:
@@ -598,6 +604,7 @@ static void ivpu_dev_fini(struct ivpu_device *vdev)
 
        ivpu_ipc_fini(vdev);
        ivpu_fw_fini(vdev);
+       ivpu_mmu_reserved_context_fini(vdev);
        ivpu_mmu_global_context_fini(vdev);
 
        drm_WARN_ON(&vdev->drm, !xa_empty(&vdev->submitted_jobs_xa));
index 44d857094bbce31ec25ed5f01e475e99269c0cd5..57381dacd21c417c5351c97856a6b44883477d66 100644 (file)
 #define IVPU_HW_37XX   37
 #define IVPU_HW_40XX   40
 
-#define IVPU_GLOBAL_CONTEXT_MMU_SSID 0
-/* SSID 1 is used by the VPU to represent invalid context */
-#define IVPU_USER_CONTEXT_MIN_SSID   2
-#define IVPU_USER_CONTEXT_MAX_SSID   (IVPU_USER_CONTEXT_MIN_SSID + 63)
+#define IVPU_GLOBAL_CONTEXT_MMU_SSID   0
+/* SSID 1 is used by the VPU to represent reserved context */
+#define IVPU_RESERVED_CONTEXT_MMU_SSID 1
+#define IVPU_USER_CONTEXT_MIN_SSID     2
+#define IVPU_USER_CONTEXT_MAX_SSID     (IVPU_USER_CONTEXT_MIN_SSID + 63)
 
-#define IVPU_NUM_ENGINES            2
+#define IVPU_NUM_ENGINES 2
 
 #define IVPU_PLATFORM_SILICON 0
 #define IVPU_PLATFORM_SIMICS  2
@@ -104,6 +105,7 @@ struct ivpu_device {
        struct ivpu_pm_info *pm;
 
        struct ivpu_mmu_context gctx;
+       struct ivpu_mmu_context rctx;
        struct xarray context_xa;
        struct xa_limit context_xa_limit;
 
index 5b48983c7cf823b214091dc3f7386b21540cd013..0c8c6535191930b675b8a4193bed86ad998a18eb 100644 (file)
@@ -469,6 +469,16 @@ void ivpu_mmu_global_context_fini(struct ivpu_device *vdev)
        return ivpu_mmu_context_fini(vdev, &vdev->gctx);
 }
 
+int ivpu_mmu_reserved_context_init(struct ivpu_device *vdev)
+{
+       return ivpu_mmu_user_context_init(vdev, &vdev->rctx, IVPU_RESERVED_CONTEXT_MMU_SSID);
+}
+
+void ivpu_mmu_reserved_context_fini(struct ivpu_device *vdev)
+{
+       return ivpu_mmu_user_context_fini(vdev, &vdev->rctx);
+}
+
 void ivpu_mmu_user_context_mark_invalid(struct ivpu_device *vdev, u32 ssid)
 {
        struct ivpu_file_priv *file_priv;
index 961a0d6a6c7ff4942c80171aa760e863ee736707..f15d8c630d8ad0b9b3b529881099976a552cb00f 100644 (file)
@@ -32,6 +32,8 @@ struct ivpu_mmu_context {
 
 int ivpu_mmu_global_context_init(struct ivpu_device *vdev);
 void ivpu_mmu_global_context_fini(struct ivpu_device *vdev);
+int ivpu_mmu_reserved_context_init(struct ivpu_device *vdev);
+void ivpu_mmu_reserved_context_fini(struct ivpu_device *vdev);
 
 int ivpu_mmu_user_context_init(struct ivpu_device *vdev, struct ivpu_mmu_context *ctx, u32 ctx_id);
 void ivpu_mmu_user_context_fini(struct ivpu_device *vdev, struct ivpu_mmu_context *ctx);