virtio: harden vring IRQ
authorJason Wang <jasowang@redhat.com>
Fri, 27 May 2022 06:01:19 +0000 (14:01 +0800)
committerMichael S. Tsirkin <mst@redhat.com>
Tue, 31 May 2022 16:45:10 +0000 (12:45 -0400)
This is a rework on the previous IRQ hardening that is done for
virtio-pci where several drawbacks were found and were reverted:

1) try to use IRQF_NO_AUTOEN which is not friendly to affinity managed IRQ
   that is used by some device such as virtio-blk
2) done only for PCI transport

The vq->broken is re-used in this patch for implementing the IRQ
hardening. The vq->broken is set to true during both initialization
and reset. And the vq->broken is set to false in
virtio_device_ready(). Then vring_interrupt() can check and return
when vq->broken is true. And in this case, switch to return IRQ_NONE
to let the interrupt core aware of such invalid interrupt to prevent
IRQ storm.

The reason of using a per queue variable instead of a per device one
is that we may need it for per queue reset hardening in the future.

Note that the hardening is only done for vring interrupt since the
config interrupt hardening is already done in commit 22b7050a024d7
("virtio: defer config changed notifications"). But the method that is
used by config interrupt can't be reused by the vring interrupt
handler because it uses spinlock to do the synchronization which is
expensive.

Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: "Paul E. McKenney" <paulmck@kernel.org>
Cc: Marc Zyngier <maz@kernel.org>
Cc: Halil Pasic <pasic@linux.ibm.com>
Cc: Cornelia Huck <cohuck@redhat.com>
Cc: Vineeth Vijayan <vneethv@linux.ibm.com>
Cc: Peter Oberparleiter <oberpar@linux.ibm.com>
Cc: linux-s390@vger.kernel.org
Signed-off-by: Jason Wang <jasowang@redhat.com>
Message-Id: <20220527060120.20964-9-jasowang@redhat.com>
Signed-off-by: Michael S. Tsirkin <mst@redhat.com>
Reviewed-by: Xuan Zhuo <xuanzhuo@linux.alibaba.com>
drivers/s390/virtio/virtio_ccw.c
drivers/virtio/virtio.c
drivers/virtio/virtio_mmio.c
drivers/virtio/virtio_pci_modern_dev.c
drivers/virtio/virtio_ring.c
include/linux/virtio_config.h

index c188e4f20ca32c194c2bc852cbd93fad48fbd398..97e51c34e6cfbb3f9858da695a28e57378f4b776 100644 (file)
@@ -971,6 +971,10 @@ static void virtio_ccw_set_status(struct virtio_device *vdev, u8 status)
        ccw->flags = 0;
        ccw->count = sizeof(status);
        ccw->cda = (__u32)(unsigned long)&vcdev->dma_area->status;
+       /* We use ssch for setting the status which is a serializing
+        * instruction that guarantees the memory writes have
+        * completed before ssch.
+        */
        ret = ccw_io_helper(vcdev, ccw, VIRTIO_CCW_DOING_WRITE_STATUS);
        /* Write failed? We assume status is unchanged. */
        if (ret)
index aa1eb5132767481717bbe2aed0c605d075604610..95fac4c97c8b63c1e899d378ad2547050b3dce4f 100644 (file)
@@ -220,6 +220,15 @@ static int virtio_features_ok(struct virtio_device *dev)
  * */
 void virtio_reset_device(struct virtio_device *dev)
 {
+       /*
+        * The below virtio_synchronize_cbs() guarantees that any
+        * interrupt for this line arriving after
+        * virtio_synchronize_vqs() has completed is guaranteed to see
+        * vq->broken as true.
+        */
+       virtio_break_device(dev);
+       virtio_synchronize_cbs(dev);
+
        dev->config->reset(dev);
 }
 EXPORT_SYMBOL_GPL(virtio_reset_device);
@@ -428,6 +437,9 @@ int register_virtio_device(struct virtio_device *dev)
        dev->config_enabled = false;
        dev->config_change_pending = false;
 
+       INIT_LIST_HEAD(&dev->vqs);
+       spin_lock_init(&dev->vqs_list_lock);
+
        /* We always start by resetting the device, in case a previous
         * driver messed it up.  This also tests that code path a little. */
        virtio_reset_device(dev);
@@ -435,9 +447,6 @@ int register_virtio_device(struct virtio_device *dev)
        /* Acknowledge that we've seen the device. */
        virtio_add_status(dev, VIRTIO_CONFIG_S_ACKNOWLEDGE);
 
-       INIT_LIST_HEAD(&dev->vqs);
-       spin_lock_init(&dev->vqs_list_lock);
-
        /*
         * device_add() causes the bus infrastructure to look for a matching
         * driver.
index c9699a59f93cad4f5f52b3dc6da30c82aa517850..f9a36bc7ac27e1f32d6192b3cb68da31c36c315b 100644 (file)
@@ -253,6 +253,11 @@ static void vm_set_status(struct virtio_device *vdev, u8 status)
        /* We should never be setting status to 0. */
        BUG_ON(status == 0);
 
+       /*
+        * Per memory-barriers.txt, wmb() is not needed to guarantee
+        * that the the cache coherent memory writes have completed
+        * before writing to the MMIO region.
+        */
        writel(status, vm_dev->base + VIRTIO_MMIO_STATUS);
 }
 
index 4093f9cca7a6ad1c77448447908525aa84d49fc4..a0fa14f28a7fc0b490910b75ad834c247a59ad59 100644 (file)
@@ -467,6 +467,11 @@ void vp_modern_set_status(struct virtio_pci_modern_device *mdev,
 {
        struct virtio_pci_common_cfg __iomem *cfg = mdev->common;
 
+       /*
+        * Per memory-barriers.txt, wmb() is not needed to guarantee
+        * that the the cache coherent memory writes have completed
+        * before writing to the MMIO region.
+        */
        vp_iowrite8(status, &cfg->device_status);
 }
 EXPORT_SYMBOL_GPL(vp_modern_set_status);
index 9c231e1fded7359a3719234849bd7a70b4c5cdb6..13a7348cedfff01f5d2dab11cbc2cd1b2f067d84 100644 (file)
@@ -1688,7 +1688,7 @@ static struct virtqueue *vring_create_virtqueue_packed(
        vq->we_own_ring = true;
        vq->notify = notify;
        vq->weak_barriers = weak_barriers;
-       vq->broken = false;
+       vq->broken = true;
        vq->last_used_idx = 0;
        vq->event_triggered = false;
        vq->num_added = 0;
@@ -2134,8 +2134,11 @@ irqreturn_t vring_interrupt(int irq, void *_vq)
                return IRQ_NONE;
        }
 
-       if (unlikely(vq->broken))
-               return IRQ_HANDLED;
+       if (unlikely(vq->broken)) {
+               dev_warn_once(&vq->vq.vdev->dev,
+                             "virtio vring IRQ raised before DRIVER_OK");
+               return IRQ_NONE;
+       }
 
        /* Just a hint for performance: so it's ok that this can be racy! */
        if (vq->event)
@@ -2177,7 +2180,7 @@ struct virtqueue *__vring_new_virtqueue(unsigned int index,
        vq->we_own_ring = false;
        vq->notify = notify;
        vq->weak_barriers = weak_barriers;
-       vq->broken = false;
+       vq->broken = true;
        vq->last_used_idx = 0;
        vq->event_triggered = false;
        vq->num_added = 0;
index 25be018810a7a88d83065c4e28faa3f3070f13ad..d4edfd7d91bb5087115c9234e5f9b5734e5593b0 100644 (file)
@@ -256,6 +256,26 @@ void virtio_device_ready(struct virtio_device *dev)
        unsigned status = dev->config->get_status(dev);
 
        BUG_ON(status & VIRTIO_CONFIG_S_DRIVER_OK);
+
+       /*
+        * The virtio_synchronize_cbs() makes sure vring_interrupt()
+        * will see the driver specific setup if it sees vq->broken
+        * as false (even if the notifications come before DRIVER_OK).
+        */
+       virtio_synchronize_cbs(dev);
+       __virtio_unbreak_device(dev);
+       /*
+        * The transport should ensure the visibility of vq->broken
+        * before setting DRIVER_OK. See the comments for the transport
+        * specific set_status() method.
+        *
+        * A well behaved device will only notify a virtqueue after
+        * DRIVER_OK, this means the device should "see" the coherenct
+        * memory write that set vq->broken as false which is done by
+        * the driver when it sees DRIVER_OK, then the following
+        * driver's vring_interrupt() will see vq->broken as false so
+        * we won't lose any notification.
+        */
        dev->config->set_status(dev, status | VIRTIO_CONFIG_S_DRIVER_OK);
 }