be2net: don't use dev_err when AER enabling fails
authorIvan Vecera <ivecera@redhat.com>
Thu, 25 Jul 2013 14:10:55 +0000 (16:10 +0200)
committerDavid S. Miller <davem@davemloft.net>
Tue, 30 Jul 2013 07:00:20 +0000 (00:00 -0700)
The driver uses dev_err when enabling of AER fails (e.g. PCIe AER is not
supported). The dev_info is more appropriate to avoid console pollution.

Cc: sathya.perla@emulex.com
Cc: subbu.seetharaman@emulex.com
Cc: ajit.khaparde@emulex.com
Signed-off-by: Ivan Vecera <ivecera@redhat.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/emulex/benet/be_main.c

index 67deb210d37d720dab2a7bf10acdfee65813d84c..3df15033b91a9bbac4d0fab2af3b7c3ca4944ea9 100644 (file)
@@ -4232,7 +4232,7 @@ static int be_probe(struct pci_dev *pdev, const struct pci_device_id *pdev_id)
 
        status = pci_enable_pcie_error_reporting(pdev);
        if (status)
-               dev_err(&pdev->dev, "Could not use PCIe error reporting\n");
+               dev_info(&pdev->dev, "Could not use PCIe error reporting\n");
 
        status = be_ctrl_init(adapter);
        if (status)