]> git.kernelconcepts.de Git - karo-tx-linux.git/commitdiff
bnxt_en: Improve completion ring allocation for VFs.
authorMichael Chan <michael.chan@broadcom.com>
Wed, 7 Dec 2016 05:26:18 +0000 (00:26 -0500)
committerDavid S. Miller <davem@davemloft.net>
Wed, 7 Dec 2016 15:59:26 +0000 (10:59 -0500)
All available remaining completion rings not used by the PF should be
made available for the VFs so that there are enough rings in the VF to
support RDMA.  The earlier workaround code of capping the rings by the
statistics context is removed.

When SRIOV is disabled, call a new function bnxt_restore_pf_fw_resources()
to restore FW resources.  Later on we need to add some logic to account
for RDMA resources.

Signed-off-by: Somnath Kotur <somnath.kotur@broadcom.com>
Signed-off-by: Michael Chan <michael.chan@broadcom.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
drivers/net/ethernet/broadcom/bnxt/bnxt.c
drivers/net/ethernet/broadcom/bnxt/bnxt.h
drivers/net/ethernet/broadcom/bnxt/bnxt_sriov.c

index 30b482b8d1bab7556c42ab8997215e65ee0774e7..52b8ad4973e338a4a3cb909ddf954158f81caab2 100644 (file)
@@ -4152,7 +4152,7 @@ func_qcfg_exit:
        return rc;
 }
 
-int bnxt_hwrm_func_qcaps(struct bnxt *bp)
+static int bnxt_hwrm_func_qcaps(struct bnxt *bp)
 {
        int rc = 0;
        struct hwrm_func_qcaps_input req = {0};
@@ -6856,6 +6856,12 @@ static int bnxt_set_dflt_rings(struct bnxt *bp)
        return rc;
 }
 
+void bnxt_restore_pf_fw_resources(struct bnxt *bp)
+{
+       ASSERT_RTNL();
+       bnxt_hwrm_func_qcaps(bp);
+}
+
 static void bnxt_parse_log_pcie_link(struct bnxt *bp)
 {
        enum pcie_link_width width = PCIE_LNK_WIDTH_UNKNOWN;
index 0ee2cc4f4a753dad0ab325eb96016fa677435527..43a4b170a6f1e6a4168543c87b5107a6732c4706 100644 (file)
@@ -1234,7 +1234,6 @@ int _hwrm_send_message(struct bnxt *, void *, u32, int);
 int hwrm_send_message(struct bnxt *, void *, u32, int);
 int hwrm_send_message_silent(struct bnxt *, void *, u32, int);
 int bnxt_hwrm_set_coal(struct bnxt *);
-int bnxt_hwrm_func_qcaps(struct bnxt *);
 void bnxt_set_max_func_irqs(struct bnxt *bp, unsigned int max);
 void bnxt_tx_disable(struct bnxt *bp);
 void bnxt_tx_enable(struct bnxt *bp);
@@ -1245,4 +1244,5 @@ int bnxt_open_nic(struct bnxt *, bool, bool);
 int bnxt_close_nic(struct bnxt *, bool, bool);
 int bnxt_setup_mq_tc(struct net_device *dev, u8 tc);
 int bnxt_get_max_rings(struct bnxt *, int *, int *, bool);
+void bnxt_restore_pf_fw_resources(struct bnxt *bp);
 #endif
index bff626a971138a9e032f072a68f7a29159c56bdd..c69602508666cbf4a0e14226bf1b0d612ae907ae 100644 (file)
@@ -420,15 +420,7 @@ static int bnxt_hwrm_func_cfg(struct bnxt *bp, int num_vfs)
        bnxt_hwrm_cmd_hdr_init(bp, &req, HWRM_FUNC_CFG, -1, -1);
 
        /* Remaining rings are distributed equally amongs VF's for now */
-       /* TODO: the following workaroud is needed to restrict total number
-        * of vf_cp_rings not exceed number of HW ring groups. This WA should
-        * be removed once new HWRM provides HW ring groups capability in
-        * hwrm_func_qcap.
-        */
-       vf_cp_rings = min_t(u16, pf->max_cp_rings, pf->max_stat_ctxs);
-       vf_cp_rings = (vf_cp_rings - bp->cp_nr_rings) / num_vfs;
-       /* TODO: restore this logic below once the WA above is removed */
-       /* vf_cp_rings = (pf->max_cp_rings - bp->cp_nr_rings) / num_vfs; */
+       vf_cp_rings = (pf->max_cp_rings - bp->cp_nr_rings) / num_vfs;
        vf_stat_ctx = (pf->max_stat_ctxs - bp->num_stat_ctxs) / num_vfs;
        if (bp->flags & BNXT_FLAG_AGG_RINGS)
                vf_rx_rings = (pf->max_rx_rings - bp->rx_nr_rings * 2) /
@@ -590,7 +582,9 @@ void bnxt_sriov_disable(struct bnxt *bp)
 
        bp->pf.active_vfs = 0;
        /* Reclaim all resources for the PF. */
-       bnxt_hwrm_func_qcaps(bp);
+       rtnl_lock();
+       bnxt_restore_pf_fw_resources(bp);
+       rtnl_unlock();
 }
 
 int bnxt_sriov_configure(struct pci_dev *pdev, int num_vfs)