powerpc/powernv/npu: Move OPAL calls away from context manipulation
authorAlexey Kardashevskiy <aik@ozlabs.ru>
Wed, 19 Dec 2018 08:52:17 +0000 (19:52 +1100)
committerMichael Ellerman <mpe@ellerman.id.au>
Fri, 21 Dec 2018 05:20:46 +0000 (16:20 +1100)
When introduced, the NPU context init/destroy helpers called OPAL which
enabled/disabled PID (a userspace memory context ID) filtering in an NPU
per a GPU; this was a requirement for P9 DD1.0. However newer chip
revision added a PID wildcard support so there is no more need to
call OPAL every time a new context is initialized. Also, since the PID
wildcard support was added, skiboot does not clear wildcard entries
in the NPU so these remain in the hardware till the system reboot.

This moves LPID and wildcard programming to the PE setup code which
executes once during the booting process so NPU2 context init/destroy
won't need to do additional configuration.

This replaces the check for FW_FEATURE_OPAL with a check for npu!=NULL as
this is the way to tell if the NPU support is present and configured.

This moves pnv_npu2_init() declaration as pseries should be able to use it.
This keeps pnv_npu2_map_lpar() in powernv as pseries is not allowed to
call that. This exports pnv_npu2_map_lpar_dev() as following patches
will use it from the VFIO driver.

While at it, replace redundant list_for_each_entry_safe() with
a simpler list_for_each_entry().

Signed-off-by: Alexey Kardashevskiy <aik@ozlabs.ru>
Signed-off-by: Michael Ellerman <mpe@ellerman.id.au>
arch/powerpc/include/asm/pci.h
arch/powerpc/platforms/powernv/npu-dma.c
arch/powerpc/platforms/powernv/pci-ioda.c
arch/powerpc/platforms/powernv/pci.h

index 2af9ded805406250f390dadf9dd75e15ff8c3684..baf2886d4d6ef86cf2eb876e5427a32d91ae5f06 100644 (file)
@@ -129,5 +129,8 @@ extern void pcibios_scan_phb(struct pci_controller *hose);
 
 extern struct pci_dev *pnv_pci_get_gpu_dev(struct pci_dev *npdev);
 extern struct pci_dev *pnv_pci_get_npu_dev(struct pci_dev *gpdev, int index);
+extern int pnv_npu2_init(struct pci_controller *hose);
+extern int pnv_npu2_map_lpar_dev(struct pci_dev *gpdev, unsigned int lparid,
+               unsigned long msr);
 
 #endif /* __ASM_POWERPC_PCI_H */
index 0bc8b6912eba53532850b8f27c984926e3a5eeae..abcce06d2a6f9ccdbb284f739cdf517df8b9b16f 100644 (file)
@@ -511,6 +511,9 @@ static void acquire_atsd_reg(struct npu_context *npu_context,
                                continue;
 
                        npu = pci_bus_to_host(npdev->bus)->npu;
+                       if (!npu)
+                               continue;
+
                        mmio_atsd_reg[i].npu = npu;
                        mmio_atsd_reg[i].reg = get_mmio_atsd_reg(npu);
                        while (mmio_atsd_reg[i].reg < 0) {
@@ -675,7 +678,6 @@ struct npu_context *pnv_npu2_init_context(struct pci_dev *gpdev,
        u32 nvlink_index;
        struct device_node *nvlink_dn;
        struct mm_struct *mm = current->mm;
-       struct pnv_phb *nphb;
        struct npu *npu;
        struct npu_context *npu_context;
        struct pci_controller *hose;
@@ -686,13 +688,14 @@ struct npu_context *pnv_npu2_init_context(struct pci_dev *gpdev,
         */
        struct pci_dev *npdev = pnv_pci_get_npu_dev(gpdev, 0);
 
-       if (!firmware_has_feature(FW_FEATURE_OPAL))
-               return ERR_PTR(-ENODEV);
-
        if (!npdev)
                /* No nvlink associated with this GPU device */
                return ERR_PTR(-ENODEV);
 
+       /* We only support DR/PR/HV in pnv_npu2_map_lpar_dev() */
+       if (flags & ~(MSR_DR | MSR_PR | MSR_HV))
+               return ERR_PTR(-EINVAL);
+
        nvlink_dn = of_parse_phandle(npdev->dev.of_node, "ibm,nvlink", 0);
        if (WARN_ON(of_property_read_u32(nvlink_dn, "ibm,npu-link-index",
                                                        &nvlink_index)))
@@ -707,20 +710,9 @@ struct npu_context *pnv_npu2_init_context(struct pci_dev *gpdev,
        }
 
        hose = pci_bus_to_host(npdev->bus);
-       nphb = hose->private_data;
        npu = hose->npu;
-
-       /*
-        * Setup the NPU context table for a particular GPU. These need to be
-        * per-GPU as we need the tables to filter ATSDs when there are no
-        * active contexts on a particular GPU. It is safe for these to be
-        * called concurrently with destroy as the OPAL call takes appropriate
-        * locks and refcounts on init/destroy.
-        */
-       rc = opal_npu_init_context(nphb->opal_id, mm->context.id, flags,
-                               PCI_DEVID(gpdev->bus->number, gpdev->devfn));
-       if (rc < 0)
-               return ERR_PTR(-ENOSPC);
+       if (!npu)
+               return ERR_PTR(-ENODEV);
 
        /*
         * We store the npu pci device so we can more easily get at the
@@ -732,9 +724,6 @@ struct npu_context *pnv_npu2_init_context(struct pci_dev *gpdev,
                if (npu_context->release_cb != cb ||
                        npu_context->priv != priv) {
                        spin_unlock(&npu_context_lock);
-                       opal_npu_destroy_context(nphb->opal_id, mm->context.id,
-                                               PCI_DEVID(gpdev->bus->number,
-                                                       gpdev->devfn));
                        return ERR_PTR(-EINVAL);
                }
 
@@ -760,9 +749,6 @@ struct npu_context *pnv_npu2_init_context(struct pci_dev *gpdev,
 
                if (rc) {
                        kfree(npu_context);
-                       opal_npu_destroy_context(nphb->opal_id, mm->context.id,
-                                       PCI_DEVID(gpdev->bus->number,
-                                               gpdev->devfn));
                        return ERR_PTR(rc);
                }
 
@@ -815,7 +801,6 @@ void pnv_npu2_destroy_context(struct npu_context *npu_context,
                        struct pci_dev *gpdev)
 {
        int removed;
-       struct pnv_phb *nphb;
        struct npu *npu;
        struct pci_dev *npdev = pnv_pci_get_npu_dev(gpdev, 0);
        struct device_node *nvlink_dn;
@@ -825,19 +810,15 @@ void pnv_npu2_destroy_context(struct npu_context *npu_context,
        if (WARN_ON(!npdev))
                return;
 
-       if (!firmware_has_feature(FW_FEATURE_OPAL))
-               return;
-
        hose = pci_bus_to_host(npdev->bus);
-       nphb = hose->private_data;
        npu = hose->npu;
+       if (!npu)
+               return;
        nvlink_dn = of_parse_phandle(npdev->dev.of_node, "ibm,nvlink", 0);
        if (WARN_ON(of_property_read_u32(nvlink_dn, "ibm,npu-link-index",
                                                        &nvlink_index)))
                return;
        WRITE_ONCE(npu_context->npdev[npu->index][nvlink_index], NULL);
-       opal_npu_destroy_context(nphb->opal_id, npu_context->mm->context.id,
-                               PCI_DEVID(gpdev->bus->number, gpdev->devfn));
        spin_lock(&npu_context_lock);
        removed = kref_put(&npu_context->kref, pnv_npu2_release_context);
        spin_unlock(&npu_context_lock);
@@ -869,9 +850,6 @@ int pnv_npu2_handle_fault(struct npu_context *context, uintptr_t *ea,
        /* mmap_sem should be held so the struct_mm must be present */
        struct mm_struct *mm = context->mm;
 
-       if (!firmware_has_feature(FW_FEATURE_OPAL))
-               return -ENODEV;
-
        WARN_ON(!rwsem_is_locked(&mm->mmap_sem));
 
        for (i = 0; i < count; i++) {
@@ -900,15 +878,11 @@ int pnv_npu2_handle_fault(struct npu_context *context, uintptr_t *ea,
 }
 EXPORT_SYMBOL(pnv_npu2_handle_fault);
 
-int pnv_npu2_init(struct pnv_phb *phb)
+int pnv_npu2_init(struct pci_controller *hose)
 {
        unsigned int i;
        u64 mmio_atsd;
-       struct device_node *dn;
-       struct pci_dev *gpdev;
        static int npu_index;
-       uint64_t rc = 0;
-       struct pci_controller *hose = phb->hose;
        struct npu *npu;
        int ret;
 
@@ -917,18 +891,6 @@ int pnv_npu2_init(struct pnv_phb *phb)
                return -ENOMEM;
 
        npu->nmmu_flush = of_property_read_bool(hose->dn, "ibm,nmmu-flush");
-       for_each_child_of_node(phb->hose->dn, dn) {
-               gpdev = pnv_pci_get_gpu_dev(get_pci_dev(dn));
-               if (gpdev) {
-                       rc = opal_npu_map_lpar(phb->opal_id,
-                               PCI_DEVID(gpdev->bus->number, gpdev->devfn),
-                               0, 0);
-                       if (rc)
-                               dev_err(&gpdev->dev,
-                                       "Error %lld mapping device to LPAR\n",
-                                       rc);
-               }
-       }
 
        for (i = 0; !of_property_read_u64_index(hose->dn, "ibm,mmio-atsd",
                                                        i, &mmio_atsd); i++)
@@ -956,3 +918,52 @@ fail_exit:
 
        return ret;
 }
+
+int pnv_npu2_map_lpar_dev(struct pci_dev *gpdev, unsigned int lparid,
+               unsigned long msr)
+{
+       int ret;
+       struct pci_dev *npdev = pnv_pci_get_npu_dev(gpdev, 0);
+       struct pci_controller *hose;
+       struct pnv_phb *nphb;
+
+       if (!npdev)
+               return -ENODEV;
+
+       hose = pci_bus_to_host(npdev->bus);
+       nphb = hose->private_data;
+
+       dev_dbg(&gpdev->dev, "Map LPAR opalid=%llu lparid=%u\n",
+                       nphb->opal_id, lparid);
+       /*
+        * Currently we only support radix and non-zero LPCR only makes sense
+        * for hash tables so skiboot expects the LPCR parameter to be a zero.
+        */
+       ret = opal_npu_map_lpar(nphb->opal_id,
+                       PCI_DEVID(gpdev->bus->number, gpdev->devfn), lparid,
+                       0 /* LPCR bits */);
+       if (ret) {
+               dev_err(&gpdev->dev, "Error %d mapping device to LPAR\n", ret);
+               return ret;
+       }
+
+       dev_dbg(&gpdev->dev, "init context opalid=%llu msr=%lx\n",
+                       nphb->opal_id, msr);
+       ret = opal_npu_init_context(nphb->opal_id, 0/*__unused*/, msr,
+                       PCI_DEVID(gpdev->bus->number, gpdev->devfn));
+       if (ret < 0)
+               dev_err(&gpdev->dev, "Failed to init context: %d\n", ret);
+       else
+               ret = 0;
+
+       return 0;
+}
+EXPORT_SYMBOL_GPL(pnv_npu2_map_lpar_dev);
+
+void pnv_npu2_map_lpar(struct pnv_ioda_pe *gpe, unsigned long msr)
+{
+       struct pci_dev *gpdev;
+
+       list_for_each_entry(gpdev, &gpe->pbus->devices, bus_list)
+               pnv_npu2_map_lpar_dev(gpdev, 0, msr);
+}
index 8e3149bbd4e20f529fb2aefeb59b5c71325ae103..1b821290f6a2a899deaca0240a93ff63a63cd6cd 100644 (file)
@@ -1266,19 +1266,20 @@ static void pnv_ioda_setup_npu_PEs(struct pci_bus *bus)
 
 static void pnv_pci_ioda_setup_PEs(void)
 {
-       struct pci_controller *hose, *tmp;
+       struct pci_controller *hose;
        struct pnv_phb *phb;
        struct pci_bus *bus;
        struct pci_dev *pdev;
+       struct pnv_ioda_pe *pe;
 
-       list_for_each_entry_safe(hose, tmp, &hose_list, list_node) {
+       list_for_each_entry(hose, &hose_list, list_node) {
                phb = hose->private_data;
                if (phb->type == PNV_PHB_NPU_NVLINK) {
                        /* PE#0 is needed for error reporting */
                        pnv_ioda_reserve_pe(phb, 0);
                        pnv_ioda_setup_npu_PEs(hose->bus);
                        if (phb->model == PNV_PHB_MODEL_NPU2)
-                               WARN_ON_ONCE(pnv_npu2_init(phb));
+                               WARN_ON_ONCE(pnv_npu2_init(hose));
                }
                if (phb->type == PNV_PHB_NPU_OCAPI) {
                        bus = hose->bus;
@@ -1286,6 +1287,14 @@ static void pnv_pci_ioda_setup_PEs(void)
                                pnv_ioda_setup_dev_PE(pdev);
                }
        }
+       list_for_each_entry(hose, &hose_list, list_node) {
+               phb = hose->private_data;
+               if (phb->type != PNV_PHB_IODA2)
+                       continue;
+
+               list_for_each_entry(pe, &phb->ioda.pe_list, list)
+                       pnv_npu2_map_lpar(pe, MSR_DR | MSR_PR | MSR_HV);
+       }
 }
 
 #ifdef CONFIG_PCI_IOV
index 771938840eff91bcec01f5ca635db3d20570246b..1534bf852f47024db8adaebc63765a6cfbb66b9e 100644 (file)
@@ -188,6 +188,7 @@ extern void pnv_pci_init_ioda_hub(struct device_node *np);
 extern void pnv_pci_init_ioda2_phb(struct device_node *np);
 extern void pnv_pci_init_npu_phb(struct device_node *np);
 extern void pnv_pci_init_npu2_opencapi_phb(struct device_node *np);
+extern void pnv_npu2_map_lpar(struct pnv_ioda_pe *gpe, unsigned long msr);
 extern void pnv_pci_reset_secondary_bus(struct pci_dev *dev);
 extern int pnv_eeh_phb_reset(struct pci_controller *hose, int option);
 
@@ -218,7 +219,6 @@ extern long pnv_npu_set_window(struct pnv_ioda_pe *npe, int num,
 extern long pnv_npu_unset_window(struct pnv_ioda_pe *npe, int num);
 extern void pnv_npu_take_ownership(struct pnv_ioda_pe *npe);
 extern void pnv_npu_release_ownership(struct pnv_ioda_pe *npe);
-extern int pnv_npu2_init(struct pnv_phb *phb);
 
 /* pci-ioda-tce.c */
 #define POWERNV_IOMMU_DEFAULT_LEVELS   1