Merge branch 'linux-4.15' of git://github.com/skeggsb/linux into drm-fixes
[sfrench/cifs-2.6.git] / drivers / gpu / drm / nouveau / include / nvkm / subdev / mmu.h
1 /* SPDX-License-Identifier: GPL-2.0 */
2 #ifndef __NVKM_MMU_H__
3 #define __NVKM_MMU_H__
4 #include <core/subdev.h>
5
6 struct nvkm_vma {
7         struct list_head head;
8         struct rb_node tree;
9         u64 addr;
10         u64 size:50;
11         bool mapref:1; /* PTs (de)referenced on (un)map (vs pre-allocated). */
12         bool sparse:1; /* Unmapped PDEs/PTEs will not trigger MMU faults. */
13 #define NVKM_VMA_PAGE_NONE 7
14         u8   page:3; /* Requested page type (index, or NONE for automatic). */
15         u8   refd:3; /* Current page type (index, or NONE for unreferenced). */
16         bool used:1; /* Region allocated. */
17         bool part:1; /* Region was split from an allocated region by map(). */
18         bool user:1; /* Region user-allocated. */
19         bool busy:1; /* Region busy (for temporarily preventing user access). */
20         struct nvkm_memory *memory; /* Memory currently mapped into VMA. */
21         struct nvkm_tags *tags; /* Compression tag reference. */
22 };
23
24 struct nvkm_vmm {
25         const struct nvkm_vmm_func *func;
26         struct nvkm_mmu *mmu;
27         const char *name;
28         u32 debug;
29         struct kref kref;
30         struct mutex mutex;
31
32         u64 start;
33         u64 limit;
34
35         struct nvkm_vmm_pt *pd;
36         struct list_head join;
37
38         struct list_head list;
39         struct rb_root free;
40         struct rb_root root;
41
42         bool bootstrapped;
43         atomic_t engref[NVKM_SUBDEV_NR];
44
45         dma_addr_t null;
46         void *nullp;
47 };
48
49 int nvkm_vmm_new(struct nvkm_device *, u64 addr, u64 size, void *argv, u32 argc,
50                  struct lock_class_key *, const char *name, struct nvkm_vmm **);
51 struct nvkm_vmm *nvkm_vmm_ref(struct nvkm_vmm *);
52 void nvkm_vmm_unref(struct nvkm_vmm **);
53 int nvkm_vmm_boot(struct nvkm_vmm *);
54 int nvkm_vmm_join(struct nvkm_vmm *, struct nvkm_memory *inst);
55 void nvkm_vmm_part(struct nvkm_vmm *, struct nvkm_memory *inst);
56 int nvkm_vmm_get(struct nvkm_vmm *, u8 page, u64 size, struct nvkm_vma **);
57 void nvkm_vmm_put(struct nvkm_vmm *, struct nvkm_vma **);
58
59 struct nvkm_vmm_map {
60         struct nvkm_memory *memory;
61         u64 offset;
62
63         struct nvkm_mm_node *mem;
64         struct scatterlist *sgl;
65         dma_addr_t *dma;
66         u64 off;
67
68         const struct nvkm_vmm_page *page;
69
70         struct nvkm_tags *tags;
71         u64 next;
72         u64 type;
73         u64 ctag;
74 };
75
76 int nvkm_vmm_map(struct nvkm_vmm *, struct nvkm_vma *, void *argv, u32 argc,
77                  struct nvkm_vmm_map *);
78 void nvkm_vmm_unmap(struct nvkm_vmm *, struct nvkm_vma *);
79
80 struct nvkm_memory *nvkm_umem_search(struct nvkm_client *, u64);
81 struct nvkm_vmm *nvkm_uvmm_search(struct nvkm_client *, u64 handle);
82
83 struct nvkm_mmu {
84         const struct nvkm_mmu_func *func;
85         struct nvkm_subdev subdev;
86
87         u8  dma_bits;
88
89         int heap_nr;
90         struct {
91 #define NVKM_MEM_VRAM                                                      0x01
92 #define NVKM_MEM_HOST                                                      0x02
93 #define NVKM_MEM_COMP                                                      0x04
94 #define NVKM_MEM_DISP                                                      0x08
95                 u8  type;
96                 u64 size;
97         } heap[4];
98
99         int type_nr;
100         struct {
101 #define NVKM_MEM_KIND                                                      0x10
102 #define NVKM_MEM_MAPPABLE                                                  0x20
103 #define NVKM_MEM_COHERENT                                                  0x40
104 #define NVKM_MEM_UNCACHED                                                  0x80
105                 u8 type;
106                 u8 heap;
107         } type[16];
108
109         struct nvkm_vmm *vmm;
110
111         struct {
112                 struct mutex mutex;
113                 struct list_head list;
114         } ptc, ptp;
115
116         struct nvkm_device_oclass user;
117 };
118
119 int nv04_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
120 int nv41_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
121 int nv44_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
122 int nv50_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
123 int g84_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
124 int mcp77_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
125 int gf100_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
126 int gk104_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
127 int gk20a_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
128 int gm200_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
129 int gm20b_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
130 int gp100_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
131 int gp10b_mmu_new(struct nvkm_device *, int, struct nvkm_mmu **);
132 #endif