mm: rename flush_icache_user_range to flush_icache_user_page
authorChristoph Hellwig <hch@lst.de>
Mon, 8 Jun 2020 04:42:22 +0000 (21:42 -0700)
committerLinus Torvalds <torvalds@linux-foundation.org>
Mon, 8 Jun 2020 18:05:58 +0000 (11:05 -0700)
The function currently known as flush_icache_user_range only operates on
a single page.  Rename it to flush_icache_user_page as we'll need the
name flush_icache_user_range for something else soon.

Signed-off-by: Christoph Hellwig <hch@lst.de>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Acked-by: Geert Uytterhoeven <geert@linux-m68k.org>
Cc: Richard Henderson <rth@twiddle.net>
Cc: Ivan Kokshaysky <ink@jurassic.park.msu.ru>
Cc: Matt Turner <mattst88@gmail.com>
Cc: Tony Luck <tony.luck@intel.com>
Cc: Fenghua Yu <fenghua.yu@intel.com>
Cc: Geert Uytterhoeven <geert@linux-m68k.org>
Cc: Greentime Hu <green.hu@gmail.com>
Cc: Vincent Chen <deanbo422@gmail.com>
Cc: Jonas Bonn <jonas@southpole.se>
Cc: Stefan Kristiansson <stefan.kristiansson@saunalahti.fi>
Cc: Stafford Horne <shorne@gmail.com>
Cc: Benjamin Herrenschmidt <benh@kernel.crashing.org>
Cc: Paul Mackerras <paulus@samba.org>
Cc: Michael Ellerman <mpe@ellerman.id.au>
Cc: Paul Walmsley <paul.walmsley@sifive.com>
Cc: Palmer Dabbelt <palmer@sifive.com>
Cc: Albert Ou <aou@eecs.berkeley.edu>
Cc: Arnd Bergmann <arnd@arndb.de>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Ingo Molnar <mingo@redhat.com>
Cc: Arnaldo Carvalho de Melo <acme@kernel.org>
Cc: Mark Rutland <mark.rutland@arm.com>
Cc: Alexander Shishkin <alexander.shishkin@linux.intel.com>
Cc: Jiri Olsa <jolsa@redhat.com>
Cc: Namhyung Kim <namhyung@kernel.org>
Link: http://lkml.kernel.org/r/20200515143646.3857579-20-hch@lst.de
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
13 files changed:
arch/alpha/include/asm/cacheflush.h
arch/alpha/kernel/smp.c
arch/ia64/include/asm/cacheflush.h
arch/m68k/include/asm/cacheflush_mm.h
arch/m68k/mm/cache.c
arch/nds32/include/asm/cacheflush.h
arch/nds32/mm/cacheflush.c
arch/openrisc/include/asm/cacheflush.h
arch/powerpc/include/asm/cacheflush.h
arch/powerpc/mm/mem.c
arch/riscv/include/asm/cacheflush.h
include/asm-generic/cacheflush.h
kernel/events/uprobes.c

index 636d7ca0d05f699e9b4fd79fbaf3de15c63c4059..9945ff483eaf7e469638a9e1477960230977d8e9 100644 (file)
@@ -35,7 +35,7 @@ extern void smp_imb(void);
 
 extern void __load_new_mm_context(struct mm_struct *);
 static inline void
-flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                        unsigned long addr, int len)
 {
        if (vma->vm_flags & VM_EXEC) {
@@ -46,16 +46,16 @@ flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
                        mm->context[smp_processor_id()] = 0;
        }
 }
-#define flush_icache_user_range flush_icache_user_range
+#define flush_icache_user_page flush_icache_user_page
 #else /* CONFIG_SMP */
-extern void flush_icache_user_range(struct vm_area_struct *vma,
+extern void flush_icache_user_page(struct vm_area_struct *vma,
                struct page *page, unsigned long addr, int len);
-#define flush_icache_user_range flush_icache_user_range
+#define flush_icache_user_page flush_icache_user_page
 #endif /* CONFIG_SMP */
 
 /* This is used only in __do_fault and do_swap_page.  */
 #define flush_icache_page(vma, page) \
-       flush_icache_user_range((vma), (page), 0, 0)
+       flush_icache_user_page((vma), (page), 0, 0)
 
 #include <asm-generic/cacheflush.h>
 
index 5f90df30be20a699d2ffde53234c108c55eb81e9..52995bf413fea3af0adc93583a6b227c062a36ef 100644 (file)
@@ -740,7 +740,7 @@ ipi_flush_icache_page(void *x)
 }
 
 void
-flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                        unsigned long addr, int len)
 {
        struct mm_struct *mm = vma->vm_mm;
index a8f1c86ac242a6b9186d56f1a3958dfa1921052d..708c0fa5d975e4d3c65eb24e3479a196950eeb23 100644 (file)
@@ -22,7 +22,7 @@ extern void flush_icache_range(unsigned long start, unsigned long end);
 #define flush_icache_range flush_icache_range
 extern void clflush_cache_range(void *addr, int size);
 
-#define flush_icache_user_range(vma, page, user_addr, len)                                     \
+#define flush_icache_user_page(vma, page, user_addr, len)                                      \
 do {                                                                                           \
        unsigned long _addr = (unsigned long) page_address(page) + ((user_addr) & ~PAGE_MASK);  \
        flush_icache_range(_addr, _addr + (len));                                               \
index 1e2544ecaf88c403ec420084ffc3cf491d7362d7..95376bf84faa5fa7e410d5cbc5a867f94f8f3c69 100644 (file)
@@ -254,7 +254,7 @@ static inline void __flush_page_to_ram(void *vaddr)
 #define flush_dcache_mmap_unlock(mapping)      do { } while (0)
 #define flush_icache_page(vma, page)   __flush_page_to_ram(page_address(page))
 
-extern void flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+extern void flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                                    unsigned long addr, int len);
 extern void flush_icache_range(unsigned long address, unsigned long endaddr);
 
@@ -264,7 +264,7 @@ static inline void copy_to_user_page(struct vm_area_struct *vma,
 {
        flush_cache_page(vma, vaddr, page_to_pfn(page));
        memcpy(dst, src, len);
-       flush_icache_user_range(vma, page, vaddr, len);
+       flush_icache_user_page(vma, page, vaddr, len);
 }
 static inline void copy_from_user_page(struct vm_area_struct *vma,
                                       struct page *page, unsigned long vaddr,
index 079e64898e6a534cbff8a89db39cf7e9afbc71d3..99057cd5ff7f1413c2ea7bd44479130e163e59b0 100644 (file)
@@ -106,7 +106,7 @@ void flush_icache_range(unsigned long address, unsigned long endaddr)
 }
 EXPORT_SYMBOL(flush_icache_range);
 
-void flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+void flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                             unsigned long addr, int len)
 {
        if (CPU_IS_COLDFIRE) {
index caddded56e77f3603e93bbb0496b52a2dcb3a60a..7d6824f7c0e8d871723b5a96c8aacf4cf36b4c38 100644 (file)
@@ -44,9 +44,9 @@ void invalidate_kernel_vmap_range(void *addr, int size);
 #define flush_dcache_mmap_unlock(mapping) xa_unlock_irq(&(mapping)->i_pages)
 
 #else
-void flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+void flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                             unsigned long addr, int len);
-#define flush_icache_user_range flush_icache_user_range
+#define flush_icache_user_page flush_icache_user_page
 
 #include <asm-generic/cacheflush.h>
 #endif
index 8f168b33065fadf4121834dbc5811799a675f519..6eb98a7ad27d22ebf441e259caffc1e2a6aa8b6b 100644 (file)
@@ -36,7 +36,7 @@ void flush_icache_page(struct vm_area_struct *vma, struct page *page)
        local_irq_restore(flags);
 }
 
-void flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+void flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                             unsigned long addr, int len)
 {
        unsigned long kaddr;
index 74d1fce4e8839436e9ff181a8e34e58a783cff21..eeac40d4a8547fdac99a5413ab0aa518968bae72 100644 (file)
@@ -62,7 +62,7 @@ static inline void flush_dcache_page(struct page *page)
        clear_bit(PG_dc_clean, &page->flags);
 }
 
-#define flush_icache_user_range(vma, page, addr, len)  \
+#define flush_icache_user_page(vma, page, addr, len)   \
 do {                                                   \
        if (vma->vm_flags & VM_EXEC)                    \
                sync_icache_dcache(page);               \
index e682c8e10e9030b108e4f8cc210d7cded9f5dec5..de600b915a3c5e22cc84319914e2cce66ec30a15 100644 (file)
@@ -28,9 +28,9 @@ extern void flush_dcache_page(struct page *page);
 void flush_icache_range(unsigned long start, unsigned long stop);
 #define flush_icache_range flush_icache_range
 
-void flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+void flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                unsigned long addr, int len);
-#define flush_icache_user_range flush_icache_user_range
+#define flush_icache_user_page flush_icache_user_page
 
 void flush_dcache_icache_page(struct page *page);
 void __flush_dcache_icache(void *page);
index 3f1a70c6781ba30889b7dd35ff2315d13417fb9b..e2d6a6236aa7862b459370af3cb89dab78c25d03 100644 (file)
@@ -577,7 +577,7 @@ void copy_user_page(void *vto, void *vfrom, unsigned long vaddr,
        flush_dcache_page(pg);
 }
 
-void flush_icache_user_range(struct vm_area_struct *vma, struct page *page,
+void flush_icache_user_page(struct vm_area_struct *vma, struct page *page,
                             unsigned long addr, int len)
 {
        unsigned long maddr;
index a167b4fbdf00781c5c5e52074c99ac4b6fe9a572..23ff7035099261a7c8cc972bb0259aca45437fc7 100644 (file)
@@ -27,7 +27,8 @@ static inline void flush_dcache_page(struct page *page)
  * so instead we just flush the whole thing.
  */
 #define flush_icache_range(start, end) flush_icache_all()
-#define flush_icache_user_range(vma, pg, addr, len) flush_icache_mm(vma->vm_mm, 0)
+#define flush_icache_user_page(vma, pg, addr, len) \
+       flush_icache_mm(vma->vm_mm, 0)
 
 #ifndef CONFIG_SMP
 
index bbbb4d4ef65160dc1431ca1f2b92110ad0fcbae5..2c9686fefb7153e85d444cafc359002172546624 100644 (file)
@@ -73,8 +73,8 @@ static inline void flush_icache_page(struct vm_area_struct *vma,
 }
 #endif
 
-#ifndef flush_icache_user_range
-static inline void flush_icache_user_range(struct vm_area_struct *vma,
+#ifndef flush_icache_user_page
+static inline void flush_icache_user_page(struct vm_area_struct *vma,
                                           struct page *page,
                                           unsigned long addr, int len)
 {
@@ -97,7 +97,7 @@ static inline void flush_cache_vunmap(unsigned long start, unsigned long end)
 #define copy_to_user_page(vma, page, vaddr, dst, src, len)     \
        do { \
                memcpy(dst, src, len); \
-               flush_icache_user_range(vma, page, vaddr, len); \
+               flush_icache_user_page(vma, page, vaddr, len); \
        } while (0)
 #endif
 
index eddc8db96027949cb526da4e7348157908c498a3..e51ec844c87cc29d6ed4872cdc3e31363e9041ef 100644 (file)
@@ -1668,7 +1668,7 @@ void __weak arch_uprobe_copy_ixol(struct page *page, unsigned long vaddr,
        copy_to_page(page, vaddr, src, len);
 
        /*
-        * We probably need flush_icache_user_range() but it needs vma.
+        * We probably need flush_icache_user_page() but it needs vma.
         * This should work on most of architectures by default. If
         * architecture needs to do something different it can define
         * its own version of the function.