Merge tag 'ioremap-5.5' of git://git.infradead.org/users/hch/ioremap
authorLinus Torvalds <torvalds@linux-foundation.org>
Thu, 28 Nov 2019 18:57:12 +0000 (10:57 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Thu, 28 Nov 2019 18:57:12 +0000 (10:57 -0800)
Pull generic ioremap support from Christoph Hellwig:
 "This adds the remaining bits for an entirely generic ioremap and
  iounmap to lib/ioremap.c. To facilitate that, it cleans up the giant
  mess of weird ioremap variants we had with no users outside the arch
  code.

  For now just the three newest ports use the code, but there is more
  than a handful others that can be converted without too much work.

  Summary:

   - clean up various obsolete ioremap and iounmap variants

   - add a new generic ioremap implementation and switch csky, nds32 and
     riscv over to it"

* tag 'ioremap-5.5' of git://git.infradead.org/users/hch/ioremap: (21 commits)
  nds32: use generic ioremap
  csky: use generic ioremap
  csky: remove ioremap_cache
  riscv: use the generic ioremap code
  lib: provide a simple generic ioremap implementation
  sh: remove __iounmap
  nios2: remove __iounmap
  hexagon: remove __iounmap
  m68k: rename __iounmap and mark it static
  arch: rely on asm-generic/io.h for default ioremap_* definitions
  asm-generic: don't provide ioremap for CONFIG_MMU
  asm-generic: ioremap_uc should behave the same with and without MMU
  xtensa: clean up ioremap
  x86: Clean up ioremap()
  parisc: remove __ioremap
  nios2: remove __ioremap
  alpha: remove the unused __ioremap wrapper
  hexagon: clean up ioremap
  ia64: rename ioremap_nocache to ioremap_uc
  unicore32: remove ioremap_cached
  ...

1  2 
arch/riscv/Kconfig
arch/riscv/include/asm/mmio.h
arch/riscv/include/asm/pgtable.h
arch/riscv/mm/Makefile
arch/x86/mm/ioremap.c
lib/Kconfig

index 9f7f5dce2dc4d7ac4eee550978297d37d0d60fec,a02e91ed747a0af05e13ccaca425e5b8aa1f0415..759ffb00267cf1235cf6b40320994734d571ef7a
@@@ -26,15 -26,15 +26,16 @@@ config RISC
        select GENERIC_IRQ_SHOW
        select GENERIC_PCI_IOMAP
        select GENERIC_SCHED_CLOCK
 -      select GENERIC_STRNCPY_FROM_USER
 -      select GENERIC_STRNLEN_USER
 +      select GENERIC_STRNCPY_FROM_USER if MMU
 +      select GENERIC_STRNLEN_USER if MMU
        select GENERIC_SMP_IDLE_THREAD
        select GENERIC_ATOMIC64 if !64BIT
+       select GENERIC_IOREMAP
        select HAVE_ARCH_AUDITSYSCALL
 +      select HAVE_ARCH_SECCOMP_FILTER
        select HAVE_ASM_MODVERSIONS
        select HAVE_MEMBLOCK_NODE_MAP
 -      select HAVE_DMA_CONTIGUOUS
 +      select HAVE_DMA_CONTIGUOUS if MMU
        select HAVE_FUTEX_CMPXCHG if FUTEX
        select HAVE_PERF_EVENTS
        select HAVE_PERF_REGS
index a297a835e402bff0226ee5c8022d566f15cc70e0,0000000000000000000000000000000000000000..a2c809df2733f52238e227331b5bc7679dcc1534
mode 100644,000000..100644
--- /dev/null
@@@ -1,168 -1,0 +1,155 @@@
- #ifdef CONFIG_MMU
- void __iomem *ioremap(phys_addr_t offset, unsigned long size);
- /*
-  * The RISC-V ISA doesn't yet specify how to query or modify PMAs, so we can't
-  * change the properties of memory regions.  This should be fixed by the
-  * upcoming platform spec.
-  */
- #define ioremap_nocache(addr, size) ioremap((addr), (size))
- #define ioremap_wc(addr, size) ioremap((addr), (size))
- #define ioremap_wt(addr, size) ioremap((addr), (size))
- void iounmap(volatile void __iomem *addr);
- #else
 +/* SPDX-License-Identifier: GPL-2.0-only */
 +/*
 + * {read,write}{b,w,l,q} based on arch/arm64/include/asm/io.h
 + *   which was based on arch/arm/include/io.h
 + *
 + * Copyright (C) 1996-2000 Russell King
 + * Copyright (C) 2012 ARM Ltd.
 + * Copyright (C) 2014 Regents of the University of California
 + */
 +
 +#ifndef _ASM_RISCV_MMIO_H
 +#define _ASM_RISCV_MMIO_H
 +
 +#include <linux/types.h>
 +#include <asm/mmiowb.h>
 +
++#ifndef CONFIG_MMU
 +#define pgprot_noncached(x)   (x)
 +#endif /* CONFIG_MMU */
 +
 +/* Generic IO read/write.  These perform native-endian accesses. */
 +#define __raw_writeb __raw_writeb
 +static inline void __raw_writeb(u8 val, volatile void __iomem *addr)
 +{
 +      asm volatile("sb %0, 0(%1)" : : "r" (val), "r" (addr));
 +}
 +
 +#define __raw_writew __raw_writew
 +static inline void __raw_writew(u16 val, volatile void __iomem *addr)
 +{
 +      asm volatile("sh %0, 0(%1)" : : "r" (val), "r" (addr));
 +}
 +
 +#define __raw_writel __raw_writel
 +static inline void __raw_writel(u32 val, volatile void __iomem *addr)
 +{
 +      asm volatile("sw %0, 0(%1)" : : "r" (val), "r" (addr));
 +}
 +
 +#ifdef CONFIG_64BIT
 +#define __raw_writeq __raw_writeq
 +static inline void __raw_writeq(u64 val, volatile void __iomem *addr)
 +{
 +      asm volatile("sd %0, 0(%1)" : : "r" (val), "r" (addr));
 +}
 +#endif
 +
 +#define __raw_readb __raw_readb
 +static inline u8 __raw_readb(const volatile void __iomem *addr)
 +{
 +      u8 val;
 +
 +      asm volatile("lb %0, 0(%1)" : "=r" (val) : "r" (addr));
 +      return val;
 +}
 +
 +#define __raw_readw __raw_readw
 +static inline u16 __raw_readw(const volatile void __iomem *addr)
 +{
 +      u16 val;
 +
 +      asm volatile("lh %0, 0(%1)" : "=r" (val) : "r" (addr));
 +      return val;
 +}
 +
 +#define __raw_readl __raw_readl
 +static inline u32 __raw_readl(const volatile void __iomem *addr)
 +{
 +      u32 val;
 +
 +      asm volatile("lw %0, 0(%1)" : "=r" (val) : "r" (addr));
 +      return val;
 +}
 +
 +#ifdef CONFIG_64BIT
 +#define __raw_readq __raw_readq
 +static inline u64 __raw_readq(const volatile void __iomem *addr)
 +{
 +      u64 val;
 +
 +      asm volatile("ld %0, 0(%1)" : "=r" (val) : "r" (addr));
 +      return val;
 +}
 +#endif
 +
 +/*
 + * Unordered I/O memory access primitives.  These are even more relaxed than
 + * the relaxed versions, as they don't even order accesses between successive
 + * operations to the I/O regions.
 + */
 +#define readb_cpu(c)          ({ u8  __r = __raw_readb(c); __r; })
 +#define readw_cpu(c)          ({ u16 __r = le16_to_cpu((__force __le16)__raw_readw(c)); __r; })
 +#define readl_cpu(c)          ({ u32 __r = le32_to_cpu((__force __le32)__raw_readl(c)); __r; })
 +
 +#define writeb_cpu(v, c)      ((void)__raw_writeb((v), (c)))
 +#define writew_cpu(v, c)      ((void)__raw_writew((__force u16)cpu_to_le16(v), (c)))
 +#define writel_cpu(v, c)      ((void)__raw_writel((__force u32)cpu_to_le32(v), (c)))
 +
 +#ifdef CONFIG_64BIT
 +#define readq_cpu(c)          ({ u64 __r = le64_to_cpu((__force __le64)__raw_readq(c)); __r; })
 +#define writeq_cpu(v, c)      ((void)__raw_writeq((__force u64)cpu_to_le64(v), (c)))
 +#endif
 +
 +/*
 + * Relaxed I/O memory access primitives. These follow the Device memory
 + * ordering rules but do not guarantee any ordering relative to Normal memory
 + * accesses.  These are defined to order the indicated access (either a read or
 + * write) with all other I/O memory accesses. Since the platform specification
 + * defines that all I/O regions are strongly ordered on channel 2, no explicit
 + * fences are required to enforce this ordering.
 + */
 +/* FIXME: These are now the same as asm-generic */
 +#define __io_rbr()            do {} while (0)
 +#define __io_rar()            do {} while (0)
 +#define __io_rbw()            do {} while (0)
 +#define __io_raw()            do {} while (0)
 +
 +#define readb_relaxed(c)      ({ u8  __v; __io_rbr(); __v = readb_cpu(c); __io_rar(); __v; })
 +#define readw_relaxed(c)      ({ u16 __v; __io_rbr(); __v = readw_cpu(c); __io_rar(); __v; })
 +#define readl_relaxed(c)      ({ u32 __v; __io_rbr(); __v = readl_cpu(c); __io_rar(); __v; })
 +
 +#define writeb_relaxed(v, c)  ({ __io_rbw(); writeb_cpu((v), (c)); __io_raw(); })
 +#define writew_relaxed(v, c)  ({ __io_rbw(); writew_cpu((v), (c)); __io_raw(); })
 +#define writel_relaxed(v, c)  ({ __io_rbw(); writel_cpu((v), (c)); __io_raw(); })
 +
 +#ifdef CONFIG_64BIT
 +#define readq_relaxed(c)      ({ u64 __v; __io_rbr(); __v = readq_cpu(c); __io_rar(); __v; })
 +#define writeq_relaxed(v, c)  ({ __io_rbw(); writeq_cpu((v), (c)); __io_raw(); })
 +#endif
 +
 +/*
 + * I/O memory access primitives. Reads are ordered relative to any
 + * following Normal memory access. Writes are ordered relative to any prior
 + * Normal memory access.  The memory barriers here are necessary as RISC-V
 + * doesn't define any ordering between the memory space and the I/O space.
 + */
 +#define __io_br()     do {} while (0)
 +#define __io_ar(v)    __asm__ __volatile__ ("fence i,r" : : : "memory")
 +#define __io_bw()     __asm__ __volatile__ ("fence w,o" : : : "memory")
 +#define __io_aw()     mmiowb_set_pending()
 +
 +#define readb(c)      ({ u8  __v; __io_br(); __v = readb_cpu(c); __io_ar(__v); __v; })
 +#define readw(c)      ({ u16 __v; __io_br(); __v = readw_cpu(c); __io_ar(__v); __v; })
 +#define readl(c)      ({ u32 __v; __io_br(); __v = readl_cpu(c); __io_ar(__v); __v; })
 +
 +#define writeb(v, c)  ({ __io_bw(); writeb_cpu((v), (c)); __io_aw(); })
 +#define writew(v, c)  ({ __io_bw(); writew_cpu((v), (c)); __io_aw(); })
 +#define writel(v, c)  ({ __io_bw(); writel_cpu((v), (c)); __io_aw(); })
 +
 +#ifdef CONFIG_64BIT
 +#define readq(c)      ({ u64 __v; __io_br(); __v = readq_cpu(c); __io_ar(__v); __v; })
 +#define writeq(v, c)  ({ __io_bw(); writeq_cpu((v), (c)); __io_aw(); })
 +#endif
 +
 +#endif /* _ASM_RISCV_MMIO_H */
Simple merge
index 44ab8f28c3fade77f78ff9c2faab5134555d4ad9,b3a356c80c1faf57401b2dac4d4a7b763e40888e..3c8b332584579d97ddb49fec97d3dd159cb0adab
@@@ -6,8 -6,8 +6,8 @@@ CFLAGS_REMOVE_init.o = -p
  endif
  
  obj-y += init.o
 -obj-y += fault.o
  obj-y += extable.o
- obj-$(CONFIG_MMU) += fault.o ioremap.o
++obj-$(CONFIG_MMU) += fault.o
  obj-y += cacheflush.o
  obj-y += context.o
  obj-y += sifive_l2_cache.o
Simple merge
diff --cc lib/Kconfig
Simple merge