mm: fix some typos in mm directory
authorWei Yang <richard.weiyang@gmail.com>
Tue, 5 Mar 2019 23:46:22 +0000 (15:46 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Wed, 6 Mar 2019 05:07:18 +0000 (21:07 -0800)
No functional change.

Link: http://lkml.kernel.org/r/20190118235123.27843-1-richard.weiyang@gmail.com
Signed-off-by: Wei Yang <richard.weiyang@gmail.com>
Reviewed-by: Pekka Enberg <penberg@kernel.org>
Acked-by: Mike Rapoport <rppt@linux.ibm.com>
Signed-off-by: Andrew Morton <akpm@linux-foundation.org>
Signed-off-by: Linus Torvalds <torvalds@linux-foundation.org>
include/linux/mmzone.h
mm/migrate.c
mm/mmap.c
mm/page_alloc.c
mm/slub.c
mm/vmscan.c

index 90c13cdeefb5de7b77d489357e6e096a35a81413..6d3290cd1f6fff155bb28d301727abb52a11c675 100644 (file)
@@ -1301,7 +1301,7 @@ void memory_present(int nid, unsigned long start, unsigned long end);
 
 /*
  * If it is possible to have holes within a MAX_ORDER_NR_PAGES, then we
- * need to check pfn validility within that MAX_ORDER_NR_PAGES block.
+ * need to check pfn validity within that MAX_ORDER_NR_PAGES block.
  * pfn_valid_within() should be used in this case; we optimise this away
  * when we have no holes within a MAX_ORDER_NR_PAGES block.
  */
index 0e9888cb33adba619331232b8818120fe37f2357..5308d6abd3845c859756c12d4061c117e03ae682 100644 (file)
@@ -100,7 +100,7 @@ int isolate_movable_page(struct page *page, isolate_mode_t mode)
        /*
         * Check PageMovable before holding a PG_lock because page's owner
         * assumes anybody doesn't touch PG_lock of newly allocated page
-        * so unconditionally grapping the lock ruins page's owner side.
+        * so unconditionally grabbing the lock ruins page's owner side.
         */
        if (unlikely(!__PageMovable(page)))
                goto out_putpage;
index eccba2650ef6b3704432a56cc89941c28ca999d5..41eb48d9b5276733e48b95f1addfcb228becd993 100644 (file)
--- a/mm/mmap.c
+++ b/mm/mmap.c
@@ -438,7 +438,7 @@ static void vma_gap_update(struct vm_area_struct *vma)
 {
        /*
         * As it turns out, RB_DECLARE_CALLBACKS() already created a callback
-        * function that does exacltly what we want.
+        * function that does exactly what we want.
         */
        vma_gap_callbacks_propagate(&vma->vm_rb, NULL);
 }
@@ -1012,7 +1012,7 @@ static inline int is_mergeable_vma(struct vm_area_struct *vma,
         * VM_SOFTDIRTY should not prevent from VMA merging, if we
         * match the flags but dirty bit -- the caller should mark
         * merged VMA as dirty. If dirty bit won't be excluded from
-        * comparison, we increase pressue on the memory system forcing
+        * comparison, we increase pressure on the memory system forcing
         * the kernel to generate new VMAs when old one could be
         * extended instead.
         */
@@ -1115,7 +1115,7 @@ can_vma_merge_after(struct vm_area_struct *vma, unsigned long vm_flags,
  *    PPPP    NNNN    PPPPPPPPPPPP    PPPPPPPPNNNN    PPPPNNNNNNNN
  *    might become    case 1 below    case 2 below    case 3 below
  *
- * It is important for case 8 that the the vma NNNN overlapping the
+ * It is important for case 8 that the vma NNNN overlapping the
  * region AAAA is never going to extended over XXXX. Instead XXXX must
  * be extended in region AAAA and NNNN must be removed. This way in
  * all cases where vma_merge succeeds, the moment vma_adjust drops the
@@ -1645,7 +1645,7 @@ SYSCALL_DEFINE1(old_mmap, struct mmap_arg_struct __user *, arg)
 #endif /* __ARCH_WANT_SYS_OLD_MMAP */
 
 /*
- * Some shared mappigns will want the pages marked read-only
+ * Some shared mappings will want the pages marked read-only
  * to track write events. If so, we'll downgrade vm_page_prot
  * to the private version (using protection_map[] without the
  * VM_SHARED bit).
index 9be9a22ebe3512bf6df4132fd65a67911c185a83..ec250453f5e830bb2d59a0f5389475427fbc951e 100644 (file)
@@ -7551,7 +7551,7 @@ static void __setup_per_zone_wmarks(void)
                         * value here.
                         *
                         * The WMARK_HIGH-WMARK_LOW and (WMARK_LOW-WMARK_MIN)
-                        * deltas control asynch page reclaim, and so should
+                        * deltas control async page reclaim, and so should
                         * not be capped for highmem.
                         */
                        unsigned long min_pages;
@@ -8028,7 +8028,7 @@ bool has_unmovable_pages(struct zone *zone, struct page *page, int count,
 
                /*
                 * Hugepages are not in LRU lists, but they're movable.
-                * We need not scan over tail pages bacause we don't
+                * We need not scan over tail pages because we don't
                 * handle each tail page individually in migration.
                 */
                if (PageHuge(page)) {
index d8b1eee2dd8622123be2df8b5dee6ec860015447..017a2ce5ba23150dc0d52c77ba671c8dc358d89e 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -2129,7 +2129,7 @@ redo:
                if (!lock) {
                        lock = 1;
                        /*
-                        * Taking the spinlock removes the possiblity
+                        * Taking the spinlock removes the possibility
                         * that acquire_slab() will see a slab page that
                         * is frozen
                         */
index e979705bbf325531b0cf2d90d26660fe308ea310..63195364ab2e72835c2ba852e77f5c04cf0c2363 100644 (file)
@@ -3527,7 +3527,7 @@ static bool kswapd_shrink_node(pg_data_t *pgdat,
  *
  * kswapd scans the zones in the highmem->normal->dma direction.  It skips
  * zones which have free_pages > high_wmark_pages(zone), but once a zone is
- * found to have free_pages <= high_wmark_pages(zone), any page is that zone
+ * found to have free_pages <= high_wmark_pages(zone), any page in that zone
  * or lower is eligible for reclaim until at least one usable zone is
  * balanced.
  */