mm/page_ext.c: check if page_ext is not prepared
authorJaewon Kim <>
Thu, 16 Nov 2017 01:39:07 +0000 (17:39 -0800)
committerLinus Torvalds <>
Thu, 16 Nov 2017 02:21:07 +0000 (18:21 -0800)
online_page_ext() and page_ext_init() allocate page_ext for each
section, but they do not allocate if the first PFN is !pfn_present(pfn)
or !pfn_valid(pfn).  Then section->page_ext remains as NULL.
lookup_page_ext checks NULL only if CONFIG_DEBUG_VM is enabled.  For a
valid PFN, __set_page_owner will try to get page_ext through
lookup_page_ext.  Without CONFIG_DEBUG_VM lookup_page_ext will misuse
NULL pointer as value 0.  This incurrs invalid address access.

This is the panic example when PFN 0x100000 is not valid but PFN
0x13FC00 is being used for page_ext.  section->page_ext is NULL,
get_entry returned invalid page_ext address as 0x1DFA000 for a PFN

To avoid this panic, CONFIG_DEBUG_VM should be removed so that page_ext
will be checked at all times.

  Unable to handle kernel paging request at virtual address 01dfa014
  ------------[ cut here ]------------
  Kernel BUG at ffffff80082371e0 [verbose debug info unavailable]
  Internal error: Oops: 96000045 [#1] PREEMPT SMP
  Modules linked in:
  PC is at __set_page_owner+0x48/0x78
  LR is at __set_page_owner+0x44/0x78

Pre-4.7 kernels also need commit f86e4271978b ("mm: check the return
value of lookup_page_ext for all call sites").

Fixes: eefa864b701d ("mm/page_ext: resurrect struct page extending code for debugging")
Signed-off-by: Jaewon Kim <>
Acked-by: Michal Hocko <>
Cc: Vlastimil Babka <>
Cc: Minchan Kim <>
Cc: Joonsoo Kim <>
Cc: <> [depends on f86e427197, see above]
Signed-off-by: Andrew Morton <>
Signed-off-by: Linus Torvalds <>

index 4f0367d472c4922f7a283a9530da63c7f6d9949c..2c16216c29b629a62beba50612ba2ea0fbea0d8e 100644 (file)
@@ -125,7 +125,6 @@ struct page_ext *lookup_page_ext(struct page *page)
        struct page_ext *base;
        base = NODE_DATA(page_to_nid(page))->node_page_ext;
-#if defined(CONFIG_DEBUG_VM)
         * The sanity checks the page allocator does upon freeing a
         * page can reach here before the page_ext arrays are
@@ -134,7 +133,6 @@ struct page_ext *lookup_page_ext(struct page *page)
        if (unlikely(!base))
                return NULL;
        index = pfn - round_down(node_start_pfn(page_to_nid(page)),
        return get_entry(base, index);
@@ -199,7 +197,6 @@ struct page_ext *lookup_page_ext(struct page *page)
        unsigned long pfn = page_to_pfn(page);
        struct mem_section *section = __pfn_to_section(pfn);
-#if defined(CONFIG_DEBUG_VM)
         * The sanity checks the page allocator does upon freeing a
         * page can reach here before the page_ext arrays are
@@ -208,7 +205,6 @@ struct page_ext *lookup_page_ext(struct page *page)
        if (!section->page_ext)
                return NULL;
        return get_entry(section->page_ext, pfn);