mm: speed up cancel_dirty_page() for clean pages
authorJan Kara <>
Thu, 16 Nov 2017 01:37:11 +0000 (17:37 -0800)
committerLinus Torvalds <>
Thu, 16 Nov 2017 02:21:06 +0000 (18:21 -0800)
Patch series "Speed up page cache truncation", v1.

When rebasing our enterprise distro to a newer kernel (from 4.4 to 4.12)
we have noticed a regression in bonnie++ benchmark when deleting files.
Eventually we have tracked this down to a fact that page cache
truncation got slower by about 10%.  There were both gains and losses in
the above interval of kernels but we have been able to identify that
commit 83929372f629 ("filemap: prepare find and delete operations for
huge pages") caused about 10% regression on its own.

After some investigation it didn't seem easily possible to fix the
regression while maintaining the THP in page cache functionality so
we've decided to optimize the page cache truncation path instead to make
up for the change.  This series is a result of that effort.

Patch 1 is an easy speedup of cancel_dirty_page().  Patches 2-6 refactor
page cache truncation code so that it is easier to batch radix tree
operations.  Patch 7 implements batching of deletes from the radix tree
which more than makes up for the original regression.

This patch (of 7):

cancel_dirty_page() does quite some work even for clean pages (fetching
of mapping, locking of memcg, atomic bit op on page flags) so it
accounts for ~2.5% of cost of truncation of a clean page.  That is not
much but still dumb for something we don't need at all.  Check whether a
page is actually dirty and avoid any work if not.

Signed-off-by: Jan Kara <>
Acked-by: Mel Gorman <>
Reviewed-by: Andi Kleen <>
Cc: Dave Hansen <>
Cc: Dave Chinner <>
Cc: "Kirill A. Shutemov" <>
Signed-off-by: Andrew Morton <>
Signed-off-by: Linus Torvalds <>

index 703599fa828874c5acb9daecb72e89be4532621e..c7b1d617dff6851b121539610981a491a4d0d415 100644 (file)
@@ -1440,7 +1440,13 @@ void account_page_cleaned(struct page *page, struct address_space *mapping,
                          struct bdi_writeback *wb);
 int set_page_dirty(struct page *page);
 int set_page_dirty_lock(struct page *page);
-void cancel_dirty_page(struct page *page);
+void __cancel_dirty_page(struct page *page);
+static inline void cancel_dirty_page(struct page *page)
+       /* Avoid atomic ops, locking, etc. when not actually needed. */
+       if (PageDirty(page))
+               __cancel_dirty_page(page);
 int clear_page_dirty_for_io(struct page *page);
 int get_cmdline(struct task_struct *task, char *buffer, int buflen);
index 83c746577aeab3cdf28f50df86584922d11dcfd5..436714917e038c82d8d08a42d0b2f6c4f14644c2 100644 (file)
@@ -2608,7 +2608,7 @@ EXPORT_SYMBOL(set_page_dirty_lock);
  * page without actually doing it through the VM. Can you say "ext3 is
  * horribly ugly"? Thought you could.
-void cancel_dirty_page(struct page *page)
+void __cancel_dirty_page(struct page *page)
        struct address_space *mapping = page_mapping(page);
@@ -2629,7 +2629,7 @@ void cancel_dirty_page(struct page *page)
  * Clear a page's dirty flag, while caring for dirty memory accounting.