]> git.kernelconcepts.de Git - karo-tx-linux.git/blobdiff - mm/compaction.c
Merge git://git.infradead.org/intel-iommu
[karo-tx-linux.git] / mm / compaction.c
index eda3c2244f3056bec88e09195b1a9d5e30928200..1427366ad6735acfd09ce47eb6aa2bed042b4b3c 100644 (file)
@@ -1229,7 +1229,7 @@ static inline bool is_via_compact_memory(int order)
        return order == -1;
 }
 
-static int __compact_finished(struct zone *zone, struct compact_control *cc,
+static enum compact_result __compact_finished(struct zone *zone, struct compact_control *cc,
                            const int migratetype)
 {
        unsigned int order;
@@ -1252,7 +1252,10 @@ static int __compact_finished(struct zone *zone, struct compact_control *cc,
                if (cc->direct_compaction)
                        zone->compact_blockskip_flush = true;
 
-               return COMPACT_COMPLETE;
+               if (cc->whole_zone)
+                       return COMPACT_COMPLETE;
+               else
+                       return COMPACT_PARTIAL_SKIPPED;
        }
 
        if (is_via_compact_memory(cc->order))
@@ -1292,8 +1295,9 @@ static int __compact_finished(struct zone *zone, struct compact_control *cc,
        return COMPACT_NO_SUITABLE_PAGE;
 }
 
-static int compact_finished(struct zone *zone, struct compact_control *cc,
-                           const int migratetype)
+static enum compact_result compact_finished(struct zone *zone,
+                       struct compact_control *cc,
+                       const int migratetype)
 {
        int ret;
 
@@ -1312,9 +1316,10 @@ static int compact_finished(struct zone *zone, struct compact_control *cc,
  *   COMPACT_PARTIAL  - If the allocation would succeed without compaction
  *   COMPACT_CONTINUE - If compaction should run now
  */
-static unsigned long __compaction_suitable(struct zone *zone, int order,
+static enum compact_result __compaction_suitable(struct zone *zone, int order,
                                        unsigned int alloc_flags,
-                                       int classzone_idx)
+                                       int classzone_idx,
+                                       unsigned long wmark_target)
 {
        int fragindex;
        unsigned long watermark;
@@ -1337,7 +1342,8 @@ static unsigned long __compaction_suitable(struct zone *zone, int order,
         * allocated and for a short time, the footprint is higher
         */
        watermark += (2UL << order);
-       if (!zone_watermark_ok(zone, 0, watermark, classzone_idx, alloc_flags))
+       if (!__zone_watermark_ok(zone, 0, watermark, classzone_idx,
+                                alloc_flags, wmark_target))
                return COMPACT_SKIPPED;
 
        /*
@@ -1358,13 +1364,14 @@ static unsigned long __compaction_suitable(struct zone *zone, int order,
        return COMPACT_CONTINUE;
 }
 
-unsigned long compaction_suitable(struct zone *zone, int order,
+enum compact_result compaction_suitable(struct zone *zone, int order,
                                        unsigned int alloc_flags,
                                        int classzone_idx)
 {
-       unsigned long ret;
+       enum compact_result ret;
 
-       ret = __compaction_suitable(zone, order, alloc_flags, classzone_idx);
+       ret = __compaction_suitable(zone, order, alloc_flags, classzone_idx,
+                                   zone_page_state(zone, NR_FREE_PAGES));
        trace_mm_compaction_suitable(zone, order, ret);
        if (ret == COMPACT_NOT_SUITABLE_ZONE)
                ret = COMPACT_SKIPPED;
@@ -1372,9 +1379,42 @@ unsigned long compaction_suitable(struct zone *zone, int order,
        return ret;
 }
 
-static int compact_zone(struct zone *zone, struct compact_control *cc)
+bool compaction_zonelist_suitable(struct alloc_context *ac, int order,
+               int alloc_flags)
 {
-       int ret;
+       struct zone *zone;
+       struct zoneref *z;
+
+       /*
+        * Make sure at least one zone would pass __compaction_suitable if we continue
+        * retrying the reclaim.
+        */
+       for_each_zone_zonelist_nodemask(zone, z, ac->zonelist, ac->high_zoneidx,
+                                       ac->nodemask) {
+               unsigned long available;
+               enum compact_result compact_result;
+
+               /*
+                * Do not consider all the reclaimable memory because we do not
+                * want to trash just for a single high order allocation which
+                * is even not guaranteed to appear even if __compaction_suitable
+                * is happy about the watermark check.
+                */
+               available = zone_reclaimable_pages(zone) / order;
+               available += zone_page_state_snapshot(zone, NR_FREE_PAGES);
+               compact_result = __compaction_suitable(zone, order, alloc_flags,
+                               ac_classzone_idx(ac), available);
+               if (compact_result != COMPACT_SKIPPED &&
+                               compact_result != COMPACT_NOT_SUITABLE_ZONE)
+                       return true;
+       }
+
+       return false;
+}
+
+static enum compact_result compact_zone(struct zone *zone, struct compact_control *cc)
+{
+       enum compact_result ret;
        unsigned long start_pfn = zone->zone_start_pfn;
        unsigned long end_pfn = zone_end_pfn(zone);
        const int migratetype = gfpflags_to_migratetype(cc->gfp_mask);
@@ -1382,15 +1422,12 @@ static int compact_zone(struct zone *zone, struct compact_control *cc)
 
        ret = compaction_suitable(zone, cc->order, cc->alloc_flags,
                                                        cc->classzone_idx);
-       switch (ret) {
-       case COMPACT_PARTIAL:
-       case COMPACT_SKIPPED:
-               /* Compaction is likely to fail */
+       /* Compaction is likely to fail */
+       if (ret == COMPACT_PARTIAL || ret == COMPACT_SKIPPED)
                return ret;
-       case COMPACT_CONTINUE:
-               /* Fall through to compaction */
-               ;
-       }
+
+       /* huh, compaction_suitable is returning something unexpected */
+       VM_BUG_ON(ret != COMPACT_CONTINUE);
 
        /*
         * Clear pageblock skip if there were failures recently and compaction
@@ -1415,6 +1452,10 @@ static int compact_zone(struct zone *zone, struct compact_control *cc)
                zone->compact_cached_migrate_pfn[0] = cc->migrate_pfn;
                zone->compact_cached_migrate_pfn[1] = cc->migrate_pfn;
        }
+
+       if (cc->migrate_pfn == start_pfn)
+               cc->whole_zone = true;
+
        cc->last_migrated_pfn = 0;
 
        trace_mm_compaction_begin(start_pfn, cc->migrate_pfn,
@@ -1530,11 +1571,11 @@ out:
        return ret;
 }
 
-static unsigned long compact_zone_order(struct zone *zone, int order,
+static enum compact_result compact_zone_order(struct zone *zone, int order,
                gfp_t gfp_mask, enum migrate_mode mode, int *contended,
                unsigned int alloc_flags, int classzone_idx)
 {
-       unsigned long ret;
+       enum compact_result ret;
        struct compact_control cc = {
                .nr_freepages = 0,
                .nr_migratepages = 0,
@@ -1572,7 +1613,7 @@ int sysctl_extfrag_threshold = 500;
  *
  * This is the main entry point for direct page compaction.
  */
-unsigned long try_to_compact_pages(gfp_t gfp_mask, unsigned int order,
+enum compact_result try_to_compact_pages(gfp_t gfp_mask, unsigned int order,
                unsigned int alloc_flags, const struct alloc_context *ac,
                enum migrate_mode mode, int *contended)
 {
@@ -1580,7 +1621,7 @@ unsigned long try_to_compact_pages(gfp_t gfp_mask, unsigned int order,
        int may_perform_io = gfp_mask & __GFP_IO;
        struct zoneref *z;
        struct zone *zone;
-       int rc = COMPACT_DEFERRED;
+       enum compact_result rc = COMPACT_SKIPPED;
        int all_zones_contended = COMPACT_CONTENDED_LOCK; /* init for &= op */
 
        *contended = COMPACT_CONTENDED_NONE;
@@ -1594,11 +1635,13 @@ unsigned long try_to_compact_pages(gfp_t gfp_mask, unsigned int order,
        /* Compact each zone in the list */
        for_each_zone_zonelist_nodemask(zone, z, ac->zonelist, ac->high_zoneidx,
                                                                ac->nodemask) {
-               int status;
+               enum compact_result status;
                int zone_contended;
 
-               if (compaction_deferred(zone, order))
+               if (compaction_deferred(zone, order)) {
+                       rc = max_t(enum compact_result, COMPACT_DEFERRED, rc);
                        continue;
+               }
 
                status = compact_zone_order(zone, order, gfp_mask, mode,
                                &zone_contended, alloc_flags,
@@ -1634,7 +1677,8 @@ unsigned long try_to_compact_pages(gfp_t gfp_mask, unsigned int order,
                        goto break_loop;
                }
 
-               if (mode != MIGRATE_ASYNC && status == COMPACT_COMPLETE) {
+               if (mode != MIGRATE_ASYNC && (status == COMPACT_COMPLETE ||
+                                       status == COMPACT_PARTIAL_SKIPPED)) {
                        /*
                         * We think that allocation won't succeed in this zone
                         * so we defer compaction there. If it ends up
@@ -1669,7 +1713,7 @@ break_loop:
         * If at least one zone wasn't deferred or skipped, we report if all
         * zones that were tried were lock contended.
         */
-       if (rc > COMPACT_SKIPPED && all_zones_contended)
+       if (rc > COMPACT_INACTIVE && all_zones_contended)
                *contended = COMPACT_CONTENDED_LOCK;
 
        return rc;
@@ -1818,7 +1862,7 @@ static bool kcompactd_node_suitable(pg_data_t *pgdat)
        struct zone *zone;
        enum zone_type classzone_idx = pgdat->kcompactd_classzone_idx;
 
-       for (zoneid = 0; zoneid < classzone_idx; zoneid++) {
+       for (zoneid = 0; zoneid <= classzone_idx; zoneid++) {
                zone = &pgdat->node_zones[zoneid];
 
                if (!populated_zone(zone))
@@ -1853,7 +1897,7 @@ static void kcompactd_do_work(pg_data_t *pgdat)
                                                        cc.classzone_idx);
        count_vm_event(KCOMPACTD_WAKE);
 
-       for (zoneid = 0; zoneid < cc.classzone_idx; zoneid++) {
+       for (zoneid = 0; zoneid <= cc.classzone_idx; zoneid++) {
                int status;
 
                zone = &pgdat->node_zones[zoneid];
@@ -1881,7 +1925,7 @@ static void kcompactd_do_work(pg_data_t *pgdat)
                                                cc.classzone_idx, 0)) {
                        success = true;
                        compaction_defer_reset(zone, cc.order, false);
-               } else if (status == COMPACT_COMPLETE) {
+               } else if (status == COMPACT_PARTIAL_SKIPPED || status == COMPACT_COMPLETE) {
                        /*
                         * We use sync migration mode here, so we defer like
                         * sync direct compaction does.