]> git.kernelconcepts.de Git - karo-tx-linux.git/blobdiff - include/linux/migrate.h
dev_vdbg(), available with -DVERBOSE_DEBUG
[karo-tx-linux.git] / include / linux / migrate.h
index 6789c4940c9c919d6091c19f8679e342c0c85cdd..e10a90a93b5d25a53fd12b5e623e40ffbc285bf3 100644 (file)
@@ -2,34 +2,64 @@
 #define _LINUX_MIGRATE_H
 
 #include <linux/mm.h>
+#include <linux/mempolicy.h>
+#include <linux/pagemap.h>
+
+typedef struct page *new_page_t(struct page *, unsigned long private, int **);
 
 #ifdef CONFIG_MIGRATION
+/* Check if a vma is migratable */
+static inline int vma_migratable(struct vm_area_struct *vma)
+{
+       if (vma->vm_flags & (VM_IO|VM_HUGETLB|VM_PFNMAP|VM_RESERVED))
+               return 0;
+       /*
+        * Migration allocates pages in the highest zone. If we cannot
+        * do so then migration (at least from node to node) is not
+        * possible.
+        */
+       if (vma->vm_file &&
+               gfp_zone(mapping_gfp_mask(vma->vm_file->f_mapping))
+                                                               < policy_zone)
+                       return 0;
+       return 1;
+}
+
 extern int isolate_lru_page(struct page *p, struct list_head *pagelist);
 extern int putback_lru_pages(struct list_head *l);
-extern int migrate_page(struct page *, struct page *);
-extern void migrate_page_copy(struct page *, struct page *);
-extern int migrate_page_remove_references(struct page *, struct page *, int);
-extern int migrate_pages(struct list_head *l, struct list_head *t,
-               struct list_head *moved, struct list_head *failed);
-extern int migrate_pages_to(struct list_head *pagelist,
-                       struct vm_area_struct *vma, int dest);
-extern int fail_migrate_page(struct page *, struct page *);
+extern int migrate_page(struct address_space *,
+                       struct page *, struct page *);
+extern int migrate_pages(struct list_head *l, new_page_t x, unsigned long);
 
-extern int migrate_prep(void);
+extern int fail_migrate_page(struct address_space *,
+                       struct page *, struct page *);
 
+extern int migrate_prep(void);
+extern int migrate_vmas(struct mm_struct *mm,
+               const nodemask_t *from, const nodemask_t *to,
+               unsigned long flags);
 #else
+static inline int vma_migratable(struct vm_area_struct *vma)
+                                       { return 0; }
 
 static inline int isolate_lru_page(struct page *p, struct list_head *list)
                                        { return -ENOSYS; }
 static inline int putback_lru_pages(struct list_head *l) { return 0; }
-static inline int migrate_pages(struct list_head *l, struct list_head *t,
-       struct list_head *moved, struct list_head *failed) { return -ENOSYS; }
+static inline int migrate_pages(struct list_head *l, new_page_t x,
+               unsigned long private) { return -ENOSYS; }
 
 static inline int migrate_pages_to(struct list_head *pagelist,
                        struct vm_area_struct *vma, int dest) { return 0; }
 
 static inline int migrate_prep(void) { return -ENOSYS; }
 
+static inline int migrate_vmas(struct mm_struct *mm,
+               const nodemask_t *from, const nodemask_t *to,
+               unsigned long flags)
+{
+       return -ENOSYS;
+}
+
 /* Possible settings for the migrate_page() method in address_operations */
 #define migrate_page NULL
 #define fail_migrate_page NULL