]> git.kernelconcepts.de Git - karo-tx-linux.git/commitdiff
[PATCH] sched: sched_cacheflush is now unused
authorRalf Baechle <ralf@linux-mips.org>
Thu, 19 Jul 2007 19:28:35 +0000 (21:28 +0200)
committerIngo Molnar <mingo@elte.hu>
Thu, 19 Jul 2007 19:28:35 +0000 (21:28 +0200)
Since Ingo's recent scheduler rewrite which was merged as commit
0437e109e1841607f2988891eaa36c531c6aa6ac sched_cacheflush is unused.

Signed-off-by: Ralf Baechle <ralf@linux-mips.org>
Signed-off-by: Ingo Molnar <mingo@elte.hu>
16 files changed:
arch/ia64/kernel/setup.c
include/asm-alpha/system.h
include/asm-arm/system.h
include/asm-arm26/system.h
include/asm-i386/system.h
include/asm-ia64/system.h
include/asm-m32r/system.h
include/asm-mips/system.h
include/asm-parisc/system.h
include/asm-powerpc/system.h
include/asm-ppc/system.h
include/asm-s390/system.h
include/asm-sh/system.h
include/asm-sparc/system.h
include/asm-sparc64/system.h
include/asm-x86_64/system.h

index 4d9864cc92c90bb0fe7d31033db07bb76fbe84e4..cf06fe799041d3ed269c849970df9d121283a7af 100644 (file)
@@ -980,15 +980,6 @@ cpu_init (void)
        pm_idle = default_idle;
 }
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- */
-void sched_cacheflush(void)
-{
-       ia64_sal_cache_flush(3);
-}
-
 void __init
 check_bugs (void)
 {
index cf1021a97b2ea947969f3f3344b0261e907e87ba..620c4d86cbf48d50ae8b254fc147f80fa199b1e7 100644 (file)
@@ -139,16 +139,6 @@ extern void halt(void) __attribute__((noreturn));
 struct task_struct;
 extern struct task_struct *alpha_switch_to(unsigned long, struct task_struct*);
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 #define imb() \
 __asm__ __volatile__ ("call_pal %0 #imb" : : "i" (PAL_imb) : "memory")
 
index 6f8e6a69dc5f4334391dc03ff6ef53b3d1bd032a..94ea8c6dc1a4485014fd9bb8fbd7c29078e69696 100644 (file)
@@ -254,16 +254,6 @@ do {                                                                       \
        last = __switch_to(prev,task_thread_info(prev), task_thread_info(next));        \
 } while (0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 #if defined(CONFIG_CPU_SA1100) || defined(CONFIG_CPU_SA110)
 /*
  * On the StrongARM, "swp" is terminally broken since it bypasses the
index 4703593b3bb52212c5118a4b113380960784c861..e09da5ff1f54d2198fa5dbbbc94b86fe25510a8e 100644 (file)
@@ -109,16 +109,6 @@ do {                                                                       \
        last = __switch_to(prev,task_thread_info(prev),task_thread_info(next)); \
 } while (0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 /*
  * Save the current interrupt enable state & disable IRQs
  */
index 94ed3686a5f30a79ecd5085262ceab745019f7ba..609756c616769194763fb3b17dbf046ca3c25059 100644 (file)
@@ -310,15 +310,6 @@ void enable_hlt(void);
 extern int es7000_plat;
 void cpu_idle_wait(void);
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible:
- */
-static inline void sched_cacheflush(void)
-{
-       wbinvd();
-}
-
 extern unsigned long arch_align_stack(unsigned long sp);
 extern void free_init_pages(char *what, unsigned long begin, unsigned long end);
 
index 384fbf7f2a0fe9de8a61f91384a1c6288fd1d15b..91bb8e00066c76b5a59c00fd3f8a4649ba6e7fb7 100644 (file)
@@ -259,7 +259,6 @@ extern void ia64_load_extra (struct task_struct *task);
 #define ia64_platform_is(x) (strcmp(x, platform_name) == 0)
 
 void cpu_idle_wait(void);
-void sched_cacheflush(void);
 
 #define arch_align_stack(x) (x)
 
index 8ee73d3f316d1d7174f83169a704b0ea6032133a..2365de5c29553d5d6c3dca5679370c62c6b64c27 100644 (file)
        ); \
 } while(0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 /* Interrupt Control */
 #if !defined(CONFIG_CHIP_M32102) && !defined(CONFIG_CHIP_M32104)
 #define local_irq_enable() \
index 46bdb3f566f92b209062628b1b7dc854c587092e..76339165bc20e90e84089f8da7fb795f9b9b00c2 100644 (file)
@@ -71,16 +71,6 @@ do {                                                                 \
                write_c0_userlocal(task_thread_info(current)->tp_value);\
 } while(0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 static inline unsigned long __xchg_u32(volatile int * m, unsigned int val)
 {
        __u32 retval;
index 21fbfc5afd027a2ca6dc5e6ea7ad4415cfe03d1f..ee80c920b464e549848664794ac742a9e4714fd9 100644 (file)
@@ -48,17 +48,6 @@ extern struct task_struct *_switch_to(struct task_struct *, struct task_struct *
        (last) = _switch_to(prev, next);                        \
 } while(0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
-
 /* interrupt control */
 #define local_save_flags(x)    __asm__ __volatile__("ssm 0, %0" : "=r" (x) : : "memory")
 #define local_irq_disable()    __asm__ __volatile__("rsm %0,%%r0\n" : : "i" (PSW_I) : "memory" )
index 32aa42b748bedbe90200d27ae1003f467c3ef5db..41520b7a7b76006e2f58025874da39f176d42562 100644 (file)
@@ -184,16 +184,6 @@ struct thread_struct;
 extern struct task_struct *_switch(struct thread_struct *prev,
                                   struct thread_struct *next);
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 extern unsigned int rtas_data;
 extern int mem_init_done;      /* set on boot once kmalloc can be called */
 extern unsigned long memory_limit;
index d84a3cf4d033682b48dadecd7249b13c8b6419b9..f1311a8f310fe9e3c75c28a1d47644c2f1db3465 100644 (file)
@@ -129,16 +129,6 @@ extern struct task_struct *__switch_to(struct task_struct *,
        struct task_struct *);
 #define switch_to(prev, next, last)    ((last) = __switch_to((prev), (next)))
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 struct thread_struct;
 extern struct task_struct *_switch(struct thread_struct *prev,
                                   struct thread_struct *next);
index bbe137c3ed6980423e74f24e548ad95f8e5ac000..64a3cd05cae1abb0a764665ef1110e5ae6567739 100644 (file)
@@ -97,16 +97,6 @@ static inline void restore_access_regs(unsigned int *acrs)
        prev = __switch_to(prev,next);                                       \
 } while (0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 #ifdef CONFIG_VIRT_CPU_ACCOUNTING
 extern void account_vtime(struct task_struct *);
 extern void account_tick_vtime(struct task_struct *);
index 7c75045ae22b419da64e094f53bf35feb79484a0..24504253720529433225b41abe9fe9647f449492 100644 (file)
@@ -64,16 +64,6 @@ struct task_struct *__switch_to(struct task_struct *prev,
        last = __last;                                                  \
 } while (0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 #ifdef CONFIG_CPU_SH4A
 #define __icbi()                       \
 {                                      \
index 8b4e23b3bb38477557905b504d8e3ba5dfde0fc8..d1a2572e3f553d8a58da30e10b0f0ac84da477af 100644 (file)
@@ -164,16 +164,6 @@ extern void fpsave(unsigned long *fpregs, unsigned long *fsr,
          "o0", "o1", "o2", "o3",                   "o7");      \
        } while(0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 /*
  * Changing the IRQ level on the Sparc.
  */
index 8ba380ec6daa3216de3bd8cfcef6757d93ff1458..409067408eec07504db76532dd75b213c51d5177 100644 (file)
@@ -204,16 +204,6 @@ do {       if (test_thread_flag(TIF_PERFCTR)) {                            \
        }                                                               \
 } while(0)
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- *
- * TODO: fill this in!
- */
-static inline void sched_cacheflush(void)
-{
-}
-
 static inline unsigned long xchg32(__volatile__ unsigned int *m, unsigned int val)
 {
        unsigned long tmp1, tmp2;
index ead9f9a56234243ab0413b73a048de253f167695..e4f246d62c46bf57c6218df7738ca17dc6356671 100644 (file)
@@ -111,15 +111,6 @@ static inline void write_cr4(unsigned long val)
 #define wbinvd() \
        __asm__ __volatile__ ("wbinvd": : :"memory");
 
-/*
- * On SMP systems, when the scheduler does migration-cost autodetection,
- * it needs a way to flush as much of the CPU's caches as possible.
- */
-static inline void sched_cacheflush(void)
-{
-       wbinvd();
-}
-
 #endif /* __KERNEL__ */
 
 #define nop() __asm__ __volatile__ ("nop")