]> git.kernelconcepts.de Git - karo-tx-linux.git/blob - arch/arm/mm/proc-macros.S
Merge tag 'renesas-fixes4-for-v4.13' of https://git.kernel.org/pub/scm/linux/kernel...
[karo-tx-linux.git] / arch / arm / mm / proc-macros.S
1 /*
2  * We need constants.h for:
3  *  VMA_VM_MM
4  *  VMA_VM_FLAGS
5  *  VM_EXEC
6  */
7 #include <asm/asm-offsets.h>
8 #include <asm/thread_info.h>
9
10 #ifdef CONFIG_CPU_V7M
11 #include <asm/v7m.h>
12 #endif
13
14 /*
15  * vma_vm_mm - get mm pointer from vma pointer (vma->vm_mm)
16  */
17         .macro  vma_vm_mm, rd, rn
18         ldr     \rd, [\rn, #VMA_VM_MM]
19         .endm
20
21 /*
22  * vma_vm_flags - get vma->vm_flags
23  */
24         .macro  vma_vm_flags, rd, rn
25         ldr     \rd, [\rn, #VMA_VM_FLAGS]
26         .endm
27
28 /*
29  * act_mm - get current->active_mm
30  */
31         .macro  act_mm, rd
32         bic     \rd, sp, #8128
33         bic     \rd, \rd, #63
34         ldr     \rd, [\rd, #TI_TASK]
35         .if (TSK_ACTIVE_MM > IMM12_MASK)
36         add     \rd, \rd, #TSK_ACTIVE_MM & ~IMM12_MASK
37         .endif
38         ldr     \rd, [\rd, #TSK_ACTIVE_MM & IMM12_MASK]
39         .endm
40
41 /*
42  * mmid - get context id from mm pointer (mm->context.id)
43  * note, this field is 64bit, so in big-endian the two words are swapped too.
44  */
45         .macro  mmid, rd, rn
46 #ifdef __ARMEB__
47         ldr     \rd, [\rn, #MM_CONTEXT_ID + 4 ]
48 #else
49         ldr     \rd, [\rn, #MM_CONTEXT_ID]
50 #endif
51         .endm
52
53 /*
54  * mask_asid - mask the ASID from the context ID
55  */
56         .macro  asid, rd, rn
57         and     \rd, \rn, #255
58         .endm
59
60         .macro  crval, clear, mmuset, ucset
61 #ifdef CONFIG_MMU
62         .word   \clear
63         .word   \mmuset
64 #else
65         .word   \clear
66         .word   \ucset
67 #endif
68         .endm
69
70 /*
71  * dcache_line_size - get the minimum D-cache line size from the CTR register
72  * on ARMv7.
73  */
74         .macro  dcache_line_size, reg, tmp
75 #ifdef CONFIG_CPU_V7M
76         movw    \tmp, #:lower16:BASEADDR_V7M_SCB + V7M_SCB_CTR
77         movt    \tmp, #:upper16:BASEADDR_V7M_SCB + V7M_SCB_CTR
78         ldr     \tmp, [\tmp]
79 #else
80         mrc     p15, 0, \tmp, c0, c0, 1         @ read ctr
81 #endif
82         lsr     \tmp, \tmp, #16
83         and     \tmp, \tmp, #0xf                @ cache line size encoding
84         mov     \reg, #4                        @ bytes per word
85         mov     \reg, \reg, lsl \tmp            @ actual cache line size
86         .endm
87
88 /*
89  * icache_line_size - get the minimum I-cache line size from the CTR register
90  * on ARMv7.
91  */
92         .macro  icache_line_size, reg, tmp
93 #ifdef CONFIG_CPU_V7M
94         movw    \tmp, #:lower16:BASEADDR_V7M_SCB + V7M_SCB_CTR
95         movt    \tmp, #:upper16:BASEADDR_V7M_SCB + V7M_SCB_CTR
96         ldr     \tmp, [\tmp]
97 #else
98         mrc     p15, 0, \tmp, c0, c0, 1         @ read ctr
99 #endif
100         and     \tmp, \tmp, #0xf                @ cache line size encoding
101         mov     \reg, #4                        @ bytes per word
102         mov     \reg, \reg, lsl \tmp            @ actual cache line size
103         .endm
104
105 /*
106  * Sanity check the PTE configuration for the code below - which makes
107  * certain assumptions about how these bits are laid out.
108  */
109 #ifdef CONFIG_MMU
110 #if L_PTE_SHARED != PTE_EXT_SHARED
111 #error PTE shared bit mismatch
112 #endif
113 #if !defined (CONFIG_ARM_LPAE) && \
114         (L_PTE_XN+L_PTE_USER+L_PTE_RDONLY+L_PTE_DIRTY+L_PTE_YOUNG+\
115          L_PTE_PRESENT) > L_PTE_SHARED
116 #error Invalid Linux PTE bit settings
117 #endif
118 #endif  /* CONFIG_MMU */
119
120 /*
121  * The ARMv6 and ARMv7 set_pte_ext translation function.
122  *
123  * Permission translation:
124  *  YUWD  APX AP1 AP0   SVC     User
125  *  0xxx   0   0   0    no acc  no acc
126  *  100x   1   0   1    r/o     no acc
127  *  10x0   1   0   1    r/o     no acc
128  *  1011   0   0   1    r/w     no acc
129  *  110x   1   1   1    r/o     r/o
130  *  11x0   1   1   1    r/o     r/o
131  *  1111   0   1   1    r/w     r/w
132  */
133         .macro  armv6_mt_table pfx
134 \pfx\()_mt_table:
135         .long   0x00                                            @ L_PTE_MT_UNCACHED
136         .long   PTE_EXT_TEX(1)                                  @ L_PTE_MT_BUFFERABLE
137         .long   PTE_CACHEABLE                                   @ L_PTE_MT_WRITETHROUGH
138         .long   PTE_CACHEABLE | PTE_BUFFERABLE                  @ L_PTE_MT_WRITEBACK
139         .long   PTE_BUFFERABLE                                  @ L_PTE_MT_DEV_SHARED
140         .long   0x00                                            @ unused
141         .long   0x00                                            @ L_PTE_MT_MINICACHE (not present)
142         .long   PTE_EXT_TEX(1) | PTE_CACHEABLE | PTE_BUFFERABLE @ L_PTE_MT_WRITEALLOC
143         .long   0x00                                            @ unused
144         .long   PTE_EXT_TEX(1)                                  @ L_PTE_MT_DEV_WC
145         .long   0x00                                            @ unused
146         .long   PTE_CACHEABLE | PTE_BUFFERABLE                  @ L_PTE_MT_DEV_CACHED
147         .long   PTE_EXT_TEX(2)                                  @ L_PTE_MT_DEV_NONSHARED
148         .long   0x00                                            @ unused
149         .long   0x00                                            @ unused
150         .long   PTE_CACHEABLE | PTE_BUFFERABLE | PTE_EXT_APX    @ L_PTE_MT_VECTORS
151         .endm
152
153         .macro  armv6_set_pte_ext pfx
154         str     r1, [r0], #2048                 @ linux version
155
156         bic     r3, r1, #0x000003fc
157         bic     r3, r3, #PTE_TYPE_MASK
158         orr     r3, r3, r2
159         orr     r3, r3, #PTE_EXT_AP0 | 2
160
161         adr     ip, \pfx\()_mt_table
162         and     r2, r1, #L_PTE_MT_MASK
163         ldr     r2, [ip, r2]
164
165         eor     r1, r1, #L_PTE_DIRTY
166         tst     r1, #L_PTE_DIRTY|L_PTE_RDONLY
167         orrne   r3, r3, #PTE_EXT_APX
168
169         tst     r1, #L_PTE_USER
170         orrne   r3, r3, #PTE_EXT_AP1
171         tstne   r3, #PTE_EXT_APX
172
173         @ user read-only -> kernel read-only
174         bicne   r3, r3, #PTE_EXT_AP0
175
176         tst     r1, #L_PTE_XN
177         orrne   r3, r3, #PTE_EXT_XN
178
179         eor     r3, r3, r2
180
181         tst     r1, #L_PTE_YOUNG
182         tstne   r1, #L_PTE_PRESENT
183         moveq   r3, #0
184         tstne   r1, #L_PTE_NONE
185         movne   r3, #0
186
187         str     r3, [r0]
188         mcr     p15, 0, r0, c7, c10, 1          @ flush_pte
189         .endm
190
191
192 /*
193  * The ARMv3, ARMv4 and ARMv5 set_pte_ext translation function,
194  * covering most CPUs except Xscale and Xscale 3.
195  *
196  * Permission translation:
197  *  YUWD   AP   SVC     User
198  *  0xxx  0x00  no acc  no acc
199  *  100x  0x00  r/o     no acc
200  *  10x0  0x00  r/o     no acc
201  *  1011  0x55  r/w     no acc
202  *  110x  0xaa  r/w     r/o
203  *  11x0  0xaa  r/w     r/o
204  *  1111  0xff  r/w     r/w
205  */
206         .macro  armv3_set_pte_ext wc_disable=1
207         str     r1, [r0], #2048                 @ linux version
208
209         eor     r3, r1, #L_PTE_PRESENT | L_PTE_YOUNG | L_PTE_DIRTY
210
211         bic     r2, r1, #PTE_SMALL_AP_MASK      @ keep C, B bits
212         bic     r2, r2, #PTE_TYPE_MASK
213         orr     r2, r2, #PTE_TYPE_SMALL
214
215         tst     r3, #L_PTE_USER                 @ user?
216         orrne   r2, r2, #PTE_SMALL_AP_URO_SRW
217
218         tst     r3, #L_PTE_RDONLY | L_PTE_DIRTY @ write and dirty?
219         orreq   r2, r2, #PTE_SMALL_AP_UNO_SRW
220
221         tst     r3, #L_PTE_PRESENT | L_PTE_YOUNG        @ present and young?
222         movne   r2, #0
223
224         .if     \wc_disable
225 #ifdef CONFIG_CPU_DCACHE_WRITETHROUGH
226         tst     r2, #PTE_CACHEABLE
227         bicne   r2, r2, #PTE_BUFFERABLE
228 #endif
229         .endif
230         str     r2, [r0]                @ hardware version
231         .endm
232
233
234 /*
235  * Xscale set_pte_ext translation, split into two halves to cope
236  * with work-arounds.  r3 must be preserved by code between these
237  * two macros.
238  *
239  * Permission translation:
240  *  YUWD  AP    SVC     User
241  *  0xxx  00    no acc  no acc
242  *  100x  00    r/o     no acc
243  *  10x0  00    r/o     no acc
244  *  1011  01    r/w     no acc
245  *  110x  10    r/w     r/o
246  *  11x0  10    r/w     r/o
247  *  1111  11    r/w     r/w
248  */
249         .macro  xscale_set_pte_ext_prologue
250         str     r1, [r0]                        @ linux version
251
252         eor     r3, r1, #L_PTE_PRESENT | L_PTE_YOUNG | L_PTE_DIRTY
253
254         bic     r2, r1, #PTE_SMALL_AP_MASK      @ keep C, B bits
255         orr     r2, r2, #PTE_TYPE_EXT           @ extended page
256
257         tst     r3, #L_PTE_USER                 @ user?
258         orrne   r2, r2, #PTE_EXT_AP_URO_SRW     @ yes -> user r/o, system r/w
259
260         tst     r3, #L_PTE_RDONLY | L_PTE_DIRTY @ write and dirty?
261         orreq   r2, r2, #PTE_EXT_AP_UNO_SRW     @ yes -> user n/a, system r/w
262                                                 @ combined with user -> user r/w
263         .endm
264
265         .macro  xscale_set_pte_ext_epilogue
266         tst     r3, #L_PTE_PRESENT | L_PTE_YOUNG        @ present and young?
267         movne   r2, #0                          @ no -> fault
268
269         str     r2, [r0, #2048]!                @ hardware version
270         mov     ip, #0
271         mcr     p15, 0, r0, c7, c10, 1          @ clean L1 D line
272         mcr     p15, 0, ip, c7, c10, 4          @ data write barrier
273         .endm
274
275 .macro define_processor_functions name:req, dabort:req, pabort:req, nommu=0, suspend=0
276         .type   \name\()_processor_functions, #object
277         .align 2
278 ENTRY(\name\()_processor_functions)
279         .word   \dabort
280         .word   \pabort
281         .word   cpu_\name\()_proc_init
282         .word   cpu_\name\()_proc_fin
283         .word   cpu_\name\()_reset
284         .word   cpu_\name\()_do_idle
285         .word   cpu_\name\()_dcache_clean_area
286         .word   cpu_\name\()_switch_mm
287
288         .if \nommu
289         .word   0
290         .else
291         .word   cpu_\name\()_set_pte_ext
292         .endif
293
294         .if \suspend
295         .word   cpu_\name\()_suspend_size
296 #ifdef CONFIG_ARM_CPU_SUSPEND
297         .word   cpu_\name\()_do_suspend
298         .word   cpu_\name\()_do_resume
299 #else
300         .word   0
301         .word   0
302 #endif
303         .else
304         .word   0
305         .word   0
306         .word   0
307         .endif
308
309         .size   \name\()_processor_functions, . - \name\()_processor_functions
310 .endm
311
312 .macro define_cache_functions name:req
313         .align 2
314         .type   \name\()_cache_fns, #object
315 ENTRY(\name\()_cache_fns)
316         .long   \name\()_flush_icache_all
317         .long   \name\()_flush_kern_cache_all
318         .long   \name\()_flush_kern_cache_louis
319         .long   \name\()_flush_user_cache_all
320         .long   \name\()_flush_user_cache_range
321         .long   \name\()_coherent_kern_range
322         .long   \name\()_coherent_user_range
323         .long   \name\()_flush_kern_dcache_area
324         .long   \name\()_dma_map_area
325         .long   \name\()_dma_unmap_area
326         .long   \name\()_dma_flush_range
327         .size   \name\()_cache_fns, . - \name\()_cache_fns
328 .endm
329
330 .macro define_tlb_functions name:req, flags_up:req, flags_smp
331         .type   \name\()_tlb_fns, #object
332 ENTRY(\name\()_tlb_fns)
333         .long   \name\()_flush_user_tlb_range
334         .long   \name\()_flush_kern_tlb_range
335         .ifnb \flags_smp
336                 ALT_SMP(.long   \flags_smp )
337                 ALT_UP(.long    \flags_up )
338         .else
339                 .long   \flags_up
340         .endif
341         .size   \name\()_tlb_fns, . - \name\()_tlb_fns
342 .endm
343
344 .macro globl_equ x, y
345         .globl  \x
346         .equ    \x, \y
347 .endm
348
349 .macro  initfn, func, base
350         .long   \func - \base
351 .endm
352
353         /*
354          * Macro to calculate the log2 size for the protection region
355          * registers. This calculates rd = log2(size) - 1.  tmp must
356          * not be the same register as rd.
357          */
358 .macro  pr_sz, rd, size, tmp
359         mov     \tmp, \size, lsr #12
360         mov     \rd, #11
361 1:      movs    \tmp, \tmp, lsr #1
362         addne   \rd, \rd, #1
363         bne     1b
364 .endm
365
366         /*
367          * Macro to generate a protection region register value
368          * given a pre-masked address, size, and enable bit.
369          * Corrupts size.
370          */
371 .macro  pr_val, dest, addr, size, enable
372         pr_sz   \dest, \size, \size             @ calculate log2(size) - 1
373         orr     \dest, \addr, \dest, lsl #1     @ mask in the region size
374         orr     \dest, \dest, \enable
375 .endm