]> git.kernelconcepts.de Git - karo-tx-uboot.git/blob - arch/arm/include/asm/macro.h
5f7c7e050145d626fc65bfb3b75f973865a3fbba
[karo-tx-uboot.git] / arch / arm / include / asm / macro.h
1 /*
2  * include/asm-arm/macro.h
3  *
4  * Copyright (C) 2009 Jean-Christophe PLAGNIOL-VILLARD <plagnioj@jcrosoft.com>
5  *
6  * SPDX-License-Identifier:     GPL-2.0+
7  */
8
9 #ifndef __ASM_ARM_MACRO_H__
10 #define __ASM_ARM_MACRO_H__
11 #ifdef __ASSEMBLY__
12
13 /*
14  * These macros provide a convenient way to write 8, 16 and 32 bit data
15  * to any address.
16  * Registers r4 and r5 are used, any data in these registers are
17  * overwritten by the macros.
18  * The macros are valid for any ARM architecture, they do not implement
19  * any memory barriers so caution is recommended when using these when the
20  * caches are enabled or on a multi-core system.
21  */
22
23 .macro  write32, addr, data
24         ldr     r4, =\addr
25         ldr     r5, =\data
26         str     r5, [r4]
27 .endm
28
29 .macro  write16, addr, data
30         ldr     r4, =\addr
31         ldrh    r5, =\data
32         strh    r5, [r4]
33 .endm
34
35 .macro  write8, addr, data
36         ldr     r4, =\addr
37         ldrb    r5, =\data
38         strb    r5, [r4]
39 .endm
40
41 /*
42  * This macro generates a loop that can be used for delays in the code.
43  * Register r4 is used, any data in this register is overwritten by the
44  * macro.
45  * The macro is valid for any ARM architeture. The actual time spent in the
46  * loop will vary from CPU to CPU though.
47  */
48
49 .macro  wait_timer, time
50         ldr     r4, =\time
51 1:
52         nop
53         subs    r4, r4, #1
54         bcs     1b
55 .endm
56
57 #ifdef CONFIG_ARM64
58 /*
59  * Register aliases.
60  */
61 lr      .req    x30
62
63 /*
64  * Branch according to exception level
65  */
66 .macro  switch_el, xreg, el3_label, el2_label, el1_label
67         mrs     \xreg, CurrentEL
68         cmp     \xreg, 0xc
69         b.eq    \el3_label
70         cmp     \xreg, 0x8
71         b.eq    \el2_label
72         cmp     \xreg, 0x4
73         b.eq    \el1_label
74 .endm
75
76 /*
77  * Branch if current processor is a Cortex-A57 core.
78  */
79 .macro  branch_if_a57_core, xreg, a57_label
80         mrs     \xreg, midr_el1
81         lsr     \xreg, \xreg, #4
82         and     \xreg, \xreg, #0x00000FFF
83         cmp     \xreg, #0xD07           /* Cortex-A57 MPCore processor. */
84         b.eq    \a57_label
85 .endm
86
87 /*
88  * Branch if current processor is a Cortex-A53 core.
89  */
90 .macro  branch_if_a53_core, xreg, a53_label
91         mrs     \xreg, midr_el1
92         lsr     \xreg, \xreg, #4
93         and     \xreg, \xreg, #0x00000FFF
94         cmp     \xreg, #0xD03           /* Cortex-A53 MPCore processor. */
95         b.eq    \a53_label
96 .endm
97
98 /*
99  * Branch if current processor is a slave,
100  * choose processor with all zero affinity value as the master.
101  */
102 .macro  branch_if_slave, xreg, slave_label
103         mrs     \xreg, mpidr_el1
104         tst     \xreg, #0xff            /* Test Affinity 0 */
105         b.ne    \slave_label
106         lsr     \xreg, \xreg, #8
107         tst     \xreg, #0xff            /* Test Affinity 1 */
108         b.ne    \slave_label
109         lsr     \xreg, \xreg, #8
110         tst     \xreg, #0xff            /* Test Affinity 2 */
111         b.ne    \slave_label
112         lsr     \xreg, \xreg, #16
113         tst     \xreg, #0xff            /* Test Affinity 3 */
114         b.ne    \slave_label
115 .endm
116
117 /*
118  * Branch if current processor is a master,
119  * choose processor with all zero affinity value as the master.
120  */
121 .macro  branch_if_master, xreg1, xreg2, master_label
122         mrs     \xreg1, mpidr_el1
123         lsr     \xreg2, \xreg1, #32
124         lsl     \xreg1, \xreg1, #40
125         lsr     \xreg1, \xreg1, #40
126         orr     \xreg1, \xreg1, \xreg2
127         cbz     \xreg1, \master_label
128 .endm
129
130 .macro armv8_switch_to_el2_m, xreg1
131         /* 64bit EL2 | HCE | SMD | RES1 (Bits[5:4]) | Non-secure EL0/EL1 */
132         mov     \xreg1, #0x5b1
133         msr     scr_el3, \xreg1
134         msr     cptr_el3, xzr           /* Disable coprocessor traps to EL3 */
135         mov     \xreg1, #0x33ff
136         msr     cptr_el2, \xreg1        /* Disable coprocessor traps to EL2 */
137
138         /* Initialize SCTLR_EL2
139          *
140          * setting RES1 bits (29,28,23,22,18,16,11,5,4) to 1
141          * and RES0 bits (31,30,27,26,24,21,20,17,15-13,10-6) +
142          * EE,WXN,I,SA,C,A,M to 0
143          */
144         mov     \xreg1, #0x0830
145         movk    \xreg1, #0x30C5, lsl #16
146         msr     sctlr_el2, \xreg1
147
148         /* Return to the EL2_SP2 mode from EL3 */
149         mov     \xreg1, sp
150         msr     sp_el2, \xreg1          /* Migrate SP */
151         mrs     \xreg1, vbar_el3
152         msr     vbar_el2, \xreg1        /* Migrate VBAR */
153         mov     \xreg1, #0x3c9
154         msr     spsr_el3, \xreg1        /* EL2_SP2 | D | A | I | F */
155         msr     elr_el3, lr
156         eret
157 .endm
158
159 .macro armv8_switch_to_el1_m, xreg1, xreg2
160         /* Initialize Generic Timers */
161         mrs     \xreg1, cnthctl_el2
162         orr     \xreg1, \xreg1, #0x3    /* Enable EL1 access to timers */
163         msr     cnthctl_el2, \xreg1
164         msr     cntvoff_el2, xzr
165
166         /* Initilize MPID/MPIDR registers */
167         mrs     \xreg1, midr_el1
168         mrs     \xreg2, mpidr_el1
169         msr     vpidr_el2, \xreg1
170         msr     vmpidr_el2, \xreg2
171
172         /* Disable coprocessor traps */
173         mov     \xreg1, #0x33ff
174         msr     cptr_el2, \xreg1        /* Disable coprocessor traps to EL2 */
175         msr     hstr_el2, xzr           /* Disable coprocessor traps to EL2 */
176         mov     \xreg1, #3 << 20
177         msr     cpacr_el1, \xreg1       /* Enable FP/SIMD at EL1 */
178
179         /* Initialize HCR_EL2 */
180         mov     \xreg1, #(1 << 31)              /* 64bit EL1 */
181         orr     \xreg1, \xreg1, #(1 << 29)      /* Disable HVC */
182         msr     hcr_el2, \xreg1
183
184         /* SCTLR_EL1 initialization
185          *
186          * setting RES1 bits (29,28,23,22,20,11) to 1
187          * and RES0 bits (31,30,27,21,17,13,10,6) +
188          * UCI,EE,EOE,WXN,nTWE,nTWI,UCT,DZE,I,UMA,SED,ITD,
189          * CP15BEN,SA0,SA,C,A,M to 0
190          */
191         mov     \xreg1, #0x0800
192         movk    \xreg1, #0x30d0, lsl #16
193         msr     sctlr_el1, \xreg1
194
195         /* Return to the EL1_SP1 mode from EL2 */
196         mov     \xreg1, sp
197         msr     sp_el1, \xreg1          /* Migrate SP */
198         mrs     \xreg1, vbar_el2
199         msr     vbar_el1, \xreg1        /* Migrate VBAR */
200         mov     \xreg1, #0x3c5
201         msr     spsr_el2, \xreg1        /* EL1_SP1 | D | A | I | F */
202         msr     elr_el2, lr
203         eret
204 .endm
205
206 #if defined(CONFIG_GICV3)
207 .macro gic_wait_for_interrupt_m xreg1
208 0 :     wfi
209         mrs     \xreg1, ICC_IAR1_EL1
210         msr     ICC_EOIR1_EL1, \xreg1
211         cbnz    \xreg1, 0b
212 .endm
213 #elif defined(CONFIG_GICV2)
214 .macro gic_wait_for_interrupt_m xreg1, wreg2
215 0 :     wfi
216         ldr     \wreg2, [\xreg1, GICC_AIAR]
217         str     \wreg2, [\xreg1, GICC_AEOIR]
218         and     \wreg2, \wreg2, #0x3ff
219         cbnz    \wreg2, 0b
220 .endm
221 #endif
222
223 #endif /* CONFIG_ARM64 */
224
225 #endif /* __ASSEMBLY__ */
226 #endif /* __ASM_ARM_MACRO_H__ */