]> git.kernelconcepts.de Git - karo-tx-uboot.git/blob - arch/nios2/cpu/start.S
Merge branch 'master' of git://www.denx.de/git/u-boot-imx
[karo-tx-uboot.git] / arch / nios2 / cpu / start.S
1 /*
2  * (C) Copyright 2004, Psyent Corporation <www.psyent.com>
3  * Scott McNutt <smcnutt@psyent.com>
4  *
5  * SPDX-License-Identifier:     GPL-2.0+
6  */
7
8 #include <asm-offsets.h>
9 #include <config.h>
10 #include <version.h>
11
12 /*************************************************************************
13  * RESTART
14  ************************************************************************/
15
16         .text
17         .global _start
18
19 _start:
20         wrctl   status, r0              /* Disable interrupts */
21         /* ICACHE INIT -- only the icache line at the reset address
22          * is invalidated at reset. So the init must stay within
23          * the cache line size (8 words). If GERMS is used, we'll
24          * just be invalidating the cache a second time. If cache
25          * is not implemented initi behaves as nop.
26          */
27         ori     r4, r0, %lo(CONFIG_SYS_ICACHELINE_SIZE)
28         movhi   r5, %hi(CONFIG_SYS_ICACHE_SIZE)
29         ori     r5, r5, %lo(CONFIG_SYS_ICACHE_SIZE)
30 0:      initi   r5
31         sub     r5, r5, r4
32         bgt     r5, r0, 0b
33         br      _except_end     /* Skip the tramp */
34
35         /* EXCEPTION TRAMPOLINE -- the following gets copied
36          * to the exception address (below), but is otherwise at the
37          * default exception vector offset (0x0020).
38          */
39 _except_start:
40         movhi   et, %hi(_exception)
41         ori     et, et, %lo(_exception)
42         jmp     et
43 _except_end:
44
45         /* INTERRUPTS -- for now, all interrupts masked and globally
46          * disabled.
47          */
48         wrctl   ienable, r0             /* All disabled */
49
50         /* DCACHE INIT -- if dcache not implemented, initd behaves as
51          * nop.
52          */
53         movhi   r4, %hi(CONFIG_SYS_DCACHELINE_SIZE)
54         ori     r4, r4, %lo(CONFIG_SYS_DCACHELINE_SIZE)
55         movhi   r5, %hi(CONFIG_SYS_DCACHE_SIZE)
56         ori     r5, r5, %lo(CONFIG_SYS_DCACHE_SIZE)
57         mov     r6, r0
58 1:      initd   0(r6)
59         add     r6, r6, r4
60         bltu    r6, r5, 1b
61
62         /* RELOCATE CODE, DATA & COMMAND TABLE -- the following code
63          * assumes code, data and the command table are all
64          * contiguous. This lets us relocate everything as a single
65          * block. Make sure the linker script matches this ;-)
66          */
67         nextpc  r4
68 _cur:   movhi   r5, %hi(_cur - _start)
69         ori     r5, r5, %lo(_cur - _start)
70         sub     r4, r4, r5              /* r4 <- cur _start */
71         mov     r8, r4
72         movhi   r5, %hi(_start)
73         ori     r5, r5, %lo(_start)     /* r5 <- linked _start */
74         beq     r4, r5, 3f
75
76         movhi   r6, %hi(_edata)
77         ori     r6, r6, %lo(_edata)
78 2:      ldwio   r7, 0(r4)
79         addi    r4, r4, 4
80         stwio   r7, 0(r5)
81         addi    r5, r5, 4
82         bne     r5, r6, 2b
83 3:
84
85         /* ZERO BSS/SBSS -- bss and sbss are assumed to be adjacent
86          * and between __bss_start and __bss_end.
87          */
88          movhi  r5, %hi(__bss_start)
89          ori    r5, r5, %lo(__bss_start)
90          movhi  r6, %hi(__bss_end)
91          ori    r6, r6, %lo(__bss_end)
92          beq    r5, r6, 5f
93
94 4:      stwio   r0, 0(r5)
95          addi   r5, r5, 4
96          bne    r5, r6, 4b
97 5:
98
99         /* JUMP TO RELOC ADDR */
100         movhi   r4, %hi(_reloc)
101         ori     r4, r4, %lo(_reloc)
102         jmp     r4
103 _reloc:
104
105         /* COPY EXCEPTION TRAMPOLINE -- copy the tramp to the
106          * exception address. Define CONFIG_ROM_STUBS to prevent
107          * the copy (e.g. exception in flash or in other
108          * softare/firmware component).
109          */
110 #if !defined(CONFIG_ROM_STUBS)
111         movhi   r4, %hi(_except_start)
112         ori     r4, r4, %lo(_except_start)
113         movhi   r5, %hi(_except_end)
114         ori     r5, r5, %lo(_except_end)
115         movhi   r6, %hi(CONFIG_SYS_EXCEPTION_ADDR)
116         ori     r6, r6, %lo(CONFIG_SYS_EXCEPTION_ADDR)
117         beq     r4, r6, 7f      /* Skip if at proper addr */
118
119 6:      ldwio   r7, 0(r4)
120         stwio   r7, 0(r6)
121         addi    r4, r4, 4
122         addi    r6, r6, 4
123         bne     r4, r5, 6b
124 7:
125 #endif
126
127         /* STACK INIT -- zero top two words for call back chain.
128          */
129         movhi   sp, %hi(CONFIG_SYS_INIT_SP)
130         ori     sp, sp, %lo(CONFIG_SYS_INIT_SP)
131         addi    sp, sp, -8
132         stw     r0, 0(sp)
133         stw     r0, 4(sp)
134         mov     fp, sp
135
136         /*
137          * Call board_init_f -- never returns
138          */
139         mov     r4, r0
140         movhi   r2, %hi(board_init_f@h)
141         ori     r2, r2, %lo(board_init_f@h)
142         callr   r2
143
144         /* NEVER RETURNS -- but branch to the _start just
145          * in case ;-)
146          */
147         br      _start
148
149
150
151 /*
152  * relocate_code -- Nios2 handles the relocation above. But
153  * the generic board code monkeys with the heap, stack, etc.
154  * (it makes some assumptions that may not be appropriate
155  * for Nios). Nevertheless, we capitulate here.
156  *
157  * We'll call the board_init_r from here since this isn't
158  * supposed to return.
159  *
160  * void relocate_code (ulong sp, gd_t *global_data,
161  *                      ulong reloc_addr)
162  *                      __attribute__ ((noreturn));
163  */
164         .text
165         .global relocate_code
166
167 relocate_code:
168         mov     sp, r4          /* Set the new sp */
169         mov     r4, r5
170         movhi   r8, %hi(board_init_r@h)
171         ori     r8, r8, %lo(board_init_r@h)
172         callr   r8
173         ret
174
175 /*
176  * dly_clks -- Nios2 (like Nios1) doesn't have a timebase in
177  * the core. For simple delay loops, we do our best by counting
178  * instruction cycles.
179  *
180  * Instruction performance varies based on the core. For cores
181  * with icache and static/dynamic branch prediction (II/f, II/s):
182  *
183  *      Normal ALU (e.g. add, cmp, etc):        1 cycle
184  *      Branch (correctly predicted, taken):    2 cycles
185  *      Negative offset is predicted (II/s).
186  *
187  * For cores without icache and no branch prediction (II/e):
188  *
189  *      Normal ALU (e.g. add, cmp, etc):        6 cycles
190  *      Branch (no prediction):                 6 cycles
191  *
192  * For simplicity, if an instruction cache is implemented we
193  * assume II/f or II/s. Otherwise, we use the II/e.
194  *
195  */
196         .globl dly_clks
197
198 dly_clks:
199
200 #if (CONFIG_SYS_ICACHE_SIZE > 0)
201         subi    r4, r4, 3               /* 3 clocks/loop        */
202 #else
203         subi    r4, r4, 12              /* 12 clocks/loop       */
204 #endif
205         bge     r4, r0, dly_clks
206         ret
207
208         .data
209         .globl  version_string
210
211 version_string:
212         .ascii U_BOOT_VERSION_STRING, "\0"