]> git.kernelconcepts.de Git - karo-tx-linux.git/blob - include/asm-powerpc/io.h
[POWERPC] iseries: eliminate a couple of warnings
[karo-tx-linux.git] / include / asm-powerpc / io.h
1 #ifndef _ASM_POWERPC_IO_H
2 #define _ASM_POWERPC_IO_H
3 #ifdef __KERNEL__
4
5 /* 
6  * This program is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU General Public License
8  * as published by the Free Software Foundation; either version
9  * 2 of the License, or (at your option) any later version.
10  */
11
12 /* Check of existence of legacy devices */
13 extern int check_legacy_ioport(unsigned long base_port);
14
15 #ifndef CONFIG_PPC64
16 #include <asm-ppc/io.h>
17 #else
18
19 #include <linux/compiler.h>
20 #include <asm/page.h>
21 #include <asm/byteorder.h>
22 #include <asm/paca.h>
23 #ifdef CONFIG_PPC_ISERIES 
24 #include <asm/iseries/iseries_io.h>
25 #endif  
26 #include <asm/synch.h>
27 #include <asm/delay.h>
28
29 #include <asm-generic/iomap.h>
30
31 #define SIO_CONFIG_RA   0x398
32 #define SIO_CONFIG_RD   0x399
33
34 #define SLOW_DOWN_IO
35
36 extern unsigned long isa_io_base;
37 extern unsigned long pci_io_base;
38
39 #ifdef CONFIG_PPC_ISERIES
40 /* __raw_* accessors aren't supported on iSeries */
41 #define __raw_readb(addr)       { BUG(); 0; }
42 #define __raw_readw(addr)       { BUG(); 0; }
43 #define __raw_readl(addr)       { BUG(); 0; }
44 #define __raw_readq(addr)       { BUG(); 0; }
45 #define __raw_writeb(v, addr)   { BUG(); 0; }
46 #define __raw_writew(v, addr)   { BUG(); 0; }
47 #define __raw_writel(v, addr)   { BUG(); 0; }
48 #define __raw_writeq(v, addr)   { BUG(); 0; }
49 #define readb(addr)             iSeries_Read_Byte(addr)
50 #define readw(addr)             iSeries_Read_Word(addr)
51 #define readl(addr)             iSeries_Read_Long(addr)
52 #define writeb(data, addr)      iSeries_Write_Byte((data),(addr))
53 #define writew(data, addr)      iSeries_Write_Word((data),(addr))
54 #define writel(data, addr)      iSeries_Write_Long((data),(addr))
55 #define memset_io(a,b,c)        iSeries_memset_io((a),(b),(c))
56 #define memcpy_fromio(a,b,c)    iSeries_memcpy_fromio((a), (b), (c))
57 #define memcpy_toio(a,b,c)      iSeries_memcpy_toio((a), (b), (c))
58
59 #define inb(addr)               readb(((void __iomem *)(long)(addr)))
60 #define inw(addr)               readw(((void __iomem *)(long)(addr)))
61 #define inl(addr)               readl(((void __iomem *)(long)(addr)))
62 #define outb(data,addr)         writeb(data,((void __iomem *)(long)(addr)))
63 #define outw(data,addr)         writew(data,((void __iomem *)(long)(addr)))
64 #define outl(data,addr)         writel(data,((void __iomem *)(long)(addr)))
65 /*
66  * The *_ns versions below don't do byte-swapping.
67  * Neither do the standard versions now, these are just here
68  * for older code.
69  */
70 #define insb(port, buf, ns)     _insb((u8 __iomem *)((port)+pci_io_base), (buf), (ns))
71 #define insw(port, buf, ns)     _insw_ns((u16 __iomem *)((port)+pci_io_base), (buf), (ns))
72 #define insl(port, buf, nl)     _insl_ns((u32 __iomem *)((port)+pci_io_base), (buf), (nl))
73
74 #else
75
76 static inline unsigned char __raw_readb(const volatile void __iomem *addr)
77 {
78         return *(volatile unsigned char __force *)addr;
79 }
80 static inline unsigned short __raw_readw(const volatile void __iomem *addr)
81 {
82         return *(volatile unsigned short __force *)addr;
83 }
84 static inline unsigned int __raw_readl(const volatile void __iomem *addr)
85 {
86         return *(volatile unsigned int __force *)addr;
87 }
88 static inline unsigned long __raw_readq(const volatile void __iomem *addr)
89 {
90         return *(volatile unsigned long __force *)addr;
91 }
92 static inline void __raw_writeb(unsigned char v, volatile void __iomem *addr)
93 {
94         *(volatile unsigned char __force *)addr = v;
95 }
96 static inline void __raw_writew(unsigned short v, volatile void __iomem *addr)
97 {
98         *(volatile unsigned short __force *)addr = v;
99 }
100 static inline void __raw_writel(unsigned int v, volatile void __iomem *addr)
101 {
102         *(volatile unsigned int __force *)addr = v;
103 }
104 static inline void __raw_writeq(unsigned long v, volatile void __iomem *addr)
105 {
106         *(volatile unsigned long __force *)addr = v;
107 }
108 #define readb(addr)             eeh_readb(addr)
109 #define readw(addr)             eeh_readw(addr)
110 #define readl(addr)             eeh_readl(addr)
111 #define readq(addr)             eeh_readq(addr)
112 #define writeb(data, addr)      eeh_writeb((data), (addr))
113 #define writew(data, addr)      eeh_writew((data), (addr))
114 #define writel(data, addr)      eeh_writel((data), (addr))
115 #define writeq(data, addr)      eeh_writeq((data), (addr))
116 #define memset_io(a,b,c)        eeh_memset_io((a),(b),(c))
117 #define memcpy_fromio(a,b,c)    eeh_memcpy_fromio((a),(b),(c))
118 #define memcpy_toio(a,b,c)      eeh_memcpy_toio((a),(b),(c))
119 #define inb(port)               eeh_inb((unsigned long)port)
120 #define outb(val, port)         eeh_outb(val, (unsigned long)port)
121 #define inw(port)               eeh_inw((unsigned long)port)
122 #define outw(val, port)         eeh_outw(val, (unsigned long)port)
123 #define inl(port)               eeh_inl((unsigned long)port)
124 #define outl(val, port)         eeh_outl(val, (unsigned long)port)
125
126 /*
127  * The insw/outsw/insl/outsl macros don't do byte-swapping.
128  * They are only used in practice for transferring buffers which
129  * are arrays of bytes, and byte-swapping is not appropriate in
130  * that case.  - paulus */
131 #define insb(port, buf, ns)     eeh_insb((port), (buf), (ns))
132 #define insw(port, buf, ns)     eeh_insw_ns((port), (buf), (ns))
133 #define insl(port, buf, nl)     eeh_insl_ns((port), (buf), (nl))
134
135 #endif
136
137 #define outsb(port, buf, ns)  _outsb((u8 __iomem *)((port)+pci_io_base), (buf), (ns))
138 #define outsw(port, buf, ns)  _outsw_ns((u16 __iomem *)((port)+pci_io_base), (buf), (ns))
139 #define outsl(port, buf, nl)  _outsl_ns((u32 __iomem *)((port)+pci_io_base), (buf), (nl))
140
141 #define readb_relaxed(addr) readb(addr)
142 #define readw_relaxed(addr) readw(addr)
143 #define readl_relaxed(addr) readl(addr)
144 #define readq_relaxed(addr) readq(addr)
145
146 extern void _insb(volatile u8 __iomem *port, void *buf, long count);
147 extern void _outsb(volatile u8 __iomem *port, const void *buf, long count);
148 extern void _insw_ns(volatile u16 __iomem *port, void *buf, long count);
149 extern void _outsw_ns(volatile u16 __iomem *port, const void *buf, long count);
150 extern void _insl_ns(volatile u32 __iomem *port, void *buf, long count);
151 extern void _outsl_ns(volatile u32 __iomem *port, const void *buf, long count);
152
153 static inline void mmiowb(void)
154 {
155         __asm__ __volatile__ ("sync" : : : "memory");
156         get_paca()->io_sync = 0;
157 }
158
159 /*
160  * output pause versions need a delay at least for the
161  * w83c105 ide controller in a p610.
162  */
163 #define inb_p(port)             inb(port)
164 #define outb_p(val, port)       (udelay(1), outb((val), (port)))
165 #define inw_p(port)             inw(port)
166 #define outw_p(val, port)       (udelay(1), outw((val), (port)))
167 #define inl_p(port)             inl(port)
168 #define outl_p(val, port)       (udelay(1), outl((val), (port)))
169
170
171 #define IO_SPACE_LIMIT ~(0UL)
172
173
174 extern int __ioremap_explicit(unsigned long p_addr, unsigned long v_addr,
175                               unsigned long size, unsigned long flags);
176 extern void __iomem *__ioremap(unsigned long address, unsigned long size,
177                        unsigned long flags);
178
179 /**
180  * ioremap     -   map bus memory into CPU space
181  * @address:   bus address of the memory
182  * @size:      size of the resource to map
183  *
184  * ioremap performs a platform specific sequence of operations to
185  * make bus memory CPU accessible via the readb/readw/readl/writeb/
186  * writew/writel functions and the other mmio helpers. The returned
187  * address is not guaranteed to be usable directly as a virtual
188  * address.
189  */
190 extern void __iomem *ioremap(unsigned long address, unsigned long size);
191
192 #define ioremap_nocache(addr, size)     ioremap((addr), (size))
193 extern int iounmap_explicit(volatile void __iomem *addr, unsigned long size);
194 extern void iounmap(volatile void __iomem *addr);
195 extern void __iomem * reserve_phb_iospace(unsigned long size);
196
197 /**
198  *      virt_to_phys    -       map virtual addresses to physical
199  *      @address: address to remap
200  *
201  *      The returned physical address is the physical (CPU) mapping for
202  *      the memory address given. It is only valid to use this function on
203  *      addresses directly mapped or allocated via kmalloc.
204  *
205  *      This function does not give bus mappings for DMA transfers. In
206  *      almost all conceivable cases a device driver should not be using
207  *      this function
208  */
209 static inline unsigned long virt_to_phys(volatile void * address)
210 {
211         return __pa((unsigned long)address);
212 }
213
214 /**
215  *      phys_to_virt    -       map physical address to virtual
216  *      @address: address to remap
217  *
218  *      The returned virtual address is a current CPU mapping for
219  *      the memory address given. It is only valid to use this function on
220  *      addresses that have a kernel mapping
221  *
222  *      This function does not handle bus mappings for DMA transfers. In
223  *      almost all conceivable cases a device driver should not be using
224  *      this function
225  */
226 static inline void * phys_to_virt(unsigned long address)
227 {
228         return (void *)__va(address);
229 }
230
231 /*
232  * Change "struct page" to physical address.
233  */
234 #define page_to_phys(page)      (page_to_pfn(page) << PAGE_SHIFT)
235
236 /* We do NOT want virtual merging, it would put too much pressure on
237  * our iommu allocator. Instead, we want drivers to be smart enough
238  * to coalesce sglists that happen to have been mapped in a contiguous
239  * way by the iommu
240  */
241 #define BIO_VMERGE_BOUNDARY     0
242
243 static inline void iosync(void)
244 {
245         __asm__ __volatile__ ("sync" : : : "memory");
246 }
247
248 /* Enforce in-order execution of data I/O. 
249  * No distinction between read/write on PPC; use eieio for all three.
250  */
251 #define iobarrier_rw() eieio()
252 #define iobarrier_r()  eieio()
253 #define iobarrier_w()  eieio()
254
255 /*
256  * 8, 16 and 32 bit, big and little endian I/O operations, with barrier.
257  * These routines do not perform EEH-related I/O address translation,
258  * and should not be used directly by device drivers.  Use inb/readb
259  * instead.
260  */
261 static inline int in_8(const volatile unsigned char __iomem *addr)
262 {
263         int ret;
264
265         __asm__ __volatile__("sync; lbz%U1%X1 %0,%1; twi 0,%0,0; isync"
266                              : "=r" (ret) : "m" (*addr));
267         return ret;
268 }
269
270 static inline void out_8(volatile unsigned char __iomem *addr, int val)
271 {
272         __asm__ __volatile__("sync; stb%U0%X0 %1,%0"
273                              : "=m" (*addr) : "r" (val));
274         get_paca()->io_sync = 1;
275 }
276
277 static inline int in_le16(const volatile unsigned short __iomem *addr)
278 {
279         int ret;
280
281         __asm__ __volatile__("sync; lhbrx %0,0,%1; twi 0,%0,0; isync"
282                              : "=r" (ret) : "r" (addr), "m" (*addr));
283         return ret;
284 }
285
286 static inline int in_be16(const volatile unsigned short __iomem *addr)
287 {
288         int ret;
289
290         __asm__ __volatile__("sync; lhz%U1%X1 %0,%1; twi 0,%0,0; isync"
291                              : "=r" (ret) : "m" (*addr));
292         return ret;
293 }
294
295 static inline void out_le16(volatile unsigned short __iomem *addr, int val)
296 {
297         __asm__ __volatile__("sync; sthbrx %1,0,%2"
298                              : "=m" (*addr) : "r" (val), "r" (addr));
299         get_paca()->io_sync = 1;
300 }
301
302 static inline void out_be16(volatile unsigned short __iomem *addr, int val)
303 {
304         __asm__ __volatile__("sync; sth%U0%X0 %1,%0"
305                              : "=m" (*addr) : "r" (val));
306         get_paca()->io_sync = 1;
307 }
308
309 static inline unsigned in_le32(const volatile unsigned __iomem *addr)
310 {
311         unsigned ret;
312
313         __asm__ __volatile__("sync; lwbrx %0,0,%1; twi 0,%0,0; isync"
314                              : "=r" (ret) : "r" (addr), "m" (*addr));
315         return ret;
316 }
317
318 static inline unsigned in_be32(const volatile unsigned __iomem *addr)
319 {
320         unsigned ret;
321
322         __asm__ __volatile__("sync; lwz%U1%X1 %0,%1; twi 0,%0,0; isync"
323                              : "=r" (ret) : "m" (*addr));
324         return ret;
325 }
326
327 static inline void out_le32(volatile unsigned __iomem *addr, int val)
328 {
329         __asm__ __volatile__("sync; stwbrx %1,0,%2" : "=m" (*addr)
330                              : "r" (val), "r" (addr));
331         get_paca()->io_sync = 1;
332 }
333
334 static inline void out_be32(volatile unsigned __iomem *addr, int val)
335 {
336         __asm__ __volatile__("sync; stw%U0%X0 %1,%0"
337                              : "=m" (*addr) : "r" (val));
338         get_paca()->io_sync = 1;
339 }
340
341 static inline unsigned long in_le64(const volatile unsigned long __iomem *addr)
342 {
343         unsigned long tmp, ret;
344
345         __asm__ __volatile__(
346                              "sync\n"
347                              "ld %1,0(%2)\n"
348                              "twi 0,%1,0\n"
349                              "isync\n"
350                              "rldimi %0,%1,5*8,1*8\n"
351                              "rldimi %0,%1,3*8,2*8\n"
352                              "rldimi %0,%1,1*8,3*8\n"
353                              "rldimi %0,%1,7*8,4*8\n"
354                              "rldicl %1,%1,32,0\n"
355                              "rlwimi %0,%1,8,8,31\n"
356                              "rlwimi %0,%1,24,16,23\n"
357                              : "=r" (ret) , "=r" (tmp) : "b" (addr) , "m" (*addr));
358         return ret;
359 }
360
361 static inline unsigned long in_be64(const volatile unsigned long __iomem *addr)
362 {
363         unsigned long ret;
364
365         __asm__ __volatile__("sync; ld%U1%X1 %0,%1; twi 0,%0,0; isync"
366                              : "=r" (ret) : "m" (*addr));
367         return ret;
368 }
369
370 static inline void out_le64(volatile unsigned long __iomem *addr, unsigned long val)
371 {
372         unsigned long tmp;
373
374         __asm__ __volatile__(
375                              "rldimi %0,%1,5*8,1*8\n"
376                              "rldimi %0,%1,3*8,2*8\n"
377                              "rldimi %0,%1,1*8,3*8\n"
378                              "rldimi %0,%1,7*8,4*8\n"
379                              "rldicl %1,%1,32,0\n"
380                              "rlwimi %0,%1,8,8,31\n"
381                              "rlwimi %0,%1,24,16,23\n"
382                              "sync\n"
383                              "std %0,0(%3)"
384                              : "=&r" (tmp) , "=&r" (val) : "1" (val) , "b" (addr) , "m" (*addr));
385         get_paca()->io_sync = 1;
386 }
387
388 static inline void out_be64(volatile unsigned long __iomem *addr, unsigned long val)
389 {
390         __asm__ __volatile__("sync; std%U0%X0 %1,%0" : "=m" (*addr) : "r" (val));
391         get_paca()->io_sync = 1;
392 }
393
394 #ifndef CONFIG_PPC_ISERIES 
395 #include <asm/eeh.h>
396 #endif
397
398 /**
399  *      check_signature         -       find BIOS signatures
400  *      @io_addr: mmio address to check
401  *      @signature:  signature block
402  *      @length: length of signature
403  *
404  *      Perform a signature comparison with the mmio address io_addr. This
405  *      address should have been obtained by ioremap.
406  *      Returns 1 on a match.
407  */
408 static inline int check_signature(const volatile void __iomem * io_addr,
409         const unsigned char *signature, int length)
410 {
411         int retval = 0;
412 #ifndef CONFIG_PPC_ISERIES 
413         do {
414                 if (readb(io_addr) != *signature)
415                         goto out;
416                 io_addr++;
417                 signature++;
418                 length--;
419         } while (length);
420         retval = 1;
421 out:
422 #endif
423         return retval;
424 }
425
426 /* Nothing to do */
427
428 #define dma_cache_inv(_start,_size)             do { } while (0)
429 #define dma_cache_wback(_start,_size)           do { } while (0)
430 #define dma_cache_wback_inv(_start,_size)       do { } while (0)
431
432
433 /*
434  * Convert a physical pointer to a virtual kernel pointer for /dev/mem
435  * access
436  */
437 #define xlate_dev_mem_ptr(p)    __va(p)
438
439 /*
440  * Convert a virtual cached pointer to an uncached pointer
441  */
442 #define xlate_dev_kmem_ptr(p)   p
443
444 #endif /* __KERNEL__ */
445
446 #endif /* CONFIG_PPC64 */
447 #endif /* _ASM_POWERPC_IO_H */