arm64/dma-mapping: __generic_dma_ops always call swiotlb_dma_ops
[firefly-linux-kernel-4.4.55.git] / arch / arm64 / include / asm / dma-mapping.h
1 /*
2  * Copyright (C) 2012 ARM Ltd.
3  *
4  * This program is free software; you can redistribute it and/or modify
5  * it under the terms of the GNU General Public License version 2 as
6  * published by the Free Software Foundation.
7  *
8  * This program is distributed in the hope that it will be useful,
9  * but WITHOUT ANY WARRANTY; without even the implied warranty of
10  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
11  * GNU General Public License for more details.
12  *
13  * You should have received a copy of the GNU General Public License
14  * along with this program.  If not, see <http://www.gnu.org/licenses/>.
15  */
16 #ifndef __ASM_DMA_MAPPING_H
17 #define __ASM_DMA_MAPPING_H
18
19 #ifdef __KERNEL__
20
21 #include <linux/types.h>
22 #include <linux/vmalloc.h>
23
24 #include <xen/xen.h>
25 #include <asm/cacheflush.h>
26 #include <asm/xen/hypervisor.h>
27
28 #define DMA_ERROR_CODE  (~(dma_addr_t)0)
29 extern struct dma_map_ops dummy_dma_ops;
30 extern struct dma_map_ops swiotlb_dma_ops;
31
32 static inline struct dma_map_ops *__generic_dma_ops(struct device *dev)
33 {
34         if (dev && dev->archdata.dma_ops)
35                 return dev->archdata.dma_ops;
36
37         /*
38          * For ion APIs, they have no devices, we force it to call swiotlb_dma_ops
39          * to sync device.
40          * Revert me if ion has fixed this issue.
41         */
42         return &swiotlb_dma_ops;
43         /*
44          * We expect no ISA devices, and all other DMA masters are expected to
45          * have someone call arch_setup_dma_ops at device creation time.
46          */
47         return &dummy_dma_ops;
48 }
49
50 static inline struct dma_map_ops *get_dma_ops(struct device *dev)
51 {
52         if (xen_initial_domain())
53                 return xen_dma_ops;
54         else
55                 return __generic_dma_ops(dev);
56 }
57
58 static inline void arch_set_dma_ops(struct device *dev, struct dma_map_ops *ops)
59 {
60         dev->archdata.dma_ops = ops;
61 }
62
63 void arch_setup_dma_ops(struct device *dev, u64 dma_base, u64 size,
64                         struct iommu_ops *iommu, bool coherent);
65 #define arch_setup_dma_ops      arch_setup_dma_ops
66
67 void arch_teardown_dma_ops(struct device *dev);
68 #define arch_teardown_dma_ops   arch_teardown_dma_ops
69
70 /* do not use this function in a driver */
71 static inline bool is_device_dma_coherent(struct device *dev)
72 {
73         if (!dev)
74                 return false;
75         return dev->archdata.dma_coherent;
76 }
77
78 #include <asm-generic/dma-mapping-common.h>
79
80 static inline dma_addr_t phys_to_dma(struct device *dev, phys_addr_t paddr)
81 {
82         return (dma_addr_t)paddr;
83 }
84
85 static inline phys_addr_t dma_to_phys(struct device *dev, dma_addr_t dev_addr)
86 {
87         return (phys_addr_t)dev_addr;
88 }
89
90 static inline bool dma_capable(struct device *dev, dma_addr_t addr, size_t size)
91 {
92         if (!dev->dma_mask)
93                 return false;
94
95         return addr + size - 1 <= *dev->dma_mask;
96 }
97
98 static inline void dma_mark_clean(void *addr, size_t size)
99 {
100 }
101
102 static inline void arch_flush_page(struct device *dev, const void *virt,
103                                    phys_addr_t phys)
104 {
105         __dma_flush_range(virt, virt + PAGE_SIZE);
106 }
107
108 static inline void arch_dma_map_area(phys_addr_t phys, size_t size,
109                                      enum dma_data_direction dir)
110 {
111         __dma_map_area(phys_to_virt(phys), size, dir);
112 }
113
114 static inline void arch_dma_unmap_area(phys_addr_t phys, size_t size,
115                                        enum dma_data_direction dir)
116 {
117         __dma_unmap_area(phys_to_virt(phys), size, dir);
118 }
119
120 static inline pgprot_t arch_get_dma_pgprot(struct dma_attrs *attrs,
121                                         pgprot_t prot, bool coherent)
122 {
123         if (!coherent || dma_get_attr(DMA_ATTR_WRITE_COMBINE, attrs))
124                 return pgprot_writecombine(prot);
125         return prot;
126 }
127
128 extern void *arch_alloc_from_atomic_pool(size_t size, struct page **ret_page,
129                                          gfp_t flags);
130 extern bool arch_in_atomic_pool(void *start, size_t size);
131 extern int arch_free_from_atomic_pool(void *start, size_t size);
132
133 #endif  /* __KERNEL__ */
134 #endif  /* __ASM_DMA_MAPPING_H */