x86/PCI: Factor out pcibios_allocate_dev_resources()
[firefly-linux-kernel-4.4.55.git] / arch / x86 / pci / i386.c
1 /*
2  *      Low-Level PCI Access for i386 machines
3  *
4  * Copyright 1993, 1994 Drew Eckhardt
5  *      Visionary Computing
6  *      (Unix and Linux consulting and custom programming)
7  *      Drew@Colorado.EDU
8  *      +1 (303) 786-7975
9  *
10  * Drew's work was sponsored by:
11  *      iX Multiuser Multitasking Magazine
12  *      Hannover, Germany
13  *      hm@ix.de
14  *
15  * Copyright 1997--2000 Martin Mares <mj@ucw.cz>
16  *
17  * For more information, please consult the following manuals (look at
18  * http://www.pcisig.com/ for how to get them):
19  *
20  * PCI BIOS Specification
21  * PCI Local Bus Specification
22  * PCI to PCI Bridge Specification
23  * PCI System Design Guide
24  *
25  */
26
27 #include <linux/types.h>
28 #include <linux/kernel.h>
29 #include <linux/export.h>
30 #include <linux/pci.h>
31 #include <linux/init.h>
32 #include <linux/ioport.h>
33 #include <linux/errno.h>
34 #include <linux/bootmem.h>
35
36 #include <asm/pat.h>
37 #include <asm/e820.h>
38 #include <asm/pci_x86.h>
39 #include <asm/io_apic.h>
40
41
42 /*
43  * This list of dynamic mappings is for temporarily maintaining
44  * original BIOS BAR addresses for possible reinstatement.
45  */
46 struct pcibios_fwaddrmap {
47         struct list_head list;
48         struct pci_dev *dev;
49         resource_size_t fw_addr[DEVICE_COUNT_RESOURCE];
50 };
51
52 static LIST_HEAD(pcibios_fwaddrmappings);
53 static DEFINE_SPINLOCK(pcibios_fwaddrmap_lock);
54
55 /* Must be called with 'pcibios_fwaddrmap_lock' lock held. */
56 static struct pcibios_fwaddrmap *pcibios_fwaddrmap_lookup(struct pci_dev *dev)
57 {
58         struct pcibios_fwaddrmap *map;
59
60         WARN_ON_SMP(!spin_is_locked(&pcibios_fwaddrmap_lock));
61
62         list_for_each_entry(map, &pcibios_fwaddrmappings, list)
63                 if (map->dev == dev)
64                         return map;
65
66         return NULL;
67 }
68
69 static void
70 pcibios_save_fw_addr(struct pci_dev *dev, int idx, resource_size_t fw_addr)
71 {
72         unsigned long flags;
73         struct pcibios_fwaddrmap *map;
74
75         spin_lock_irqsave(&pcibios_fwaddrmap_lock, flags);
76         map = pcibios_fwaddrmap_lookup(dev);
77         if (!map) {
78                 spin_unlock_irqrestore(&pcibios_fwaddrmap_lock, flags);
79                 map = kzalloc(sizeof(*map), GFP_KERNEL);
80                 if (!map)
81                         return;
82
83                 map->dev = pci_dev_get(dev);
84                 map->fw_addr[idx] = fw_addr;
85                 INIT_LIST_HEAD(&map->list);
86
87                 spin_lock_irqsave(&pcibios_fwaddrmap_lock, flags);
88                 list_add_tail(&map->list, &pcibios_fwaddrmappings);
89         } else
90                 map->fw_addr[idx] = fw_addr;
91         spin_unlock_irqrestore(&pcibios_fwaddrmap_lock, flags);
92 }
93
94 resource_size_t pcibios_retrieve_fw_addr(struct pci_dev *dev, int idx)
95 {
96         unsigned long flags;
97         struct pcibios_fwaddrmap *map;
98         resource_size_t fw_addr = 0;
99
100         spin_lock_irqsave(&pcibios_fwaddrmap_lock, flags);
101         map = pcibios_fwaddrmap_lookup(dev);
102         if (map)
103                 fw_addr = map->fw_addr[idx];
104         spin_unlock_irqrestore(&pcibios_fwaddrmap_lock, flags);
105
106         return fw_addr;
107 }
108
109 static void pcibios_fw_addr_list_del(void)
110 {
111         unsigned long flags;
112         struct pcibios_fwaddrmap *entry, *next;
113
114         spin_lock_irqsave(&pcibios_fwaddrmap_lock, flags);
115         list_for_each_entry_safe(entry, next, &pcibios_fwaddrmappings, list) {
116                 list_del(&entry->list);
117                 pci_dev_put(entry->dev);
118                 kfree(entry);
119         }
120         spin_unlock_irqrestore(&pcibios_fwaddrmap_lock, flags);
121 }
122
123 static int
124 skip_isa_ioresource_align(struct pci_dev *dev) {
125
126         if ((pci_probe & PCI_CAN_SKIP_ISA_ALIGN) &&
127             !(dev->bus->bridge_ctl & PCI_BRIDGE_CTL_ISA))
128                 return 1;
129         return 0;
130 }
131
132 /*
133  * We need to avoid collisions with `mirrored' VGA ports
134  * and other strange ISA hardware, so we always want the
135  * addresses to be allocated in the 0x000-0x0ff region
136  * modulo 0x400.
137  *
138  * Why? Because some silly external IO cards only decode
139  * the low 10 bits of the IO address. The 0x00-0xff region
140  * is reserved for motherboard devices that decode all 16
141  * bits, so it's ok to allocate at, say, 0x2800-0x28ff,
142  * but we want to try to avoid allocating at 0x2900-0x2bff
143  * which might have be mirrored at 0x0100-0x03ff..
144  */
145 resource_size_t
146 pcibios_align_resource(void *data, const struct resource *res,
147                         resource_size_t size, resource_size_t align)
148 {
149         struct pci_dev *dev = data;
150         resource_size_t start = res->start;
151
152         if (res->flags & IORESOURCE_IO) {
153                 if (skip_isa_ioresource_align(dev))
154                         return start;
155                 if (start & 0x300)
156                         start = (start + 0x3ff) & ~0x3ff;
157         }
158         return start;
159 }
160 EXPORT_SYMBOL(pcibios_align_resource);
161
162 /*
163  *  Handle resources of PCI devices.  If the world were perfect, we could
164  *  just allocate all the resource regions and do nothing more.  It isn't.
165  *  On the other hand, we cannot just re-allocate all devices, as it would
166  *  require us to know lots of host bridge internals.  So we attempt to
167  *  keep as much of the original configuration as possible, but tweak it
168  *  when it's found to be wrong.
169  *
170  *  Known BIOS problems we have to work around:
171  *      - I/O or memory regions not configured
172  *      - regions configured, but not enabled in the command register
173  *      - bogus I/O addresses above 64K used
174  *      - expansion ROMs left enabled (this may sound harmless, but given
175  *        the fact the PCI specs explicitly allow address decoders to be
176  *        shared between expansion ROMs and other resource regions, it's
177  *        at least dangerous)
178  *      - bad resource sizes or overlaps with other regions
179  *
180  *  Our solution:
181  *      (1) Allocate resources for all buses behind PCI-to-PCI bridges.
182  *          This gives us fixed barriers on where we can allocate.
183  *      (2) Allocate resources for all enabled devices.  If there is
184  *          a collision, just mark the resource as unallocated. Also
185  *          disable expansion ROMs during this step.
186  *      (3) Try to allocate resources for disabled devices.  If the
187  *          resources were assigned correctly, everything goes well,
188  *          if they weren't, they won't disturb allocation of other
189  *          resources.
190  *      (4) Assign new addresses to resources which were either
191  *          not configured at all or misconfigured.  If explicitly
192  *          requested by the user, configure expansion ROM address
193  *          as well.
194  */
195
196 static void __init pcibios_allocate_bridge_resources(struct pci_dev *dev)
197 {
198         int idx;
199         struct resource *r;
200
201         for (idx = PCI_BRIDGE_RESOURCES; idx < PCI_NUM_RESOURCES; idx++) {
202                 r = &dev->resource[idx];
203                 if (!r->flags)
204                         continue;
205                 if (!r->start || pci_claim_resource(dev, idx) < 0) {
206                         /*
207                          * Something is wrong with the region.
208                          * Invalidate the resource to prevent
209                          * child resource allocations in this
210                          * range.
211                          */
212                         r->start = r->end = 0;
213                         r->flags = 0;
214                 }
215         }
216 }
217
218 static void __init pcibios_allocate_bus_resources(struct list_head *bus_list)
219 {
220         struct pci_bus *bus;
221
222         /* Depth-First Search on bus tree */
223         list_for_each_entry(bus, bus_list, node) {
224                 if (bus->self)
225                         pcibios_allocate_bridge_resources(bus->self);
226                 pcibios_allocate_bus_resources(&bus->children);
227         }
228 }
229
230 struct pci_check_idx_range {
231         int start;
232         int end;
233 };
234
235 static void __init pcibios_allocate_dev_resources(struct pci_dev *dev, int pass)
236 {
237         int idx, disabled, i;
238         u16 command;
239         struct resource *r;
240
241         struct pci_check_idx_range idx_range[] = {
242                 { PCI_STD_RESOURCES, PCI_STD_RESOURCE_END },
243 #ifdef CONFIG_PCI_IOV
244                 { PCI_IOV_RESOURCES, PCI_IOV_RESOURCE_END },
245 #endif
246         };
247
248         pci_read_config_word(dev, PCI_COMMAND, &command);
249         for (i = 0; i < ARRAY_SIZE(idx_range); i++)
250                 for (idx = idx_range[i].start; idx <= idx_range[i].end; idx++) {
251                         r = &dev->resource[idx];
252                         if (r->parent)  /* Already allocated */
253                                 continue;
254                         if (!r->start)  /* Address not assigned at all */
255                                 continue;
256                         if (r->flags & IORESOURCE_IO)
257                                 disabled = !(command & PCI_COMMAND_IO);
258                         else
259                                 disabled = !(command & PCI_COMMAND_MEMORY);
260                         if (pass == disabled) {
261                                 dev_dbg(&dev->dev,
262                                         "BAR %d: reserving %pr (d=%d, p=%d)\n",
263                                         idx, r, disabled, pass);
264                                 if (pci_claim_resource(dev, idx) < 0) {
265                                         /* We'll assign a new address later */
266                                         pcibios_save_fw_addr(dev,
267                                                         idx, r->start);
268                                         r->end -= r->start;
269                                         r->start = 0;
270                                 }
271                         }
272                 }
273         if (!pass) {
274                 r = &dev->resource[PCI_ROM_RESOURCE];
275                 if (r->flags & IORESOURCE_ROM_ENABLE) {
276                         /* Turn the ROM off, leave the resource region,
277                          * but keep it unregistered. */
278                         u32 reg;
279                         dev_dbg(&dev->dev, "disabling ROM %pR\n", r);
280                         r->flags &= ~IORESOURCE_ROM_ENABLE;
281                         pci_read_config_dword(dev, dev->rom_base_reg, &reg);
282                         pci_write_config_dword(dev, dev->rom_base_reg,
283                                                 reg & ~PCI_ROM_ADDRESS_ENABLE);
284                 }
285         }
286 }
287
288 static void __init pcibios_allocate_resources(int pass)
289 {
290         struct pci_dev *dev = NULL;
291
292         for_each_pci_dev(dev)
293                 pcibios_allocate_dev_resources(dev, pass);
294 }
295
296 static int __init pcibios_assign_resources(void)
297 {
298         struct pci_dev *dev = NULL;
299         struct resource *r;
300
301         if (!(pci_probe & PCI_ASSIGN_ROMS)) {
302                 /*
303                  * Try to use BIOS settings for ROMs, otherwise let
304                  * pci_assign_unassigned_resources() allocate the new
305                  * addresses.
306                  */
307                 for_each_pci_dev(dev) {
308                         r = &dev->resource[PCI_ROM_RESOURCE];
309                         if (!r->flags || !r->start)
310                                 continue;
311                         if (pci_claim_resource(dev, PCI_ROM_RESOURCE) < 0) {
312                                 r->end -= r->start;
313                                 r->start = 0;
314                         }
315                 }
316         }
317
318         pci_assign_unassigned_resources();
319         pcibios_fw_addr_list_del();
320
321         return 0;
322 }
323
324 void __init pcibios_resource_survey(void)
325 {
326         DBG("PCI: Allocating resources\n");
327         pcibios_allocate_bus_resources(&pci_root_buses);
328         pcibios_allocate_resources(0);
329         pcibios_allocate_resources(1);
330
331         e820_reserve_resources_late();
332         /*
333          * Insert the IO APIC resources after PCI initialization has
334          * occurred to handle IO APICS that are mapped in on a BAR in
335          * PCI space, but before trying to assign unassigned pci res.
336          */
337         ioapic_insert_resources();
338 }
339
340 /**
341  * called in fs_initcall (one below subsys_initcall),
342  * give a chance for motherboard reserve resources
343  */
344 fs_initcall(pcibios_assign_resources);
345
346 static const struct vm_operations_struct pci_mmap_ops = {
347         .access = generic_access_phys,
348 };
349
350 int pci_mmap_page_range(struct pci_dev *dev, struct vm_area_struct *vma,
351                         enum pci_mmap_state mmap_state, int write_combine)
352 {
353         unsigned long prot;
354
355         /* I/O space cannot be accessed via normal processor loads and
356          * stores on this platform.
357          */
358         if (mmap_state == pci_mmap_io)
359                 return -EINVAL;
360
361         prot = pgprot_val(vma->vm_page_prot);
362
363         /*
364          * Return error if pat is not enabled and write_combine is requested.
365          * Caller can followup with UC MINUS request and add a WC mtrr if there
366          * is a free mtrr slot.
367          */
368         if (!pat_enabled && write_combine)
369                 return -EINVAL;
370
371         if (pat_enabled && write_combine)
372                 prot |= _PAGE_CACHE_WC;
373         else if (pat_enabled || boot_cpu_data.x86 > 3)
374                 /*
375                  * ioremap() and ioremap_nocache() defaults to UC MINUS for now.
376                  * To avoid attribute conflicts, request UC MINUS here
377                  * as well.
378                  */
379                 prot |= _PAGE_CACHE_UC_MINUS;
380
381         prot |= _PAGE_IOMAP;    /* creating a mapping for IO */
382
383         vma->vm_page_prot = __pgprot(prot);
384
385         if (io_remap_pfn_range(vma, vma->vm_start, vma->vm_pgoff,
386                                vma->vm_end - vma->vm_start,
387                                vma->vm_page_prot))
388                 return -EAGAIN;
389
390         vma->vm_ops = &pci_mmap_ops;
391
392         return 0;
393 }