ARM: Improve the L2 cache performance when PL310 is used
authorCatalin Marinas <catalin.marinas@arm.com>
Mon, 29 Mar 2010 12:58:11 +0000 (13:58 +0100)
committerColin Cross <ccross@android.com>
Mon, 4 Oct 2010 06:08:58 +0000 (23:08 -0700)
With this L2 cache controller, the cache maintenance by PA and sync
operations are atomic and do not require a "wait" loop or spinlocks.
This patch conditionally defines the cache_wait() function and locking
primitives (rather than duplicating the functions or file).

Since L2x0 cache controllers do not work with ARMv7 CPUs, the patch
automatically enables CACHE_PL310 when CPU_V7 is defined.

Change-Id: I23e8fc326e6c42e7b36c7b67393fa91576692b48
Signed-off-by: Catalin Marinas <catalin.marinas@arm.com>
arch/arm/mm/Kconfig
arch/arm/mm/cache-l2x0.c

index a0a2928ae4dd7670a1342863040791833b57dbab..cc6f9d6193dd130d9e069ba55b7912478ba1ff70 100644 (file)
@@ -779,6 +779,13 @@ config CACHE_L2X0
        help
          This option enables the L2x0 PrimeCell.
 
+config CACHE_PL310
+       bool
+       depends on CACHE_L2X0
+       default y if CPU_V7
+       help
+         This option enables support for the PL310 cache controller.
+
 config CACHE_TAUROS2
        bool "Enable the Tauros2 L2 cache controller"
        depends on (ARCH_DOVE || ARCH_MMP)
index 9982eb385c0f9844d70f53d45c7377fcf5fa2887..e3afae0e07898bf7a6f55da00f877414b3e55d02 100644 (file)
 #define CACHE_LINE_SIZE                32
 
 static void __iomem *l2x0_base;
-static DEFINE_SPINLOCK(l2x0_lock);
 static uint32_t l2x0_way_mask; /* Bitmask of active ways */
 
-static inline void cache_wait(void __iomem *reg, unsigned long mask)
+static inline void cache_wait_always(void __iomem *reg, unsigned long mask)
 {
        /* wait for the operation to complete */
        while (readl_relaxed(reg) & mask)
                ;
 }
 
+#ifdef CONFIG_CACHE_PL310
+
+static inline void cache_wait(void __iomem *reg, unsigned long mask)
+{
+       /* cache operations are atomic */
+}
+
+#define _l2x0_lock(lock, flags)                ((void)(flags))
+#define _l2x0_unlock(lock, flags)      ((void)(flags))
+
+#define block_end(start, end)          (end)
+
+#define L2CC_TYPE                      "PL310/L2C-310"
+
+#else  /* !CONFIG_CACHE_PL310 */
+
+#define cache_wait                     cache_wait_always
+
+static DEFINE_SPINLOCK(l2x0_lock);
+#define _l2x0_lock(lock, flags)                spin_lock_irqsave(lock, flags)
+#define _l2x0_unlock(lock, flags)      spin_unlock_irqrestore(lock, flags)
+
+#define block_end(start, end)          ((start) + min((end) - (start), 4096UL))
+
+#define L2CC_TYPE                      "L2x0"
+
+#endif /* CONFIG_CACHE_PL310 */
+
 static inline void cache_sync(void)
 {
        void __iomem *base = l2x0_base;
@@ -98,9 +125,9 @@ static void l2x0_cache_sync(void)
 {
        unsigned long flags;
 
-       spin_lock_irqsave(&l2x0_lock, flags);
+       _l2x0_lock(&l2x0_lock, flags);
        cache_sync();
-       spin_unlock_irqrestore(&l2x0_lock, flags);
+       _l2x0_unlock(&l2x0_lock, flags);
 }
 
 static inline void l2x0_inv_all(void)
@@ -108,11 +135,11 @@ static inline void l2x0_inv_all(void)
        unsigned long flags;
 
        /* invalidate all ways */
-       spin_lock_irqsave(&l2x0_lock, flags);
+       _l2x0_lock(&l2x0_lock, flags);
        writel_relaxed(l2x0_way_mask, l2x0_base + L2X0_INV_WAY);
-       cache_wait(l2x0_base + L2X0_INV_WAY, l2x0_way_mask);
+       cache_wait_always(l2x0_base + L2X0_INV_WAY, l2x0_way_mask);
        cache_sync();
-       spin_unlock_irqrestore(&l2x0_lock, flags);
+       _l2x0_unlock(&l2x0_lock, flags);
 }
 
 static void l2x0_inv_range(unsigned long start, unsigned long end)
@@ -120,7 +147,7 @@ static void l2x0_inv_range(unsigned long start, unsigned long end)
        void __iomem *base = l2x0_base;
        unsigned long flags;
 
-       spin_lock_irqsave(&l2x0_lock, flags);
+       _l2x0_lock(&l2x0_lock, flags);
        if (start & (CACHE_LINE_SIZE - 1)) {
                start &= ~(CACHE_LINE_SIZE - 1);
                debug_writel(0x03);
@@ -137,7 +164,7 @@ static void l2x0_inv_range(unsigned long start, unsigned long end)
        }
 
        while (start < end) {
-               unsigned long blk_end = start + min(end - start, 4096UL);
+               unsigned long blk_end = block_end(start, end);
 
                while (start < blk_end) {
                        l2x0_inv_line(start);
@@ -145,13 +172,13 @@ static void l2x0_inv_range(unsigned long start, unsigned long end)
                }
 
                if (blk_end < end) {
-                       spin_unlock_irqrestore(&l2x0_lock, flags);
-                       spin_lock_irqsave(&l2x0_lock, flags);
+                       _l2x0_unlock(&l2x0_lock, flags);
+                       _l2x0_lock(&l2x0_lock, flags);
                }
        }
        cache_wait(base + L2X0_INV_LINE_PA, 1);
        cache_sync();
-       spin_unlock_irqrestore(&l2x0_lock, flags);
+       _l2x0_unlock(&l2x0_lock, flags);
 }
 
 static void l2x0_clean_range(unsigned long start, unsigned long end)
@@ -159,10 +186,10 @@ static void l2x0_clean_range(unsigned long start, unsigned long end)
        void __iomem *base = l2x0_base;
        unsigned long flags;
 
-       spin_lock_irqsave(&l2x0_lock, flags);
+       _l2x0_lock(&l2x0_lock, flags);
        start &= ~(CACHE_LINE_SIZE - 1);
        while (start < end) {
-               unsigned long blk_end = start + min(end - start, 4096UL);
+               unsigned long blk_end = block_end(start, end);
 
                while (start < blk_end) {
                        l2x0_clean_line(start);
@@ -170,13 +197,13 @@ static void l2x0_clean_range(unsigned long start, unsigned long end)
                }
 
                if (blk_end < end) {
-                       spin_unlock_irqrestore(&l2x0_lock, flags);
-                       spin_lock_irqsave(&l2x0_lock, flags);
+                       _l2x0_unlock(&l2x0_lock, flags);
+                       _l2x0_lock(&l2x0_lock, flags);
                }
        }
        cache_wait(base + L2X0_CLEAN_LINE_PA, 1);
        cache_sync();
-       spin_unlock_irqrestore(&l2x0_lock, flags);
+       _l2x0_unlock(&l2x0_lock, flags);
 }
 
 static void l2x0_flush_range(unsigned long start, unsigned long end)
@@ -184,10 +211,10 @@ static void l2x0_flush_range(unsigned long start, unsigned long end)
        void __iomem *base = l2x0_base;
        unsigned long flags;
 
-       spin_lock_irqsave(&l2x0_lock, flags);
+       _l2x0_lock(&l2x0_lock, flags);
        start &= ~(CACHE_LINE_SIZE - 1);
        while (start < end) {
-               unsigned long blk_end = start + min(end - start, 4096UL);
+               unsigned long blk_end = block_end(start, end);
 
                debug_writel(0x03);
                while (start < blk_end) {
@@ -197,13 +224,13 @@ static void l2x0_flush_range(unsigned long start, unsigned long end)
                debug_writel(0x00);
 
                if (blk_end < end) {
-                       spin_unlock_irqrestore(&l2x0_lock, flags);
-                       spin_lock_irqsave(&l2x0_lock, flags);
+                       _l2x0_unlock(&l2x0_lock, flags);
+                       _l2x0_lock(&l2x0_lock, flags);
                }
        }
        cache_wait(base + L2X0_CLEAN_INV_LINE_PA, 1);
        cache_sync();
-       spin_unlock_irqrestore(&l2x0_lock, flags);
+       _l2x0_unlock(&l2x0_lock, flags);
 }
 
 void __init l2x0_init(void __iomem *base, __u32 aux_val, __u32 aux_mask)