arm: remove the second argument of k[un]map_atomic()
authorCong Wang <amwang@redhat.com>
Fri, 25 Nov 2011 15:14:15 +0000 (23:14 +0800)
committerCong Wang <xiyou.wangcong@gmail.com>
Tue, 20 Mar 2012 13:48:14 +0000 (21:48 +0800)
Signed-off-by: Cong Wang <amwang@redhat.com>
arch/arm/mm/copypage-fa.c
arch/arm/mm/copypage-feroceon.c
arch/arm/mm/copypage-v3.c
arch/arm/mm/copypage-v4mc.c
arch/arm/mm/copypage-v4wb.c
arch/arm/mm/copypage-v4wt.c
arch/arm/mm/copypage-v6.c
arch/arm/mm/copypage-xsc3.c
arch/arm/mm/copypage-xscale.c

index d2852e1635b128c6a7a12edc2a91e0188e0921fc..d130a5ece5d55658b1c6cdd11f2721e7ea3f53f6 100644 (file)
@@ -44,11 +44,11 @@ void fa_copy_user_highpage(struct page *to, struct page *from,
 {
        void *kto, *kfrom;
 
-       kto = kmap_atomic(to, KM_USER0);
-       kfrom = kmap_atomic(from, KM_USER1);
+       kto = kmap_atomic(to);
+       kfrom = kmap_atomic(from);
        fa_copy_user_page(kto, kfrom);
-       kunmap_atomic(kfrom, KM_USER1);
-       kunmap_atomic(kto, KM_USER0);
+       kunmap_atomic(kfrom);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -58,7 +58,7 @@ void fa_copy_user_highpage(struct page *to, struct page *from,
  */
 void fa_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile("\
        mov     r1, %2                          @ 1\n\
        mov     r2, #0                          @ 1\n\
@@ -77,7 +77,7 @@ void fa_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 32)
        : "r1", "r2", "r3", "ip", "lr");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns fa_user_fns __initdata = {
index ac163de7dc015f5c02c305d450f18151fdecc795..49ee0c1a720972bc93d0a7335c8b365b01fdf93e 100644 (file)
@@ -72,17 +72,17 @@ void feroceon_copy_user_highpage(struct page *to, struct page *from,
 {
        void *kto, *kfrom;
 
-       kto = kmap_atomic(to, KM_USER0);
-       kfrom = kmap_atomic(from, KM_USER1);
+       kto = kmap_atomic(to);
+       kfrom = kmap_atomic(from);
        flush_cache_page(vma, vaddr, page_to_pfn(from));
        feroceon_copy_user_page(kto, kfrom);
-       kunmap_atomic(kfrom, KM_USER1);
-       kunmap_atomic(kto, KM_USER0);
+       kunmap_atomic(kfrom);
+       kunmap_atomic(kto);
 }
 
 void feroceon_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile ("\
        mov     r1, %2                          \n\
        mov     r2, #0                          \n\
@@ -102,7 +102,7 @@ void feroceon_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 32)
        : "r1", "r2", "r3", "r4", "r5", "r6", "r7", "ip", "lr");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns feroceon_user_fns __initdata = {
index f72303e1d804e08d7cecf2c82760a2c7a6355318..3935bddd4769f654aac0f6bfb509927fd4dad622 100644 (file)
@@ -42,11 +42,11 @@ void v3_copy_user_highpage(struct page *to, struct page *from,
 {
        void *kto, *kfrom;
 
-       kto = kmap_atomic(to, KM_USER0);
-       kfrom = kmap_atomic(from, KM_USER1);
+       kto = kmap_atomic(to);
+       kfrom = kmap_atomic(from);
        v3_copy_user_page(kto, kfrom);
-       kunmap_atomic(kfrom, KM_USER1);
-       kunmap_atomic(kto, KM_USER0);
+       kunmap_atomic(kfrom);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -56,7 +56,7 @@ void v3_copy_user_highpage(struct page *to, struct page *from,
  */
 void v3_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile("\n\
        mov     r1, %2                          @ 1\n\
        mov     r2, #0                          @ 1\n\
@@ -72,7 +72,7 @@ void v3_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 64)
        : "r1", "r2", "r3", "ip", "lr");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns v3_user_fns __initdata = {
index 7d0a8c2303423ec93df81b7ea70778df636c7b64..ec8c3befb9c8d857f8db99c33ee6a9cecf75ff1a 100644 (file)
@@ -71,7 +71,7 @@ mc_copy_user_page(void *from, void *to)
 void v4_mc_copy_user_highpage(struct page *to, struct page *from,
        unsigned long vaddr, struct vm_area_struct *vma)
 {
-       void *kto = kmap_atomic(to, KM_USER1);
+       void *kto = kmap_atomic(to);
 
        if (!test_and_set_bit(PG_dcache_clean, &from->flags))
                __flush_dcache_page(page_mapping(from), from);
@@ -85,7 +85,7 @@ void v4_mc_copy_user_highpage(struct page *to, struct page *from,
 
        raw_spin_unlock(&minicache_lock);
 
-       kunmap_atomic(kto, KM_USER1);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -93,7 +93,7 @@ void v4_mc_copy_user_highpage(struct page *to, struct page *from,
  */
 void v4_mc_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile("\
        mov     r1, %2                          @ 1\n\
        mov     r2, #0                          @ 1\n\
@@ -111,7 +111,7 @@ void v4_mc_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 64)
        : "r1", "r2", "r3", "ip", "lr");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns v4_mc_user_fns __initdata = {
index cb589cbb2b6c0322b1cdd61faf72a602db04a72e..067d0fdd630c1082a0f895fee16bddfb4b002fa4 100644 (file)
@@ -52,12 +52,12 @@ void v4wb_copy_user_highpage(struct page *to, struct page *from,
 {
        void *kto, *kfrom;
 
-       kto = kmap_atomic(to, KM_USER0);
-       kfrom = kmap_atomic(from, KM_USER1);
+       kto = kmap_atomic(to);
+       kfrom = kmap_atomic(from);
        flush_cache_page(vma, vaddr, page_to_pfn(from));
        v4wb_copy_user_page(kto, kfrom);
-       kunmap_atomic(kfrom, KM_USER1);
-       kunmap_atomic(kto, KM_USER0);
+       kunmap_atomic(kfrom);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -67,7 +67,7 @@ void v4wb_copy_user_highpage(struct page *to, struct page *from,
  */
 void v4wb_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile("\
        mov     r1, %2                          @ 1\n\
        mov     r2, #0                          @ 1\n\
@@ -86,7 +86,7 @@ void v4wb_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 64)
        : "r1", "r2", "r3", "ip", "lr");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns v4wb_user_fns __initdata = {
index 30c7d048a324b975535aef82062ea20f582793ed..b85c5da2e510ea8a3cfe337eb797ef7a26d17dba 100644 (file)
@@ -48,11 +48,11 @@ void v4wt_copy_user_highpage(struct page *to, struct page *from,
 {
        void *kto, *kfrom;
 
-       kto = kmap_atomic(to, KM_USER0);
-       kfrom = kmap_atomic(from, KM_USER1);
+       kto = kmap_atomic(to);
+       kfrom = kmap_atomic(from);
        v4wt_copy_user_page(kto, kfrom);
-       kunmap_atomic(kfrom, KM_USER1);
-       kunmap_atomic(kto, KM_USER0);
+       kunmap_atomic(kfrom);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -62,7 +62,7 @@ void v4wt_copy_user_highpage(struct page *to, struct page *from,
  */
 void v4wt_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile("\
        mov     r1, %2                          @ 1\n\
        mov     r2, #0                          @ 1\n\
@@ -79,7 +79,7 @@ void v4wt_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 64)
        : "r1", "r2", "r3", "ip", "lr");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns v4wt_user_fns __initdata = {
index 3d9a1552cef60321f5349438067149979e055b6e..8b03a5814d005e0591e79885f562c401c23a6379 100644 (file)
@@ -38,11 +38,11 @@ static void v6_copy_user_highpage_nonaliasing(struct page *to,
 {
        void *kto, *kfrom;
 
-       kfrom = kmap_atomic(from, KM_USER0);
-       kto = kmap_atomic(to, KM_USER1);
+       kfrom = kmap_atomic(from);
+       kto = kmap_atomic(to);
        copy_page(kto, kfrom);
-       kunmap_atomic(kto, KM_USER1);
-       kunmap_atomic(kfrom, KM_USER0);
+       kunmap_atomic(kto);
+       kunmap_atomic(kfrom);
 }
 
 /*
@@ -51,9 +51,9 @@ static void v6_copy_user_highpage_nonaliasing(struct page *to,
  */
 static void v6_clear_user_highpage_nonaliasing(struct page *page, unsigned long vaddr)
 {
-       void *kaddr = kmap_atomic(page, KM_USER0);
+       void *kaddr = kmap_atomic(page);
        clear_page(kaddr);
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 /*
index f9cde0702f1eef3bbdb279462532865092f21152..03a2042aced5f88b54e224396720c95d5fc3acce 100644 (file)
@@ -75,12 +75,12 @@ void xsc3_mc_copy_user_highpage(struct page *to, struct page *from,
 {
        void *kto, *kfrom;
 
-       kto = kmap_atomic(to, KM_USER0);
-       kfrom = kmap_atomic(from, KM_USER1);
+       kto = kmap_atomic(to);
+       kfrom = kmap_atomic(from);
        flush_cache_page(vma, vaddr, page_to_pfn(from));
        xsc3_mc_copy_user_page(kto, kfrom);
-       kunmap_atomic(kfrom, KM_USER1);
-       kunmap_atomic(kto, KM_USER0);
+       kunmap_atomic(kfrom);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -90,7 +90,7 @@ void xsc3_mc_copy_user_highpage(struct page *to, struct page *from,
  */
 void xsc3_mc_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile ("\
        mov     r1, %2                          \n\
        mov     r2, #0                          \n\
@@ -105,7 +105,7 @@ void xsc3_mc_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 32)
        : "r1", "r2", "r3");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns xsc3_mc_user_fns __initdata = {
index 610c24ced3101958a269fa46d53050eb4cac0df7..439d106ae63804461d9b4f4149ad310a604e2379 100644 (file)
@@ -93,7 +93,7 @@ mc_copy_user_page(void *from, void *to)
 void xscale_mc_copy_user_highpage(struct page *to, struct page *from,
        unsigned long vaddr, struct vm_area_struct *vma)
 {
-       void *kto = kmap_atomic(to, KM_USER1);
+       void *kto = kmap_atomic(to);
 
        if (!test_and_set_bit(PG_dcache_clean, &from->flags))
                __flush_dcache_page(page_mapping(from), from);
@@ -107,7 +107,7 @@ void xscale_mc_copy_user_highpage(struct page *to, struct page *from,
 
        raw_spin_unlock(&minicache_lock);
 
-       kunmap_atomic(kto, KM_USER1);
+       kunmap_atomic(kto);
 }
 
 /*
@@ -116,7 +116,7 @@ void xscale_mc_copy_user_highpage(struct page *to, struct page *from,
 void
 xscale_mc_clear_user_highpage(struct page *page, unsigned long vaddr)
 {
-       void *ptr, *kaddr = kmap_atomic(page, KM_USER0);
+       void *ptr, *kaddr = kmap_atomic(page);
        asm volatile(
        "mov    r1, %2                          \n\
        mov     r2, #0                          \n\
@@ -133,7 +133,7 @@ xscale_mc_clear_user_highpage(struct page *page, unsigned long vaddr)
        : "=r" (ptr)
        : "0" (kaddr), "I" (PAGE_SIZE / 32)
        : "r1", "r2", "r3", "ip");
-       kunmap_atomic(kaddr, KM_USER0);
+       kunmap_atomic(kaddr);
 }
 
 struct cpu_user_fns xscale_mc_user_fns __initdata = {