x86/fpu: Rename restore_fpu_checking() to copy_fpstate_to_fpregs()
authorIngo Molnar <mingo@kernel.org>
Wed, 29 Apr 2015 18:10:43 +0000 (20:10 +0200)
committerIngo Molnar <mingo@kernel.org>
Tue, 19 May 2015 13:48:03 +0000 (15:48 +0200)
fpu_restore_checking() is a helper function of restore_fpu_checking(),
but this is not apparent from the naming.

Both copy fpstate contents to fpregs, while the fuller variant does
a full copy without leaking information.

So rename them to:

    copy_fpstate_to_fpregs()
  __copy_fpstate_to_fpregs()

Cc: Andy Lutomirski <luto@amacapital.net>
Cc: Borislav Petkov <bp@alien8.de>
Cc: Dave Hansen <dave.hansen@linux.intel.com>
Cc: Fenghua Yu <fenghua.yu@intel.com>
Cc: H. Peter Anvin <hpa@zytor.com>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Cc: Oleg Nesterov <oleg@redhat.com>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
Signed-off-by: Ingo Molnar <mingo@kernel.org>
arch/x86/include/asm/fpu/internal.h
arch/x86/kernel/fpu/core.c
arch/x86/kvm/x86.c

index 31bfda818f303bf8a008f3c1490177db36c33cc3..c09aea145e0923a7587fc0b2731210d87bbcff6a 100644 (file)
@@ -289,7 +289,7 @@ static inline int copy_fpregs_to_fpstate(struct fpu *fpu)
 
 extern void fpu__save(struct fpu *fpu);
 
-static inline int fpu_restore_checking(struct fpu *fpu)
+static inline int __copy_fpstate_to_fpregs(struct fpu *fpu)
 {
        if (use_xsave())
                return fpu_xrstor_checking(&fpu->state.xsave);
@@ -299,7 +299,7 @@ static inline int fpu_restore_checking(struct fpu *fpu)
                return frstor_checking(&fpu->state.fsave);
 }
 
-static inline int restore_fpu_checking(struct fpu *fpu)
+static inline int copy_fpstate_to_fpregs(struct fpu *fpu)
 {
        /*
         * AMD K7/K8 CPUs don't save/restore FDP/FIP/FOP unless an exception is
@@ -314,7 +314,7 @@ static inline int restore_fpu_checking(struct fpu *fpu)
                        : : [addr] "m" (fpu->fpregs_active));
        }
 
-       return fpu_restore_checking(fpu);
+       return __copy_fpstate_to_fpregs(fpu);
 }
 
 /*
@@ -520,7 +520,7 @@ switch_fpu_prepare(struct fpu *old_fpu, struct fpu *new_fpu, int cpu)
 static inline void switch_fpu_finish(struct fpu *new_fpu, fpu_switch_t fpu_switch)
 {
        if (fpu_switch.preload) {
-               if (unlikely(restore_fpu_checking(new_fpu)))
+               if (unlikely(copy_fpstate_to_fpregs(new_fpu)))
                        fpu__reset(new_fpu);
        }
 }
index bf217cde114dd837148735d5f7d2410dc151f3fc..14d8e33d9fe03f6ba44517bf3c1902e82453ccbb 100644 (file)
@@ -115,7 +115,7 @@ void __kernel_fpu_end(void)
        struct fpu *fpu = &current->thread.fpu;
 
        if (fpu->fpregs_active) {
-               if (WARN_ON(restore_fpu_checking(fpu)))
+               if (WARN_ON(copy_fpstate_to_fpregs(fpu)))
                        fpu__reset(fpu);
        } else {
                __fpregs_deactivate_hw();
@@ -338,7 +338,7 @@ void fpu__restore(void)
        /* Avoid __kernel_fpu_begin() right after fpregs_activate() */
        kernel_fpu_disable();
        fpregs_activate(fpu);
-       if (unlikely(restore_fpu_checking(fpu))) {
+       if (unlikely(copy_fpstate_to_fpregs(fpu))) {
                fpu__reset(fpu);
                force_sig_info(SIGSEGV, SEND_SIG_PRIV, tsk);
        } else {
index 5c61aae277f907a2e97584642bed0e945a48b44a..f4438179398b972951486dfaaa6e2df155f78dba 100644 (file)
@@ -7030,7 +7030,7 @@ void kvm_load_guest_fpu(struct kvm_vcpu *vcpu)
        kvm_put_guest_xcr0(vcpu);
        vcpu->guest_fpu_loaded = 1;
        __kernel_fpu_begin();
-       fpu_restore_checking(&vcpu->arch.guest_fpu);
+       __copy_fpstate_to_fpregs(&vcpu->arch.guest_fpu);
        trace_kvm_fpu(1);
 }