x86/vdso/32: Save extra registers in the INT80 vsyscall path
authorAndy Lutomirski <luto@kernel.org>
Tue, 6 Oct 2015 00:48:01 +0000 (17:48 -0700)
committerIngo Molnar <mingo@kernel.org>
Fri, 9 Oct 2015 07:41:06 +0000 (09:41 +0200)
The goal is to integrate the SYSENTER and SYSCALL32 entry paths
with the INT80 path.  SYSENTER clobbers ESP and EIP.  SYSCALL32
clobbers ECX (and, invisibly, R11).  SYSRETL (long mode to
compat mode) clobbers ECX and, invisibly, R11.  SYSEXIT (which
we only need for native 32-bit) clobbers ECX and EDX.

This means that we'll need to provide ESP to the kernel in a
register (I chose ECX, since it's only needed for SYSENTER) and
we need to provide the args that normally live in ECX and EDX in
memory.

The epilogue needs to restore ECX and EDX, since user code
relies on regs being preserved.

We don't need to do anything special about EIP, since the kernel
already knows where we are.  The kernel will eventually need to
know where int $0x80 lands, so add a vdso_image entry for it.

The only user-visible effect of this code is that ptrace-induced
changes to ECX and EDX during fast syscalls will be lost.  This
is already the case for the SYSENTER path.

Signed-off-by: Andy Lutomirski <luto@kernel.org>
Cc: Andy Lutomirski <luto@amacapital.net>
Cc: Borislav Petkov <bp@alien8.de>
Cc: Brian Gerst <brgerst@gmail.com>
Cc: Denys Vlasenko <dvlasenk@redhat.com>
Cc: H. Peter Anvin <hpa@zytor.com>
Cc: Linus Torvalds <torvalds@linux-foundation.org>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: linux-kernel@vger.kernel.org
Link: http://lkml.kernel.org/r/b860925adbee2d2627a0671fbfe23a7fd04127f8.1444091584.git.luto@kernel.org
Signed-off-by: Ingo Molnar <mingo@kernel.org>
arch/x86/entry/vdso/vdso2c.c
arch/x86/entry/vdso/vdso32/system_call.S
arch/x86/include/asm/vdso.h

index 2637eb1e3949ae8ffcd48e80b011ae603a41ff8c..785d9922b106317e9285dbcde43417417f4911fb 100644 (file)
@@ -101,6 +101,7 @@ struct vdso_sym required_syms[] = {
        {"__kernel_vsyscall", true},
        {"__kernel_sigreturn", true},
        {"__kernel_rt_sigreturn", true},
+       {"int80_landing_pad", true},
 };
 
 __attribute__((format(printf, 1, 2))) __attribute__((noreturn))
index b52cbfbe119e9b00fcd63b943a8f4ddbf57066e8..d591fe93e93a6021a56dd86428c78b43aaab3df0 100644 (file)
        ALIGN
 __kernel_vsyscall:
        CFI_STARTPROC
-       int $0x80
+       /*
+        * Reshuffle regs so that all of any of the entry instructions
+        * will preserve enough state.
+        */
+       pushl   %edx
+       CFI_ADJUST_CFA_OFFSET   4
+       CFI_REL_OFFSET          edx, 0
+       pushl   %ecx
+       CFI_ADJUST_CFA_OFFSET   4
+       CFI_REL_OFFSET          ecx, 0
+       movl    %esp, %ecx
+
+       /* Enter using int $0x80 */
+       movl    (%esp), %ecx
+       int     $0x80
+GLOBAL(int80_landing_pad)
+
+       /* Restore ECX and EDX in case they were clobbered. */
+       popl    %ecx
+       CFI_RESTORE             ecx
+       CFI_ADJUST_CFA_OFFSET   -4
+       popl    %edx
+       CFI_RESTORE             edx
+       CFI_ADJUST_CFA_OFFSET   -4
        ret
        CFI_ENDPROC
 
index 5bcb1de8296eebd49cd9822deede21b00b0bdcd3..756de9190aecad5d7939ee7189703a9177f4da25 100644 (file)
@@ -26,6 +26,7 @@ struct vdso_image {
        long sym___kernel_sigreturn;
        long sym___kernel_rt_sigreturn;
        long sym___kernel_vsyscall;
+       long sym_int80_landing_pad;
 };
 
 #ifdef CONFIG_X86_64