commented early_printk patch because of rejects.
[linux-flexiantxendom0-3.2.10.git] / arch / mips / kernel / r4k_switch.S
index 67609f0..030667a 100644 (file)
@@ -3,7 +3,7 @@
  * License.  See the file "COPYING" in the main directory of this archive
  * for more details.
  *
- * Copyright (C) 1994, 1995, 1996, 1998, 1999, 2002 by Ralf Baechle
+ * Copyright (C) 1994, 1995, 1996, 1998, 1999, 2002, 2003 Ralf Baechle
  * Copyright (C) 1996 David S. Miller (dm@engr.sgi.com)
  * Copyright (C) 1994, 1995, 1996, by Andreas Busse
  * Copyright (C) 1999 Silicon Graphics, Inc.
 
 #include <asm/asmmacro.h>
 
-#define ST_OFF (KERNEL_STACK_SIZE - 32 - PT_SIZE + PT_STATUS)
+       .set    mips3
+
+/*
+ * Offset to the current process status flags, the first 32 bytes of the
+ * stack are not used.
+ */
+#define ST_OFF (_THREAD_SIZE - 32 - PT_SIZE + PT_STATUS)
 
 /*
  * FPU context is saved iff the process has used it's FPU in the current
- * time slice as indicated by TIF_USEDFPU.  In any case, the CU1 bit for user
+ * time slice as indicated by _TIF_USEDFPU.  In any case, the CU1 bit for user
  * space STATUS register should be 0, so that a process *always* starts its 
  * userland with FPU disabled after each context switch.
  *
- * FPU will be enabled as soon as the process accesses FPU again, through 
+ * FPU will be enabled as soon as the process accesses FPU again, through
  * do_cpu() trap.
  */
 
 /*
- * task_struct *r4xx0_resume(task_struct *prev, task_struct *next,
- *                           struct thread_info *next_ti)
+ * task_struct *resume(task_struct *prev, task_struct *next,
+ *                     struct thread_info *next_ti)
  */
        .align  5
        LEAF(resume)
 #ifndef CONFIG_CPU_HAS_LLSC
-       sw      zero, ll_bit
+       sw      zero, ll_bit
 #endif
        mfc0    t1, CP0_STATUS
-       sw      t1, THREAD_STATUS(a0)
-       CPU_SAVE_NONSCRATCH(a0)
-       sw      ra, THREAD_REG31(a0)
+       LONG_S  t1, THREAD_STATUS(a0)
+       cpu_save_nonscratch a0
+       LONG_S  ra, THREAD_REG31(a0)
 
-       /* 
+       /*
         * check if we need to save FPU registers
         */
-       lw      t3, TASK_THREAD_INFO(a0)
-       lw      t0, TI_FLAGS(t3)
+       PTR_L   t3, TASK_THREAD_INFO(a0)
+       LONG_L  t0, TI_FLAGS(t3)
        li      t1, _TIF_USEDFPU
        and     t2, t0, t1
        beqz    t2, 1f
        nor     t1, zero, t1
 
        and     t0, t0, t1
-       sw      t0, TI_FLAGS(t3)
+       LONG_S  t0, TI_FLAGS(t3)
 
        /*
         * clear saved user stack CU1 bit
         */
-       lw      t0, ST_OFF(t3)
+       LONG_L  t0, ST_OFF(t3)
        li      t1, ~ST0_CU1
        and     t0, t0, t1
-       sw      t0, ST_OFF(t3)
-
-       FPU_SAVE_DOUBLE(a0, t0)                 # clobbers t0
+       LONG_S  t0, ST_OFF(t3)
 
+#ifdef CONFIG_MIPS32
+       fpu_save_double a0 t0                   # clobbers t0
+#endif
+#ifdef CONFIG_MIPS64
+       sll     t2, t0, 5
+       bgez    t2, 2f
+       sdc1    $f0, (THREAD_FPU + 0x00)(a0)
+        fpu_save_16odd a0
+2:
+        fpu_save_16even a0 t1                   # clobbers t1
+#endif
 1:
+
        /*
         * The order of restoring the registers takes care of the race
         * updating $28, $29 and kernelsp without disabling ints.
         */
        move    $28, a2
-       CPU_RESTORE_NONSCRATCH(a1)
-
-       addiu   t0, $28, KERNEL_STACK_SIZE-32
-#ifdef CONFIG_SMP
-       mfc0    a3, CP0_CONTEXT
-       la      t1, kernelsp
-       srl     a3, 23
-       sll     a3, 2
-       addu    t1, a3, t1
-       sw      t0, (t1)
-#else
-       sw      t0, kernelsp
-#endif
+       cpu_restore_nonscratch a1
+
+       PTR_ADDIU       t0, $28, _THREAD_SIZE - 32
+       set_saved_sp    t0, t1, t2
 
        mfc0    t1, CP0_STATUS          /* Do we really need this? */
        li      a3, 0xff00
        and     t1, a3
-       lw      a2, THREAD_STATUS(a1)
+       LONG_L  a2, THREAD_STATUS(a1)
        nor     a3, $0, a3
        and     a2, a3
        or      a2, t1
  * Save a thread's fp context.
  */
 LEAF(_save_fp)
-       FPU_SAVE_DOUBLE(a0, t1)                 # clobbers t1
+#ifdef CONFIG_MIPS32
+       fpu_save_double a0 t1                   # clobbers t1
+#endif
+#ifdef CONFIG_MIPS64
+       mfc0    t0, CP0_STATUS
+       sll     t1, t0, 5
+       bgez    t1, 1f                          # 16 register mode?
+       fpu_save_16odd a0
+1:
+       fpu_save_16even a0 t1                   # clobbers t1
+       sdc1    $f0, (THREAD_FPU + 0x00)(a0)
+#endif
        jr      ra
        END(_save_fp)
 
@@ -118,7 +136,19 @@ LEAF(_save_fp)
  * Restore a thread's fp context.
  */
 LEAF(_restore_fp)
-       FPU_RESTORE_DOUBLE(a0, t1)              # clobbers t1
+#ifdef CONFIG_MIPS32
+       fpu_restore_double a0, t1               # clobbers t1
+#endif
+#ifdef CONFIG_MIPS64
+       mfc0    t0, CP0_STATUS
+       sll     t1, t0, 5
+       bgez    t1, 1f                          # 16 register mode?
+
+       fpu_restore_16odd a0
+1:     fpu_restore_16even a0, t0               # clobbers t0
+        ldc1   $f0, (THREAD_FPU + 0x00)(a0)
+#endif
+
        jr      ra
        END(_restore_fp)
 
@@ -133,33 +163,55 @@ LEAF(_restore_fp)
 #define FPU_DEFAULT  0x00000000
 
 LEAF(_init_fpu)
-       .set    mips3
        mfc0    t0, CP0_STATUS
        li      t1, ST0_CU1
        or      t0, t1
        mtc0    t0, CP0_STATUS
-       FPU_ENABLE_HAZARD
+       fpu_enable_hazard
 
        li      t1, FPU_DEFAULT
        ctc1    t1, fcr31
 
-       li      t0, -1
-
-       dmtc1   t0, $f0
-       dmtc1   t0, $f2
-       dmtc1   t0, $f4
-       dmtc1   t0, $f6
-       dmtc1   t0, $f8
-       dmtc1   t0, $f10
-       dmtc1   t0, $f12
-       dmtc1   t0, $f14
-       dmtc1   t0, $f16
-       dmtc1   t0, $f18
-       dmtc1   t0, $f20
-       dmtc1   t0, $f22
-       dmtc1   t0, $f24
-       dmtc1   t0, $f26
-       dmtc1   t0, $f28
-       dmtc1   t0, $f30
+       li      t1, -1                          # SNaN
+
+#ifdef CONFIG_MIPS64
+       sll     t0, t0, 5
+       bgez    t0, 1f                          # 16 / 32 register mode?
+
+       dmtc1   t1, $f1
+       dmtc1   t1, $f3
+       dmtc1   t1, $f5
+       dmtc1   t1, $f7
+       dmtc1   t1, $f9
+       dmtc1   t1, $f11
+       dmtc1   t1, $f13
+       dmtc1   t1, $f15
+       dmtc1   t1, $f17
+       dmtc1   t1, $f19
+       dmtc1   t1, $f21
+       dmtc1   t1, $f23
+       dmtc1   t1, $f25
+       dmtc1   t1, $f27
+       dmtc1   t1, $f29
+       dmtc1   t1, $f31
+1:
+#endif
+
+       dmtc1   t1, $f0
+       dmtc1   t1, $f2
+       dmtc1   t1, $f4
+       dmtc1   t1, $f6
+       dmtc1   t1, $f8
+       dmtc1   t1, $f10
+       dmtc1   t1, $f12
+       dmtc1   t1, $f14
+       dmtc1   t1, $f16
+       dmtc1   t1, $f18
+       dmtc1   t1, $f20
+       dmtc1   t1, $f22
+       dmtc1   t1, $f24
+       dmtc1   t1, $f26
+       dmtc1   t1, $f28
+       dmtc1   t1, $f30
        jr      ra
        END(_init_fpu)