BSD 4_4_Lite1 release
[unix-history] / usr / src / sys / pmax / pmax / vm_machdep.c
index dad6c77..5f4c0a1 100644 (file)
@@ -1,32 +1,58 @@
 /*
  * Copyright (c) 1988 University of Utah.
 /*
  * Copyright (c) 1988 University of Utah.
- * Copyright (c) 1992 The Regents of the University of California.
- * All rights reserved.
+ * Copyright (c) 1992, 1993
+ *     The Regents of the University of California.  All rights reserved.
  *
  * This code is derived from software contributed to Berkeley by
  * the Systems Programming Group of the University of Utah Computer
  * Science Department and Ralph Campbell.
  *
  *
  * This code is derived from software contributed to Berkeley by
  * the Systems Programming Group of the University of Utah Computer
  * Science Department and Ralph Campbell.
  *
- * %sccs.include.redist.c%
+ * Redistribution and use in source and binary forms, with or without
+ * modification, are permitted provided that the following conditions
+ * are met:
+ * 1. Redistributions of source code must retain the above copyright
+ *    notice, this list of conditions and the following disclaimer.
+ * 2. Redistributions in binary form must reproduce the above copyright
+ *    notice, this list of conditions and the following disclaimer in the
+ *    documentation and/or other materials provided with the distribution.
+ * 3. All advertising materials mentioning features or use of this software
+ *    must display the following acknowledgement:
+ *     This product includes software developed by the University of
+ *     California, Berkeley and its contributors.
+ * 4. Neither the name of the University nor the names of its contributors
+ *    may be used to endorse or promote products derived from this software
+ *    without specific prior written permission.
+ *
+ * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
+ * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
+ * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
+ * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
+ * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
+ * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
+ * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
+ * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
+ * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
+ * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
+ * SUCH DAMAGE.
  *
  * from: Utah $Hdr: vm_machdep.c 1.21 91/04/06$
  *
  *
  * from: Utah $Hdr: vm_machdep.c 1.21 91/04/06$
  *
- *     @(#)vm_machdep.c        7.4 (Berkeley) %G%
+ *     @(#)vm_machdep.c        8.3 (Berkeley) 1/4/94
  */
 
  */
 
-#include "param.h"
-#include "systm.h"
-#include "proc.h"
-#include "malloc.h"
-#include "buf.h"
-#include "vnode.h"
-#include "user.h"
+#include <sys/param.h>
+#include <sys/systm.h>
+#include <sys/proc.h>
+#include <sys/malloc.h>
+#include <sys/buf.h>
+#include <sys/vnode.h>
+#include <sys/user.h>
 
 
-#include "vm/vm.h"
-#include "vm/vm_kern.h"
-#include "vm/vm_page.h"
+#include <vm/vm.h>
+#include <vm/vm_kern.h>
+#include <vm/vm_page.h>
 
 
-#include "../include/pte.h"
+#include <machine/pte.h>
 
 /*
  * Finish a fork operation, with process p2 nearly set up.
 
 /*
  * Finish a fork operation, with process p2 nearly set up.
@@ -49,10 +75,10 @@ cpu_fork(p1, p2)
        p2->p_md.md_flags = p1->p_md.md_flags & (MDP_FPUSED | MDP_ULTRIX);
 
        /*
        p2->p_md.md_flags = p1->p_md.md_flags & (MDP_FPUSED | MDP_ULTRIX);
 
        /*
-        * Convert the user struct virtual address to a physical one
-        * and cache it in the proc struct. Note: if the phyical address
-        * can change (due to memory compaction in kmem_alloc?),
-        * we will have to update things.
+        * Cache the PTEs for the user area in the machine dependent
+        * part of the proc struct so cpu_switch() can quickly map in
+        * the user struct and kernel stack. Note: if the virtual address
+        * translation changes (e.g. swapout) we have to update this.
         */
        pte = kvtopte(up);
        for (i = 0; i < UPAGES; i++) {
         */
        pte = kvtopte(up);
        for (i = 0; i < UPAGES; i++) {
@@ -73,6 +99,8 @@ cpu_fork(p1, p2)
         * part of the stack.  The stack and pcb need to agree;
         */
        p2->p_addr->u_pcb = p1->p_addr->u_pcb;
         * part of the stack.  The stack and pcb need to agree;
         */
        p2->p_addr->u_pcb = p1->p_addr->u_pcb;
+       /* cache segtab for ULTBMiss() */
+       p2->p_addr->u_pcb.pcb_segtab = (void *)p2->p_vmspace->vm_pmap.pm_segtab;
 
        /*
         * Arrange for a non-local goto when the new process
 
        /*
         * Arrange for a non-local goto when the new process
@@ -91,13 +119,38 @@ cpu_fork(p1, p2)
        return (0);
 }
 
        return (0);
 }
 
+/*
+ * Finish a swapin operation.
+ * We neded to update the cached PTEs for the user area in the
+ * machine dependent part of the proc structure.
+ */
+void
+cpu_swapin(p)
+       register struct proc *p;
+{
+       register struct user *up = p->p_addr;
+       register pt_entry_t *pte;
+       register int i;
+
+       /*
+        * Cache the PTEs for the user area in the machine dependent
+        * part of the proc struct so cpu_switch() can quickly map in
+        * the user struct and kernel stack.
+        */
+       pte = kvtopte(up);
+       for (i = 0; i < UPAGES; i++) {
+               p->p_md.md_upte[i] = pte->pt_entry & ~PG_G;
+               pte++;
+       }
+}
+
 /*
  * cpu_exit is called as the last action during exit.
  * We release the address space and machine-dependent resources,
  * including the memory for the user structure and kernel stack.
 /*
  * cpu_exit is called as the last action during exit.
  * We release the address space and machine-dependent resources,
  * including the memory for the user structure and kernel stack.
- * Once finished, we call swtch_exit, which switches to a temporary
+ * Once finished, we call switch_exit, which switches to a temporary
  * pcb and stack and never returns.  We block memory allocation
  * pcb and stack and never returns.  We block memory allocation
- * until swtch_exit has made things safe again.
+ * until switch_exit has made things safe again.
  */
 cpu_exit(p)
        struct proc *p;
  */
 cpu_exit(p)
        struct proc *p;
@@ -111,19 +164,26 @@ cpu_exit(p)
 
        (void) splhigh();
        kmem_free(kernel_map, (vm_offset_t)p->p_addr, ctob(UPAGES));
 
        (void) splhigh();
        kmem_free(kernel_map, (vm_offset_t)p->p_addr, ctob(UPAGES));
-       swtch_exit();
+       switch_exit();
        /* NOTREACHED */
 }
 
 /*
  * Dump the machine specific header information at the start of a core dump.
        /* NOTREACHED */
 }
 
 /*
  * Dump the machine specific header information at the start of a core dump.
- * XXX should snapshot FPU here?
  */
 cpu_coredump(p, vp, cred)
        struct proc *p;
        struct vnode *vp;
        struct ucred *cred;
 {
  */
 cpu_coredump(p, vp, cred)
        struct proc *p;
        struct vnode *vp;
        struct ucred *cred;
 {
+       extern struct proc *machFPCurProcPtr;
+
+       /*
+        * Copy floating point state from the FP chip if this process
+        * has state stored there.
+        */
+       if (p == machFPCurProcPtr)
+               MachSaveCurFPState(p);
 
        return (vn_rdwr(UIO_WRITE, vp, (caddr_t)p->p_addr, ctob(UPAGES),
            (off_t)0, UIO_SYSSPACE, IO_NODELOCKED|IO_UNIT, cred, (int *)NULL,
 
        return (vn_rdwr(UIO_WRITE, vp, (caddr_t)p->p_addr, ctob(UPAGES),
            (off_t)0, UIO_SYSSPACE, IO_NODELOCKED|IO_UNIT, cred, (int *)NULL,