- Updated to 2.6.22-rc2-git7:
[linux-flexiantxendom0-3.2.10.git] / include / asm-i386 / mach-xen / asm / pgtable-2level.h
1 #ifndef _I386_PGTABLE_2LEVEL_H
2 #define _I386_PGTABLE_2LEVEL_H
3
4 #define pte_ERROR(e) \
5         printk("%s:%d: bad pte %08lx.\n", __FILE__, __LINE__, (e).pte_low)
6 #define pgd_ERROR(e) \
7         printk("%s:%d: bad pgd %08lx.\n", __FILE__, __LINE__, pgd_val(e))
8
9 /*
10  * Certain architectures need to do special things when PTEs
11  * within a page table are directly modified.  Thus, the following
12  * hook is made available.
13  */
14 #define set_pte(pteptr, pteval) (*(pteptr) = pteval)
15
16 #define set_pte_at(_mm,addr,ptep,pteval) do {                           \
17         if (((_mm) != current->mm && (_mm) != &init_mm) ||              \
18             HYPERVISOR_update_va_mapping((addr), (pteval), 0))          \
19                 set_pte((ptep), (pteval));                              \
20 } while (0)
21
22 #define set_pmd(pmdptr, pmdval) xen_l2_entry_update((pmdptr), (pmdval))
23
24 #define set_pte_atomic(pteptr, pteval) set_pte(pteptr,pteval)
25
26 #define pte_clear(mm,addr,xp)   do { set_pte_at(mm, addr, xp, __pte(0)); } while (0)
27 #define pmd_clear(xp)   do { set_pmd(xp, __pmd(0)); } while (0)
28
29 #define raw_ptep_get_and_clear(xp, pte) __pte_ma(xchg(&(xp)->pte_low, 0))
30
31 #define __HAVE_ARCH_PTEP_CLEAR_FLUSH
32 #define ptep_clear_flush(vma, addr, ptep)                       \
33 ({                                                              \
34         pte_t *__ptep = (ptep);                                 \
35         pte_t __res = *__ptep;                                  \
36         if (!pte_none(__res) &&                                 \
37             ((vma)->vm_mm != current->mm ||                     \
38              HYPERVISOR_update_va_mapping(addr, __pte(0),       \
39                         (unsigned long)(vma)->vm_mm->cpu_vm_mask.bits| \
40                                 UVMF_INVLPG|UVMF_MULTI))) {     \
41                 __ptep->pte_low = 0;                            \
42                 flush_tlb_page(vma, addr);                      \
43         }                                                       \
44         __res;                                                  \
45 })
46
47 #define __pte_mfn(_pte) ((_pte).pte_low >> PAGE_SHIFT)
48 #define pte_mfn(_pte) ((_pte).pte_low & _PAGE_PRESENT ? \
49         __pte_mfn(_pte) : pfn_to_mfn(__pte_mfn(_pte)))
50 #define pte_pfn(_pte) ((_pte).pte_low & _PAGE_PRESENT ? \
51         mfn_to_local_pfn(__pte_mfn(_pte)) : __pte_mfn(_pte))
52
53 #define pte_page(_pte) pfn_to_page(pte_pfn(_pte))
54 #define pte_none(x) (!(x).pte_low)
55
56 #define pfn_pte(pfn, prot)      __pte(((pfn) << PAGE_SHIFT) | pgprot_val(prot))
57 #define pfn_pmd(pfn, prot)      __pmd(((pfn) << PAGE_SHIFT) | pgprot_val(prot))
58
59 /*
60  * All present user pages are user-executable:
61  */
62 static inline int pte_exec(pte_t pte)
63 {
64         return pte_user(pte);
65 }
66
67 /*
68  * All present pages are kernel-executable:
69  */
70 static inline int pte_exec_kernel(pte_t pte)
71 {
72         return 1;
73 }
74
75 /*
76  * Bits 0, 6 and 7 are taken, split up the 29 bits of offset
77  * into this range:
78  */
79 #define PTE_FILE_MAX_BITS       29
80
81 #define pte_to_pgoff(pte) \
82         ((((pte).pte_low >> 1) & 0x1f ) + (((pte).pte_low >> 8) << 5 ))
83
84 #define pgoff_to_pte(off) \
85         ((pte_t) { (((off) & 0x1f) << 1) + (((off) >> 5) << 8) + _PAGE_FILE })
86
87 /* Encode and de-code a swap entry */
88 #define __swp_type(x)                   (((x).val >> 1) & 0x1f)
89 #define __swp_offset(x)                 ((x).val >> 8)
90 #define __swp_entry(type, offset)       ((swp_entry_t) { ((type) << 1) | ((offset) << 8) })
91 #define __pte_to_swp_entry(pte)         ((swp_entry_t) { (pte).pte_low })
92 #define __swp_entry_to_pte(x)           ((pte_t) { (x).val })
93
94 void vmalloc_sync_all(void);
95
96 #endif /* _I386_PGTABLE_2LEVEL_H */