Pull altix into release branch
[powerpc.git] / drivers / kvm / paging_tmpl.h
index 149fa45..f3bcee9 100644 (file)
@@ -128,8 +128,10 @@ static int FNAME(walk_addr)(struct guest_walker *walker,
                        goto access_error;
 #endif
 
-               if (!(*ptep & PT_ACCESSED_MASK))
-                       *ptep |= PT_ACCESSED_MASK;      /* avoid rmw */
+               if (!(*ptep & PT_ACCESSED_MASK)) {
+                       mark_page_dirty(vcpu->kvm, table_gfn);
+                       *ptep |= PT_ACCESSED_MASK;
+               }
 
                if (walker->level == PT_PAGE_TABLE_LEVEL) {
                        walker->gfn = (*ptep & PT_BASE_ADDR_MASK)
@@ -185,6 +187,12 @@ static void FNAME(release_walker)(struct guest_walker *walker)
                kunmap_atomic(walker->table, KM_USER0);
 }
 
+static void FNAME(mark_pagetable_dirty)(struct kvm *kvm,
+                                       struct guest_walker *walker)
+{
+       mark_page_dirty(kvm, walker->table_gfn[walker->level - 1]);
+}
+
 static void FNAME(set_pte)(struct kvm_vcpu *vcpu, u64 guest_pte,
                           u64 *shadow_pte, u64 access_bits, gfn_t gfn)
 {
@@ -348,12 +356,15 @@ static int FNAME(fix_write_pf)(struct kvm_vcpu *vcpu,
        } else if (kvm_mmu_lookup_page(vcpu, gfn)) {
                pgprintk("%s: found shadow page for %lx, marking ro\n",
                         __FUNCTION__, gfn);
+               mark_page_dirty(vcpu->kvm, gfn);
+               FNAME(mark_pagetable_dirty)(vcpu->kvm, walker);
                *guest_ent |= PT_DIRTY_MASK;
                *write_pt = 1;
                return 0;
        }
        mark_page_dirty(vcpu->kvm, gfn);
        *shadow_ent |= PT_WRITABLE_MASK;
+       FNAME(mark_pagetable_dirty)(vcpu->kvm, walker);
        *guest_ent |= PT_DIRTY_MASK;
        rmap_add(vcpu, shadow_ent);
 
@@ -430,9 +441,8 @@ static int FNAME(page_fault)(struct kvm_vcpu *vcpu, gva_t addr,
        /*
         * mmio: emulate if accessible, otherwise its a guest fault.
         */
-       if (is_io_pte(*shadow_pte)) {
+       if (is_io_pte(*shadow_pte))
                return 1;
-       }
 
        ++kvm_stat.pf_fixed;
        kvm_mmu_audit(vcpu, "post page fault (fixed)");
@@ -443,31 +453,17 @@ static int FNAME(page_fault)(struct kvm_vcpu *vcpu, gva_t addr,
 static gpa_t FNAME(gva_to_gpa)(struct kvm_vcpu *vcpu, gva_t vaddr)
 {
        struct guest_walker walker;
-       pt_element_t guest_pte;
-       gpa_t gpa;
-
-       FNAME(walk_addr)(&walker, vcpu, vaddr, 0, 0, 0);
-       guest_pte = *walker.ptep;
-       FNAME(release_walker)(&walker);
-
-       if (!is_present_pte(guest_pte))
-               return UNMAPPED_GVA;
-
-       if (walker.level == PT_DIRECTORY_LEVEL) {
-               ASSERT((guest_pte & PT_PAGE_SIZE_MASK));
-               ASSERT(PTTYPE == 64 || is_pse(vcpu));
+       gpa_t gpa = UNMAPPED_GVA;
+       int r;
 
-               gpa = (guest_pte & PT_DIR_BASE_ADDR_MASK) | (vaddr &
-                       (PT_LEVEL_MASK(PT_PAGE_TABLE_LEVEL) | ~PAGE_MASK));
+       r = FNAME(walk_addr)(&walker, vcpu, vaddr, 0, 0, 0);
 
-               if (PTTYPE == 32 && is_cpuid_PSE36())
-                       gpa |= (guest_pte & PT32_DIR_PSE36_MASK) <<
-                                       (32 - PT32_DIR_PSE36_SHIFT);
-       } else {
-               gpa = (guest_pte & PT_BASE_ADDR_MASK);
-               gpa |= (vaddr & ~PAGE_MASK);
+       if (r) {
+               gpa = (gpa_t)walker.gfn << PAGE_SHIFT;
+               gpa |= vaddr & ~PAGE_MASK;
        }
 
+       FNAME(release_walker)(&walker);
        return gpa;
 }