KVM: x86: MMU: always set accessed bit in shadow PTEs
authorPaolo Bonzini <pbonzini@redhat.com>
Fri, 13 Nov 2015 10:52:45 +0000 (11:52 +0100)
committerPaolo Bonzini <pbonzini@redhat.com>
Wed, 25 Nov 2015 16:24:23 +0000 (17:24 +0100)
Commit 7a1638ce4220 ("nEPT: Redefine EPT-specific link_shadow_page()",
2013-08-05) says:

    Since nEPT doesn't support A/D bit, we should not set those bit
    when building the shadow page table.

but this is not necessary.  Even though nEPT doesn't support A/D
bits, and hence the vmcs12 EPT pointer will never enable them,
we always use them for shadow page tables if available (see
construct_eptp in vmx.c).  So we can set the A/D bits freely
in the shadow page table.

This patch hence basically reverts commit 7a1638ce4220.

Cc: Yang Zhang <yang.z.zhang@Intel.com>
Cc: Takuya Yoshikawa <yoshikawa_takuya_b1@lab.ntt.co.jp>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/kvm/mmu.c
arch/x86/kvm/paging_tmpl.h

index e7c2c1428a691676a6a1fdadee044ab45124acc2..276d2f26250064e92b3c88b3e22a341e30db293c 100644 (file)
@@ -2198,7 +2198,7 @@ static void shadow_walk_next(struct kvm_shadow_walk_iterator *iterator)
        return __shadow_walk_next(iterator, *iterator->sptep);
 }
 
-static void link_shadow_page(u64 *sptep, struct kvm_mmu_page *sp, bool accessed)
+static void link_shadow_page(u64 *sptep, struct kvm_mmu_page *sp)
 {
        u64 spte;
 
@@ -2206,10 +2206,7 @@ static void link_shadow_page(u64 *sptep, struct kvm_mmu_page *sp, bool accessed)
                        VMX_EPT_WRITABLE_MASK != PT_WRITABLE_MASK);
 
        spte = __pa(sp->spt) | PT_PRESENT_MASK | PT_WRITABLE_MASK |
-              shadow_user_mask | shadow_x_mask;
-
-       if (accessed)
-               spte |= shadow_accessed_mask;
+              shadow_user_mask | shadow_x_mask | shadow_accessed_mask;
 
        mmu_spte_set(sptep, spte);
 }
@@ -2740,7 +2737,7 @@ static int __direct_map(struct kvm_vcpu *vcpu, gpa_t v, int write,
                                              iterator.level - 1,
                                              1, ACC_ALL, iterator.sptep);
 
-                       link_shadow_page(iterator.sptep, sp, true);
+                       link_shadow_page(iterator.sptep, sp);
                }
        }
        return emulate;
index 3058a22a658d25db2bb8ecf4a37657bc1f873c1d..d8fdc5cd2e5fff44c114d1ab92d536f08b6169f5 100644 (file)
@@ -598,7 +598,7 @@ static int FNAME(fetch)(struct kvm_vcpu *vcpu, gva_t addr,
                        goto out_gpte_changed;
 
                if (sp)
-                       link_shadow_page(it.sptep, sp, PT_GUEST_ACCESSED_MASK);
+                       link_shadow_page(it.sptep, sp);
        }
 
        for (;
@@ -618,7 +618,7 @@ static int FNAME(fetch)(struct kvm_vcpu *vcpu, gva_t addr,
 
                sp = kvm_mmu_get_page(vcpu, direct_gfn, addr, it.level-1,
                                      true, direct_access, it.sptep);
-               link_shadow_page(it.sptep, sp, PT_GUEST_ACCESSED_MASK);
+               link_shadow_page(it.sptep, sp);
        }
 
        clear_sp_write_flooding_count(it.sptep);