Merge branch 'x86/cleanups' into x86/urgent
[linux-2.6-block.git] / arch / x86 / kvm / mmu.c
index 1e7a49bfc94fb323cbb11782693cab89743f1133..ddb3291d49c90b955c03aa7c09b3c47319a4c110 100644 (file)
@@ -478,7 +478,7 @@ static bool spte_is_locklessly_modifiable(u64 spte)
 static bool spte_has_volatile_bits(u64 spte)
 {
        /*
-        * Always atomicly update spte if it can be updated
+        * Always atomically update spte if it can be updated
         * out of mmu-lock, it can ensure dirty bit is not lost,
         * also, it can help us to get a stable is_writable_pte()
         * to ensure tlb flush is not missed.
@@ -549,7 +549,7 @@ static bool mmu_spte_update(u64 *sptep, u64 new_spte)
 
        /*
         * For the spte updated out of mmu-lock is safe, since
-        * we always atomicly update it, see the comments in
+        * we always atomically update it, see the comments in
         * spte_has_volatile_bits().
         */
        if (spte_is_locklessly_modifiable(old_spte) &&