KVM: VMX: Rename "__find_msr_index" to "__vmx_find_uret_msr"
authorSean Christopherson <sean.j.christopherson@intel.com>
Wed, 23 Sep 2020 18:04:02 +0000 (11:04 -0700)
committerPaolo Bonzini <pbonzini@redhat.com>
Mon, 28 Sep 2020 11:57:58 +0000 (07:57 -0400)
Rename "__find_msr_index" to scope it to VMX, associate it with
guest_uret_msrs, and to avoid conflating "MSR's ECX index" with "MSR's
array index".  Similarly, don't use "slot" in the name so as to avoid
colliding the common x86's half of "user_return_msrs" (the slot in
kvm_user_return_msrs is not the same slot in guest_uret_msrs).

No functional change intended.

Signed-off-by: Sean Christopherson <sean.j.christopherson@intel.com>
Message-Id: <20200923180409.32255-9-sean.j.christopherson@intel.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/kvm/vmx/vmx.c

index 252cce60af70c537a4a07f6e17617d7592ad1078..ae3c01cde79d238035d049d15efc51afbd37d5b9 100644 (file)
@@ -611,7 +611,7 @@ static inline bool report_flexpriority(void)
        return flexpriority_enabled;
 }
 
-static inline int __find_msr_index(struct vcpu_vmx *vmx, u32 msr)
+static inline int __vmx_find_uret_msr(struct vcpu_vmx *vmx, u32 msr)
 {
        int i;
 
@@ -625,7 +625,7 @@ struct vmx_uret_msr *find_msr_entry(struct vcpu_vmx *vmx, u32 msr)
 {
        int i;
 
-       i = __find_msr_index(vmx, msr);
+       i = __vmx_find_uret_msr(vmx, msr);
        if (i >= 0)
                return &vmx->guest_uret_msrs[i];
        return NULL;
@@ -1637,24 +1637,24 @@ static void setup_msrs(struct vcpu_vmx *vmx)
         * when EFER.SCE is set.
         */
        if (is_long_mode(&vmx->vcpu) && (vmx->vcpu.arch.efer & EFER_SCE)) {
-               index = __find_msr_index(vmx, MSR_STAR);
+               index = __vmx_find_uret_msr(vmx, MSR_STAR);
                if (index >= 0)
                        move_msr_up(vmx, index, nr_active_uret_msrs++);
-               index = __find_msr_index(vmx, MSR_LSTAR);
+               index = __vmx_find_uret_msr(vmx, MSR_LSTAR);
                if (index >= 0)
                        move_msr_up(vmx, index, nr_active_uret_msrs++);
-               index = __find_msr_index(vmx, MSR_SYSCALL_MASK);
+               index = __vmx_find_uret_msr(vmx, MSR_SYSCALL_MASK);
                if (index >= 0)
                        move_msr_up(vmx, index, nr_active_uret_msrs++);
        }
 #endif
-       index = __find_msr_index(vmx, MSR_EFER);
+       index = __vmx_find_uret_msr(vmx, MSR_EFER);
        if (index >= 0 && update_transition_efer(vmx, index))
                move_msr_up(vmx, index, nr_active_uret_msrs++);
-       index = __find_msr_index(vmx, MSR_TSC_AUX);
+       index = __vmx_find_uret_msr(vmx, MSR_TSC_AUX);
        if (index >= 0 && guest_cpuid_has(&vmx->vcpu, X86_FEATURE_RDTSCP))
                move_msr_up(vmx, index, nr_active_uret_msrs++);
-       index = __find_msr_index(vmx, MSR_IA32_TSX_CTRL);
+       index = __vmx_find_uret_msr(vmx, MSR_IA32_TSX_CTRL);
        if (index >= 0)
                move_msr_up(vmx, index, nr_active_uret_msrs++);