x86: Fix various typos in comments, take #2
authorIngo Molnar <mingo@kernel.org>
Sun, 21 Mar 2021 21:28:53 +0000 (22:28 +0100)
committerIngo Molnar <mingo@kernel.org>
Sun, 21 Mar 2021 22:50:28 +0000 (23:50 +0100)
Fix another ~42 single-word typos in arch/x86/ code comments,
missed a few in the first pass, in particular in .S files.

Signed-off-by: Ingo Molnar <mingo@kernel.org>
Cc: Borislav Petkov <bp@alien8.de>
Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Peter Zijlstra <peterz@infradead.org>
Cc: Paolo Bonzini <pbonzini@redhat.com>
Cc: Bjorn Helgaas <bhelgaas@google.com>
Cc: linux-kernel@vger.kernel.org
41 files changed:
arch/x86/boot/compressed/efi_thunk_64.S
arch/x86/boot/compressed/head_64.S
arch/x86/crypto/crc32-pclmul_glue.c
arch/x86/crypto/twofish-x86_64-asm_64-3way.S
arch/x86/entry/entry_32.S
arch/x86/entry/entry_64.S
arch/x86/entry/vdso/vdso2c.c
arch/x86/entry/vdso/vdso32/system_call.S
arch/x86/entry/vdso/vma.c
arch/x86/entry/vdso/vsgx.S
arch/x86/events/intel/bts.c
arch/x86/events/intel/core.c
arch/x86/events/intel/p4.c
arch/x86/include/asm/agp.h
arch/x86/include/asm/intel_pt.h
arch/x86/include/asm/set_memory.h
arch/x86/kernel/amd_nb.c
arch/x86/kernel/apm_32.c
arch/x86/kernel/cpu/intel.c
arch/x86/kernel/cpu/mce/severity.c
arch/x86/kernel/cpu/mtrr/mtrr.c
arch/x86/kernel/cpu/resctrl/monitor.c
arch/x86/kernel/cpu/resctrl/rdtgroup.c
arch/x86/kernel/relocate_kernel_32.S
arch/x86/kernel/relocate_kernel_64.S
arch/x86/kernel/smp.c
arch/x86/kernel/tsc_sync.c
arch/x86/kernel/umip.c
arch/x86/kvm/svm/avic.c
arch/x86/kvm/vmx/nested.c
arch/x86/math-emu/reg_ld_str.c
arch/x86/math-emu/reg_round.S
arch/x86/mm/fault.c
arch/x86/mm/init.c
arch/x86/mm/pkeys.c
arch/x86/platform/efi/quirks.c
arch/x86/platform/olpc/olpc-xo15-sci.c
arch/x86/platform/olpc/olpc_dt.c
arch/x86/power/cpu.c
arch/x86/realmode/init.c
arch/x86/xen/mmu_pv.c

index c4bb0f9363f5ee6494f86780d2a93ff82cc40fb3..95a223b3e56a2b6b6b113867e6d9bbe49c90e419 100644 (file)
@@ -5,7 +5,7 @@
  * Early support for invoking 32-bit EFI services from a 64-bit kernel.
  *
  * Because this thunking occurs before ExitBootServices() we have to
- * restore the firmware's 32-bit GDT before we make EFI serivce calls,
+ * restore the firmware's 32-bit GDT before we make EFI service calls,
  * since the firmware's 32-bit IDT is still currently installed and it
  * needs to be able to service interrupts.
  *
index e94874f4bbc1d2e563ba76fd74145a8e137b2fc7..a8c4095ee1150e8bb6c4002e37118b00ace3ea0f 100644 (file)
@@ -231,7 +231,7 @@ SYM_FUNC_START(startup_32)
        /*
         * Setup for the jump to 64bit mode
         *
-        * When the jump is performend we will be in long mode but
+        * When the jump is performed we will be in long mode but
         * in 32bit compatibility mode with EFER.LME = 1, CS.L = 0, CS.D = 1
         * (and in turn EFER.LMA = 1).  To jump into 64bit mode we use
         * the new gdt/idt that has __KERNEL_CS with CS.L = 1.
index 7c4c7b2fbf0599ce3dd85c497946f7c13489adfd..98cf3b4e4c9fecfe8b2a479640f9f84a8215a046 100644 (file)
@@ -24,7 +24,7 @@
 /*
  * Copyright 2012 Xyratex Technology Limited
  *
- * Wrappers for kernel crypto shash api to pclmulqdq crc32 imlementation.
+ * Wrappers for kernel crypto shash api to pclmulqdq crc32 implementation.
  */
 #include <linux/init.h>
 #include <linux/module.h>
index fc23552afe37d767ba484155bf99dd843ed7e9b1..bca4cea757ce245b7044a86924263c90c50206f4 100644 (file)
@@ -88,7 +88,7 @@
 
 /*
  * Combined G1 & G2 function. Reordered with help of rotates to have moves
- * at begining.
+ * at beginning.
  */
 #define g1g2_3(ab, cd, Tx0, Tx1, Tx2, Tx3, Ty0, Ty1, Ty2, Ty3, x, y) \
        /* G1,1 && G2,1 */ \
index df8c017e616119850d7df71a72a7021bdf715241..cc7745aa4630a130fdba4e9522a40c04ad0d35ab 100644 (file)
         *
         * Lets build a 5 entry IRET frame after that, such that struct pt_regs
         * is complete and in particular regs->sp is correct. This gives us
-        * the original 6 enties as gap:
+        * the original 6 entries as gap:
         *
         * 14*4(%esp) - <previous context>
         * 13*4(%esp) - gap / flags
index 400908dff42ebfebf0f0dda3063b9b41ff7ffd2c..0a7e9647e84a8d35299c44d13bdf151df61f8d07 100644 (file)
@@ -511,7 +511,7 @@ SYM_CODE_START(\asmsym)
        /*
         * No need to switch back to the IST stack. The current stack is either
         * identical to the stack in the IRET frame or the VC fall-back stack,
-        * so it is definitly mapped even with PTI enabled.
+        * so it is definitely mapped even with PTI enabled.
         */
        jmp     paranoid_exit
 
index 2d0f3d8bcc257cc421a4df652e6909d6f2f44c11..edfe9780f6d1962b0d57c91475b025d0cc024936 100644 (file)
@@ -218,7 +218,7 @@ int main(int argc, char **argv)
 
        /*
         * Figure out the struct name.  If we're writing to a .so file,
-        * generate raw output insted.
+        * generate raw output instead.
         */
        name = strdup(argv[3]);
        namelen = strlen(name);
index de1fff7188aad1a5074f0823372ac97fb9f54b14..b15adf7f5ef81a587bccb2745b72c69d5dc2c92a 100644 (file)
@@ -29,7 +29,7 @@ __kernel_vsyscall:
         * anyone with an AMD CPU, for example).  Nonetheless, we try to keep
         * it working approximately as well as it ever worked.
         *
-        * This link may eludicate some of the history:
+        * This link may elucidate some of the history:
         *   https://android-review.googlesource.com/#/q/Iac3295376d61ef83e713ac9b528f3b50aa780cd7
         * personally, I find it hard to understand what's going on there.
         *
index 825e829ffff19e245adde1855af2ffc675a12219..235a5794296acbef611d65d2de8cbec7de9f4ed3 100644 (file)
@@ -358,7 +358,7 @@ int map_vdso_once(const struct vdso_image *image, unsigned long addr)
        mmap_write_lock(mm);
        /*
         * Check if we have already mapped vdso blob - fail to prevent
-        * abusing from userspace install_speciall_mapping, which may
+        * abusing from userspace install_special_mapping, which may
         * not do accounting and rlimit right.
         * We could search vma near context.vdso, but it's a slowpath,
         * so let's explicitly check all VMAs to be completely sure.
index 86a0e94f68dff84f3bbe139300fa0d55df350e75..99dafac992e2cecc3a9cb9c311e012afc971ffd5 100644 (file)
@@ -137,7 +137,7 @@ SYM_FUNC_START(__vdso_sgx_enter_enclave)
 
        /*
         * If the return from callback is zero or negative, return immediately,
-        * else re-execute ENCLU with the postive return value interpreted as
+        * else re-execute ENCLU with the positive return value interpreted as
         * the requested ENCLU function.
         */
        cmp     $0, %eax
index 731dd8d0dbb11cc538899b181e32c92aa916900e..6320d2cfd9d3e12617babf3b2fa06906166df87a 100644 (file)
@@ -594,7 +594,7 @@ static __init int bts_init(void)
                 * we cannot use the user mapping since it will not be available
                 * if we're not running the owning process.
                 *
-                * With PTI we can't use the kernal map either, because its not
+                * With PTI we can't use the kernel map either, because its not
                 * there when we run userspace.
                 *
                 * For now, disable this driver when using PTI.
index 8a70d4dfa16a556a02eca7b3884f837f624b70bf..f9b638e72e2056cc90e667842cb1ca804cf71bf0 100644 (file)
@@ -2776,7 +2776,7 @@ static int handle_pmi_common(struct pt_regs *regs, u64 status)
         * processing loop coming after that the function, otherwise
         * phony regular samples may be generated in the sampling buffer
         * not marked with the EXACT tag. Another possibility is to have
-        * one PEBS event and at least one non-PEBS event whic hoverflows
+        * one PEBS event and at least one non-PEBS event whicoverflows
         * while PEBS has armed. In this case, bit 62 of GLOBAL_STATUS will
         * not be set, yet the overflow status bit for the PEBS counter will
         * be on Skylake.
index 2aef604ac910c50bfa540fd8097f3cfc2ceb4358..971dffe0b77d475511f8416d607c86b6d4ae5be5 100644 (file)
@@ -1313,7 +1313,7 @@ static __initconst const struct x86_pmu p4_pmu = {
        .get_event_constraints  = x86_get_event_constraints,
        /*
         * IF HT disabled we may need to use all
-        * ARCH_P4_MAX_CCCR counters simulaneously
+        * ARCH_P4_MAX_CCCR counters simultaneously
         * though leave it restricted at moment assuming
         * HT is on
         */
index 62da760d6d5a6cb177df16f75a3e0e5975db1e1c..cd7b14322035ebbf2853c312164f7aef869f5b33 100644 (file)
@@ -9,7 +9,7 @@
  * Functions to keep the agpgart mappings coherent with the MMU. The
  * GART gives the CPU a physical alias of pages in memory. The alias
  * region is mapped uncacheable. Make sure there are no conflicting
- * mappings with different cachability attributes for the same
+ * mappings with different cacheability attributes for the same
  * page. This avoids data corruption on some CPUs.
  */
 
index 423b788f495e92ce8b059509c84feedbb66d9e37..ebe8d2ea44fe0973076f369273bf94394fcabf09 100644 (file)
@@ -3,7 +3,7 @@
 #define _ASM_X86_INTEL_PT_H
 
 #define PT_CPUID_LEAVES                2
-#define PT_CPUID_REGS_NUM      4 /* number of regsters (eax, ebx, ecx, edx) */
+#define PT_CPUID_REGS_NUM      4 /* number of registers (eax, ebx, ecx, edx) */
 
 enum pt_capabilities {
        PT_CAP_max_subleaf = 0,
index 675d84d00154a5d6592dfe074535f0037a66e171..43fa081a1adb236daf9c2f4de4e89616285ed40f 100644 (file)
@@ -8,7 +8,7 @@
 /*
  * The set_memory_* API can be used to change various attributes of a virtual
  * address range. The attributes include:
- * Cachability   : UnCached, WriteCombining, WriteThrough, WriteBack
+ * Cacheability  : UnCached, WriteCombining, WriteThrough, WriteBack
  * Executability : eXecutable, NoteXecutable
  * Read/Write    : ReadOnly, ReadWrite
  * Presence      : NotPresent
index b4396952c9a6ce287a4d8e0587b62a617a484f92..09083094eb575c656beceaa5298f53c9d6ffb206 100644 (file)
@@ -1,6 +1,6 @@
 // SPDX-License-Identifier: GPL-2.0-only
 /*
- * Shared support code for AMD K8 northbridges and derivates.
+ * Shared support code for AMD K8 northbridges and derivatives.
  * Copyright 2006 Andi Kleen, SUSE Labs.
  */
 
index abb8dea32becab0f18d1419bfa384b020b0bdc41..241dda687eb9f684e933efffee5f9228323f4e37 100644 (file)
@@ -1025,7 +1025,7 @@ static int apm_enable_power_management(int enable)
  *     status which gives the rough battery status, and current power
  *     source. The bat value returned give an estimate as a percentage
  *     of life and a status value for the battery. The estimated life
- *     if reported is a lifetime in secodnds/minutes at current power
+ *     if reported is a lifetime in seconds/minutes at current power
  *     consumption.
  */
 
index 0e422a5448351c6d418a3bc40f40b39e5d7c2e1d..63e381a46153e0aa108fd5583b8ac3ec6b728323 100644 (file)
@@ -301,7 +301,7 @@ static void early_init_intel(struct cpuinfo_x86 *c)
         *  The operating system must reload CR3 to cause the TLB to be flushed"
         *
         * As a result, boot_cpu_has(X86_FEATURE_PGE) in arch/x86/include/asm/tlbflush.h
-        * should be false so that __flush_tlb_all() causes CR3 insted of CR4.PGE
+        * should be false so that __flush_tlb_all() causes CR3 instead of CR4.PGE
         * to be modified.
         */
        if (c->x86 == 5 && c->x86_model == 9) {
index 83df991314c531bea4c1b90b98d2f8f61fab66ab..55ffa84d30d6949e4cf260afaac23a9219ebfcb1 100644 (file)
@@ -142,7 +142,7 @@ static struct severity {
                MASK(MCI_STATUS_OVER|MCI_UC_SAR, MCI_STATUS_UC|MCI_STATUS_AR)
                ),
        MCESEV(
-               KEEP, "Non signalled machine check",
+               KEEP, "Non signaled machine check",
                SER, BITCLR(MCI_STATUS_S)
                ),
 
index 28c8a23aa42ee9b0fc253f6f34e883a334f4d8ba..a76694bffe86a43c60e92079f41e1134049d04ed 100644 (file)
@@ -799,7 +799,7 @@ void mtrr_ap_init(void)
         *
         * This routine is called in two cases:
         *
-        *   1. very earily time of software resume, when there absolutely
+        *   1. very early time of software resume, when there absolutely
         *      isn't mtrr entry changes;
         *
         *   2. cpu hotadd time. We let mtrr_add/del_page hold cpuhotplug
index 98c0e215c5f9dd4b797cf15f31578412f6e1f696..dbeaa8409313492396bbe9a1dbf0f67c0b4de4d0 100644 (file)
@@ -397,7 +397,7 @@ void mon_event_count(void *info)
  * timer. Having 1s interval makes the calculation of bandwidth simpler.
  *
  * Although MBA's goal is to restrict the bandwidth to a maximum, there may
- * be a need to increase the bandwidth to avoid uncecessarily restricting
+ * be a need to increase the bandwidth to avoid unnecessarily restricting
  * the L2 <-> L3 traffic.
  *
  * Since MBA controls the L2 external bandwidth where as MBM measures the
@@ -480,7 +480,7 @@ static void update_mba_bw(struct rdtgroup *rgrp, struct rdt_domain *dom_mbm)
 
        /*
         * Delta values are updated dynamically package wise for each
-        * rdtgrp everytime the throttle MSR changes value.
+        * rdtgrp every time the throttle MSR changes value.
         *
         * This is because (1)the increase in bandwidth is not perfectly
         * linear and only "approximately" linear even when the hardware
index 2392f9f8eb0df838ebf1fbd7182cbea436bd126a..01fd30e7829dcf8accb31891e734ea770dd68b8b 100644 (file)
@@ -2555,7 +2555,7 @@ static int mkdir_mondata_subdir_alldom(struct kernfs_node *parent_kn,
 /*
  * This creates a directory mon_data which contains the monitored data.
  *
- * mon_data has one directory for each domain whic are named
+ * mon_data has one directory for each domain which are named
  * in the format mon_<domain_name>_<domain_id>. For ex: A mon_data
  * with L3 domain looks as below:
  * ./mon_data:
index 94b33885f8d20463c3038392a36373e266357a9d..f469153eca8ab305a873d4ac667b031a64e453ee 100644 (file)
@@ -107,7 +107,7 @@ SYM_CODE_START_LOCAL_NOALIGN(identity_mapped)
         *  - Write protect disabled
         *  - No task switch
         *  - Don't do FP software emulation.
-        *  - Proctected mode enabled
+        *  - Protected mode enabled
         */
        movl    %cr0, %eax
        andl    $~(X86_CR0_PG | X86_CR0_AM | X86_CR0_WP | X86_CR0_TS | X86_CR0_EM), %eax
index a4d9a261425b0f48da767884068112a053823fdb..c53271aebb64d9b6298f034206a9a130bc067c92 100644 (file)
@@ -121,7 +121,7 @@ SYM_CODE_START_LOCAL_NOALIGN(identity_mapped)
         *  - Write protect disabled
         *  - No task switch
         *  - Don't do FP software emulation.
-        *  - Proctected mode enabled
+        *  - Protected mode enabled
         */
        movq    %cr0, %rax
        andq    $~(X86_CR0_AM | X86_CR0_WP | X86_CR0_TS | X86_CR0_EM), %rax
index dbd68f3f4ead1e2943e7e3fe08376fd0aefffb2e..06db901fabe8e0e9d61403b754080fe2f9b46ac3 100644 (file)
@@ -204,7 +204,7 @@ static void native_stop_other_cpus(int wait)
                }
                /*
                 * Don't wait longer than 10 ms if the caller didn't
-                * reqeust it. If wait is true, the machine hangs here if
+                * request it. If wait is true, the machine hangs here if
                 * one or more CPUs do not reach shutdown state.
                 */
                timeout = USEC_PER_MSEC * 10;
index 3d3c761eb74a64a535f0d0c516d275e48a0a36b8..50a4515fe0ad15ec241c257735022287094a4514 100644 (file)
@@ -472,7 +472,7 @@ retry:
        /*
         * Add the result to the previous adjustment value.
         *
-        * The adjustement value is slightly off by the overhead of the
+        * The adjustment value is slightly off by the overhead of the
         * sync mechanism (observed values are ~200 TSC cycles), but this
         * really depends on CPU, node distance and frequency. So
         * compensating for this is hard to get right. Experiments show
index f6225bf22c02f60b66fb25abe9b068030a1f3c70..fac1daae7994a6d751f89d041d5c643231ce8f2c 100644 (file)
@@ -272,7 +272,7 @@ static int emulate_umip_insn(struct insn *insn, int umip_inst,
                 * by whether the operand is a register or a memory location.
                 * If operand is a register, return as many bytes as the operand
                 * size. If operand is memory, return only the two least
-                * siginificant bytes.
+                * significant bytes.
                 */
                if (X86_MODRM_MOD(insn->modrm.value) == 3)
                        *data_size = insn->opnd_bytes;
index 80010f9eb37422486799ec1dd20c19f07b6e88ce..3e55674098be08c7f983f2d1810d2908961da1b2 100644 (file)
@@ -727,7 +727,7 @@ static int svm_ir_list_add(struct vcpu_svm *svm, struct amd_iommu_pi_data *pi)
        struct amd_svm_iommu_ir *ir;
 
        /**
-        * In some cases, the existing irte is updaed and re-set,
+        * In some cases, the existing irte is updated and re-set,
         * so we need to check here if it's already been * added
         * to the ir_list.
         */
index bcca0b80e0d040be4ce9a4f9a2ee05d77e0c8257..1e069aac741004f1fbea664f813eaad430a997c3 100644 (file)
@@ -3537,7 +3537,7 @@ static int nested_vmx_run(struct kvm_vcpu *vcpu, bool launch)
         * snapshot restore (migration).
         *
         * In this flow, it is assumed that vmcs12 cache was
-        * trasferred as part of captured nVMX state and should
+        * transferred as part of captured nVMX state and should
         * therefore not be read from guest memory (which may not
         * exist on destination host yet).
         */
index fe6246ff98870580ce11a2b2178b68b731c4036c..7ca6417c0c8d1727f78d4bb6df8f5d08f0197788 100644 (file)
@@ -964,7 +964,7 @@ int FPU_store_bcd(FPU_REG *st0_ptr, u_char st0_tag, u_char __user *d)
 /* The return value (in eax) is zero if the result is exact,
    if bits are changed due to rounding, truncation, etc, then
    a non-zero value is returned */
-/* Overflow is signalled by a non-zero return value (in eax).
+/* Overflow is signaled by a non-zero return value (in eax).
    In the case of overflow, the returned significand always has the
    largest possible value */
 int FPU_round_to_int(FPU_REG *r, u_char tag)
index 11a1f798451bd153822dbcc7babd41ffb6f174cd..4a9fc3cc5a4d4266adfd2ccc5911c4fa8a066476 100644 (file)
@@ -575,7 +575,7 @@ Normalise_result:
 #ifdef PECULIAR_486
        /*
         * This implements a special feature of 80486 behaviour.
-        * Underflow will be signalled even if the number is
+        * Underflow will be signaled even if the number is
         * not a denormal after rounding.
         * This difference occurs only for masked underflow, and not
         * in the unmasked case.
index ea70b829fb164ae4d4f78a4fb35064db1b165a28..1c548ad0075204e3d129913be2767b64d1edb2fc 100644 (file)
@@ -1497,7 +1497,7 @@ DEFINE_IDTENTRY_RAW_ERRORCODE(exc_page_fault)
         * userspace task is trying to access some valid (from guest's point of
         * view) memory which is not currently mapped by the host (e.g. the
         * memory is swapped out). Note, the corresponding "page ready" event
-        * which is injected when the memory becomes available, is delived via
+        * which is injected when the memory becomes available, is delivered via
         * an interrupt mechanism and not a #PF exception
         * (see arch/x86/kernel/kvm.c: sysvec_kvm_asyncpf_interrupt()).
         *
index 742fbdfbf485a74db8a37b9d64eb676bb62199f3..fbf41dd142ca11f02b4fe2f524942f9dd08bcee0 100644 (file)
@@ -756,7 +756,7 @@ void __init init_mem_mapping(void)
 
 #ifdef CONFIG_X86_64
        if (max_pfn > max_low_pfn) {
-               /* can we preseve max_low_pfn ?*/
+               /* can we preserve max_low_pfn ?*/
                max_low_pfn = max_pfn;
        }
 #else
index 8873ed1438a978ec9b7e959556bbc1450161c5ba..a2332eef66e9f8532e9e52a56925a2a04f95a53d 100644 (file)
@@ -128,7 +128,7 @@ u32 init_pkru_value = PKRU_AD_KEY( 1) | PKRU_AD_KEY( 2) | PKRU_AD_KEY( 3) |
 /*
  * Called from the FPU code when creating a fresh set of FPU
  * registers.  This is called from a very specific context where
- * we know the FPU regstiers are safe for use and we can use PKRU
+ * we know the FPU registers are safe for use and we can use PKRU
  * directly.
  */
 void copy_init_pkru_to_fpregs(void)
index fda4216e6f5dafeed1b3142e27f28404c6c1cbb8..7850111008a8b87e4c5a63ea984fcfec18af8184 100644 (file)
@@ -441,7 +441,7 @@ void __init efi_free_boot_services(void)
                 * 1.4.4 with SGX enabled booting Linux via Fedora 24's
                 * grub2-efi on a hard disk.  (And no, I don't know why
                 * this happened, but Linux should still try to boot rather
-                * panicing early.)
+                * panicking early.)
                 */
                rm_size = real_mode_size_needed();
                if (rm_size && (start + rm_size) < (1<<20) && size >= rm_size) {
index 85f4638764d69b87d310702cd3453518f1bc547e..994a229cb79fe190fe6836dfb0c4aa7bc51fbd45 100644 (file)
@@ -27,7 +27,7 @@ static bool                           lid_wake_on_close;
  * wake-on-close. This is implemented as standard by the XO-1.5 DSDT.
  *
  * We provide here a sysfs attribute that will additionally enable
- * wake-on-close behavior. This is useful (e.g.) when we oportunistically
+ * wake-on-close behavior. This is useful (e.g.) when we opportunistically
  * suspend with the display running; if the lid is then closed, we want to
  * wake up to turn the display off.
  *
index 26d1f66937892eb9e4d3d78af9b3c1fa3993291b..75e3319e8bee5b22986473c5690cc4da8bc56e9c 100644 (file)
@@ -131,7 +131,7 @@ void * __init prom_early_alloc(unsigned long size)
                const size_t chunk_size = max(PAGE_SIZE, size);
 
                /*
-                * To mimimize the number of allocations, grab at least
+                * To minimize the number of allocations, grab at least
                 * PAGE_SIZE of memory (that's an arbitrary choice that's
                 * fast enough on the platforms we care about while minimizing
                 * wasted bootmem) and hand off chunks of it to callers.
index db1378c6ff2621dcf5b5363424b79d63aea67991..c9908bcdb249d91e88f96210cd0d57854ee7c484 100644 (file)
@@ -321,7 +321,7 @@ int hibernate_resume_nonboot_cpu_disable(void)
 
 /*
  * When bsp_check() is called in hibernate and suspend, cpu hotplug
- * is disabled already. So it's unnessary to handle race condition between
+ * is disabled already. So it's unnecessary to handle race condition between
  * cpumask query and cpu hotplug.
  */
 static int bsp_check(void)
index 22fda7d991590504f956f943d4d4d7bfdcea67ee..1be71ef5e4c4ed52ed074a90bf7d6d55efc901fb 100644 (file)
@@ -103,7 +103,7 @@ static void __init setup_real_mode(void)
                *ptr += phys_base;
        }
 
-       /* Must be perfomed *after* relocation. */
+       /* Must be performed *after* relocation. */
        trampoline_header = (struct trampoline_header *)
                __va(real_mode_header->trampoline_header);
 
index cf2ade864c3020be11927d71b67b636c75a0a3da..1e28c880f64262e4806cb134474939acf2f0a3b3 100644 (file)
@@ -2410,7 +2410,7 @@ int xen_remap_pfn(struct vm_area_struct *vma, unsigned long addr,
        rmd.prot = prot;
        /*
         * We use the err_ptr to indicate if there we are doing a contiguous
-        * mapping or a discontigious mapping.
+        * mapping or a discontiguous mapping.
         */
        rmd.contiguous = !err_ptr;
        rmd.no_translate = no_translate;