sched/clock/x86: Mark sched_clock() noinstr
authorPeter Zijlstra <peterz@infradead.org>
Thu, 26 Jan 2023 15:08:36 +0000 (16:08 +0100)
committerIngo Molnar <mingo@kernel.org>
Tue, 31 Jan 2023 14:01:47 +0000 (15:01 +0100)
In order to use sched_clock() from noinstr code, mark it and all it's
implenentations noinstr.

The whole pvclock thing (used by KVM/Xen) is a bit of a pain,
since it calls out to watchdogs, create a
pvclock_clocksource_read_nowd() variant doesn't do that and can be
noinstr.

Signed-off-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Signed-off-by: Ingo Molnar <mingo@kernel.org>
Link: https://lore.kernel.org/r/20230126151323.702003578@infradead.org
arch/x86/include/asm/kvmclock.h
arch/x86/include/asm/paravirt.h
arch/x86/include/asm/pvclock.h
arch/x86/kernel/cpu/vmware.c
arch/x86/kernel/kvmclock.c
arch/x86/kernel/pvclock.c
arch/x86/kernel/tsc.c
arch/x86/xen/time.c
include/linux/math64.h

index 6c576519210280483b93f67d2101aa4f1d26445d..511b350691876dc1572183f60c282f22423494fc 100644 (file)
@@ -8,7 +8,7 @@ extern struct clocksource kvm_clock;
 
 DECLARE_PER_CPU(struct pvclock_vsyscall_time_info *, hv_clock_per_cpu);
 
-static inline struct pvclock_vcpu_time_info *this_cpu_pvti(void)
+static __always_inline struct pvclock_vcpu_time_info *this_cpu_pvti(void)
 {
        return &this_cpu_read(hv_clock_per_cpu)->pvti;
 }
index 86c9d83e2c9bc3bbe1ce90b4e30e45305aa640af..cf40e813b3d7d71df60c98d1c1056bb2d7672135 100644 (file)
@@ -26,7 +26,7 @@ DECLARE_STATIC_CALL(pv_sched_clock, dummy_sched_clock);
 
 void paravirt_set_sched_clock(u64 (*func)(void));
 
-static inline u64 paravirt_sched_clock(void)
+static __always_inline u64 paravirt_sched_clock(void)
 {
        return static_call(pv_sched_clock)();
 }
index 19b695ff2c68e3b51b7006a46cfbd90b750ac6f0..0c92db84469dbd5160c0676a0b482d98a3004d68 100644 (file)
@@ -7,6 +7,7 @@
 
 /* some helper functions for xen and kvm pv clock sources */
 u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src);
+u64 pvclock_clocksource_read_nowd(struct pvclock_vcpu_time_info *src);
 u8 pvclock_read_flags(struct pvclock_vcpu_time_info *src);
 void pvclock_set_flags(u8 flags);
 unsigned long pvclock_tsc_khz(struct pvclock_vcpu_time_info *src);
@@ -39,7 +40,7 @@ bool pvclock_read_retry(const struct pvclock_vcpu_time_info *src,
  * Scale a 64-bit delta by scaling and multiplying by a 32-bit fraction,
  * yielding a 64-bit result.
  */
-static inline u64 pvclock_scale_delta(u64 delta, u32 mul_frac, int shift)
+static __always_inline u64 pvclock_scale_delta(u64 delta, u32 mul_frac, int shift)
 {
        u64 product;
 #ifdef __i386__
index 02039ec3597d72474b797a5ef47c5abe6e1a9065..11f83d07925eb64b3267cb053d20499fc3c416df 100644 (file)
@@ -143,7 +143,7 @@ static __init int parse_no_stealacc(char *arg)
 }
 early_param("no-steal-acc", parse_no_stealacc);
 
-static unsigned long long notrace vmware_sched_clock(void)
+static noinstr u64 vmware_sched_clock(void)
 {
        unsigned long long ns;
 
index 16333ba1904ba5b1a31276c77d2807be4a6b72f1..0f35d44c56feb6d8cc50b54c8d8470b3b8b56caf 100644 (file)
@@ -71,12 +71,12 @@ static int kvm_set_wallclock(const struct timespec64 *now)
        return -ENODEV;
 }
 
-static u64 kvm_clock_read(void)
+static noinstr u64 kvm_clock_read(void)
 {
        u64 ret;
 
        preempt_disable_notrace();
-       ret = pvclock_clocksource_read(this_cpu_pvti());
+       ret = pvclock_clocksource_read_nowd(this_cpu_pvti());
        preempt_enable_notrace();
        return ret;
 }
@@ -86,7 +86,7 @@ static u64 kvm_clock_get_cycles(struct clocksource *cs)
        return kvm_clock_read();
 }
 
-static u64 kvm_sched_clock_read(void)
+static noinstr u64 kvm_sched_clock_read(void)
 {
        return kvm_clock_read() - kvm_sched_clock_offset;
 }
index 5a2a517dd61be5cd4a163a387d378a664e073ab3..56acf53a782ad8e1b4193b5bdf33063a91ba0bcf 100644 (file)
@@ -64,7 +64,8 @@ u8 pvclock_read_flags(struct pvclock_vcpu_time_info *src)
        return flags & valid_flags;
 }
 
-u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src)
+static __always_inline
+u64 __pvclock_clocksource_read(struct pvclock_vcpu_time_info *src, bool dowd)
 {
        unsigned version;
        u64 ret;
@@ -77,7 +78,7 @@ u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src)
                flags = src->flags;
        } while (pvclock_read_retry(src, version));
 
-       if (unlikely((flags & PVCLOCK_GUEST_STOPPED) != 0)) {
+       if (dowd && unlikely((flags & PVCLOCK_GUEST_STOPPED) != 0)) {
                src->flags &= ~PVCLOCK_GUEST_STOPPED;
                pvclock_touch_watchdogs();
        }
@@ -100,15 +101,25 @@ u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src)
         * updating at the same time, and one of them could be slightly behind,
         * making the assumption that last_value always go forward fail to hold.
         */
-       last = atomic64_read(&last_value);
+       last = arch_atomic64_read(&last_value);
        do {
                if (ret <= last)
                        return last;
-       } while (!atomic64_try_cmpxchg(&last_value, &last, ret));
+       } while (!arch_atomic64_try_cmpxchg(&last_value, &last, ret));
 
        return ret;
 }
 
+u64 pvclock_clocksource_read(struct pvclock_vcpu_time_info *src)
+{
+       return __pvclock_clocksource_read(src, true);
+}
+
+noinstr u64 pvclock_clocksource_read_nowd(struct pvclock_vcpu_time_info *src)
+{
+       return __pvclock_clocksource_read(src, false);
+}
+
 void pvclock_read_wallclock(struct pvclock_wall_clock *wall_clock,
                            struct pvclock_vcpu_time_info *vcpu_time,
                            struct timespec64 *ts)
index a78e73da4a74b351bf82407babe079b0b057fbc1..8c33936b017debf22664c921c9510ab6c8ad5f6f 100644 (file)
@@ -215,7 +215,7 @@ static void __init cyc2ns_init_secondary_cpus(void)
 /*
  * Scheduler clock - returns current time in nanosec units.
  */
-u64 native_sched_clock(void)
+noinstr u64 native_sched_clock(void)
 {
        if (static_branch_likely(&__use_tsc)) {
                u64 tsc_now = rdtsc();
@@ -248,7 +248,7 @@ u64 native_sched_clock_from_tsc(u64 tsc)
 /* We need to define a real function for sched_clock, to override the
    weak default version */
 #ifdef CONFIG_PARAVIRT
-unsigned long long sched_clock(void)
+noinstr u64 sched_clock(void)
 {
        return paravirt_sched_clock();
 }
@@ -258,8 +258,7 @@ bool using_native_sched_clock(void)
        return static_call_query(pv_sched_clock) == native_sched_clock;
 }
 #else
-unsigned long long
-sched_clock(void) __attribute__((alias("native_sched_clock")));
+u64 sched_clock(void) __attribute__((alias("native_sched_clock")));
 
 bool using_native_sched_clock(void) { return true; }
 #endif
index 9ef0a5cca96ee33b2b38600fcef19a28c010e4d5..6b8836deb7382f935cb7678f9485439508cb349d 100644 (file)
@@ -60,9 +60,17 @@ static u64 xen_clocksource_get_cycles(struct clocksource *cs)
        return xen_clocksource_read();
 }
 
-static u64 xen_sched_clock(void)
+static noinstr u64 xen_sched_clock(void)
 {
-       return xen_clocksource_read() - xen_sched_clock_offset;
+        struct pvclock_vcpu_time_info *src;
+       u64 ret;
+
+       preempt_disable_notrace();
+       src = &__this_cpu_read(xen_vcpu)->time;
+       ret = pvclock_clocksource_read_nowd(src);
+       ret -= xen_sched_clock_offset;
+       preempt_enable_notrace();
+       return ret;
 }
 
 static void xen_read_wallclock(struct timespec64 *ts)
index 8958f4c005c1e6e4dacb7bd5dda560cd14a5a0bb..8b9191a2849e7db90f48c5a4dbb4494c4abc5761 100644 (file)
@@ -161,7 +161,7 @@ static inline u64 mul_u32_u32(u32 a, u32 b)
 #if defined(CONFIG_ARCH_SUPPORTS_INT128) && defined(__SIZEOF_INT128__)
 
 #ifndef mul_u64_u32_shr
-static inline u64 mul_u64_u32_shr(u64 a, u32 mul, unsigned int shift)
+static __always_inline u64 mul_u64_u32_shr(u64 a, u32 mul, unsigned int shift)
 {
        return (u64)(((unsigned __int128)a * mul) >> shift);
 }
@@ -177,7 +177,7 @@ static inline u64 mul_u64_u64_shr(u64 a, u64 mul, unsigned int shift)
 #else
 
 #ifndef mul_u64_u32_shr
-static inline u64 mul_u64_u32_shr(u64 a, u32 mul, unsigned int shift)
+static __always_inline u64 mul_u64_u32_shr(u64 a, u32 mul, unsigned int shift)
 {
        u32 ah, al;
        u64 ret;