ftrace: Introduce PERMANENT ftrace_ops flag
authorMiroslav Benes <mbenes@suse.cz>
Wed, 16 Oct 2019 11:33:13 +0000 (13:33 +0200)
committerSteven Rostedt <rostedt@goodmis.org>
Mon, 4 Nov 2019 14:33:15 +0000 (09:33 -0500)
Livepatch uses ftrace for redirection to new patched functions. It means
that if ftrace is disabled, all live patched functions are disabled as
well. Toggling global 'ftrace_enabled' sysctl thus affect it directly.
It is not a problem per se, because only administrator can set sysctl
values, but it still may be surprising.

Introduce PERMANENT ftrace_ops flag to amend this. If the
FTRACE_OPS_FL_PERMANENT is set on any ftrace ops, the tracing cannot be
disabled by disabling ftrace_enabled. Equally, a callback with the flag
set cannot be registered if ftrace_enabled is disabled.

Link: http://lkml.kernel.org/r/20191016113316.13415-2-mbenes@suse.cz
Reviewed-by: Petr Mladek <pmladek@suse.com>
Reviewed-by: Kamalesh Babulal <kamalesh@linux.vnet.ibm.com>
Signed-off-by: Miroslav Benes <mbenes@suse.cz>
Signed-off-by: Steven Rostedt (VMware) <rostedt@goodmis.org>
Documentation/trace/ftrace-uses.rst
Documentation/trace/ftrace.rst
include/linux/ftrace.h
kernel/livepatch/patch.c
kernel/trace/ftrace.c

index 1fbc69894eed0b552dd04dd0037e810ba499331f..740bd0224d35fbf31602c417decf7aebc5d6c478 100644 (file)
@@ -170,6 +170,14 @@ FTRACE_OPS_FL_RCU
        a callback may be executed and RCU synchronization will not protect
        it.
 
+FTRACE_OPS_FL_PERMANENT
+        If this is set on any ftrace ops, then the tracing cannot disabled by
+        writing 0 to the proc sysctl ftrace_enabled. Equally, a callback with
+        the flag set cannot be registered if ftrace_enabled is 0.
+
+        Livepatch uses it not to lose the function redirection, so the system
+        stays protected.
+
 
 Filtering which functions to trace
 ==================================
index e3060eedb22d7c6edaada02aeec723c300f37d33..d2b5657ed33e973b4bf9e2d9f709acf1cc3647db 100644 (file)
@@ -2976,7 +2976,9 @@ Note, the proc sysctl ftrace_enable is a big on/off switch for the
 function tracer. By default it is enabled (when function tracing is
 enabled in the kernel). If it is disabled, all function tracing is
 disabled. This includes not only the function tracers for ftrace, but
-also for any other uses (perf, kprobes, stack tracing, profiling, etc).
+also for any other uses (perf, kprobes, stack tracing, profiling, etc). It
+cannot be disabled if there is a callback with FTRACE_OPS_FL_PERMANENT set
+registered.
 
 Please disable this with care.
 
index 8a8cb3c401b269600489e453ce8c9cbc65bcd86b..8385cafe4f9fc7cbcc06df1c1ea01704f929069a 100644 (file)
@@ -142,6 +142,8 @@ ftrace_func_t ftrace_ops_get_func(struct ftrace_ops *ops);
  * PID     - Is affected by set_ftrace_pid (allows filtering on those pids)
  * RCU     - Set when the ops can only be called when RCU is watching.
  * TRACE_ARRAY - The ops->private points to a trace_array descriptor.
+ * PERMANENT - Set when the ops is permanent and should not be affected by
+ *             ftrace_enabled.
  */
 enum {
        FTRACE_OPS_FL_ENABLED                   = 1 << 0,
@@ -160,6 +162,7 @@ enum {
        FTRACE_OPS_FL_PID                       = 1 << 13,
        FTRACE_OPS_FL_RCU                       = 1 << 14,
        FTRACE_OPS_FL_TRACE_ARRAY               = 1 << 15,
+       FTRACE_OPS_FL_PERMANENT                 = 1 << 16,
 };
 
 #ifdef CONFIG_DYNAMIC_FTRACE
index bd43537702bdb3ea7e172c68b49717c8211d125a..b552cf2d85f83ad46c5f94aa90d6fd068befd529 100644 (file)
@@ -196,7 +196,8 @@ static int klp_patch_func(struct klp_func *func)
                ops->fops.func = klp_ftrace_handler;
                ops->fops.flags = FTRACE_OPS_FL_SAVE_REGS |
                                  FTRACE_OPS_FL_DYNAMIC |
-                                 FTRACE_OPS_FL_IPMODIFY;
+                                 FTRACE_OPS_FL_IPMODIFY |
+                                 FTRACE_OPS_FL_PERMANENT;
 
                list_add(&ops->node, &klp_ops);
 
index f296d89be757974861953602ba933859ed8d7cb7..89e9128652ef48706ceb4b9fcba5fd612fb7861a 100644 (file)
@@ -326,6 +326,8 @@ int __register_ftrace_function(struct ftrace_ops *ops)
        if (ops->flags & FTRACE_OPS_FL_SAVE_REGS_IF_SUPPORTED)
                ops->flags |= FTRACE_OPS_FL_SAVE_REGS;
 #endif
+       if (!ftrace_enabled && (ops->flags & FTRACE_OPS_FL_PERMANENT))
+               return -EBUSY;
 
        if (!core_kernel_data((unsigned long)ops))
                ops->flags |= FTRACE_OPS_FL_DYNAMIC;
@@ -6754,6 +6756,18 @@ int unregister_ftrace_function(struct ftrace_ops *ops)
 }
 EXPORT_SYMBOL_GPL(unregister_ftrace_function);
 
+static bool is_permanent_ops_registered(void)
+{
+       struct ftrace_ops *op;
+
+       do_for_each_ftrace_op(op, ftrace_ops_list) {
+               if (op->flags & FTRACE_OPS_FL_PERMANENT)
+                       return true;
+       } while_for_each_ftrace_op(op);
+
+       return false;
+}
+
 int
 ftrace_enable_sysctl(struct ctl_table *table, int write,
                     void __user *buffer, size_t *lenp,
@@ -6771,8 +6785,6 @@ ftrace_enable_sysctl(struct ctl_table *table, int write,
        if (ret || !write || (last_ftrace_enabled == !!ftrace_enabled))
                goto out;
 
-       last_ftrace_enabled = !!ftrace_enabled;
-
        if (ftrace_enabled) {
 
                /* we are starting ftrace again */
@@ -6783,12 +6795,19 @@ ftrace_enable_sysctl(struct ctl_table *table, int write,
                ftrace_startup_sysctl();
 
        } else {
+               if (is_permanent_ops_registered()) {
+                       ftrace_enabled = true;
+                       ret = -EBUSY;
+                       goto out;
+               }
+
                /* stopping ftrace calls (just send to ftrace_stub) */
                ftrace_trace_function = ftrace_stub;
 
                ftrace_shutdown_sysctl();
        }
 
+       last_ftrace_enabled = !!ftrace_enabled;
  out:
        mutex_unlock(&ftrace_lock);
        return ret;