perf tools: Fix various typos in comments
authorIngo Molnar <mingo@kernel.org>
Tue, 23 Mar 2021 16:09:15 +0000 (17:09 +0100)
committerArnaldo Carvalho de Melo <acme@redhat.com>
Tue, 23 Mar 2021 20:13:43 +0000 (17:13 -0300)
Fix ~124 single-word typos and a few spelling errors in the perf tooling code,
accumulated over the years.

Signed-off-by: Ingo Molnar <mingo@kernel.org>
Cc: Peter Zijlstra <peterz@infradead.org>
Link: https://lore.kernel.org/r/20210321113734.GA248990@gmail.com
Link: http://lore.kernel.org/lkml/20210323160915.GA61903@gmail.com
Signed-off-by: Arnaldo Carvalho de Melo <acme@redhat.com>
72 files changed:
tools/perf/Documentation/perf-buildid-cache.txt
tools/perf/Documentation/perf-report.txt
tools/perf/Documentation/perf-top.txt
tools/perf/arch/arm/util/cs-etm.c
tools/perf/arch/arm64/util/machine.c
tools/perf/arch/arm64/util/perf_regs.c
tools/perf/arch/powerpc/util/kvm-stat.c
tools/perf/arch/powerpc/util/utils_header.h
tools/perf/arch/x86/tests/bp-modify.c
tools/perf/arch/x86/util/perf_regs.c
tools/perf/bench/epoll-wait.c
tools/perf/bench/numa.c
tools/perf/builtin-annotate.c
tools/perf/builtin-diff.c
tools/perf/builtin-lock.c
tools/perf/builtin-sched.c
tools/perf/builtin-script.c
tools/perf/builtin-stat.c
tools/perf/builtin-top.c
tools/perf/examples/bpf/augmented_raw_syscalls.c
tools/perf/jvmti/jvmti_agent.c
tools/perf/pmu-events/arch/powerpc/power8/metrics.json
tools/perf/pmu-events/arch/powerpc/power9/metrics.json
tools/perf/pmu-events/jevents.c
tools/perf/scripts/python/netdev-times.py
tools/perf/tests/bp_signal.c
tools/perf/tests/code-reading.c
tools/perf/tests/hists_cumulate.c
tools/perf/tests/parse-events.c
tools/perf/tests/parse-metric.c
tools/perf/tests/topology.c
tools/perf/trace/beauty/include/linux/socket.h
tools/perf/ui/browsers/annotate.c
tools/perf/ui/browsers/hists.c
tools/perf/util/bpf-loader.c
tools/perf/util/call-path.h
tools/perf/util/callchain.c
tools/perf/util/config.c
tools/perf/util/cs-etm-decoder/cs-etm-decoder.c
tools/perf/util/cs-etm.c
tools/perf/util/cs-etm.h
tools/perf/util/data-convert-bt.c
tools/perf/util/demangle-java.c
tools/perf/util/dso.h
tools/perf/util/dwarf-aux.c
tools/perf/util/dwarf-aux.h
tools/perf/util/events_stats.h
tools/perf/util/evlist.c
tools/perf/util/evsel.c
tools/perf/util/expr.h
tools/perf/util/header.c
tools/perf/util/intel-pt.c
tools/perf/util/levenshtein.c
tools/perf/util/libunwind/arm64.c
tools/perf/util/libunwind/x86_32.c
tools/perf/util/llvm-utils.c
tools/perf/util/machine.c
tools/perf/util/map.h
tools/perf/util/mem-events.h
tools/perf/util/metricgroup.c
tools/perf/util/parse-events.c
tools/perf/util/pmu.c
tools/perf/util/probe-event.c
tools/perf/util/probe-finder.c
tools/perf/util/s390-cpumsf.c
tools/perf/util/scripting-engines/trace-event-python.c
tools/perf/util/session.c
tools/perf/util/strbuf.h
tools/perf/util/strfilter.h
tools/perf/util/symbol-elf.c
tools/perf/util/synthetic-events.c
tools/perf/util/unwind-libunwind-local.c

index bb167e32a1d7dc823aa2e541c161e6d0b6d1c7dd..cd8ce6e8ec12fe58d04e5378c46f4551bf2f61ee 100644 (file)
@@ -57,7 +57,7 @@ OPTIONS
 -u::
 --update=::
        Update specified file of the cache. Note that this doesn't remove
-       older entires since those may be still needed for annotating old
+       older entries since those may be still needed for annotating old
        (or remote) perf.data. Only if there is already a cache which has
        exactly same build-id, that is replaced by new one. It can be used
        to update kallsyms and kernel dso to vmlinux in order to support
index 87112e8d904eb4ae27e8d05cadcfa969f1b98cd7..822b16f05c15fc7fdecc44b9418207e73cea7fea 100644 (file)
@@ -475,7 +475,7 @@ OPTIONS
        but probably we'll make the default not to show the switch-on/off events
         on the --group mode and if there is only one event besides the off/on ones,
        go straight to the histogram browser, just like 'perf report' with no events
-       explicitely specified does.
+       explicitly specified does.
 
 --itrace::
        Options for decoding instruction tracing data. The options are:
index ee2024691d46d8dff165a1e5429ac2f62b4d5736..bba5ffb0546346eae641a42612445abf4ce7add4 100644 (file)
@@ -317,7 +317,7 @@ Default is to monitor all CPUS.
        but probably we'll make the default not to show the switch-on/off events
         on the --group mode and if there is only one event besides the off/on ones,
        go straight to the histogram browser, just like 'perf top' with no events
-       explicitely specified does.
+       explicitly specified does.
 
 --stitch-lbr::
        Show callgraph with stitched LBRs, which may have more complete
index 0a44bc462cece369f0a2a9ea57e61de9eaebc6d5..d942f118d32c80122b4c6b7e8b10997bb210ffdb 100644 (file)
@@ -378,7 +378,7 @@ static int cs_etm_recording_options(struct auxtrace_record *itr,
                        opts->auxtrace_mmap_pages = roundup_pow_of_two(sz);
                }
 
-               /* Snapshost size can't be bigger than the auxtrace area */
+               /* Snapshot size can't be bigger than the auxtrace area */
                if (opts->auxtrace_snapshot_size >
                                opts->auxtrace_mmap_pages * (size_t)page_size) {
                        pr_err("Snapshot size %zu must not be greater than AUX area tracing mmap size %zu\n",
index 40c5e0b5bda8f71c820e3f867cf08ae9a82b3292..7e7714290a87313b91fb871aa5788f004603eb33 100644 (file)
@@ -6,11 +6,11 @@
 #include "debug.h"
 #include "symbol.h"
 
-/* On arm64, kernel text segment start at high memory address,
+/* On arm64, kernel text segment starts at high memory address,
  * for example 0xffff 0000 8xxx xxxx. Modules start at a low memory
- * address, like 0xffff 0000 00ax xxxx. When only samll amount of
+ * address, like 0xffff 0000 00ax xxxx. When only small amount of
  * memory is used by modules, gap between end of module's text segment
- * and start of kernel text segment may be reach 2G.
+ * and start of kernel text segment may reach 2G.
  * Therefore do not fill this gap and do not assign it to the kernel dso map.
  */
 
index 2518cde18b34cae346eb630985ffac5fa2f21119..476b037eea1caa0fe72f8a210c8b8462f36e92e8 100644 (file)
@@ -108,7 +108,7 @@ int arch_sdt_arg_parse_op(char *old_op, char **new_op)
                /* [sp], [sp, NUM] or [sp,NUM] */
                new_len = 7;    /* + ( % s p ) NULL */
 
-               /* If the arugment is [sp], need to fill offset '0' */
+               /* If the argument is [sp], need to fill offset '0' */
                if (rm[2].rm_so == -1)
                        new_len += 1;
                else
index eed9e5a429358789f3c9414b3b3a655e94d4ec48..16510686c13878a02e9c9591caafd07ba230eeff 100644 (file)
@@ -176,7 +176,7 @@ int cpu_isa_init(struct perf_kvm_stat *kvm, const char *cpuid __maybe_unused)
 }
 
 /*
- * Incase of powerpc architecture, pmu registers are programmable
+ * In case of powerpc architecture, pmu registers are programmable
  * by guest kernel. So monitoring guest via host may not provide
  * valid samples with default 'cycles' event. It is better to use
  * 'trace_imc/trace_cycles' event for guest profiling, since it
index 5788eb1f1fe3398d0e5b95b5b8b780bc1d339811..2baeb1c1ae851a9add97544e47b64e9eb8bfec5b 100644 (file)
@@ -10,6 +10,6 @@
 
 #define SPRN_PVR        0x11F   /* Processor Version Register */
 #define PVR_VER(pvr)    (((pvr) >>  16) & 0xFFFF) /* Version field */
-#define PVR_REV(pvr)    (((pvr) >>   0) & 0xFFFF) /* Revison field */
+#define PVR_REV(pvr)    (((pvr) >>   0) & 0xFFFF) /* Revision field */
 
 #endif /* __PERF_UTIL_HEADER_H */
index adcacf1b6609e68a9e8024b827d06c706b779f5b..dffcf9b52153e5e926e010a4553ffd5f57c54f8a 100644 (file)
@@ -73,7 +73,7 @@ static int bp_modify1(void)
        /*
         * The parent does following steps:
         *  - creates a new breakpoint (id 0) for bp_2 function
-        *  - changes that breakponit to bp_1 function
+        *  - changes that breakpoint to bp_1 function
         *  - waits for the breakpoint to hit and checks
         *    it has proper rip of bp_1 function
         *  - detaches the child
index fca81b39b09f4f65a2f4d64d05264197e8893388..207c56805c551dec7ed651bab32d39cef39f86ec 100644 (file)
@@ -165,7 +165,7 @@ static int sdt_init_op_regex(void)
 /*
  * Max x86 register name length is 5(ex: %r15d). So, 6th char
  * should always contain NULL. This helps to find register name
- * length using strlen, insted of maintaing one more variable.
+ * length using strlen, instead of maintaining one more variable.
  */
 #define SDT_REG_NAME_SIZE  6
 
@@ -207,7 +207,7 @@ int arch_sdt_arg_parse_op(char *old_op, char **new_op)
         * and displacement 0 (Both sign and displacement 0 are
         * optional so it may be empty). Use one more character
         * to hold last NULL so that strlen can be used to find
-        * prefix length, instead of maintaing one more variable.
+        * prefix length, instead of maintaining one more variable.
         */
        char prefix[3] = {0};
 
index 0a0ff1247c837415ac50097cd09aac6e750060a4..79d13dbc0a47b20438079c7c56e9ae36c2447800 100644 (file)
@@ -17,7 +17,7 @@
  * While the second model, enabled via --multiq option, uses multiple
  * queueing (which refers to one epoll instance per worker). For example,
  * short lived tcp connections in a high throughput httpd server will
- * ditribute the accept()'ing  connections across CPUs. In this case each
+ * distribute the accept()'ing  connections across CPUs. In this case each
  * worker does a limited  amount of processing.
  *
  *             [queue A]  ---> [worker]
@@ -198,7 +198,7 @@ static void *workerfn(void *arg)
 
        do {
                /*
-                * Block undefinitely waiting for the IN event.
+                * Block indefinitely waiting for the IN event.
                 * In order to stress the epoll_wait(2) syscall,
                 * call it event per event, instead of a larger
                 * batch (max)limit.
index 20b87e29c96f4b4c2832e8f3271b435575898168..f2640179ada9edb617bbbd7ad4fab7691f224004 100644 (file)
@@ -42,7 +42,7 @@
 #endif
 
 /*
- * Regular printout to the terminal, supressed if -q is specified:
+ * Regular printout to the terminal, suppressed if -q is specified:
  */
 #define tprintf(x...) do { if (g && g->p.show_details >= 0) printf(x); } while (0)
 
index a23ba6bb99b6ea98daad4d0b2d22109d172ec84e..0f3a196e5d6e5dd75446ec146517c0095af6f3bb 100644 (file)
@@ -239,7 +239,7 @@ static int evsel__add_sample(struct evsel *evsel, struct perf_sample *sample,
        }
 
        /*
-        * XXX filtered samples can still have branch entires pointing into our
+        * XXX filtered samples can still have branch entries pointing into our
         * symbol and are missed.
         */
        process_branch_stack(sample->branch_stack, al, sample);
index 878e04b1fab746a234884a612080e53e5f6f8b5e..f52b3a799e769115d35e737d395da04855fb3ef7 100644 (file)
@@ -1796,7 +1796,7 @@ static int ui_init(void)
        data__for_each_file(i, d) {
 
                /*
-                * Baseline or compute realted columns:
+                * Baseline or compute related columns:
                 *
                 *   PERF_HPP_DIFF__BASELINE
                 *   PERF_HPP_DIFF__DELTA
index a2f1e53f37a7af0c558cb00fc753fc8fb3462e32..01326e3700099d632ed601a9a58f323cc872a3ad 100644 (file)
@@ -49,7 +49,7 @@ struct lock_stat {
 
        /*
         * FIXME: evsel__intval() returns u64,
-        * so address of lockdep_map should be dealed as 64bit.
+        * so address of lockdep_map should be treated as 64bit.
         * Is there more better solution?
         */
        void                    *addr;          /* address of lockdep_map, used as ID */
index 69c769b04a61f9b443ebdf99b917af3bbc6eb855..954ce2f594e9672d5c29a1adf24d3cafdf59cba2 100644 (file)
@@ -1712,7 +1712,7 @@ static int perf_sched__process_fork_event(struct perf_tool *tool,
 {
        struct perf_sched *sched = container_of(tool, struct perf_sched, tool);
 
-       /* run the fork event through the perf machineruy */
+       /* run the fork event through the perf machinery */
        perf_event__process_fork(tool, event, sample, machine);
 
        /* and then run additional processing needed for this command */
index 119a5f7e2772ce6968be067aa284fb63f1c2428d..1280cbfad4db5fbf1c59d97f8a4cb0fea95e567d 100644 (file)
@@ -2486,7 +2486,7 @@ static int perf_script__fopen_per_event_dump(struct perf_script *script)
                /*
                 * Already setup? I.e. we may be called twice in cases like
                 * Intel PT, one for the intel_pt// and dummy events, then
-                * for the evsels syntheized from the auxtrace info.
+                * for the evsels synthesized from the auxtrace info.
                 *
                 * Ses perf_script__process_auxtrace_info.
                 */
@@ -3083,7 +3083,7 @@ static int list_available_scripts(const struct option *opt __maybe_unused,
  *
  * Fixme: All existing "xxx-record" are all in good formats "-e event ",
  * which is covered well now. And new parsing code should be added to
- * cover the future complexing formats like event groups etc.
+ * cover the future complex formats like event groups etc.
  */
 static int check_ev_match(char *dir_name, char *scriptname,
                        struct perf_session *session)
index 2e2e4a8345ea2e80f3b7f109363adf019509004f..d140ffbb5b34a34051f0708f3b57244e3e340e8f 100644 (file)
@@ -1705,7 +1705,7 @@ static int add_default_attributes(void)
        bzero(&errinfo, sizeof(errinfo));
        if (transaction_run) {
                /* Handle -T as -M transaction. Once platform specific metrics
-                * support has been added to the json files, all archictures
+                * support has been added to the json files, all architectures
                 * will use this approach. To determine transaction support
                 * on an architecture test for such a metric name.
                 */
@@ -2459,7 +2459,7 @@ int cmd_stat(int argc, const char **argv)
                /*
                 * We synthesize the kernel mmap record just so that older tools
                 * don't emit warnings about not being able to resolve symbols
-                * due to /proc/sys/kernel/kptr_restrict settings and instear provide
+                * due to /proc/sys/kernel/kptr_restrict settings and instead provide
                 * a saner message about no samples being in the perf.data file.
                 *
                 * This also serves to suppress a warning about f_header.data.size == 0
index 3673c04d16b6db2596d08703358cd4b405878b08..173ace43f845c316bf7551c4cf85222ac6424a81 100644 (file)
@@ -1607,7 +1607,7 @@ int cmd_top(int argc, const char **argv)
        if (status) {
                /*
                 * Some arches do not provide a get_cpuid(), so just use pr_debug, otherwise
-                * warn the user explicitely.
+                * warn the user explicitly.
                 */
                eprintf(status == ENOSYS ? 1 : 0, verbose,
                        "Couldn't read the cpuid for this machine: %s\n",
index b80437971d802cb111534301fe2170be647e029e..a262dcd020f4975e473c3fc927521e697b4229b8 100644 (file)
@@ -262,7 +262,7 @@ int sys_enter(struct syscall_enter_args *args)
        /*
         * Jump to syscall specific augmenter, even if the default one,
         * "!raw_syscalls:unaugmented" that will just return 1 to return the
-        * unagmented tracepoint payload.
+        * unaugmented tracepoint payload.
         */
        bpf_tail_call(args, &syscalls_sys_enter, augmented_args->args.syscall_nr);
 
@@ -282,7 +282,7 @@ int sys_exit(struct syscall_exit_args *args)
        /*
         * Jump to syscall specific return augmenter, even if the default one,
         * "!raw_syscalls:unaugmented" that will just return 1 to return the
-        * unagmented tracepoint payload.
+        * unaugmented tracepoint payload.
         */
        bpf_tail_call(args, &syscalls_sys_exit, exit_args.syscall_nr);
        /*
index 88108598d6e949b71f8f920ddcaede96dcb997fd..526dcaf9f07903ddaa9e49abd63bccdedfc8df31 100644 (file)
@@ -390,7 +390,7 @@ jvmti_write_code(void *agent, char const *sym,
                rec.p.total_size += size;
 
        /*
-        * If JVM is multi-threaded, nultiple concurrent calls to agent
+        * If JVM is multi-threaded, multiple concurrent calls to agent
         * may be possible, so protect file writes
         */
        flockfile(fp);
@@ -457,7 +457,7 @@ jvmti_write_debug_info(void *agent, uint64_t code,
        rec.p.total_size = size;
 
        /*
-        * If JVM is multi-threaded, nultiple concurrent calls to agent
+        * If JVM is multi-threaded, multiple concurrent calls to agent
         * may be possible, so protect file writes
         */
        flockfile(fp);
index fc4aa6c2ddc9d3ccbb101ee7658c0fdaa060ac8c..4e25525b7da6aea3cd37d101518a1c373877b2da 100644 (file)
         "MetricName": "flush_rate_percent"
     },
     {
-        "BriefDescription": "GCT slot utilization (11 to 14) as a % of cycles this thread had atleast 1 slot valid",
+        "BriefDescription": "GCT slot utilization (11 to 14) as a % of cycles this thread had at least 1 slot valid",
         "MetricExpr": "PM_GCT_UTIL_11_14_ENTRIES / ( PM_RUN_CYC - PM_GCT_NOSLOT_CYC) * 100",
         "MetricGroup": "general",
         "MetricName": "gct_util_11to14_slots_percent"
     },
     {
-        "BriefDescription": "GCT slot utilization (15 to 17) as a % of cycles this thread had atleast 1 slot valid",
+        "BriefDescription": "GCT slot utilization (15 to 17) as a % of cycles this thread had at least 1 slot valid",
         "MetricExpr": "PM_GCT_UTIL_15_17_ENTRIES / ( PM_RUN_CYC - PM_GCT_NOSLOT_CYC) * 100",
         "MetricGroup": "general",
         "MetricName": "gct_util_15to17_slots_percent"
     },
     {
-        "BriefDescription": "GCT slot utilization 18+ as a % of cycles this thread had atleast 1 slot valid",
+        "BriefDescription": "GCT slot utilization 18+ as a % of cycles this thread had at least 1 slot valid",
         "MetricExpr": "PM_GCT_UTIL_18_ENTRIES / ( PM_RUN_CYC - PM_GCT_NOSLOT_CYC) * 100",
         "MetricGroup": "general",
         "MetricName": "gct_util_18plus_slots_percent"
     },
     {
-        "BriefDescription": "GCT slot utilization (1 to 2) as a % of cycles this thread had atleast 1 slot valid",
+        "BriefDescription": "GCT slot utilization (1 to 2) as a % of cycles this thread had at least 1 slot valid",
         "MetricExpr": "PM_GCT_UTIL_1_2_ENTRIES /  ( PM_RUN_CYC - PM_GCT_NOSLOT_CYC) * 100",
         "MetricGroup": "general",
         "MetricName": "gct_util_1to2_slots_percent"
     },
     {
-        "BriefDescription": "GCT slot utilization (3 to 6) as a % of cycles this thread had atleast 1 slot valid",
+        "BriefDescription": "GCT slot utilization (3 to 6) as a % of cycles this thread had at least 1 slot valid",
         "MetricExpr": "PM_GCT_UTIL_3_6_ENTRIES / ( PM_RUN_CYC - PM_GCT_NOSLOT_CYC) * 100",
         "MetricGroup": "general",
         "MetricName": "gct_util_3to6_slots_percent"
     },
     {
-        "BriefDescription": "GCT slot utilization (7 to 10) as a % of cycles this thread had atleast 1 slot valid",
+        "BriefDescription": "GCT slot utilization (7 to 10) as a % of cycles this thread had at least 1 slot valid",
         "MetricExpr": "PM_GCT_UTIL_7_10_ENTRIES / ( PM_RUN_CYC - PM_GCT_NOSLOT_CYC) * 100",
         "MetricGroup": "general",
         "MetricName": "gct_util_7to10_slots_percent"
index 140402d2855ff95b1c5cacbff8fc384c8b08bb7d..db86ba36224db95115efa990eecd7fc41e263029 100644 (file)
         "MetricName": "custom_secs"
     },
     {
-        "BriefDescription": "Percentage Cycles atleast one instruction dispatched",
+        "BriefDescription": "Percentage Cycles at least one instruction dispatched",
         "MetricExpr": "PM_1PLUS_PPC_DISP / PM_CYC * 100",
         "MetricName": "cycles_atleast_one_inst_dispatched_percent"
     },
index e1f3f5c8c550c6fec27105fd4fa72a4b8734a25d..33aa3c885eafa212d6a5099fe96a211cda763a6c 100644 (file)
@@ -1149,7 +1149,7 @@ static int process_one_file(const char *fpath, const struct stat *sb,
         * and directory tree could result in build failure due to table
         * names not being found.
         *
-        * Atleast for now, be strict with processing JSON file names.
+        * At least for now, be strict with processing JSON file names.
         * i.e. if JSON file name cannot be mapped to C-style table name,
         * fail.
         */
index ea0c8b90a783c84027f9b2bfa7ab9442276db671..a0cfc7fe5908fe871b150bca58c67de54afd213b 100644 (file)
@@ -356,7 +356,7 @@ def handle_irq_softirq_exit(event_info):
                return
        rec_data = {'sirq_ent_t':sirq_ent_t, 'sirq_ext_t':time,
                        'irq_list':irq_list, 'event_list':event_list}
-       # merge information realted to a NET_RX softirq
+       # merge information related to a NET_RX softirq
        receive_hunk_list.append(rec_data)
 
 def handle_napi_poll(event_info):
index cc9fbcedb3646eaf9e60fc3a32a5708fcba953e8..ef37353636d87829dbdb8f3d5af7926caccd4930 100644 (file)
@@ -225,11 +225,11 @@ int test__bp_signal(struct test *test __maybe_unused, int subtest __maybe_unused
         *
         * The test case check following error conditions:
         * - we get stuck in signal handler because of debug
-        *   exception being triggered receursively due to
+        *   exception being triggered recursively due to
         *   the wrong RF EFLAG management
         *
         * - we never trigger the sig_handler breakpoint due
-        *   to the rong RF EFLAG management
+        *   to the wrong RF EFLAG management
         *
         */
 
@@ -242,7 +242,7 @@ int test__bp_signal(struct test *test __maybe_unused, int subtest __maybe_unused
        ioctl(fd3, PERF_EVENT_IOC_ENABLE, 0);
 
        /*
-        * Kick off the test by trigering 'fd1'
+        * Kick off the test by triggering 'fd1'
         * breakpoint.
         */
        test_function();
index 2fdc7b2f996ed5eefa6d1f186dc01edfa84a8755..9866cddebf237c2fdf8b9c1d28501e9a4b277962 100644 (file)
@@ -658,7 +658,7 @@ static int do_test_code_reading(bool try_kcore)
                                /*
                                 * Both cpus and threads are now owned by evlist
                                 * and will be freed by following perf_evlist__set_maps
-                                * call. Getting refference to keep them alive.
+                                * call. Getting reference to keep them alive.
                                 */
                                perf_cpu_map__get(cpus);
                                perf_thread_map__get(threads);
index 3f2e1a5812473d1c5e27c787c55c915c7aefeda6..890cb1f5bf53d3da44871821f8e4837da7d02900 100644 (file)
@@ -47,7 +47,7 @@ static struct sample fake_samples[] = {
 };
 
 /*
- * Will be casted to struct ip_callchain which has all 64 bit entries
+ * Will be cast to struct ip_callchain which has all 64 bit entries
  * of nr and ips[].
  */
 static u64 fake_callchains[][10] = {
@@ -297,7 +297,7 @@ out:
        return err;
 }
 
-/* callcain + NO children */
+/* callchain + NO children */
 static int test2(struct evsel *evsel, struct machine *machine)
 {
        int err;
index a7f6661e6112db084bfbd63572bbfeeaf3c1eb43..026c54743311142076255c4f7f6db333ca36fb85 100644 (file)
@@ -20,7 +20,7 @@
 
 #if defined(__s390x__)
 /* Return true if kvm module is available and loaded. Test this
- * and retun success when trace point kvm_s390_create_vm
+ * and return success when trace point kvm_s390_create_vm
  * exists. Otherwise this test always fails.
  */
 static bool kvm_s390_create_vm_valid(void)
index 55bf52e588beef95ae14d38eade1a9978c4b3761..4968c4106254fe61c816534480aad3ee5787229b 100644 (file)
@@ -186,7 +186,7 @@ static int __compute_metric(const char *name, struct value *vals,
                *ratio2 = compute_single(&metric_events, evlist, &st, name2);
 
 out:
-       /* ... clenup. */
+       /* ... cleanup. */
        metricgroup__rblist_exit(&metric_events);
        runtime_stat__exit(&st);
        evlist__free_stats(evlist);
index 74748ed75b2c6318b18161a3507ee973bcacc988..050489807a47b09621146d8f4dba1a4df6e713dc 100644 (file)
@@ -80,7 +80,7 @@ static int check_cpu_topology(char *path, struct perf_cpu_map *map)
         *   CPU 1 is on core_id 1 and physical_package_id 3
         *
         *   Core_id and physical_package_id are platform and architecture
-        *   dependend and might have higher numbers than the CPU id.
+        *   dependent and might have higher numbers than the CPU id.
         *   This actually depends on the configuration.
         *
         *  In this case process_cpu_topology() prints error message:
index 385894b4a8bbac2ce48f57224b04c692474d7d68..b8fc5c53ba6fa755c85fc412b67579d1d409f50a 100644 (file)
@@ -85,7 +85,7 @@ struct mmsghdr {
 
 /*
  *     POSIX 1003.1g - ancillary data object information
- *     Ancillary data consits of a sequence of pairs of
+ *     Ancillary data consists of a sequence of pairs of
  *     (cmsghdr, cmsg_data[])
  */
 
index 9f75d767b6da4f2eb3b5f5c8f213cbdc999f31f2..ad0a70f0edaf73e756b8a09fdd9f79ec79df251c 100644 (file)
@@ -415,7 +415,7 @@ static int sym_title(struct symbol *sym, struct map *map, char *title,
 }
 
 /*
- * This can be called from external jumps, i.e. jumps from one functon
+ * This can be called from external jumps, i.e. jumps from one function
  * to another, like from the kernel's entry_SYSCALL_64 function to the
  * swapgs_restore_regs_and_return_to_usermode() function.
  *
index 3b9818ee9546a53222e38389677c7f52837bd17a..bcfd0a45953ba5de08cf3b2893e2db2ae4a37271 100644 (file)
@@ -117,7 +117,7 @@ static void hist_browser__update_rows(struct hist_browser *hb)
        browser->rows -= browser->extra_title_lines;
        /*
         * Verify if we were at the last line and that line isn't
-        * visibe because we now show the header line(s).
+        * visible because we now show the header line(s).
         */
        index_row = browser->index - browser->top_idx;
        if (index_row >= browser->rows)
index 9087f1bffd3d69c2f105fb88c28524a24c40e1f1..fbb3c4057c302820325d00fadecdc2f82f2d405e 100644 (file)
@@ -671,7 +671,7 @@ int bpf__probe(struct bpf_object *obj)
                 * After probing, let's consider prologue, which
                 * adds program fetcher to BPF programs.
                 *
-                * hook_load_preprocessorr() hooks pre-processor
+                * hook_load_preprocessor() hooks pre-processor
                 * to bpf_program, let it generate prologue
                 * dynamically during loading.
                 */
index 6b3229106f16af367f4249c13081e5a997fec0a4..5875cfc8106ef9d4f98383bcb7ed82e8dd1f42ab 100644 (file)
@@ -23,7 +23,7 @@
  * @children: tree of call paths of functions called
  *
  * In combination with the call_return structure, the call_path structure
- * defines a context-sensitve call-graph.
+ * defines a context-sensitive call-graph.
  */
 struct call_path {
        struct call_path *parent;
index 1b60985690bba31333e99e0892cc40c31f0592cd..8e2777133bd907e1903e8d0afab583f5f88fc74d 100644 (file)
@@ -877,7 +877,7 @@ append_chain_children(struct callchain_node *root,
        if (!node)
                return -1;
 
-       /* lookup in childrens */
+       /* lookup in children */
        while (*p) {
                enum match_result ret;
 
index 6984c77068a37d8f6ec46a8d2d36557e8374a678..2daeaa9a4a2413978fb478bfcb3fb58340e21ac6 100644 (file)
@@ -699,7 +699,7 @@ static int collect_config(const char *var, const char *value,
        /* perf_config_set can contain both user and system config items.
         * So we should know where each value is from.
         * The classification would be needed when a particular config file
-        * is overwrited by setting feature i.e. set_config().
+        * is overwritten by setting feature i.e. set_config().
         */
        if (strcmp(config_file_name, perf_etc_perfconfig()) == 0) {
                section->from_system_config = true;
index 4052c9ce6e2f413fb5337ddc9625536acad4ce11..059bcec3f6510bafc2bddf0271785b0dade1608d 100644 (file)
@@ -317,7 +317,7 @@ cs_etm_decoder__do_hard_timestamp(struct cs_etm_queue *etmq,
         * This is the first timestamp we've seen since the beginning of traces
         * or a discontinuity.  Since timestamps packets are generated *after*
         * range packets have been generated, we need to estimate the time at
-        * which instructions started by substracting the number of instructions
+        * which instructions started by subtracting the number of instructions
         * executed to the timestamp.
         */
        packet_queue->timestamp = elem->timestamp - packet_queue->instr_count;
index 9ac80fc23c58492c37aec66f145ce057f25eea9d..7e63e7dedc3385e0f1007f21fad3a4892a779750 100644 (file)
@@ -202,7 +202,7 @@ void cs_etm__etmq_set_traceid_queue_timestamp(struct cs_etm_queue *etmq,
                                              u8 trace_chan_id)
 {
        /*
-        * Wnen a timestamp packet is encountered the backend code
+        * When a timestamp packet is encountered the backend code
         * is stopped so that the front end has time to process packets
         * that were accumulated in the traceID queue.  Since there can
         * be more than one channel per cs_etm_queue, we need to specify
@@ -1697,7 +1697,7 @@ static bool cs_etm__is_svc_instr(struct cs_etm_queue *etmq, u8 trace_chan_id,
                 * | 1 1 0 1 1 1 1 1 |  imm8  |
                 * +-----------------+--------+
                 *
-                * According to the specifiction, it only defines SVC for T32
+                * According to the specification, it only defines SVC for T32
                 * with 16 bits instruction and has no definition for 32bits;
                 * so below only read 2 bytes as instruction size for T32.
                 */
@@ -1929,7 +1929,7 @@ static int cs_etm__set_sample_flags(struct cs_etm_queue *etmq,
 
                /*
                 * If the previous packet is an exception return packet
-                * and the return address just follows SVC instuction,
+                * and the return address just follows SVC instruction,
                 * it needs to calibrate the previous packet sample flags
                 * as PERF_IP_FLAG_SYSCALLRET.
                 */
@@ -2003,7 +2003,7 @@ static int cs_etm__set_sample_flags(struct cs_etm_queue *etmq,
                 * contain exception type related info so we cannot decide
                 * the exception type purely based on exception return packet.
                 * If we record the exception number from exception packet and
-                * reuse it for excpetion return packet, this is not reliable
+                * reuse it for exception return packet, this is not reliable
                 * due the trace can be discontinuity or the interrupt can
                 * be nested, thus the recorded exception number cannot be
                 * used for exception return packet for these two cases.
index 85ed11e9d2a7eb9b36ac5fe4340507e8752b5b38..36428918411e487310edf39fae6f596e118f8fcc 100644 (file)
@@ -12,7 +12,8 @@
 
 struct perf_session;
 
-/* Versionning header in case things need tro change in the future.  That way
+/*
+ * Versioning header in case things need to change in the future.  That way
  * decoding of old snapshot is still possible.
  */
 enum {
@@ -77,7 +78,7 @@ enum {
 
 /*
  * ETMv3 exception encoding number:
- * See Embedded Trace Macrocell spcification (ARM IHI 0014Q)
+ * See Embedded Trace Macrocell specification (ARM IHI 0014Q)
  * table 7-12 Encoding of Exception[3:0] for non-ARMv7-M processors.
  */
 enum {
index 8b67bd97d12265477248b524e7f02b47b6819285..a9c375e63e73f3432b99f76652a124a571ac1d43 100644 (file)
@@ -949,7 +949,7 @@ static char *change_name(char *name, char *orig_name, int dup)
        /*
         * Add '_' prefix to potential keywork.  According to
         * Mathieu Desnoyers (https://lore.kernel.org/lkml/1074266107.40857.1422045946295.JavaMail.zimbra@efficios.com),
-        * futher CTF spec updating may require us to use '$'.
+        * further CTF spec updating may require us to use '$'.
         */
        if (dup < 0)
                len = strlen(name) + sizeof("_");
index 39c05200ed653d69b455af6b04cc9be9c0f46640..ddf33d58bcd356b832c467c7b9368495365592fb 100644 (file)
@@ -147,7 +147,7 @@ error:
  * Demangle Java function signature (openJDK, not GCJ)
  * input:
  *     str: string to parse. String is not modified
- *    flags: comobination of JAVA_DEMANGLE_* flags to modify demangling
+ *    flags: combination of JAVA_DEMANGLE_* flags to modify demangling
  * return:
  *     if input can be demangled, then a newly allocated string is returned.
  *     if input cannot be demangled, then NULL is returned
@@ -164,7 +164,7 @@ java_demangle_sym(const char *str, int flags)
        if (!str)
                return NULL;
 
-       /* find start of retunr type */
+       /* find start of return type */
        p = strrchr(str, ')');
        if (!p)
                return NULL;
index cd2fe64a3c5de7434348200a7508a9fbb17d8856..52e7101c5609a99e8553d1d95acb5094b5bed146 100644 (file)
@@ -216,7 +216,7 @@ struct dso {
 
 /* dso__for_each_symbol - iterate over the symbols of given type
  *
- * @dso: the 'struct dso *' in which symbols itereated
+ * @dso: the 'struct dso *' in which symbols are iterated
  * @pos: the 'struct symbol *' to use as a loop cursor
  * @n: the 'struct rb_node *' to use as a temporary storage
  */
index 7b2d471a6419dbfa1aecd5c0c9ce67a9766a0cb7..b2f4920e19a6d4b329f45e3c68144b77901221f1 100644 (file)
@@ -91,7 +91,7 @@ static Dwarf_Line *cu_getsrc_die(Dwarf_Die *cu_die, Dwarf_Addr addr)
                        return NULL;
        } while (laddr == addr);
        l++;
-       /* Going foward to find the statement line */
+       /* Going forward to find the statement line */
        do {
                line = dwarf_onesrcline(lines, l++);
                if (!line || dwarf_lineaddr(line, &laddr) != 0 ||
@@ -177,7 +177,7 @@ int cu_walk_functions_at(Dwarf_Die *cu_die, Dwarf_Addr addr,
  * die_get_linkage_name - Get the linkage name of the object
  * @dw_die: A DIE of the object
  *
- * Get the linkage name attiribute of given @dw_die.
+ * Get the linkage name attribute of given @dw_die.
  * For C++ binary, the linkage name will be the mangled symbol.
  */
 const char *die_get_linkage_name(Dwarf_Die *dw_die)
@@ -739,7 +739,7 @@ static int __die_walk_instances_cb(Dwarf_Die *inst, void *data)
  * @data: user data
  *
  * Walk on the instances of give @in_die. @in_die must be an inlined function
- * declartion. This returns the return value of @callback if it returns
+ * declaration. This returns the return value of @callback if it returns
  * non-zero value, or -ENOENT if there is no instance.
  */
 int die_walk_instances(Dwarf_Die *or_die, int (*callback)(Dwarf_Die *, void *),
index 506006e0cf6689b92af2c16fcdf4218e7be0fdfa..cb99646843a94137de5bf604bf2ff3ffc43fbe6e 100644 (file)
@@ -22,7 +22,7 @@ const char *cu_get_comp_dir(Dwarf_Die *cu_die);
 int cu_find_lineinfo(Dwarf_Die *cudie, unsigned long addr,
                     const char **fname, int *lineno);
 
-/* Walk on funcitons at given address */
+/* Walk on functions at given address */
 int cu_walk_functions_at(Dwarf_Die *cu_die, Dwarf_Addr addr,
                         int (*callback)(Dwarf_Die *, void *), void *data);
 
index 859cb34fcff2c88c2bbcb6e102308413db732ed2..631a4af2ed8611d620e9abf723da2d1b3fb1f8a1 100644 (file)
@@ -21,7 +21,7 @@
  * all struct perf_record_lost_samples.lost fields reported.
  *
  * The total_period is needed because by default auto-freq is used, so
- * multipling nr_events[PERF_EVENT_SAMPLE] by a frequency isn't possible to get
+ * multiplying nr_events[PERF_EVENT_SAMPLE] by a frequency isn't possible to get
  * the total number of low level events, it is necessary to to sum all struct
  * perf_record_sample.period and stash the result in total_period.
  */
index 435bbfd005514a4abe539b94de0eaf5626cdec80..f1c79ecf81073f74c1faa0f3062b7e7fde0b6f16 100644 (file)
@@ -1210,7 +1210,7 @@ bool evlist__valid_read_format(struct evlist *evlist)
                }
        }
 
-       /* PERF_SAMPLE_READ imples PERF_FORMAT_ID. */
+       /* PERF_SAMPLE_READ implies PERF_FORMAT_ID. */
        if ((sample_type & PERF_SAMPLE_READ) &&
            !(read_format & PERF_FORMAT_ID)) {
                return false;
index 7ecbc8e2fbfa8ec576c9366618881e286b2d7f64..2d2614eeaa20e966cdc9c88ee1e6ea842970c137 100644 (file)
@@ -621,7 +621,7 @@ const char *evsel__hw_cache_result[PERF_COUNT_HW_CACHE_RESULT_MAX][EVSEL__MAX_AL
 #define COP(x)         (1 << x)
 
 /*
- * cache operartion stat
+ * cache operation stat
  * L1I : Read and prefetch only
  * ITLB and BPU : Read-only
  */
@@ -2275,7 +2275,7 @@ int evsel__parse_sample(struct evsel *evsel, union perf_event *event,
                /*
                 * Undo swap of u64, then swap on individual u32s,
                 * get the size of the raw area and undo all of the
-                * swap. The pevent interface handles endianity by
+                * swap. The pevent interface handles endianness by
                 * itself.
                 */
                if (swapped) {
index dcf8d19b83c856ba912672f983adfbf32dd61f90..85df3e4771e403150c8cf24679702b51adc12aa7 100644 (file)
@@ -3,7 +3,7 @@
 #define PARSE_CTX_H 1
 
 // There are fixes that need to land upstream before we can use libbpf's headers,
-// for now use our copy uncoditionally, since the data structures at this point
+// for now use our copy unconditionally, since the data structures at this point
 // are exactly the same, no problem.
 //#ifdef HAVE_LIBBPF_SUPPORT
 //#include <bpf/hashmap.h>
index 20effdff76ceb6afc90ffb4f4796ccd7af97412a..aa1e42518d37ed75fde9b51ae6069f6fd5458821 100644 (file)
@@ -127,7 +127,7 @@ static int __do_write_buf(struct feat_fd *ff,  const void *buf, size_t size)
        return 0;
 }
 
-/* Return: 0 if succeded, -ERR if failed. */
+/* Return: 0 if succeeded, -ERR if failed. */
 int do_write(struct feat_fd *ff, const void *buf, size_t size)
 {
        if (!ff->buf)
@@ -135,7 +135,7 @@ int do_write(struct feat_fd *ff, const void *buf, size_t size)
        return __do_write_buf(ff, buf, size);
 }
 
-/* Return: 0 if succeded, -ERR if failed. */
+/* Return: 0 if succeeded, -ERR if failed. */
 static int do_write_bitmap(struct feat_fd *ff, unsigned long *set, u64 size)
 {
        u64 *p = (u64 *) set;
@@ -154,7 +154,7 @@ static int do_write_bitmap(struct feat_fd *ff, unsigned long *set, u64 size)
        return 0;
 }
 
-/* Return: 0 if succeded, -ERR if failed. */
+/* Return: 0 if succeeded, -ERR if failed. */
 int write_padded(struct feat_fd *ff, const void *bf,
                 size_t count, size_t count_aligned)
 {
@@ -170,7 +170,7 @@ int write_padded(struct feat_fd *ff, const void *bf,
 #define string_size(str)                                               \
        (PERF_ALIGN((strlen(str) + 1), NAME_ALIGN) + sizeof(u32))
 
-/* Return: 0 if succeded, -ERR if failed. */
+/* Return: 0 if succeeded, -ERR if failed. */
 static int do_write_string(struct feat_fd *ff, const char *str)
 {
        u32 len, olen;
@@ -266,7 +266,7 @@ static char *do_read_string(struct feat_fd *ff)
        return NULL;
 }
 
-/* Return: 0 if succeded, -ERR if failed. */
+/* Return: 0 if succeeded, -ERR if failed. */
 static int do_read_bitmap(struct feat_fd *ff, unsigned long **pset, u64 *psize)
 {
        unsigned long *set;
@@ -2874,7 +2874,7 @@ static int process_bpf_prog_info(struct feat_fd *ff, void *data __maybe_unused)
        int err = -1;
 
        if (ff->ph->needs_swap) {
-               pr_warning("interpreting bpf_prog_info from systems with endianity is not yet supported\n");
+               pr_warning("interpreting bpf_prog_info from systems with endianness is not yet supported\n");
                return 0;
        }
 
@@ -2942,7 +2942,7 @@ static int process_bpf_btf(struct feat_fd *ff, void *data __maybe_unused)
        int err = -1;
 
        if (ff->ph->needs_swap) {
-               pr_warning("interpreting btf from systems with endianity is not yet supported\n");
+               pr_warning("interpreting btf from systems with endianness is not yet supported\n");
                return 0;
        }
 
@@ -3481,11 +3481,11 @@ static const size_t attr_pipe_abi_sizes[] = {
 };
 
 /*
- * In the legacy pipe format, there is an implicit assumption that endiannesss
+ * In the legacy pipe format, there is an implicit assumption that endianness
  * between host recording the samples, and host parsing the samples is the
  * same. This is not always the case given that the pipe output may always be
  * redirected into a file and analyzed on a different machine with possibly a
- * different endianness and perf_event ABI revsions in the perf tool itself.
+ * different endianness and perf_event ABI revisions in the perf tool itself.
  */
 static int try_all_pipe_abis(uint64_t hdr_sz, struct perf_header *ph)
 {
index f6e28ac231b79a6f9f72f757943cfa8267d893a3..8658d42ce57a09d97c42a348b2d94bb229524120 100644 (file)
@@ -3569,7 +3569,7 @@ int intel_pt_process_auxtrace_info(union perf_event *event,
        /*
         * Since this thread will not be kept in any rbtree not in a
         * list, initialize its list node so that at thread__put() the
-        * current thread lifetime assuption is kept and we don't segfault
+        * current thread lifetime assumption is kept and we don't segfault
         * at list_del_init().
         */
        INIT_LIST_HEAD(&pt->unknown_thread->node);
index a217ecf0359df133f113eed281d8db03e0b32962..6a6712635aa4b56da73d7b7608832eafa92a4b11 100644 (file)
@@ -30,7 +30,7 @@
  *
  * It does so by calculating the costs of the path ending in characters
  * i (in string1) and j (in string2), respectively, given that the last
- * operation is a substition, a swap, a deletion, or an insertion.
+ * operation is a substitution, a swap, a deletion, or an insertion.
  *
  * This implementation allows the costs to be weighted:
  *
index 6b4e5a0892f8b997d80b6d25125db5c713116b86..c397be0c2e32e90a205a815b737fa40ece9b446a 100644 (file)
@@ -4,7 +4,7 @@
  * generic one.
  *
  * The function 'LIBUNWIND__ARCH_REG_ID' name is set according to arch
- * name and the defination of this function is included directly from
+ * name and the definition of this function is included directly from
  * 'arch/arm64/util/unwind-libunwind.c', to make sure that this function
  * is defined no matter what arch the host is.
  *
index 21c216c40a3bffccf500a83008a300afd22e33dd..b2b92d030aef0126785d8e4a243426271bca1335 100644 (file)
@@ -4,7 +4,7 @@
  * generic one.
  *
  * The function 'LIBUNWIND__ARCH_REG_ID' name is set according to arch
- * name and the defination of this function is included directly from
+ * name and the definition of this function is included directly from
  * 'arch/x86/util/unwind-libunwind.c', to make sure that this function
  * is defined no matter what arch the host is.
  *
index dbdffb6673feb63b63fc6b7aa0ec0ed167032881..3ceaf7ef33013b8a8a43cdeb1cda2a4fe3eea41a 100644 (file)
@@ -471,7 +471,7 @@ int llvm__compile_bpf(const char *path, void **p_obj_buf,
 
        /*
         * This is an optional work. Even it fail we can continue our
-        * work. Needn't to check error return.
+        * work. Needn't check error return.
         */
        llvm__get_kbuild_opts(&kbuild_dir, &kbuild_include_opts);
 
index 435771eed62b9720245c3293987199db0d2d5412..3ff4936a15a42f74b6315359fb3717dec78c75c2 100644 (file)
@@ -905,7 +905,7 @@ static struct map *machine__addnew_module_map(struct machine *machine, u64 start
 
        maps__insert(&machine->kmaps, map);
 
-       /* Put the map here because maps__insert alread got it */
+       /* Put the map here because maps__insert already got it */
        map__put(map);
 out:
        /* put the dso here, corresponding to  machine__findnew_module_dso */
@@ -1952,7 +1952,7 @@ int machine__process_fork_event(struct machine *machine, union perf_event *event
         * maps because that is what the kernel just did.
         *
         * But when synthesizing, this should not be done.  If we do, we end up
-        * with overlapping maps as we process the sythesized MMAP2 events that
+        * with overlapping maps as we process the synthesized MMAP2 events that
         * get delivered shortly thereafter.
         *
         * Use the FORK event misc flags in an internal way to signal this
@@ -2518,7 +2518,7 @@ static bool has_stitched_lbr(struct thread *thread,
 
        /*
         * Check if there are identical LBRs between two samples.
-        * Identicall LBRs must have same from, to and flags values. Also,
+        * Identical LBRs must have same from, to and flags values. Also,
         * they have to be saved in the same LBR registers (same physical
         * index).
         *
@@ -2588,7 +2588,7 @@ err:
 }
 
 /*
- * Recolve LBR callstack chain sample
+ * Resolve LBR callstack chain sample
  * Return:
  * 1 on success get LBR callchain information
  * 0 no available LBR callchain information, should try fp
index 9f32825c98d8471268c6cdba279552143905b9fb..d32f5b28c1fb5c6b336c2d06f01740f36aeee0cf 100644 (file)
@@ -75,7 +75,7 @@ struct thread;
 
 /* map__for_each_symbol - iterate over the symbols in the given map
  *
- * @map: the 'struct map *' in which symbols itereated
+ * @map: the 'struct map *' in which symbols are iterated
  * @pos: the 'struct symbol *' to use as a loop cursor
  * @n: the 'struct rb_node *' to use as a temporary storage
  * Note: caller must ensure map->dso is not NULL (map is loaded).
@@ -86,7 +86,7 @@ struct thread;
 /* map__for_each_symbol_with_name - iterate over the symbols in the given map
  *                                  that have the given name
  *
- * @map: the 'struct map *' in which symbols itereated
+ * @map: the 'struct map *' in which symbols are iterated
  * @sym_name: the symbol name
  * @pos: the 'struct symbol *' to use as a loop cursor
  */
index 755cef7e06259bdc838e00e85f3f92131fa15754..63dd383b6ce2d328d10caa7bbbb26885daa515ce 100644 (file)
@@ -81,7 +81,7 @@ struct c2c_stats {
        u32     rmt_dram;            /* count of loads miss to remote DRAM */
        u32     blk_data;            /* count of loads blocked by data */
        u32     blk_addr;            /* count of loads blocked by address conflict */
-       u32     nomap;               /* count of load/stores with no phys adrs */
+       u32     nomap;               /* count of load/stores with no phys addrs */
        u32     noparse;             /* count of unparsable data sources */
 };
 
index 26c990e323781f1241070cc676cc868fdcbd7290..6acb44ad439b273e22157dfcf43a7c194dee4f9c 100644 (file)
@@ -181,7 +181,7 @@ static bool evsel_same_pmu(struct evsel *ev1, struct evsel *ev2)
  * @pctx: the parse context for the metric expression.
  * @metric_no_merge: don't attempt to share events for the metric with other
  * metrics.
- * @has_constraint: is there a contraint on the group of events? In which case
+ * @has_constraint: is there a constraint on the group of events? In which case
  * the events won't be grouped.
  * @metric_events: out argument, null terminated array of evsel's associated
  * with the metric.
index 42c84adeb2fbe1e65d82b9b069e024b36aa2cb62..9ecb45bea94842beb3e155940d0fe5a9fe46d402 100644 (file)
@@ -843,9 +843,9 @@ split_bpf_config_terms(struct list_head *evt_head_config,
        struct parse_events_term *term, *temp;
 
        /*
-        * Currectly, all possible user config term
+        * Currently, all possible user config term
         * belong to bpf object. parse_events__is_hardcoded_term()
-        * happends to be a good flag.
+        * happens to be a good flag.
         *
         * See parse_events_config_bpf() and
         * config_term_tracepoint().
@@ -895,7 +895,7 @@ int parse_events_load_bpf(struct parse_events_state *parse_state,
 
        /*
         * Caller doesn't know anything about obj_head_config,
-        * so combine them together again before returnning.
+        * so combine them together again before returning.
         */
        if (head_config)
                list_splice_tail(&obj_head_config, head_config);
@@ -1182,10 +1182,10 @@ do {                                                                       \
        }
 
        /*
-        * Check term availbility after basic checking so
+        * Check term availability after basic checking so
         * PARSE_EVENTS__TERM_TYPE_USER can be found and filtered.
         *
-        * If check availbility at the entry of this function,
+        * If check availability at the entry of this function,
         * user will see "'<sysfs term>' is not usable in 'perf stat'"
         * if an invalid config term is provided for legacy events
         * (for example, instructions/badterm/...), which is confusing.
index 44ef28302fc77cbdb681684701e60bb42fc96874..88da5cf6aee8719b70993261c8b613bd39eecdf0 100644 (file)
@@ -1069,7 +1069,7 @@ int perf_pmu__format_type(struct list_head *formats, const char *name)
 
 /*
  * Sets value based on the format definition (format parameter)
- * and unformated value (value parameter).
+ * and unformatted value (value parameter).
  */
 static void pmu_format_value(unsigned long *format, __u64 value, __u64 *v,
                             bool zero)
@@ -1408,7 +1408,7 @@ int perf_pmu__check_alias(struct perf_pmu *pmu, struct list_head *head_terms,
        }
 
        /*
-        * if no unit or scale foundin aliases, then
+        * if no unit or scale found in aliases, then
         * set defaults as for evsel
         * unit cannot left to NULL
         */
index a9cff3a50ddf53206e6a50791ae4a444d8e4e3ec..a78c8d59a555e6374ff959fb3ad4c7a795db599c 100644 (file)
@@ -3228,7 +3228,7 @@ errout:
        return err;
 }
 
-/* Concatinate two arrays */
+/* Concatenate two arrays */
 static void *memcat(void *a, size_t sz_a, void *b, size_t sz_b)
 {
        void *ret;
@@ -3258,7 +3258,7 @@ concat_probe_trace_events(struct probe_trace_event **tevs, int *ntevs,
        if (*ntevs + ntevs2 > probe_conf.max_probes)
                ret = -E2BIG;
        else {
-               /* Concatinate the array of probe_trace_event */
+               /* Concatenate the array of probe_trace_event */
                new_tevs = memcat(*tevs, (*ntevs) * sizeof(**tevs),
                                  *tevs2, ntevs2 * sizeof(**tevs2));
                if (!new_tevs)
index 1b118c9c86a699bed45a905c975c0992835bdf61..866f2d514d7299b0416dd4e99b54472e787b0e50 100644 (file)
@@ -164,7 +164,7 @@ static struct probe_trace_arg_ref *alloc_trace_arg_ref(long offs)
 /*
  * Convert a location into trace_arg.
  * If tvar == NULL, this just checks variable can be converted.
- * If fentry == true and vr_die is a parameter, do huristic search
+ * If fentry == true and vr_die is a parameter, do heuristic search
  * for the location fuzzed by function entry mcount.
  */
 static int convert_variable_location(Dwarf_Die *vr_die, Dwarf_Addr addr,
@@ -498,7 +498,7 @@ static int convert_variable_fields(Dwarf_Die *vr_die, const char *varname,
                               " nor array.\n", varname);
                        return -EINVAL;
                }
-               /* While prcessing unnamed field, we don't care about this */
+               /* While processing unnamed field, we don't care about this */
                if (field->ref && dwarf_diename(vr_die)) {
                        pr_err("Semantic error: %s must be referred by '.'\n",
                               field->name);
@@ -1832,7 +1832,7 @@ static int line_range_walk_cb(const char *fname, int lineno,
            (lf->lno_s > lineno || lf->lno_e < lineno))
                return 0;
 
-       /* Make sure this line can be reversable */
+       /* Make sure this line can be reversible */
        if (cu_find_lineinfo(&lf->cu_die, addr, &__fname, &__lineno) > 0
            && (lineno != __lineno || strcmp(fname, __fname)))
                return 0;
index 078a7177356547cb50cbbf80301b8a8245a70e6b..8130b56aa04b7c69785d86516d4872324808b0c4 100644 (file)
@@ -45,7 +45,7 @@
  * the data portion is mmap()'ed.
  *
  * To sort the queues in chronological order, all queue access is controlled
- * by the auxtrace_heap. This is basicly a stack, each stack element has two
+ * by the auxtrace_heap. This is basically a stack, each stack element has two
  * entries, the queue number and a time stamp. However the stack is sorted by
  * the time stamps. The highest time stamp is at the bottom the lowest
  * (nearest) time stamp is at the top. That sort order is maintained at all
  * stamp of the last processed entry of the auxtrace_buffer replaces the
  * current auxtrace_heap top.
  *
- * 3. Auxtrace_queues might run of out data and are feeded by the
+ * 3. Auxtrace_queues might run of out data and are fed by the
  * PERF_RECORD_AUXTRACE handling, see s390_cpumsf_process_auxtrace_event().
  *
  * Event Generation
- * Each sampling-data entry in the auxilary trace data generates a perf sample.
+ * Each sampling-data entry in the auxiliary trace data generates a perf sample.
  * This sample is filled
  * with data from the auxtrace such as PID/TID, instruction address, CPU state,
  * etc. This sample is processed with perf_session__deliver_synth_event() to
@@ -575,7 +575,7 @@ static unsigned long long get_trailer_time(const unsigned char *buf)
  * pointer to the queue, the second parameter is the time stamp. This
  * is the time stamp:
  * - of the event that triggered this processing.
- * - or the time stamp when the last proccesing of this queue stopped.
+ * - or the time stamp when the last processing of this queue stopped.
  *   In this case it stopped at a 4KB page boundary and record the
  *   position on where to continue processing on the next invocation
  *   (see buffer->use_data and buffer->use_size).
@@ -640,7 +640,7 @@ static int s390_cpumsf_samples(struct s390_cpumsf_queue *sfq, u64 *ts)
                        goto out;
                }
 
-               pos += dsdes;   /* Skip diagnositic entry */
+               pos += dsdes;   /* Skip diagnostic entry */
 
                /* Check for trailer entry */
                if (!s390_cpumsf_reached_trailer(bsdes + dsdes, pos)) {
index c83c2c6564e010895845a243f564750b15789eba..4e4aa4c97ac5959757d073cb592627e49b037ce7 100644 (file)
@@ -1531,7 +1531,7 @@ static void set_table_handlers(struct tables *tables)
                 * Attempt to use the call path root from the call return
                 * processor, if the call return processor is in use. Otherwise,
                 * we allocate a new call path root. This prevents exporting
-                * duplicate call path ids when both are in use simultaniously.
+                * duplicate call path ids when both are in use simultaneously.
                 */
                if (tables->dbe.crp)
                        tables->dbe.cpr = tables->dbe.crp->cpr;
index 859832a824967595cee8ee54ad81a288528e965d..9a8808507bd98fc1d717f072a5fd754d7eaa9a73 100644 (file)
@@ -1069,7 +1069,7 @@ static void callchain__lbr_callstack_printf(struct perf_sample *sample)
                 * in "to" register.
                 * For example, there is a call stack
                 * "A"->"B"->"C"->"D".
-                * The LBR registers will recorde like
+                * The LBR registers will be recorded like
                 * "C"->"D", "B"->"C", "A"->"B".
                 * So only the first "to" register and all "from"
                 * registers are needed to construct the whole stack.
@@ -1584,7 +1584,7 @@ static s64 perf_session__process_user_event(struct perf_session *session,
                return tool->event_update(tool, event, &session->evlist);
        case PERF_RECORD_HEADER_EVENT_TYPE:
                /*
-                * Depreceated, but we need to handle it for sake
+                * Deprecated, but we need to handle it for sake
                 * of old data files create in pipe mode.
                 */
                return 0;
index ea94d862898020aab30bf36924db5035709cdf64..be94d7046fa070bbafbcd8c9420441d3a8757a01 100644 (file)
@@ -12,7 +12,7 @@
  *    build complex strings/buffers whose final size isn't easily known.
  *
  *    It is NOT legal to copy the ->buf pointer away.
- *    `strbuf_detach' is the operation that detachs a buffer from its shell
+ *    `strbuf_detach' is the operation that detaches a buffer from its shell
  *    while keeping the shell valid wrt its invariants.
  *
  * 2. the ->buf member is a byte array that has at least ->len + 1 bytes
index e0c25a40f7967463be435af4a954d46fd88c2f5f..c05aca9ca582e6d799554c3ce5f617cc4c69ebae 100644 (file)
@@ -8,8 +8,8 @@
 
 /* A node of string filter */
 struct strfilter_node {
-       struct strfilter_node *l;       /* Tree left branche (for &,|) */
-       struct strfilter_node *r;       /* Tree right branche (for !,&,|) */
+       struct strfilter_node *l;       /* Tree left branch (for &,|) */
+       struct strfilter_node *r;       /* Tree right branch (for !,&,|) */
        const char *p;          /* Operator or rule */
 };
 
index 6dff843fd883056a9d382bc9db0b0d2eb572148e..4c56aa8374344909aa3017fb60b77257b9d7f0d7 100644 (file)
@@ -1058,7 +1058,7 @@ static int dso__process_kernel_symbol(struct dso *dso, struct map *map,
                curr_dso->symtab_type = dso->symtab_type;
                maps__insert(kmaps, curr_map);
                /*
-                * Add it before we drop the referece to curr_map, i.e. while
+                * Add it before we drop the reference to curr_map, i.e. while
                 * we still are sure to have a reference to this DSO via
                 * *curr_map->dso.
                 */
index b698046ec2db2ad58ddfa666f64af5dca8a095a3..49c9353ff9fc0626bc4dcb037dd8d6d21ccf7513 100644 (file)
@@ -1210,7 +1210,7 @@ static size_t mask_size(struct perf_cpu_map *map, int *max)
        *max = 0;
 
        for (i = 0; i < map->nr; i++) {
-               /* bit possition of the cpu is + 1 */
+               /* bit position of the cpu is + 1 */
                int bit = map->map[i] + 1;
 
                if (bit > *max)
@@ -1236,7 +1236,7 @@ void *cpu_map_data__alloc(struct perf_cpu_map *map, size_t *size, u16 *type, int
         *   mask  = size of 'struct perf_record_record_cpu_map' +
         *           maximum cpu bit converted to size of longs
         *
-        * and finaly + the size of 'struct perf_record_cpu_map_data'.
+        * and finally + the size of 'struct perf_record_cpu_map_data'.
         */
        size_cpus = cpus_size(map);
        size_mask = mask_size(map, max);
index 9aededc0bc06f0e46953f4700bcb6f2c84713a07..71a3533491815749bd1ec84e659d659cba09957c 100644 (file)
@@ -82,7 +82,7 @@ UNW_OBJ(dwarf_find_debug_frame) (int found, unw_dyn_info_t *di_debug,
 #define DW_EH_PE_funcrel       0x40    /* start-of-procedure-relative */
 #define DW_EH_PE_aligned       0x50    /* aligned pointer */
 
-/* Flags intentionaly not handled, since they're not needed:
+/* Flags intentionally not handled, since they're not needed:
  * #define DW_EH_PE_indirect      0x80
  * #define DW_EH_PE_uleb128       0x01
  * #define DW_EH_PE_udata2        0x02