Merge tag 'acpi-5.1-rc1' of git://git.kernel.org/pub/scm/linux/kernel/git/rafael...
[sfrench/cifs-2.6.git] / Documentation / admin-guide / pm / cpuidle.rst
1 .. |struct cpuidle_state| replace:: :c:type:`struct cpuidle_state <cpuidle_state>`
2 .. |cpufreq| replace:: :doc:`CPU Performance Scaling <cpufreq>`
3
4 ========================
5 CPU Idle Time Management
6 ========================
7
8 ::
9
10  Copyright (c) 2018 Intel Corp., Rafael J. Wysocki <rafael.j.wysocki@intel.com>
11
12 Concepts
13 ========
14
15 Modern processors are generally able to enter states in which the execution of
16 a program is suspended and instructions belonging to it are not fetched from
17 memory or executed.  Those states are the *idle* states of the processor.
18
19 Since part of the processor hardware is not used in idle states, entering them
20 generally allows power drawn by the processor to be reduced and, in consequence,
21 it is an opportunity to save energy.
22
23 CPU idle time management is an energy-efficiency feature concerned about using
24 the idle states of processors for this purpose.
25
26 Logical CPUs
27 ------------
28
29 CPU idle time management operates on CPUs as seen by the *CPU scheduler* (that
30 is the part of the kernel responsible for the distribution of computational
31 work in the system).  In its view, CPUs are *logical* units.  That is, they need
32 not be separate physical entities and may just be interfaces appearing to
33 software as individual single-core processors.  In other words, a CPU is an
34 entity which appears to be fetching instructions that belong to one sequence
35 (program) from memory and executing them, but it need not work this way
36 physically.  Generally, three different cases can be consider here.
37
38 First, if the whole processor can only follow one sequence of instructions (one
39 program) at a time, it is a CPU.  In that case, if the hardware is asked to
40 enter an idle state, that applies to the processor as a whole.
41
42 Second, if the processor is multi-core, each core in it is able to follow at
43 least one program at a time.  The cores need not be entirely independent of each
44 other (for example, they may share caches), but still most of the time they
45 work physically in parallel with each other, so if each of them executes only
46 one program, those programs run mostly independently of each other at the same
47 time.  The entire cores are CPUs in that case and if the hardware is asked to
48 enter an idle state, that applies to the core that asked for it in the first
49 place, but it also may apply to a larger unit (say a "package" or a "cluster")
50 that the core belongs to (in fact, it may apply to an entire hierarchy of larger
51 units containing the core).  Namely, if all of the cores in the larger unit
52 except for one have been put into idle states at the "core level" and the
53 remaining core asks the processor to enter an idle state, that may trigger it
54 to put the whole larger unit into an idle state which also will affect the
55 other cores in that unit.
56
57 Finally, each core in a multi-core processor may be able to follow more than one
58 program in the same time frame (that is, each core may be able to fetch
59 instructions from multiple locations in memory and execute them in the same time
60 frame, but not necessarily entirely in parallel with each other).  In that case
61 the cores present themselves to software as "bundles" each consisting of
62 multiple individual single-core "processors", referred to as *hardware threads*
63 (or hyper-threads specifically on Intel hardware), that each can follow one
64 sequence of instructions.  Then, the hardware threads are CPUs from the CPU idle
65 time management perspective and if the processor is asked to enter an idle state
66 by one of them, the hardware thread (or CPU) that asked for it is stopped, but
67 nothing more happens, unless all of the other hardware threads within the same
68 core also have asked the processor to enter an idle state.  In that situation,
69 the core may be put into an idle state individually or a larger unit containing
70 it may be put into an idle state as a whole (if the other cores within the
71 larger unit are in idle states already).
72
73 Idle CPUs
74 ---------
75
76 Logical CPUs, simply referred to as "CPUs" in what follows, are regarded as
77 *idle* by the Linux kernel when there are no tasks to run on them except for the
78 special "idle" task.
79
80 Tasks are the CPU scheduler's representation of work.  Each task consists of a
81 sequence of instructions to execute, or code, data to be manipulated while
82 running that code, and some context information that needs to be loaded into the
83 processor every time the task's code is run by a CPU.  The CPU scheduler
84 distributes work by assigning tasks to run to the CPUs present in the system.
85
86 Tasks can be in various states.  In particular, they are *runnable* if there are
87 no specific conditions preventing their code from being run by a CPU as long as
88 there is a CPU available for that (for example, they are not waiting for any
89 events to occur or similar).  When a task becomes runnable, the CPU scheduler
90 assigns it to one of the available CPUs to run and if there are no more runnable
91 tasks assigned to it, the CPU will load the given task's context and run its
92 code (from the instruction following the last one executed so far, possibly by
93 another CPU).  [If there are multiple runnable tasks assigned to one CPU
94 simultaneously, they will be subject to prioritization and time sharing in order
95 to allow them to make some progress over time.]
96
97 The special "idle" task becomes runnable if there are no other runnable tasks
98 assigned to the given CPU and the CPU is then regarded as idle.  In other words,
99 in Linux idle CPUs run the code of the "idle" task called *the idle loop*.  That
100 code may cause the processor to be put into one of its idle states, if they are
101 supported, in order to save energy, but if the processor does not support any
102 idle states, or there is not enough time to spend in an idle state before the
103 next wakeup event, or there are strict latency constraints preventing any of the
104 available idle states from being used, the CPU will simply execute more or less
105 useless instructions in a loop until it is assigned a new task to run.
106
107
108 .. _idle-loop:
109
110 The Idle Loop
111 =============
112
113 The idle loop code takes two major steps in every iteration of it.  First, it
114 calls into a code module referred to as the *governor* that belongs to the CPU
115 idle time management subsystem called ``CPUIdle`` to select an idle state for
116 the CPU to ask the hardware to enter.  Second, it invokes another code module
117 from the ``CPUIdle`` subsystem, called the *driver*, to actually ask the
118 processor hardware to enter the idle state selected by the governor.
119
120 The role of the governor is to find an idle state most suitable for the
121 conditions at hand.  For this purpose, idle states that the hardware can be
122 asked to enter by logical CPUs are represented in an abstract way independent of
123 the platform or the processor architecture and organized in a one-dimensional
124 (linear) array.  That array has to be prepared and supplied by the ``CPUIdle``
125 driver matching the platform the kernel is running on at the initialization
126 time.  This allows ``CPUIdle`` governors to be independent of the underlying
127 hardware and to work with any platforms that the Linux kernel can run on.
128
129 Each idle state present in that array is characterized by two parameters to be
130 taken into account by the governor, the *target residency* and the (worst-case)
131 *exit latency*.  The target residency is the minimum time the hardware must
132 spend in the given state, including the time needed to enter it (which may be
133 substantial), in order to save more energy than it would save by entering one of
134 the shallower idle states instead.  [The "depth" of an idle state roughly
135 corresponds to the power drawn by the processor in that state.]  The exit
136 latency, in turn, is the maximum time it will take a CPU asking the processor
137 hardware to enter an idle state to start executing the first instruction after a
138 wakeup from that state.  Note that in general the exit latency also must cover
139 the time needed to enter the given state in case the wakeup occurs when the
140 hardware is entering it and it must be entered completely to be exited in an
141 ordered manner.
142
143 There are two types of information that can influence the governor's decisions.
144 First of all, the governor knows the time until the closest timer event.  That
145 time is known exactly, because the kernel programs timers and it knows exactly
146 when they will trigger, and it is the maximum time the hardware that the given
147 CPU depends on can spend in an idle state, including the time necessary to enter
148 and exit it.  However, the CPU may be woken up by a non-timer event at any time
149 (in particular, before the closest timer triggers) and it generally is not known
150 when that may happen.  The governor can only see how much time the CPU actually
151 was idle after it has been woken up (that time will be referred to as the *idle
152 duration* from now on) and it can use that information somehow along with the
153 time until the closest timer to estimate the idle duration in future.  How the
154 governor uses that information depends on what algorithm is implemented by it
155 and that is the primary reason for having more than one governor in the
156 ``CPUIdle`` subsystem.
157
158 There are three ``CPUIdle`` governors available, ``menu``, `TEO <teo-gov_>`_
159 and ``ladder``.  Which of them is used by default depends on the configuration
160 of the kernel and in particular on whether or not the scheduler tick can be
161 `stopped by the idle loop <idle-cpus-and-tick_>`_.  It is possible to change the
162 governor at run time if the ``cpuidle_sysfs_switch`` command line parameter has
163 been passed to the kernel, but that is not safe in general, so it should not be
164 done on production systems (that may change in the future, though).  The name of
165 the ``CPUIdle`` governor currently used by the kernel can be read from the
166 :file:`current_governor_ro` (or :file:`current_governor` if
167 ``cpuidle_sysfs_switch`` is present in the kernel command line) file under
168 :file:`/sys/devices/system/cpu/cpuidle/` in ``sysfs``.
169
170 Which ``CPUIdle`` driver is used, on the other hand, usually depends on the
171 platform the kernel is running on, but there are platforms with more than one
172 matching driver.  For example, there are two drivers that can work with the
173 majority of Intel platforms, ``intel_idle`` and ``acpi_idle``, one with
174 hardcoded idle states information and the other able to read that information
175 from the system's ACPI tables, respectively.  Still, even in those cases, the
176 driver chosen at the system initialization time cannot be replaced later, so the
177 decision on which one of them to use has to be made early (on Intel platforms
178 the ``acpi_idle`` driver will be used if ``intel_idle`` is disabled for some
179 reason or if it does not recognize the processor).  The name of the ``CPUIdle``
180 driver currently used by the kernel can be read from the :file:`current_driver`
181 file under :file:`/sys/devices/system/cpu/cpuidle/` in ``sysfs``.
182
183
184 .. _idle-cpus-and-tick:
185
186 Idle CPUs and The Scheduler Tick
187 ================================
188
189 The scheduler tick is a timer that triggers periodically in order to implement
190 the time sharing strategy of the CPU scheduler.  Of course, if there are
191 multiple runnable tasks assigned to one CPU at the same time, the only way to
192 allow them to make reasonable progress in a given time frame is to make them
193 share the available CPU time.  Namely, in rough approximation, each task is
194 given a slice of the CPU time to run its code, subject to the scheduling class,
195 prioritization and so on and when that time slice is used up, the CPU should be
196 switched over to running (the code of) another task.  The currently running task
197 may not want to give the CPU away voluntarily, however, and the scheduler tick
198 is there to make the switch happen regardless.  That is not the only role of the
199 tick, but it is the primary reason for using it.
200
201 The scheduler tick is problematic from the CPU idle time management perspective,
202 because it triggers periodically and relatively often (depending on the kernel
203 configuration, the length of the tick period is between 1 ms and 10 ms).
204 Thus, if the tick is allowed to trigger on idle CPUs, it will not make sense
205 for them to ask the hardware to enter idle states with target residencies above
206 the tick period length.  Moreover, in that case the idle duration of any CPU
207 will never exceed the tick period length and the energy used for entering and
208 exiting idle states due to the tick wakeups on idle CPUs will be wasted.
209
210 Fortunately, it is not really necessary to allow the tick to trigger on idle
211 CPUs, because (by definition) they have no tasks to run except for the special
212 "idle" one.  In other words, from the CPU scheduler perspective, the only user
213 of the CPU time on them is the idle loop.  Since the time of an idle CPU need
214 not be shared between multiple runnable tasks, the primary reason for using the
215 tick goes away if the given CPU is idle.  Consequently, it is possible to stop
216 the scheduler tick entirely on idle CPUs in principle, even though that may not
217 always be worth the effort.
218
219 Whether or not it makes sense to stop the scheduler tick in the idle loop
220 depends on what is expected by the governor.  First, if there is another
221 (non-tick) timer due to trigger within the tick range, stopping the tick clearly
222 would be a waste of time, even though the timer hardware may not need to be
223 reprogrammed in that case.  Second, if the governor is expecting a non-timer
224 wakeup within the tick range, stopping the tick is not necessary and it may even
225 be harmful.  Namely, in that case the governor will select an idle state with
226 the target residency within the time until the expected wakeup, so that state is
227 going to be relatively shallow.  The governor really cannot select a deep idle
228 state then, as that would contradict its own expectation of a wakeup in short
229 order.  Now, if the wakeup really occurs shortly, stopping the tick would be a
230 waste of time and in this case the timer hardware would need to be reprogrammed,
231 which is expensive.  On the other hand, if the tick is stopped and the wakeup
232 does not occur any time soon, the hardware may spend indefinite amount of time
233 in the shallow idle state selected by the governor, which will be a waste of
234 energy.  Hence, if the governor is expecting a wakeup of any kind within the
235 tick range, it is better to allow the tick trigger.  Otherwise, however, the
236 governor will select a relatively deep idle state, so the tick should be stopped
237 so that it does not wake up the CPU too early.
238
239 In any case, the governor knows what it is expecting and the decision on whether
240 or not to stop the scheduler tick belongs to it.  Still, if the tick has been
241 stopped already (in one of the previous iterations of the loop), it is better
242 to leave it as is and the governor needs to take that into account.
243
244 The kernel can be configured to disable stopping the scheduler tick in the idle
245 loop altogether.  That can be done through the build-time configuration of it
246 (by unsetting the ``CONFIG_NO_HZ_IDLE`` configuration option) or by passing
247 ``nohz=off`` to it in the command line.  In both cases, as the stopping of the
248 scheduler tick is disabled, the governor's decisions regarding it are simply
249 ignored by the idle loop code and the tick is never stopped.
250
251 The systems that run kernels configured to allow the scheduler tick to be
252 stopped on idle CPUs are referred to as *tickless* systems and they are
253 generally regarded as more energy-efficient than the systems running kernels in
254 which the tick cannot be stopped.  If the given system is tickless, it will use
255 the ``menu`` governor by default and if it is not tickless, the default
256 ``CPUIdle`` governor on it will be ``ladder``.
257
258
259 .. _menu-gov:
260
261 The ``menu`` Governor
262 =====================
263
264 The ``menu`` governor is the default ``CPUIdle`` governor for tickless systems.
265 It is quite complex, but the basic principle of its design is straightforward.
266 Namely, when invoked to select an idle state for a CPU (i.e. an idle state that
267 the CPU will ask the processor hardware to enter), it attempts to predict the
268 idle duration and uses the predicted value for idle state selection.
269
270 It first obtains the time until the closest timer event with the assumption
271 that the scheduler tick will be stopped.  That time, referred to as the *sleep
272 length* in what follows, is the upper bound on the time before the next CPU
273 wakeup.  It is used to determine the sleep length range, which in turn is needed
274 to get the sleep length correction factor.
275
276 The ``menu`` governor maintains two arrays of sleep length correction factors.
277 One of them is used when tasks previously running on the given CPU are waiting
278 for some I/O operations to complete and the other one is used when that is not
279 the case.  Each array contains several correction factor values that correspond
280 to different sleep length ranges organized so that each range represented in the
281 array is approximately 10 times wider than the previous one.
282
283 The correction factor for the given sleep length range (determined before
284 selecting the idle state for the CPU) is updated after the CPU has been woken
285 up and the closer the sleep length is to the observed idle duration, the closer
286 to 1 the correction factor becomes (it must fall between 0 and 1 inclusive).
287 The sleep length is multiplied by the correction factor for the range that it
288 falls into to obtain the first approximation of the predicted idle duration.
289
290 Next, the governor uses a simple pattern recognition algorithm to refine its
291 idle duration prediction.  Namely, it saves the last 8 observed idle duration
292 values and, when predicting the idle duration next time, it computes the average
293 and variance of them.  If the variance is small (smaller than 400 square
294 milliseconds) or it is small relative to the average (the average is greater
295 that 6 times the standard deviation), the average is regarded as the "typical
296 interval" value.  Otherwise, the longest of the saved observed idle duration
297 values is discarded and the computation is repeated for the remaining ones.
298 Again, if the variance of them is small (in the above sense), the average is
299 taken as the "typical interval" value and so on, until either the "typical
300 interval" is determined or too many data points are disregarded, in which case
301 the "typical interval" is assumed to equal "infinity" (the maximum unsigned
302 integer value).  The "typical interval" computed this way is compared with the
303 sleep length multiplied by the correction factor and the minimum of the two is
304 taken as the predicted idle duration.
305
306 Then, the governor computes an extra latency limit to help "interactive"
307 workloads.  It uses the observation that if the exit latency of the selected
308 idle state is comparable with the predicted idle duration, the total time spent
309 in that state probably will be very short and the amount of energy to save by
310 entering it will be relatively small, so likely it is better to avoid the
311 overhead related to entering that state and exiting it.  Thus selecting a
312 shallower state is likely to be a better option then.   The first approximation
313 of the extra latency limit is the predicted idle duration itself which
314 additionally is divided by a value depending on the number of tasks that
315 previously ran on the given CPU and now they are waiting for I/O operations to
316 complete.  The result of that division is compared with the latency limit coming
317 from the power management quality of service, or `PM QoS <cpu-pm-qos_>`_,
318 framework and the minimum of the two is taken as the limit for the idle states'
319 exit latency.
320
321 Now, the governor is ready to walk the list of idle states and choose one of
322 them.  For this purpose, it compares the target residency of each state with
323 the predicted idle duration and the exit latency of it with the computed latency
324 limit.  It selects the state with the target residency closest to the predicted
325 idle duration, but still below it, and exit latency that does not exceed the
326 limit.
327
328 In the final step the governor may still need to refine the idle state selection
329 if it has not decided to `stop the scheduler tick <idle-cpus-and-tick_>`_.  That
330 happens if the idle duration predicted by it is less than the tick period and
331 the tick has not been stopped already (in a previous iteration of the idle
332 loop).  Then, the sleep length used in the previous computations may not reflect
333 the real time until the closest timer event and if it really is greater than
334 that time, the governor may need to select a shallower state with a suitable
335 target residency.
336
337
338 .. _teo-gov:
339
340 The Timer Events Oriented (TEO) Governor
341 ========================================
342
343 The timer events oriented (TEO) governor is an alternative ``CPUIdle`` governor
344 for tickless systems.  It follows the same basic strategy as the ``menu`` `one
345 <menu-gov_>`_: it always tries to find the deepest idle state suitable for the
346 given conditions.  However, it applies a different approach to that problem.
347
348 First, it does not use sleep length correction factors, but instead it attempts
349 to correlate the observed idle duration values with the available idle states
350 and use that information to pick up the idle state that is most likely to
351 "match" the upcoming CPU idle interval.   Second, it does not take the tasks
352 that were running on the given CPU in the past and are waiting on some I/O
353 operations to complete now at all (there is no guarantee that they will run on
354 the same CPU when they become runnable again) and the pattern detection code in
355 it avoids taking timer wakeups into account.  It also only uses idle duration
356 values less than the current time till the closest timer (with the scheduler
357 tick excluded) for that purpose.
358
359 Like in the ``menu`` governor `case <menu-gov_>`_, the first step is to obtain
360 the *sleep length*, which is the time until the closest timer event with the
361 assumption that the scheduler tick will be stopped (that also is the upper bound
362 on the time until the next CPU wakeup).  That value is then used to preselect an
363 idle state on the basis of three metrics maintained for each idle state provided
364 by the ``CPUIdle`` driver: ``hits``, ``misses`` and ``early_hits``.
365
366 The ``hits`` and ``misses`` metrics measure the likelihood that a given idle
367 state will "match" the observed (post-wakeup) idle duration if it "matches" the
368 sleep length.  They both are subject to decay (after a CPU wakeup) every time
369 the target residency of the idle state corresponding to them is less than or
370 equal to the sleep length and the target residency of the next idle state is
371 greater than the sleep length (that is, when the idle state corresponding to
372 them "matches" the sleep length).  The ``hits`` metric is increased if the
373 former condition is satisfied and the target residency of the given idle state
374 is less than or equal to the observed idle duration and the target residency of
375 the next idle state is greater than the observed idle duration at the same time
376 (that is, it is increased when the given idle state "matches" both the sleep
377 length and the observed idle duration).  In turn, the ``misses`` metric is
378 increased when the given idle state "matches" the sleep length only and the
379 observed idle duration is too short for its target residency.
380
381 The ``early_hits`` metric measures the likelihood that a given idle state will
382 "match" the observed (post-wakeup) idle duration if it does not "match" the
383 sleep length.  It is subject to decay on every CPU wakeup and it is increased
384 when the idle state corresponding to it "matches" the observed (post-wakeup)
385 idle duration and the target residency of the next idle state is less than or
386 equal to the sleep length (i.e. the idle state "matching" the sleep length is
387 deeper than the given one).
388
389 The governor walks the list of idle states provided by the ``CPUIdle`` driver
390 and finds the last (deepest) one with the target residency less than or equal
391 to the sleep length.  Then, the ``hits`` and ``misses`` metrics of that idle
392 state are compared with each other and it is preselected if the ``hits`` one is
393 greater (which means that that idle state is likely to "match" the observed idle
394 duration after CPU wakeup).  If the ``misses`` one is greater, the governor
395 preselects the shallower idle state with the maximum ``early_hits`` metric
396 (or if there are multiple shallower idle states with equal ``early_hits``
397 metric which also is the maximum, the shallowest of them will be preselected).
398 [If there is a wakeup latency constraint coming from the `PM QoS framework
399 <cpu-pm-qos_>`_ which is hit before reaching the deepest idle state with the
400 target residency within the sleep length, the deepest idle state with the exit
401 latency within the constraint is preselected without consulting the ``hits``,
402 ``misses`` and ``early_hits`` metrics.]
403
404 Next, the governor takes several idle duration values observed most recently
405 into consideration and if at least a half of them are greater than or equal to
406 the target residency of the preselected idle state, that idle state becomes the
407 final candidate to ask for.  Otherwise, the average of the most recent idle
408 duration values below the target residency of the preselected idle state is
409 computed and the governor walks the idle states shallower than the preselected
410 one and finds the deepest of them with the target residency within that average.
411 That idle state is then taken as the final candidate to ask for.
412
413 Still, at this point the governor may need to refine the idle state selection if
414 it has not decided to `stop the scheduler tick <idle-cpus-and-tick_>`_.  That
415 generally happens if the target residency of the idle state selected so far is
416 less than the tick period and the tick has not been stopped already (in a
417 previous iteration of the idle loop).  Then, like in the ``menu`` governor
418 `case <menu-gov_>`_, the sleep length used in the previous computations may not
419 reflect the real time until the closest timer event and if it really is greater
420 than that time, a shallower state with a suitable target residency may need to
421 be selected.
422
423
424 .. _idle-states-representation:
425
426 Representation of Idle States
427 =============================
428
429 For the CPU idle time management purposes all of the physical idle states
430 supported by the processor have to be represented as a one-dimensional array of
431 |struct cpuidle_state| objects each allowing an individual (logical) CPU to ask
432 the processor hardware to enter an idle state of certain properties.  If there
433 is a hierarchy of units in the processor, one |struct cpuidle_state| object can
434 cover a combination of idle states supported by the units at different levels of
435 the hierarchy.  In that case, the `target residency and exit latency parameters
436 of it <idle-loop_>`_, must reflect the properties of the idle state at the
437 deepest level (i.e. the idle state of the unit containing all of the other
438 units).
439
440 For example, take a processor with two cores in a larger unit referred to as
441 a "module" and suppose that asking the hardware to enter a specific idle state
442 (say "X") at the "core" level by one core will trigger the module to try to
443 enter a specific idle state of its own (say "MX") if the other core is in idle
444 state "X" already.  In other words, asking for idle state "X" at the "core"
445 level gives the hardware a license to go as deep as to idle state "MX" at the
446 "module" level, but there is no guarantee that this is going to happen (the core
447 asking for idle state "X" may just end up in that state by itself instead).
448 Then, the target residency of the |struct cpuidle_state| object representing
449 idle state "X" must reflect the minimum time to spend in idle state "MX" of
450 the module (including the time needed to enter it), because that is the minimum
451 time the CPU needs to be idle to save any energy in case the hardware enters
452 that state.  Analogously, the exit latency parameter of that object must cover
453 the exit time of idle state "MX" of the module (and usually its entry time too),
454 because that is the maximum delay between a wakeup signal and the time the CPU
455 will start to execute the first new instruction (assuming that both cores in the
456 module will always be ready to execute instructions as soon as the module
457 becomes operational as a whole).
458
459 There are processors without direct coordination between different levels of the
460 hierarchy of units inside them, however.  In those cases asking for an idle
461 state at the "core" level does not automatically affect the "module" level, for
462 example, in any way and the ``CPUIdle`` driver is responsible for the entire
463 handling of the hierarchy.  Then, the definition of the idle state objects is
464 entirely up to the driver, but still the physical properties of the idle state
465 that the processor hardware finally goes into must always follow the parameters
466 used by the governor for idle state selection (for instance, the actual exit
467 latency of that idle state must not exceed the exit latency parameter of the
468 idle state object selected by the governor).
469
470 In addition to the target residency and exit latency idle state parameters
471 discussed above, the objects representing idle states each contain a few other
472 parameters describing the idle state and a pointer to the function to run in
473 order to ask the hardware to enter that state.  Also, for each
474 |struct cpuidle_state| object, there is a corresponding
475 :c:type:`struct cpuidle_state_usage <cpuidle_state_usage>` one containing usage
476 statistics of the given idle state.  That information is exposed by the kernel
477 via ``sysfs``.
478
479 For each CPU in the system, there is a :file:`/sys/devices/system/cpu<N>/cpuidle/`
480 directory in ``sysfs``, where the number ``<N>`` is assigned to the given
481 CPU at the initialization time.  That directory contains a set of subdirectories
482 called :file:`state0`, :file:`state1` and so on, up to the number of idle state
483 objects defined for the given CPU minus one.  Each of these directories
484 corresponds to one idle state object and the larger the number in its name, the
485 deeper the (effective) idle state represented by it.  Each of them contains
486 a number of files (attributes) representing the properties of the idle state
487 object corresponding to it, as follows:
488
489 ``above``
490         Total number of times this idle state had been asked for, but the
491         observed idle duration was certainly too short to match its target
492         residency.
493
494 ``below``
495         Total number of times this idle state had been asked for, but cerainly
496         a deeper idle state would have been a better match for the observed idle
497         duration.
498
499 ``desc``
500         Description of the idle state.
501
502 ``disable``
503         Whether or not this idle state is disabled.
504
505 ``latency``
506         Exit latency of the idle state in microseconds.
507
508 ``name``
509         Name of the idle state.
510
511 ``power``
512         Power drawn by hardware in this idle state in milliwatts (if specified,
513         0 otherwise).
514
515 ``residency``
516         Target residency of the idle state in microseconds.
517
518 ``time``
519         Total time spent in this idle state by the given CPU (as measured by the
520         kernel) in microseconds.
521
522 ``usage``
523         Total number of times the hardware has been asked by the given CPU to
524         enter this idle state.
525
526 The :file:`desc` and :file:`name` files both contain strings.  The difference
527 between them is that the name is expected to be more concise, while the
528 description may be longer and it may contain white space or special characters.
529 The other files listed above contain integer numbers.
530
531 The :file:`disable` attribute is the only writeable one.  If it contains 1, the
532 given idle state is disabled for this particular CPU, which means that the
533 governor will never select it for this particular CPU and the ``CPUIdle``
534 driver will never ask the hardware to enter it for that CPU as a result.
535 However, disabling an idle state for one CPU does not prevent it from being
536 asked for by the other CPUs, so it must be disabled for all of them in order to
537 never be asked for by any of them.  [Note that, due to the way the ``ladder``
538 governor is implemented, disabling an idle state prevents that governor from
539 selecting any idle states deeper than the disabled one too.]
540
541 If the :file:`disable` attribute contains 0, the given idle state is enabled for
542 this particular CPU, but it still may be disabled for some or all of the other
543 CPUs in the system at the same time.  Writing 1 to it causes the idle state to
544 be disabled for this particular CPU and writing 0 to it allows the governor to
545 take it into consideration for the given CPU and the driver to ask for it,
546 unless that state was disabled globally in the driver (in which case it cannot
547 be used at all).
548
549 The :file:`power` attribute is not defined very well, especially for idle state
550 objects representing combinations of idle states at different levels of the
551 hierarchy of units in the processor, and it generally is hard to obtain idle
552 state power numbers for complex hardware, so :file:`power` often contains 0 (not
553 available) and if it contains a nonzero number, that number may not be very
554 accurate and it should not be relied on for anything meaningful.
555
556 The number in the :file:`time` file generally may be greater than the total time
557 really spent by the given CPU in the given idle state, because it is measured by
558 the kernel and it may not cover the cases in which the hardware refused to enter
559 this idle state and entered a shallower one instead of it (or even it did not
560 enter any idle state at all).  The kernel can only measure the time span between
561 asking the hardware to enter an idle state and the subsequent wakeup of the CPU
562 and it cannot say what really happened in the meantime at the hardware level.
563 Moreover, if the idle state object in question represents a combination of idle
564 states at different levels of the hierarchy of units in the processor,
565 the kernel can never say how deep the hardware went down the hierarchy in any
566 particular case.  For these reasons, the only reliable way to find out how
567 much time has been spent by the hardware in different idle states supported by
568 it is to use idle state residency counters in the hardware, if available.
569
570
571 .. _cpu-pm-qos:
572
573 Power Management Quality of Service for CPUs
574 ============================================
575
576 The power management quality of service (PM QoS) framework in the Linux kernel
577 allows kernel code and user space processes to set constraints on various
578 energy-efficiency features of the kernel to prevent performance from dropping
579 below a required level.  The PM QoS constraints can be set globally, in
580 predefined categories referred to as PM QoS classes, or against individual
581 devices.
582
583 CPU idle time management can be affected by PM QoS in two ways, through the
584 global constraint in the ``PM_QOS_CPU_DMA_LATENCY`` class and through the
585 resume latency constraints for individual CPUs.  Kernel code (e.g. device
586 drivers) can set both of them with the help of special internal interfaces
587 provided by the PM QoS framework.  User space can modify the former by opening
588 the :file:`cpu_dma_latency` special device file under :file:`/dev/` and writing
589 a binary value (interpreted as a signed 32-bit integer) to it.  In turn, the
590 resume latency constraint for a CPU can be modified by user space by writing a
591 string (representing a signed 32-bit integer) to the
592 :file:`power/pm_qos_resume_latency_us` file under
593 :file:`/sys/devices/system/cpu/cpu<N>/` in ``sysfs``, where the CPU number
594 ``<N>`` is allocated at the system initialization time.  Negative values
595 will be rejected in both cases and, also in both cases, the written integer
596 number will be interpreted as a requested PM QoS constraint in microseconds.
597
598 The requested value is not automatically applied as a new constraint, however,
599 as it may be less restrictive (greater in this particular case) than another
600 constraint previously requested by someone else.  For this reason, the PM QoS
601 framework maintains a list of requests that have been made so far in each
602 global class and for each device, aggregates them and applies the effective
603 (minimum in this particular case) value as the new constraint.
604
605 In fact, opening the :file:`cpu_dma_latency` special device file causes a new
606 PM QoS request to be created and added to the priority list of requests in the
607 ``PM_QOS_CPU_DMA_LATENCY`` class and the file descriptor coming from the
608 "open" operation represents that request.  If that file descriptor is then
609 used for writing, the number written to it will be associated with the PM QoS
610 request represented by it as a new requested constraint value.  Next, the
611 priority list mechanism will be used to determine the new effective value of
612 the entire list of requests and that effective value will be set as a new
613 constraint.  Thus setting a new requested constraint value will only change the
614 real constraint if the effective "list" value is affected by it.  In particular,
615 for the ``PM_QOS_CPU_DMA_LATENCY`` class it only affects the real constraint if
616 it is the minimum of the requested constraints in the list.  The process holding
617 a file descriptor obtained by opening the :file:`cpu_dma_latency` special device
618 file controls the PM QoS request associated with that file descriptor, but it
619 controls this particular PM QoS request only.
620
621 Closing the :file:`cpu_dma_latency` special device file or, more precisely, the
622 file descriptor obtained while opening it, causes the PM QoS request associated
623 with that file descriptor to be removed from the ``PM_QOS_CPU_DMA_LATENCY``
624 class priority list and destroyed.  If that happens, the priority list mechanism
625 will be used, again, to determine the new effective value for the whole list
626 and that value will become the new real constraint.
627
628 In turn, for each CPU there is only one resume latency PM QoS request
629 associated with the :file:`power/pm_qos_resume_latency_us` file under
630 :file:`/sys/devices/system/cpu/cpu<N>/` in ``sysfs`` and writing to it causes
631 this single PM QoS request to be updated regardless of which user space
632 process does that.  In other words, this PM QoS request is shared by the entire
633 user space, so access to the file associated with it needs to be arbitrated
634 to avoid confusion.  [Arguably, the only legitimate use of this mechanism in
635 practice is to pin a process to the CPU in question and let it use the
636 ``sysfs`` interface to control the resume latency constraint for it.]  It
637 still only is a request, however.  It is a member of a priority list used to
638 determine the effective value to be set as the resume latency constraint for the
639 CPU in question every time the list of requests is updated this way or another
640 (there may be other requests coming from kernel code in that list).
641
642 CPU idle time governors are expected to regard the minimum of the global
643 effective ``PM_QOS_CPU_DMA_LATENCY`` class constraint and the effective
644 resume latency constraint for the given CPU as the upper limit for the exit
645 latency of the idle states they can select for that CPU.  They should never
646 select any idle states with exit latency beyond that limit.
647
648
649 Idle States Control Via Kernel Command Line
650 ===========================================
651
652 In addition to the ``sysfs`` interface allowing individual idle states to be
653 `disabled for individual CPUs <idle-states-representation_>`_, there are kernel
654 command line parameters affecting CPU idle time management.
655
656 The ``cpuidle.off=1`` kernel command line option can be used to disable the
657 CPU idle time management entirely.  It does not prevent the idle loop from
658 running on idle CPUs, but it prevents the CPU idle time governors and drivers
659 from being invoked.  If it is added to the kernel command line, the idle loop
660 will ask the hardware to enter idle states on idle CPUs via the CPU architecture
661 support code that is expected to provide a default mechanism for this purpose.
662 That default mechanism usually is the least common denominator for all of the
663 processors implementing the architecture (i.e. CPU instruction set) in question,
664 however, so it is rather crude and not very energy-efficient.  For this reason,
665 it is not recommended for production use.
666
667 The ``cpuidle.governor=`` kernel command line switch allows the ``CPUIdle``
668 governor to use to be specified.  It has to be appended with a string matching
669 the name of an available governor (e.g. ``cpuidle.governor=menu``) and that
670 governor will be used instead of the default one.  It is possible to force
671 the ``menu`` governor to be used on the systems that use the ``ladder`` governor
672 by default this way, for example.
673
674 The other kernel command line parameters controlling CPU idle time management
675 described below are only relevant for the *x86* architecture and some of
676 them affect Intel processors only.
677
678 The *x86* architecture support code recognizes three kernel command line
679 options related to CPU idle time management: ``idle=poll``, ``idle=halt``,
680 and ``idle=nomwait``.  The first two of them disable the ``acpi_idle`` and
681 ``intel_idle`` drivers altogether, which effectively causes the entire
682 ``CPUIdle`` subsystem to be disabled and makes the idle loop invoke the
683 architecture support code to deal with idle CPUs.  How it does that depends on
684 which of the two parameters is added to the kernel command line.  In the
685 ``idle=halt`` case, the architecture support code will use the ``HLT``
686 instruction of the CPUs (which, as a rule, suspends the execution of the program
687 and causes the hardware to attempt to enter the shallowest available idle state)
688 for this purpose, and if ``idle=poll`` is used, idle CPUs will execute a
689 more or less ``lightweight'' sequence of instructions in a tight loop.  [Note
690 that using ``idle=poll`` is somewhat drastic in many cases, as preventing idle
691 CPUs from saving almost any energy at all may not be the only effect of it.
692 For example, on Intel hardware it effectively prevents CPUs from using
693 P-states (see |cpufreq|) that require any number of CPUs in a package to be
694 idle, so it very well may hurt single-thread computations performance as well as
695 energy-efficiency.  Thus using it for performance reasons may not be a good idea
696 at all.]
697
698 The ``idle=nomwait`` option disables the ``intel_idle`` driver and causes
699 ``acpi_idle`` to be used (as long as all of the information needed by it is
700 there in the system's ACPI tables), but it is not allowed to use the
701 ``MWAIT`` instruction of the CPUs to ask the hardware to enter idle states.
702
703 In addition to the architecture-level kernel command line options affecting CPU
704 idle time management, there are parameters affecting individual ``CPUIdle``
705 drivers that can be passed to them via the kernel command line.  Specifically,
706 the ``intel_idle.max_cstate=<n>`` and ``processor.max_cstate=<n>`` parameters,
707 where ``<n>`` is an idle state index also used in the name of the given
708 state's directory in ``sysfs`` (see
709 `Representation of Idle States <idle-states-representation_>`_), causes the
710 ``intel_idle`` and ``acpi_idle`` drivers, respectively, to discard all of the
711 idle states deeper than idle state ``<n>``.  In that case, they will never ask
712 for any of those idle states or expose them to the governor.  [The behavior of
713 the two drivers is different for ``<n>`` equal to ``0``.  Adding
714 ``intel_idle.max_cstate=0`` to the kernel command line disables the
715 ``intel_idle`` driver and allows ``acpi_idle`` to be used, whereas
716 ``processor.max_cstate=0`` is equivalent to ``processor.max_cstate=1``.
717 Also, the ``acpi_idle`` driver is part of the ``processor`` kernel module that
718 can be loaded separately and ``max_cstate=<n>`` can be passed to it as a module
719 parameter when it is loaded.]