malloc: Fix for infinite loop in memalign/posix_memalign.
[jlayton/glibc.git] / malloc / malloc.c
1 /* Malloc implementation for multiple threads without lock contention.
2    Copyright (C) 1996-2013 Free Software Foundation, Inc.
3    This file is part of the GNU C Library.
4    Contributed by Wolfram Gloger <wg@malloc.de>
5    and Doug Lea <dl@cs.oswego.edu>, 2001.
6
7    The GNU C Library is free software; you can redistribute it and/or
8    modify it under the terms of the GNU Lesser General Public License as
9    published by the Free Software Foundation; either version 2.1 of the
10    License, or (at your option) any later version.
11
12    The GNU C Library is distributed in the hope that it will be useful,
13    but WITHOUT ANY WARRANTY; without even the implied warranty of
14    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15    Lesser General Public License for more details.
16
17    You should have received a copy of the GNU Lesser General Public
18    License along with the GNU C Library; see the file COPYING.LIB.  If
19    not, see <http://www.gnu.org/licenses/>.  */
20
21 /*
22   This is a version (aka ptmalloc2) of malloc/free/realloc written by
23   Doug Lea and adapted to multiple threads/arenas by Wolfram Gloger.
24
25   There have been substantial changesmade after the integration into
26   glibc in all parts of the code.  Do not look for much commonality
27   with the ptmalloc2 version.
28
29 * Version ptmalloc2-20011215
30   based on:
31   VERSION 2.7.0 Sun Mar 11 14:14:06 2001  Doug Lea  (dl at gee)
32
33 * Quickstart
34
35   In order to compile this implementation, a Makefile is provided with
36   the ptmalloc2 distribution, which has pre-defined targets for some
37   popular systems (e.g. "make posix" for Posix threads).  All that is
38   typically required with regard to compiler flags is the selection of
39   the thread package via defining one out of USE_PTHREADS, USE_THR or
40   USE_SPROC.  Check the thread-m.h file for what effects this has.
41   Many/most systems will additionally require USE_TSD_DATA_HACK to be
42   defined, so this is the default for "make posix".
43
44 * Why use this malloc?
45
46   This is not the fastest, most space-conserving, most portable, or
47   most tunable malloc ever written. However it is among the fastest
48   while also being among the most space-conserving, portable and tunable.
49   Consistent balance across these factors results in a good general-purpose
50   allocator for malloc-intensive programs.
51
52   The main properties of the algorithms are:
53   * For large (>= 512 bytes) requests, it is a pure best-fit allocator,
54     with ties normally decided via FIFO (i.e. least recently used).
55   * For small (<= 64 bytes by default) requests, it is a caching
56     allocator, that maintains pools of quickly recycled chunks.
57   * In between, and for combinations of large and small requests, it does
58     the best it can trying to meet both goals at once.
59   * For very large requests (>= 128KB by default), it relies on system
60     memory mapping facilities, if supported.
61
62   For a longer but slightly out of date high-level description, see
63      http://gee.cs.oswego.edu/dl/html/malloc.html
64
65   You may already by default be using a C library containing a malloc
66   that is  based on some version of this malloc (for example in
67   linux). You might still want to use the one in this file in order to
68   customize settings or to avoid overheads associated with library
69   versions.
70
71 * Contents, described in more detail in "description of public routines" below.
72
73   Standard (ANSI/SVID/...)  functions:
74     malloc(size_t n);
75     calloc(size_t n_elements, size_t element_size);
76     free(void* p);
77     realloc(void* p, size_t n);
78     memalign(size_t alignment, size_t n);
79     valloc(size_t n);
80     mallinfo()
81     mallopt(int parameter_number, int parameter_value)
82
83   Additional functions:
84     independent_calloc(size_t n_elements, size_t size, void* chunks[]);
85     independent_comalloc(size_t n_elements, size_t sizes[], void* chunks[]);
86     pvalloc(size_t n);
87     cfree(void* p);
88     malloc_trim(size_t pad);
89     malloc_usable_size(void* p);
90     malloc_stats();
91
92 * Vital statistics:
93
94   Supported pointer representation:       4 or 8 bytes
95   Supported size_t  representation:       4 or 8 bytes
96        Note that size_t is allowed to be 4 bytes even if pointers are 8.
97        You can adjust this by defining INTERNAL_SIZE_T
98
99   Alignment:                              2 * sizeof(size_t) (default)
100        (i.e., 8 byte alignment with 4byte size_t). This suffices for
101        nearly all current machines and C compilers. However, you can
102        define MALLOC_ALIGNMENT to be wider than this if necessary.
103
104   Minimum overhead per allocated chunk:   4 or 8 bytes
105        Each malloced chunk has a hidden word of overhead holding size
106        and status information.
107
108   Minimum allocated size: 4-byte ptrs:  16 bytes    (including 4 overhead)
109                           8-byte ptrs:  24/32 bytes (including, 4/8 overhead)
110
111        When a chunk is freed, 12 (for 4byte ptrs) or 20 (for 8 byte
112        ptrs but 4 byte size) or 24 (for 8/8) additional bytes are
113        needed; 4 (8) for a trailing size field and 8 (16) bytes for
114        free list pointers. Thus, the minimum allocatable size is
115        16/24/32 bytes.
116
117        Even a request for zero bytes (i.e., malloc(0)) returns a
118        pointer to something of the minimum allocatable size.
119
120        The maximum overhead wastage (i.e., number of extra bytes
121        allocated than were requested in malloc) is less than or equal
122        to the minimum size, except for requests >= mmap_threshold that
123        are serviced via mmap(), where the worst case wastage is 2 *
124        sizeof(size_t) bytes plus the remainder from a system page (the
125        minimal mmap unit); typically 4096 or 8192 bytes.
126
127   Maximum allocated size:  4-byte size_t: 2^32 minus about two pages
128                            8-byte size_t: 2^64 minus about two pages
129
130        It is assumed that (possibly signed) size_t values suffice to
131        represent chunk sizes. `Possibly signed' is due to the fact
132        that `size_t' may be defined on a system as either a signed or
133        an unsigned type. The ISO C standard says that it must be
134        unsigned, but a few systems are known not to adhere to this.
135        Additionally, even when size_t is unsigned, sbrk (which is by
136        default used to obtain memory from system) accepts signed
137        arguments, and may not be able to handle size_t-wide arguments
138        with negative sign bit.  Generally, values that would
139        appear as negative after accounting for overhead and alignment
140        are supported only via mmap(), which does not have this
141        limitation.
142
143        Requests for sizes outside the allowed range will perform an optional
144        failure action and then return null. (Requests may also
145        also fail because a system is out of memory.)
146
147   Thread-safety: thread-safe
148
149   Compliance: I believe it is compliant with the 1997 Single Unix Specification
150        Also SVID/XPG, ANSI C, and probably others as well.
151
152 * Synopsis of compile-time options:
153
154     People have reported using previous versions of this malloc on all
155     versions of Unix, sometimes by tweaking some of the defines
156     below. It has been tested most extensively on Solaris and Linux.
157     People also report using it in stand-alone embedded systems.
158
159     The implementation is in straight, hand-tuned ANSI C.  It is not
160     at all modular. (Sorry!)  It uses a lot of macros.  To be at all
161     usable, this code should be compiled using an optimizing compiler
162     (for example gcc -O3) that can simplify expressions and control
163     paths. (FAQ: some macros import variables as arguments rather than
164     declare locals because people reported that some debuggers
165     otherwise get confused.)
166
167     OPTION                     DEFAULT VALUE
168
169     Compilation Environment options:
170
171     HAVE_MREMAP                0
172
173     Changing default word sizes:
174
175     INTERNAL_SIZE_T            size_t
176     MALLOC_ALIGNMENT           MAX (2 * sizeof(INTERNAL_SIZE_T),
177                                     __alignof__ (long double))
178
179     Configuration and functionality options:
180
181     USE_PUBLIC_MALLOC_WRAPPERS NOT defined
182     USE_MALLOC_LOCK            NOT defined
183     MALLOC_DEBUG               NOT defined
184     REALLOC_ZERO_BYTES_FREES   1
185     TRIM_FASTBINS              0
186
187     Options for customizing MORECORE:
188
189     MORECORE                   sbrk
190     MORECORE_FAILURE           -1
191     MORECORE_CONTIGUOUS        1
192     MORECORE_CANNOT_TRIM       NOT defined
193     MORECORE_CLEARS            1
194     MMAP_AS_MORECORE_SIZE      (1024 * 1024)
195
196     Tuning options that are also dynamically changeable via mallopt:
197
198     DEFAULT_MXFAST             64 (for 32bit), 128 (for 64bit)
199     DEFAULT_TRIM_THRESHOLD     128 * 1024
200     DEFAULT_TOP_PAD            0
201     DEFAULT_MMAP_THRESHOLD     128 * 1024
202     DEFAULT_MMAP_MAX           65536
203
204     There are several other #defined constants and macros that you
205     probably don't want to touch unless you are extending or adapting malloc.  */
206
207 /*
208   void* is the pointer type that malloc should say it returns
209 */
210
211 #ifndef void
212 #define void      void
213 #endif /*void*/
214
215 #include <stddef.h>   /* for size_t */
216 #include <stdlib.h>   /* for getenv(), abort() */
217 #include <unistd.h>   /* for __libc_enable_secure */
218
219 #include <malloc-machine.h>
220 #include <malloc-sysdep.h>
221
222 #include <atomic.h>
223 #include <_itoa.h>
224 #include <bits/wordsize.h>
225 #include <sys/sysinfo.h>
226
227 #include <ldsodefs.h>
228
229 #include <unistd.h>
230 #include <stdio.h>    /* needed for malloc_stats */
231 #include <errno.h>
232
233 #include <shlib-compat.h>
234
235 /* For uintptr_t.  */
236 #include <stdint.h>
237
238 /* For va_arg, va_start, va_end.  */
239 #include <stdarg.h>
240
241
242 /*
243   Debugging:
244
245   Because freed chunks may be overwritten with bookkeeping fields, this
246   malloc will often die when freed memory is overwritten by user
247   programs.  This can be very effective (albeit in an annoying way)
248   in helping track down dangling pointers.
249
250   If you compile with -DMALLOC_DEBUG, a number of assertion checks are
251   enabled that will catch more memory errors. You probably won't be
252   able to make much sense of the actual assertion errors, but they
253   should help you locate incorrectly overwritten memory.  The checking
254   is fairly extensive, and will slow down execution
255   noticeably. Calling malloc_stats or mallinfo with MALLOC_DEBUG set
256   will attempt to check every non-mmapped allocated and free chunk in
257   the course of computing the summmaries. (By nature, mmapped regions
258   cannot be checked very much automatically.)
259
260   Setting MALLOC_DEBUG may also be helpful if you are trying to modify
261   this code. The assertions in the check routines spell out in more
262   detail the assumptions and invariants underlying the algorithms.
263
264   Setting MALLOC_DEBUG does NOT provide an automated mechanism for
265   checking that all accesses to malloced memory stay within their
266   bounds. However, there are several add-ons and adaptations of this
267   or other mallocs available that do this.
268 */
269
270 #ifdef NDEBUG
271 # define assert(expr) ((void) 0)
272 #else
273 # define assert(expr) \
274   ((expr)                                                                     \
275    ? ((void) 0)                                                               \
276    : __malloc_assert (__STRING (expr), __FILE__, __LINE__, __func__))
277
278 extern const char *__progname;
279
280 static void
281 __malloc_assert (const char *assertion, const char *file, unsigned int line,
282                  const char *function)
283 {
284   (void) __fxprintf (NULL, "%s%s%s:%u: %s%sAssertion `%s' failed.\n",
285                      __progname, __progname[0] ? ": " : "",
286                      file, line,
287                      function ? function : "", function ? ": " : "",
288                      assertion);
289   fflush (stderr);
290   abort ();
291 }
292 #endif
293
294
295 /*
296   INTERNAL_SIZE_T is the word-size used for internal bookkeeping
297   of chunk sizes.
298
299   The default version is the same as size_t.
300
301   While not strictly necessary, it is best to define this as an
302   unsigned type, even if size_t is a signed type. This may avoid some
303   artificial size limitations on some systems.
304
305   On a 64-bit machine, you may be able to reduce malloc overhead by
306   defining INTERNAL_SIZE_T to be a 32 bit `unsigned int' at the
307   expense of not being able to handle more than 2^32 of malloced
308   space. If this limitation is acceptable, you are encouraged to set
309   this unless you are on a platform requiring 16byte alignments. In
310   this case the alignment requirements turn out to negate any
311   potential advantages of decreasing size_t word size.
312
313   Implementors: Beware of the possible combinations of:
314      - INTERNAL_SIZE_T might be signed or unsigned, might be 32 or 64 bits,
315        and might be the same width as int or as long
316      - size_t might have different width and signedness as INTERNAL_SIZE_T
317      - int and long might be 32 or 64 bits, and might be the same width
318   To deal with this, most comparisons and difference computations
319   among INTERNAL_SIZE_Ts should cast them to unsigned long, being
320   aware of the fact that casting an unsigned int to a wider long does
321   not sign-extend. (This also makes checking for negative numbers
322   awkward.) Some of these casts result in harmless compiler warnings
323   on some systems.
324 */
325
326 #ifndef INTERNAL_SIZE_T
327 #define INTERNAL_SIZE_T size_t
328 #endif
329
330 /* The corresponding word size */
331 #define SIZE_SZ                (sizeof(INTERNAL_SIZE_T))
332
333
334 /*
335   MALLOC_ALIGNMENT is the minimum alignment for malloc'ed chunks.
336   It must be a power of two at least 2 * SIZE_SZ, even on machines
337   for which smaller alignments would suffice. It may be defined as
338   larger than this though. Note however that code and data structures
339   are optimized for the case of 8-byte alignment.
340 */
341
342
343 #ifndef MALLOC_ALIGNMENT
344 # if !SHLIB_COMPAT (libc, GLIBC_2_0, GLIBC_2_16)
345 /* This is the correct definition when there is no past ABI to constrain it.
346
347    Among configurations with a past ABI constraint, it differs from
348    2*SIZE_SZ only on powerpc32.  For the time being, changing this is
349    causing more compatibility problems due to malloc_get_state and
350    malloc_set_state than will returning blocks not adequately aligned for
351    long double objects under -mlong-double-128.  */
352
353 #  define MALLOC_ALIGNMENT       (2 * SIZE_SZ < __alignof__ (long double) \
354                                   ? __alignof__ (long double) : 2 * SIZE_SZ)
355 # else
356 #  define MALLOC_ALIGNMENT       (2 * SIZE_SZ)
357 # endif
358 #endif
359
360 /* The corresponding bit mask value */
361 #define MALLOC_ALIGN_MASK      (MALLOC_ALIGNMENT - 1)
362
363
364
365 /*
366   REALLOC_ZERO_BYTES_FREES should be set if a call to
367   realloc with zero bytes should be the same as a call to free.
368   This is required by the C standard. Otherwise, since this malloc
369   returns a unique pointer for malloc(0), so does realloc(p, 0).
370 */
371
372 #ifndef REALLOC_ZERO_BYTES_FREES
373 #define REALLOC_ZERO_BYTES_FREES 1
374 #endif
375
376 /*
377   TRIM_FASTBINS controls whether free() of a very small chunk can
378   immediately lead to trimming. Setting to true (1) can reduce memory
379   footprint, but will almost always slow down programs that use a lot
380   of small chunks.
381
382   Define this only if you are willing to give up some speed to more
383   aggressively reduce system-level memory footprint when releasing
384   memory in programs that use many small chunks.  You can get
385   essentially the same effect by setting MXFAST to 0, but this can
386   lead to even greater slowdowns in programs using many small chunks.
387   TRIM_FASTBINS is an in-between compile-time option, that disables
388   only those chunks bordering topmost memory from being placed in
389   fastbins.
390 */
391
392 #ifndef TRIM_FASTBINS
393 #define TRIM_FASTBINS  0
394 #endif
395
396
397 /* Definition for getting more memory from the OS.  */
398 #define MORECORE         (*__morecore)
399 #define MORECORE_FAILURE 0
400 void * __default_morecore (ptrdiff_t);
401 void *(*__morecore)(ptrdiff_t) = __default_morecore;
402
403
404 #include <string.h>
405
406
407 /* Force a value to be in a register and stop the compiler referring
408    to the source (mostly memory location) again.  */
409 #define force_reg(val) \
410   ({ __typeof (val) _v; asm ("" : "=r" (_v) : "0" (val)); _v; })
411
412
413 /*
414   MORECORE-related declarations. By default, rely on sbrk
415 */
416
417
418 /*
419   MORECORE is the name of the routine to call to obtain more memory
420   from the system.  See below for general guidance on writing
421   alternative MORECORE functions, as well as a version for WIN32 and a
422   sample version for pre-OSX macos.
423 */
424
425 #ifndef MORECORE
426 #define MORECORE sbrk
427 #endif
428
429 /*
430   MORECORE_FAILURE is the value returned upon failure of MORECORE
431   as well as mmap. Since it cannot be an otherwise valid memory address,
432   and must reflect values of standard sys calls, you probably ought not
433   try to redefine it.
434 */
435
436 #ifndef MORECORE_FAILURE
437 #define MORECORE_FAILURE (-1)
438 #endif
439
440 /*
441   If MORECORE_CONTIGUOUS is true, take advantage of fact that
442   consecutive calls to MORECORE with positive arguments always return
443   contiguous increasing addresses.  This is true of unix sbrk.  Even
444   if not defined, when regions happen to be contiguous, malloc will
445   permit allocations spanning regions obtained from different
446   calls. But defining this when applicable enables some stronger
447   consistency checks and space efficiencies.
448 */
449
450 #ifndef MORECORE_CONTIGUOUS
451 #define MORECORE_CONTIGUOUS 1
452 #endif
453
454 /*
455   Define MORECORE_CANNOT_TRIM if your version of MORECORE
456   cannot release space back to the system when given negative
457   arguments. This is generally necessary only if you are using
458   a hand-crafted MORECORE function that cannot handle negative arguments.
459 */
460
461 /* #define MORECORE_CANNOT_TRIM */
462
463 /*  MORECORE_CLEARS           (default 1)
464      The degree to which the routine mapped to MORECORE zeroes out
465      memory: never (0), only for newly allocated space (1) or always
466      (2).  The distinction between (1) and (2) is necessary because on
467      some systems, if the application first decrements and then
468      increments the break value, the contents of the reallocated space
469      are unspecified.
470 */
471
472 #ifndef MORECORE_CLEARS
473 #define MORECORE_CLEARS 1
474 #endif
475
476
477 /*
478    MMAP_AS_MORECORE_SIZE is the minimum mmap size argument to use if
479    sbrk fails, and mmap is used as a backup.  The value must be a
480    multiple of page size.  This backup strategy generally applies only
481    when systems have "holes" in address space, so sbrk cannot perform
482    contiguous expansion, but there is still space available on system.
483    On systems for which this is known to be useful (i.e. most linux
484    kernels), this occurs only when programs allocate huge amounts of
485    memory.  Between this, and the fact that mmap regions tend to be
486    limited, the size should be large, to avoid too many mmap calls and
487    thus avoid running out of kernel resources.  */
488
489 #ifndef MMAP_AS_MORECORE_SIZE
490 #define MMAP_AS_MORECORE_SIZE (1024 * 1024)
491 #endif
492
493 /*
494   Define HAVE_MREMAP to make realloc() use mremap() to re-allocate
495   large blocks.
496 */
497
498 #ifndef HAVE_MREMAP
499 #define HAVE_MREMAP 0
500 #endif
501
502
503 /*
504   This version of malloc supports the standard SVID/XPG mallinfo
505   routine that returns a struct containing usage properties and
506   statistics. It should work on any SVID/XPG compliant system that has
507   a /usr/include/malloc.h defining struct mallinfo. (If you'd like to
508   install such a thing yourself, cut out the preliminary declarations
509   as described above and below and save them in a malloc.h file. But
510   there's no compelling reason to bother to do this.)
511
512   The main declaration needed is the mallinfo struct that is returned
513   (by-copy) by mallinfo().  The SVID/XPG malloinfo struct contains a
514   bunch of fields that are not even meaningful in this version of
515   malloc.  These fields are are instead filled by mallinfo() with
516   other numbers that might be of interest.
517 */
518
519
520 /* ---------- description of public routines ------------ */
521
522 /*
523   malloc(size_t n)
524   Returns a pointer to a newly allocated chunk of at least n bytes, or null
525   if no space is available. Additionally, on failure, errno is
526   set to ENOMEM on ANSI C systems.
527
528   If n is zero, malloc returns a minumum-sized chunk. (The minimum
529   size is 16 bytes on most 32bit systems, and 24 or 32 bytes on 64bit
530   systems.)  On most systems, size_t is an unsigned type, so calls
531   with negative arguments are interpreted as requests for huge amounts
532   of space, which will often fail. The maximum supported value of n
533   differs across systems, but is in all cases less than the maximum
534   representable value of a size_t.
535 */
536 void*  __libc_malloc(size_t);
537 libc_hidden_proto (__libc_malloc)
538
539 /*
540   free(void* p)
541   Releases the chunk of memory pointed to by p, that had been previously
542   allocated using malloc or a related routine such as realloc.
543   It has no effect if p is null. It can have arbitrary (i.e., bad!)
544   effects if p has already been freed.
545
546   Unless disabled (using mallopt), freeing very large spaces will
547   when possible, automatically trigger operations that give
548   back unused memory to the system, thus reducing program footprint.
549 */
550 void     __libc_free(void*);
551 libc_hidden_proto (__libc_free)
552
553 /*
554   calloc(size_t n_elements, size_t element_size);
555   Returns a pointer to n_elements * element_size bytes, with all locations
556   set to zero.
557 */
558 void*  __libc_calloc(size_t, size_t);
559
560 /*
561   realloc(void* p, size_t n)
562   Returns a pointer to a chunk of size n that contains the same data
563   as does chunk p up to the minimum of (n, p's size) bytes, or null
564   if no space is available.
565
566   The returned pointer may or may not be the same as p. The algorithm
567   prefers extending p when possible, otherwise it employs the
568   equivalent of a malloc-copy-free sequence.
569
570   If p is null, realloc is equivalent to malloc.
571
572   If space is not available, realloc returns null, errno is set (if on
573   ANSI) and p is NOT freed.
574
575   if n is for fewer bytes than already held by p, the newly unused
576   space is lopped off and freed if possible.  Unless the #define
577   REALLOC_ZERO_BYTES_FREES is set, realloc with a size argument of
578   zero (re)allocates a minimum-sized chunk.
579
580   Large chunks that were internally obtained via mmap will always
581   be reallocated using malloc-copy-free sequences unless
582   the system supports MREMAP (currently only linux).
583
584   The old unix realloc convention of allowing the last-free'd chunk
585   to be used as an argument to realloc is not supported.
586 */
587 void*  __libc_realloc(void*, size_t);
588 libc_hidden_proto (__libc_realloc)
589
590 /*
591   memalign(size_t alignment, size_t n);
592   Returns a pointer to a newly allocated chunk of n bytes, aligned
593   in accord with the alignment argument.
594
595   The alignment argument should be a power of two. If the argument is
596   not a power of two, the nearest greater power is used.
597   8-byte alignment is guaranteed by normal malloc calls, so don't
598   bother calling memalign with an argument of 8 or less.
599
600   Overreliance on memalign is a sure way to fragment space.
601 */
602 void*  __libc_memalign(size_t, size_t);
603 libc_hidden_proto (__libc_memalign)
604
605 /*
606   valloc(size_t n);
607   Equivalent to memalign(pagesize, n), where pagesize is the page
608   size of the system. If the pagesize is unknown, 4096 is used.
609 */
610 void*  __libc_valloc(size_t);
611
612
613
614 /*
615   mallopt(int parameter_number, int parameter_value)
616   Sets tunable parameters The format is to provide a
617   (parameter-number, parameter-value) pair.  mallopt then sets the
618   corresponding parameter to the argument value if it can (i.e., so
619   long as the value is meaningful), and returns 1 if successful else
620   0.  SVID/XPG/ANSI defines four standard param numbers for mallopt,
621   normally defined in malloc.h.  Only one of these (M_MXFAST) is used
622   in this malloc. The others (M_NLBLKS, M_GRAIN, M_KEEP) don't apply,
623   so setting them has no effect. But this malloc also supports four
624   other options in mallopt. See below for details.  Briefly, supported
625   parameters are as follows (listed defaults are for "typical"
626   configurations).
627
628   Symbol            param #   default    allowed param values
629   M_MXFAST          1         64         0-80  (0 disables fastbins)
630   M_TRIM_THRESHOLD -1         128*1024   any   (-1U disables trimming)
631   M_TOP_PAD        -2         0          any
632   M_MMAP_THRESHOLD -3         128*1024   any   (or 0 if no MMAP support)
633   M_MMAP_MAX       -4         65536      any   (0 disables use of mmap)
634 */
635 int      __libc_mallopt(int, int);
636 libc_hidden_proto (__libc_mallopt)
637
638
639 /*
640   mallinfo()
641   Returns (by copy) a struct containing various summary statistics:
642
643   arena:     current total non-mmapped bytes allocated from system
644   ordblks:   the number of free chunks
645   smblks:    the number of fastbin blocks (i.e., small chunks that
646                have been freed but not use resused or consolidated)
647   hblks:     current number of mmapped regions
648   hblkhd:    total bytes held in mmapped regions
649   usmblks:   the maximum total allocated space. This will be greater
650                 than current total if trimming has occurred.
651   fsmblks:   total bytes held in fastbin blocks
652   uordblks:  current total allocated space (normal or mmapped)
653   fordblks:  total free space
654   keepcost:  the maximum number of bytes that could ideally be released
655                back to system via malloc_trim. ("ideally" means that
656                it ignores page restrictions etc.)
657
658   Because these fields are ints, but internal bookkeeping may
659   be kept as longs, the reported values may wrap around zero and
660   thus be inaccurate.
661 */
662 struct mallinfo __libc_mallinfo(void);
663
664
665 /*
666   pvalloc(size_t n);
667   Equivalent to valloc(minimum-page-that-holds(n)), that is,
668   round up n to nearest pagesize.
669  */
670 void*  __libc_pvalloc(size_t);
671
672 /*
673   malloc_trim(size_t pad);
674
675   If possible, gives memory back to the system (via negative
676   arguments to sbrk) if there is unused memory at the `high' end of
677   the malloc pool. You can call this after freeing large blocks of
678   memory to potentially reduce the system-level memory requirements
679   of a program. However, it cannot guarantee to reduce memory. Under
680   some allocation patterns, some large free blocks of memory will be
681   locked between two used chunks, so they cannot be given back to
682   the system.
683
684   The `pad' argument to malloc_trim represents the amount of free
685   trailing space to leave untrimmed. If this argument is zero,
686   only the minimum amount of memory to maintain internal data
687   structures will be left (one page or less). Non-zero arguments
688   can be supplied to maintain enough trailing space to service
689   future expected allocations without having to re-obtain memory
690   from the system.
691
692   Malloc_trim returns 1 if it actually released any memory, else 0.
693   On systems that do not support "negative sbrks", it will always
694   return 0.
695 */
696 int      __malloc_trim(size_t);
697
698 /*
699   malloc_usable_size(void* p);
700
701   Returns the number of bytes you can actually use in
702   an allocated chunk, which may be more than you requested (although
703   often not) due to alignment and minimum size constraints.
704   You can use this many bytes without worrying about
705   overwriting other allocated objects. This is not a particularly great
706   programming practice. malloc_usable_size can be more useful in
707   debugging and assertions, for example:
708
709   p = malloc(n);
710   assert(malloc_usable_size(p) >= 256);
711
712 */
713 size_t   __malloc_usable_size(void*);
714
715 /*
716   malloc_stats();
717   Prints on stderr the amount of space obtained from the system (both
718   via sbrk and mmap), the maximum amount (which may be more than
719   current if malloc_trim and/or munmap got called), and the current
720   number of bytes allocated via malloc (or realloc, etc) but not yet
721   freed. Note that this is the number of bytes allocated, not the
722   number requested. It will be larger than the number requested
723   because of alignment and bookkeeping overhead. Because it includes
724   alignment wastage as being in use, this figure may be greater than
725   zero even when no user-level chunks are allocated.
726
727   The reported current and maximum system memory can be inaccurate if
728   a program makes other calls to system memory allocation functions
729   (normally sbrk) outside of malloc.
730
731   malloc_stats prints only the most commonly interesting statistics.
732   More information can be obtained by calling mallinfo.
733
734 */
735 void     __malloc_stats(void);
736
737 /*
738   malloc_get_state(void);
739
740   Returns the state of all malloc variables in an opaque data
741   structure.
742 */
743 void*  __malloc_get_state(void);
744
745 /*
746   malloc_set_state(void* state);
747
748   Restore the state of all malloc variables from data obtained with
749   malloc_get_state().
750 */
751 int      __malloc_set_state(void*);
752
753 /*
754   posix_memalign(void **memptr, size_t alignment, size_t size);
755
756   POSIX wrapper like memalign(), checking for validity of size.
757 */
758 int      __posix_memalign(void **, size_t, size_t);
759
760 /* mallopt tuning options */
761
762 /*
763   M_MXFAST is the maximum request size used for "fastbins", special bins
764   that hold returned chunks without consolidating their spaces. This
765   enables future requests for chunks of the same size to be handled
766   very quickly, but can increase fragmentation, and thus increase the
767   overall memory footprint of a program.
768
769   This malloc manages fastbins very conservatively yet still
770   efficiently, so fragmentation is rarely a problem for values less
771   than or equal to the default.  The maximum supported value of MXFAST
772   is 80. You wouldn't want it any higher than this anyway.  Fastbins
773   are designed especially for use with many small structs, objects or
774   strings -- the default handles structs/objects/arrays with sizes up
775   to 8 4byte fields, or small strings representing words, tokens,
776   etc. Using fastbins for larger objects normally worsens
777   fragmentation without improving speed.
778
779   M_MXFAST is set in REQUEST size units. It is internally used in
780   chunksize units, which adds padding and alignment.  You can reduce
781   M_MXFAST to 0 to disable all use of fastbins.  This causes the malloc
782   algorithm to be a closer approximation of fifo-best-fit in all cases,
783   not just for larger requests, but will generally cause it to be
784   slower.
785 */
786
787
788 /* M_MXFAST is a standard SVID/XPG tuning option, usually listed in malloc.h */
789 #ifndef M_MXFAST
790 #define M_MXFAST            1
791 #endif
792
793 #ifndef DEFAULT_MXFAST
794 #define DEFAULT_MXFAST     (64 * SIZE_SZ / 4)
795 #endif
796
797
798 /*
799   M_TRIM_THRESHOLD is the maximum amount of unused top-most memory
800   to keep before releasing via malloc_trim in free().
801
802   Automatic trimming is mainly useful in long-lived programs.
803   Because trimming via sbrk can be slow on some systems, and can
804   sometimes be wasteful (in cases where programs immediately
805   afterward allocate more large chunks) the value should be high
806   enough so that your overall system performance would improve by
807   releasing this much memory.
808
809   The trim threshold and the mmap control parameters (see below)
810   can be traded off with one another. Trimming and mmapping are
811   two different ways of releasing unused memory back to the
812   system. Between these two, it is often possible to keep
813   system-level demands of a long-lived program down to a bare
814   minimum. For example, in one test suite of sessions measuring
815   the XF86 X server on Linux, using a trim threshold of 128K and a
816   mmap threshold of 192K led to near-minimal long term resource
817   consumption.
818
819   If you are using this malloc in a long-lived program, it should
820   pay to experiment with these values.  As a rough guide, you
821   might set to a value close to the average size of a process
822   (program) running on your system.  Releasing this much memory
823   would allow such a process to run in memory.  Generally, it's
824   worth it to tune for trimming rather tham memory mapping when a
825   program undergoes phases where several large chunks are
826   allocated and released in ways that can reuse each other's
827   storage, perhaps mixed with phases where there are no such
828   chunks at all.  And in well-behaved long-lived programs,
829   controlling release of large blocks via trimming versus mapping
830   is usually faster.
831
832   However, in most programs, these parameters serve mainly as
833   protection against the system-level effects of carrying around
834   massive amounts of unneeded memory. Since frequent calls to
835   sbrk, mmap, and munmap otherwise degrade performance, the default
836   parameters are set to relatively high values that serve only as
837   safeguards.
838
839   The trim value It must be greater than page size to have any useful
840   effect.  To disable trimming completely, you can set to
841   (unsigned long)(-1)
842
843   Trim settings interact with fastbin (MXFAST) settings: Unless
844   TRIM_FASTBINS is defined, automatic trimming never takes place upon
845   freeing a chunk with size less than or equal to MXFAST. Trimming is
846   instead delayed until subsequent freeing of larger chunks. However,
847   you can still force an attempted trim by calling malloc_trim.
848
849   Also, trimming is not generally possible in cases where
850   the main arena is obtained via mmap.
851
852   Note that the trick some people use of mallocing a huge space and
853   then freeing it at program startup, in an attempt to reserve system
854   memory, doesn't have the intended effect under automatic trimming,
855   since that memory will immediately be returned to the system.
856 */
857
858 #define M_TRIM_THRESHOLD       -1
859
860 #ifndef DEFAULT_TRIM_THRESHOLD
861 #define DEFAULT_TRIM_THRESHOLD (128 * 1024)
862 #endif
863
864 /*
865   M_TOP_PAD is the amount of extra `padding' space to allocate or
866   retain whenever sbrk is called. It is used in two ways internally:
867
868   * When sbrk is called to extend the top of the arena to satisfy
869   a new malloc request, this much padding is added to the sbrk
870   request.
871
872   * When malloc_trim is called automatically from free(),
873   it is used as the `pad' argument.
874
875   In both cases, the actual amount of padding is rounded
876   so that the end of the arena is always a system page boundary.
877
878   The main reason for using padding is to avoid calling sbrk so
879   often. Having even a small pad greatly reduces the likelihood
880   that nearly every malloc request during program start-up (or
881   after trimming) will invoke sbrk, which needlessly wastes
882   time.
883
884   Automatic rounding-up to page-size units is normally sufficient
885   to avoid measurable overhead, so the default is 0.  However, in
886   systems where sbrk is relatively slow, it can pay to increase
887   this value, at the expense of carrying around more memory than
888   the program needs.
889 */
890
891 #define M_TOP_PAD              -2
892
893 #ifndef DEFAULT_TOP_PAD
894 #define DEFAULT_TOP_PAD        (0)
895 #endif
896
897 /*
898   MMAP_THRESHOLD_MAX and _MIN are the bounds on the dynamically
899   adjusted MMAP_THRESHOLD.
900 */
901
902 #ifndef DEFAULT_MMAP_THRESHOLD_MIN
903 #define DEFAULT_MMAP_THRESHOLD_MIN (128 * 1024)
904 #endif
905
906 #ifndef DEFAULT_MMAP_THRESHOLD_MAX
907   /* For 32-bit platforms we cannot increase the maximum mmap
908      threshold much because it is also the minimum value for the
909      maximum heap size and its alignment.  Going above 512k (i.e., 1M
910      for new heaps) wastes too much address space.  */
911 # if __WORDSIZE == 32
912 #  define DEFAULT_MMAP_THRESHOLD_MAX (512 * 1024)
913 # else
914 #  define DEFAULT_MMAP_THRESHOLD_MAX (4 * 1024 * 1024 * sizeof(long))
915 # endif
916 #endif
917
918 /*
919   M_MMAP_THRESHOLD is the request size threshold for using mmap()
920   to service a request. Requests of at least this size that cannot
921   be allocated using already-existing space will be serviced via mmap.
922   (If enough normal freed space already exists it is used instead.)
923
924   Using mmap segregates relatively large chunks of memory so that
925   they can be individually obtained and released from the host
926   system. A request serviced through mmap is never reused by any
927   other request (at least not directly; the system may just so
928   happen to remap successive requests to the same locations).
929
930   Segregating space in this way has the benefits that:
931
932    1. Mmapped space can ALWAYS be individually released back
933       to the system, which helps keep the system level memory
934       demands of a long-lived program low.
935    2. Mapped memory can never become `locked' between
936       other chunks, as can happen with normally allocated chunks, which
937       means that even trimming via malloc_trim would not release them.
938    3. On some systems with "holes" in address spaces, mmap can obtain
939       memory that sbrk cannot.
940
941   However, it has the disadvantages that:
942
943    1. The space cannot be reclaimed, consolidated, and then
944       used to service later requests, as happens with normal chunks.
945    2. It can lead to more wastage because of mmap page alignment
946       requirements
947    3. It causes malloc performance to be more dependent on host
948       system memory management support routines which may vary in
949       implementation quality and may impose arbitrary
950       limitations. Generally, servicing a request via normal
951       malloc steps is faster than going through a system's mmap.
952
953   The advantages of mmap nearly always outweigh disadvantages for
954   "large" chunks, but the value of "large" varies across systems.  The
955   default is an empirically derived value that works well in most
956   systems.
957
958
959   Update in 2006:
960   The above was written in 2001. Since then the world has changed a lot.
961   Memory got bigger. Applications got bigger. The virtual address space
962   layout in 32 bit linux changed.
963
964   In the new situation, brk() and mmap space is shared and there are no
965   artificial limits on brk size imposed by the kernel. What is more,
966   applications have started using transient allocations larger than the
967   128Kb as was imagined in 2001.
968
969   The price for mmap is also high now; each time glibc mmaps from the
970   kernel, the kernel is forced to zero out the memory it gives to the
971   application. Zeroing memory is expensive and eats a lot of cache and
972   memory bandwidth. This has nothing to do with the efficiency of the
973   virtual memory system, by doing mmap the kernel just has no choice but
974   to zero.
975
976   In 2001, the kernel had a maximum size for brk() which was about 800
977   megabytes on 32 bit x86, at that point brk() would hit the first
978   mmaped shared libaries and couldn't expand anymore. With current 2.6
979   kernels, the VA space layout is different and brk() and mmap
980   both can span the entire heap at will.
981
982   Rather than using a static threshold for the brk/mmap tradeoff,
983   we are now using a simple dynamic one. The goal is still to avoid
984   fragmentation. The old goals we kept are
985   1) try to get the long lived large allocations to use mmap()
986   2) really large allocations should always use mmap()
987   and we're adding now:
988   3) transient allocations should use brk() to avoid forcing the kernel
989      having to zero memory over and over again
990
991   The implementation works with a sliding threshold, which is by default
992   limited to go between 128Kb and 32Mb (64Mb for 64 bitmachines) and starts
993   out at 128Kb as per the 2001 default.
994
995   This allows us to satisfy requirement 1) under the assumption that long
996   lived allocations are made early in the process' lifespan, before it has
997   started doing dynamic allocations of the same size (which will
998   increase the threshold).
999
1000   The upperbound on the threshold satisfies requirement 2)
1001
1002   The threshold goes up in value when the application frees memory that was
1003   allocated with the mmap allocator. The idea is that once the application
1004   starts freeing memory of a certain size, it's highly probable that this is
1005   a size the application uses for transient allocations. This estimator
1006   is there to satisfy the new third requirement.
1007
1008 */
1009
1010 #define M_MMAP_THRESHOLD      -3
1011
1012 #ifndef DEFAULT_MMAP_THRESHOLD
1013 #define DEFAULT_MMAP_THRESHOLD DEFAULT_MMAP_THRESHOLD_MIN
1014 #endif
1015
1016 /*
1017   M_MMAP_MAX is the maximum number of requests to simultaneously
1018   service using mmap. This parameter exists because
1019   some systems have a limited number of internal tables for
1020   use by mmap, and using more than a few of them may degrade
1021   performance.
1022
1023   The default is set to a value that serves only as a safeguard.
1024   Setting to 0 disables use of mmap for servicing large requests.
1025 */
1026
1027 #define M_MMAP_MAX             -4
1028
1029 #ifndef DEFAULT_MMAP_MAX
1030 #define DEFAULT_MMAP_MAX       (65536)
1031 #endif
1032
1033 #include <malloc.h>
1034
1035 #ifndef RETURN_ADDRESS
1036 #define RETURN_ADDRESS(X_) (NULL)
1037 #endif
1038
1039 /* On some platforms we can compile internal, not exported functions better.
1040    Let the environment provide a macro and define it to be empty if it
1041    is not available.  */
1042 #ifndef internal_function
1043 # define internal_function
1044 #endif
1045
1046 /* Forward declarations.  */
1047 struct malloc_chunk;
1048 typedef struct malloc_chunk* mchunkptr;
1049
1050 /* Internal routines.  */
1051
1052 static void*  _int_malloc(mstate, size_t);
1053 static void     _int_free(mstate, mchunkptr, int);
1054 static void*  _int_realloc(mstate, mchunkptr, INTERNAL_SIZE_T,
1055                            INTERNAL_SIZE_T);
1056 static void*  _int_memalign(mstate, size_t, size_t);
1057 static void*  _int_valloc(mstate, size_t);
1058 static void*  _int_pvalloc(mstate, size_t);
1059 static void malloc_printerr(int action, const char *str, void *ptr);
1060
1061 static void* internal_function mem2mem_check(void *p, size_t sz);
1062 static int internal_function top_check(void);
1063 static void internal_function munmap_chunk(mchunkptr p);
1064 #if HAVE_MREMAP
1065 static mchunkptr internal_function mremap_chunk(mchunkptr p, size_t new_size);
1066 #endif
1067
1068 static void*   malloc_check(size_t sz, const void *caller);
1069 static void      free_check(void* mem, const void *caller);
1070 static void*   realloc_check(void* oldmem, size_t bytes,
1071                                const void *caller);
1072 static void*   memalign_check(size_t alignment, size_t bytes,
1073                                 const void *caller);
1074 #ifndef NO_THREADS
1075 static void*   malloc_atfork(size_t sz, const void *caller);
1076 static void      free_atfork(void* mem, const void *caller);
1077 #endif
1078
1079
1080 /* ------------- Optional versions of memcopy ---------------- */
1081
1082
1083 /*
1084   Note: memcpy is ONLY invoked with non-overlapping regions,
1085   so the (usually slower) memmove is not needed.
1086 */
1087
1088 #define MALLOC_COPY(dest, src, nbytes)  memcpy(dest, src, nbytes)
1089 #define MALLOC_ZERO(dest, nbytes)       memset(dest, 0,   nbytes)
1090
1091
1092 /* ------------------ MMAP support ------------------  */
1093
1094
1095 #include <fcntl.h>
1096 #include <sys/mman.h>
1097
1098 #if !defined(MAP_ANONYMOUS) && defined(MAP_ANON)
1099 # define MAP_ANONYMOUS MAP_ANON
1100 #endif
1101
1102 #ifndef MAP_NORESERVE
1103 # define MAP_NORESERVE 0
1104 #endif
1105
1106 #define MMAP(addr, size, prot, flags) \
1107  __mmap((addr), (size), (prot), (flags)|MAP_ANONYMOUS|MAP_PRIVATE, -1, 0)
1108
1109
1110 /*
1111   -----------------------  Chunk representations -----------------------
1112 */
1113
1114
1115 /*
1116   This struct declaration is misleading (but accurate and necessary).
1117   It declares a "view" into memory allowing access to necessary
1118   fields at known offsets from a given base. See explanation below.
1119 */
1120
1121 struct malloc_chunk {
1122
1123   INTERNAL_SIZE_T      prev_size;  /* Size of previous chunk (if free).  */
1124   INTERNAL_SIZE_T      size;       /* Size in bytes, including overhead. */
1125
1126   struct malloc_chunk* fd;         /* double links -- used only if free. */
1127   struct malloc_chunk* bk;
1128
1129   /* Only used for large blocks: pointer to next larger size.  */
1130   struct malloc_chunk* fd_nextsize; /* double links -- used only if free. */
1131   struct malloc_chunk* bk_nextsize;
1132 };
1133
1134
1135 /*
1136    malloc_chunk details:
1137
1138     (The following includes lightly edited explanations by Colin Plumb.)
1139
1140     Chunks of memory are maintained using a `boundary tag' method as
1141     described in e.g., Knuth or Standish.  (See the paper by Paul
1142     Wilson ftp://ftp.cs.utexas.edu/pub/garbage/allocsrv.ps for a
1143     survey of such techniques.)  Sizes of free chunks are stored both
1144     in the front of each chunk and at the end.  This makes
1145     consolidating fragmented chunks into bigger chunks very fast.  The
1146     size fields also hold bits representing whether chunks are free or
1147     in use.
1148
1149     An allocated chunk looks like this:
1150
1151
1152     chunk-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1153             |             Size of previous chunk, if allocated            | |
1154             +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1155             |             Size of chunk, in bytes                       |M|P|
1156       mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1157             |             User data starts here...                          .
1158             .                                                               .
1159             .             (malloc_usable_size() bytes)                      .
1160             .                                                               |
1161 nextchunk-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1162             |             Size of chunk                                     |
1163             +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1164
1165
1166     Where "chunk" is the front of the chunk for the purpose of most of
1167     the malloc code, but "mem" is the pointer that is returned to the
1168     user.  "Nextchunk" is the beginning of the next contiguous chunk.
1169
1170     Chunks always begin on even word boundaries, so the mem portion
1171     (which is returned to the user) is also on an even word boundary, and
1172     thus at least double-word aligned.
1173
1174     Free chunks are stored in circular doubly-linked lists, and look like this:
1175
1176     chunk-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1177             |             Size of previous chunk                            |
1178             +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1179     `head:' |             Size of chunk, in bytes                         |P|
1180       mem-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1181             |             Forward pointer to next chunk in list             |
1182             +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1183             |             Back pointer to previous chunk in list            |
1184             +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1185             |             Unused space (may be 0 bytes long)                .
1186             .                                                               .
1187             .                                                               |
1188 nextchunk-> +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1189     `foot:' |             Size of chunk, in bytes                           |
1190             +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+
1191
1192     The P (PREV_INUSE) bit, stored in the unused low-order bit of the
1193     chunk size (which is always a multiple of two words), is an in-use
1194     bit for the *previous* chunk.  If that bit is *clear*, then the
1195     word before the current chunk size contains the previous chunk
1196     size, and can be used to find the front of the previous chunk.
1197     The very first chunk allocated always has this bit set,
1198     preventing access to non-existent (or non-owned) memory. If
1199     prev_inuse is set for any given chunk, then you CANNOT determine
1200     the size of the previous chunk, and might even get a memory
1201     addressing fault when trying to do so.
1202
1203     Note that the `foot' of the current chunk is actually represented
1204     as the prev_size of the NEXT chunk. This makes it easier to
1205     deal with alignments etc but can be very confusing when trying
1206     to extend or adapt this code.
1207
1208     The two exceptions to all this are
1209
1210      1. The special chunk `top' doesn't bother using the
1211         trailing size field since there is no next contiguous chunk
1212         that would have to index off it. After initialization, `top'
1213         is forced to always exist.  If it would become less than
1214         MINSIZE bytes long, it is replenished.
1215
1216      2. Chunks allocated via mmap, which have the second-lowest-order
1217         bit M (IS_MMAPPED) set in their size fields.  Because they are
1218         allocated one-by-one, each must contain its own trailing size field.
1219
1220 */
1221
1222 /*
1223   ---------- Size and alignment checks and conversions ----------
1224 */
1225
1226 /* conversion from malloc headers to user pointers, and back */
1227
1228 #define chunk2mem(p)   ((void*)((char*)(p) + 2*SIZE_SZ))
1229 #define mem2chunk(mem) ((mchunkptr)((char*)(mem) - 2*SIZE_SZ))
1230
1231 /* The smallest possible chunk */
1232 #define MIN_CHUNK_SIZE        (offsetof(struct malloc_chunk, fd_nextsize))
1233
1234 /* The smallest size we can malloc is an aligned minimal chunk */
1235
1236 #define MINSIZE  \
1237   (unsigned long)(((MIN_CHUNK_SIZE+MALLOC_ALIGN_MASK) & ~MALLOC_ALIGN_MASK))
1238
1239 /* Check if m has acceptable alignment */
1240
1241 #define aligned_OK(m)  (((unsigned long)(m) & MALLOC_ALIGN_MASK) == 0)
1242
1243 #define misaligned_chunk(p) \
1244   ((uintptr_t)(MALLOC_ALIGNMENT == 2 * SIZE_SZ ? (p) : chunk2mem (p)) \
1245    & MALLOC_ALIGN_MASK)
1246
1247
1248 /*
1249    Check if a request is so large that it would wrap around zero when
1250    padded and aligned. To simplify some other code, the bound is made
1251    low enough so that adding MINSIZE will also not wrap around zero.
1252 */
1253
1254 #define REQUEST_OUT_OF_RANGE(req)                                 \
1255   ((unsigned long)(req) >=                                        \
1256    (unsigned long)(INTERNAL_SIZE_T)(-2 * MINSIZE))
1257
1258 /* pad request bytes into a usable size -- internal version */
1259
1260 #define request2size(req)                                         \
1261   (((req) + SIZE_SZ + MALLOC_ALIGN_MASK < MINSIZE)  ?             \
1262    MINSIZE :                                                      \
1263    ((req) + SIZE_SZ + MALLOC_ALIGN_MASK) & ~MALLOC_ALIGN_MASK)
1264
1265 /*  Same, except also perform argument check */
1266
1267 #define checked_request2size(req, sz)                             \
1268   if (REQUEST_OUT_OF_RANGE(req)) {                                \
1269     __set_errno (ENOMEM);                                         \
1270     return 0;                                                     \
1271   }                                                               \
1272   (sz) = request2size(req);
1273
1274 /*
1275   --------------- Physical chunk operations ---------------
1276 */
1277
1278
1279 /* size field is or'ed with PREV_INUSE when previous adjacent chunk in use */
1280 #define PREV_INUSE 0x1
1281
1282 /* extract inuse bit of previous chunk */
1283 #define prev_inuse(p)       ((p)->size & PREV_INUSE)
1284
1285
1286 /* size field is or'ed with IS_MMAPPED if the chunk was obtained with mmap() */
1287 #define IS_MMAPPED 0x2
1288
1289 /* check for mmap()'ed chunk */
1290 #define chunk_is_mmapped(p) ((p)->size & IS_MMAPPED)
1291
1292
1293 /* size field is or'ed with NON_MAIN_ARENA if the chunk was obtained
1294    from a non-main arena.  This is only set immediately before handing
1295    the chunk to the user, if necessary.  */
1296 #define NON_MAIN_ARENA 0x4
1297
1298 /* check for chunk from non-main arena */
1299 #define chunk_non_main_arena(p) ((p)->size & NON_MAIN_ARENA)
1300
1301
1302 /*
1303   Bits to mask off when extracting size
1304
1305   Note: IS_MMAPPED is intentionally not masked off from size field in
1306   macros for which mmapped chunks should never be seen. This should
1307   cause helpful core dumps to occur if it is tried by accident by
1308   people extending or adapting this malloc.
1309 */
1310 #define SIZE_BITS (PREV_INUSE|IS_MMAPPED|NON_MAIN_ARENA)
1311
1312 /* Get size, ignoring use bits */
1313 #define chunksize(p)         ((p)->size & ~(SIZE_BITS))
1314
1315
1316 /* Ptr to next physical malloc_chunk. */
1317 #define next_chunk(p) ((mchunkptr)( ((char*)(p)) + ((p)->size & ~SIZE_BITS) ))
1318
1319 /* Ptr to previous physical malloc_chunk */
1320 #define prev_chunk(p) ((mchunkptr)( ((char*)(p)) - ((p)->prev_size) ))
1321
1322 /* Treat space at ptr + offset as a chunk */
1323 #define chunk_at_offset(p, s)  ((mchunkptr)(((char*)(p)) + (s)))
1324
1325 /* extract p's inuse bit */
1326 #define inuse(p)\
1327 ((((mchunkptr)(((char*)(p))+((p)->size & ~SIZE_BITS)))->size) & PREV_INUSE)
1328
1329 /* set/clear chunk as being inuse without otherwise disturbing */
1330 #define set_inuse(p)\
1331 ((mchunkptr)(((char*)(p)) + ((p)->size & ~SIZE_BITS)))->size |= PREV_INUSE
1332
1333 #define clear_inuse(p)\
1334 ((mchunkptr)(((char*)(p)) + ((p)->size & ~SIZE_BITS)))->size &= ~(PREV_INUSE)
1335
1336
1337 /* check/set/clear inuse bits in known places */
1338 #define inuse_bit_at_offset(p, s)\
1339  (((mchunkptr)(((char*)(p)) + (s)))->size & PREV_INUSE)
1340
1341 #define set_inuse_bit_at_offset(p, s)\
1342  (((mchunkptr)(((char*)(p)) + (s)))->size |= PREV_INUSE)
1343
1344 #define clear_inuse_bit_at_offset(p, s)\
1345  (((mchunkptr)(((char*)(p)) + (s)))->size &= ~(PREV_INUSE))
1346
1347
1348 /* Set size at head, without disturbing its use bit */
1349 #define set_head_size(p, s)  ((p)->size = (((p)->size & SIZE_BITS) | (s)))
1350
1351 /* Set size/use field */
1352 #define set_head(p, s)       ((p)->size = (s))
1353
1354 /* Set size at footer (only when chunk is not in use) */
1355 #define set_foot(p, s)       (((mchunkptr)((char*)(p) + (s)))->prev_size = (s))
1356
1357
1358 /*
1359   -------------------- Internal data structures --------------------
1360
1361    All internal state is held in an instance of malloc_state defined
1362    below. There are no other static variables, except in two optional
1363    cases:
1364    * If USE_MALLOC_LOCK is defined, the mALLOC_MUTEx declared above.
1365    * If mmap doesn't support MAP_ANONYMOUS, a dummy file descriptor
1366      for mmap.
1367
1368    Beware of lots of tricks that minimize the total bookkeeping space
1369    requirements. The result is a little over 1K bytes (for 4byte
1370    pointers and size_t.)
1371 */
1372
1373 /*
1374   Bins
1375
1376     An array of bin headers for free chunks. Each bin is doubly
1377     linked.  The bins are approximately proportionally (log) spaced.
1378     There are a lot of these bins (128). This may look excessive, but
1379     works very well in practice.  Most bins hold sizes that are
1380     unusual as malloc request sizes, but are more usual for fragments
1381     and consolidated sets of chunks, which is what these bins hold, so
1382     they can be found quickly.  All procedures maintain the invariant
1383     that no consolidated chunk physically borders another one, so each
1384     chunk in a list is known to be preceeded and followed by either
1385     inuse chunks or the ends of memory.
1386
1387     Chunks in bins are kept in size order, with ties going to the
1388     approximately least recently used chunk. Ordering isn't needed
1389     for the small bins, which all contain the same-sized chunks, but
1390     facilitates best-fit allocation for larger chunks. These lists
1391     are just sequential. Keeping them in order almost never requires
1392     enough traversal to warrant using fancier ordered data
1393     structures.
1394
1395     Chunks of the same size are linked with the most
1396     recently freed at the front, and allocations are taken from the
1397     back.  This results in LRU (FIFO) allocation order, which tends
1398     to give each chunk an equal opportunity to be consolidated with
1399     adjacent freed chunks, resulting in larger free chunks and less
1400     fragmentation.
1401
1402     To simplify use in double-linked lists, each bin header acts
1403     as a malloc_chunk. This avoids special-casing for headers.
1404     But to conserve space and improve locality, we allocate
1405     only the fd/bk pointers of bins, and then use repositioning tricks
1406     to treat these as the fields of a malloc_chunk*.
1407 */
1408
1409 typedef struct malloc_chunk* mbinptr;
1410
1411 /* addressing -- note that bin_at(0) does not exist */
1412 #define bin_at(m, i) \
1413   (mbinptr) (((char *) &((m)->bins[((i) - 1) * 2]))                           \
1414              - offsetof (struct malloc_chunk, fd))
1415
1416 /* analog of ++bin */
1417 #define next_bin(b)  ((mbinptr)((char*)(b) + (sizeof(mchunkptr)<<1)))
1418
1419 /* Reminders about list directionality within bins */
1420 #define first(b)     ((b)->fd)
1421 #define last(b)      ((b)->bk)
1422
1423 /* Take a chunk off a bin list */
1424 #define unlink(P, BK, FD) {                                            \
1425   FD = P->fd;                                                          \
1426   BK = P->bk;                                                          \
1427   if (__builtin_expect (FD->bk != P || BK->fd != P, 0))                \
1428     malloc_printerr (check_action, "corrupted double-linked list", P); \
1429   else {                                                               \
1430     FD->bk = BK;                                                       \
1431     BK->fd = FD;                                                       \
1432     if (!in_smallbin_range (P->size)                                   \
1433         && __builtin_expect (P->fd_nextsize != NULL, 0)) {             \
1434       assert (P->fd_nextsize->bk_nextsize == P);                       \
1435       assert (P->bk_nextsize->fd_nextsize == P);                       \
1436       if (FD->fd_nextsize == NULL) {                                   \
1437         if (P->fd_nextsize == P)                                       \
1438           FD->fd_nextsize = FD->bk_nextsize = FD;                      \
1439         else {                                                         \
1440           FD->fd_nextsize = P->fd_nextsize;                            \
1441           FD->bk_nextsize = P->bk_nextsize;                            \
1442           P->fd_nextsize->bk_nextsize = FD;                            \
1443           P->bk_nextsize->fd_nextsize = FD;                            \
1444         }                                                              \
1445       } else {                                                         \
1446         P->fd_nextsize->bk_nextsize = P->bk_nextsize;                  \
1447         P->bk_nextsize->fd_nextsize = P->fd_nextsize;                  \
1448       }                                                                \
1449     }                                                                  \
1450   }                                                                    \
1451 }
1452
1453 /*
1454   Indexing
1455
1456     Bins for sizes < 512 bytes contain chunks of all the same size, spaced
1457     8 bytes apart. Larger bins are approximately logarithmically spaced:
1458
1459     64 bins of size       8
1460     32 bins of size      64
1461     16 bins of size     512
1462      8 bins of size    4096
1463      4 bins of size   32768
1464      2 bins of size  262144
1465      1 bin  of size what's left
1466
1467     There is actually a little bit of slop in the numbers in bin_index
1468     for the sake of speed. This makes no difference elsewhere.
1469
1470     The bins top out around 1MB because we expect to service large
1471     requests via mmap.
1472
1473     Bin 0 does not exist.  Bin 1 is the unordered list; if that would be
1474     a valid chunk size the small bins are bumped up one.
1475 */
1476
1477 #define NBINS             128
1478 #define NSMALLBINS         64
1479 #define SMALLBIN_WIDTH    MALLOC_ALIGNMENT
1480 #define SMALLBIN_CORRECTION (MALLOC_ALIGNMENT > 2 * SIZE_SZ)
1481 #define MIN_LARGE_SIZE    ((NSMALLBINS - SMALLBIN_CORRECTION) * SMALLBIN_WIDTH)
1482
1483 #define in_smallbin_range(sz)  \
1484   ((unsigned long)(sz) < (unsigned long)MIN_LARGE_SIZE)
1485
1486 #define smallbin_index(sz) \
1487   ((SMALLBIN_WIDTH == 16 ? (((unsigned)(sz)) >> 4) : (((unsigned)(sz)) >> 3)) \
1488    + SMALLBIN_CORRECTION)
1489
1490 #define largebin_index_32(sz)                                                \
1491 (((((unsigned long)(sz)) >>  6) <= 38)?  56 + (((unsigned long)(sz)) >>  6): \
1492  ((((unsigned long)(sz)) >>  9) <= 20)?  91 + (((unsigned long)(sz)) >>  9): \
1493  ((((unsigned long)(sz)) >> 12) <= 10)? 110 + (((unsigned long)(sz)) >> 12): \
1494  ((((unsigned long)(sz)) >> 15) <=  4)? 119 + (((unsigned long)(sz)) >> 15): \
1495  ((((unsigned long)(sz)) >> 18) <=  2)? 124 + (((unsigned long)(sz)) >> 18): \
1496                                         126)
1497
1498 #define largebin_index_32_big(sz)                                            \
1499 (((((unsigned long)(sz)) >>  6) <= 45)?  49 + (((unsigned long)(sz)) >>  6): \
1500  ((((unsigned long)(sz)) >>  9) <= 20)?  91 + (((unsigned long)(sz)) >>  9): \
1501  ((((unsigned long)(sz)) >> 12) <= 10)? 110 + (((unsigned long)(sz)) >> 12): \
1502  ((((unsigned long)(sz)) >> 15) <=  4)? 119 + (((unsigned long)(sz)) >> 15): \
1503  ((((unsigned long)(sz)) >> 18) <=  2)? 124 + (((unsigned long)(sz)) >> 18): \
1504                                         126)
1505
1506 // XXX It remains to be seen whether it is good to keep the widths of
1507 // XXX the buckets the same or whether it should be scaled by a factor
1508 // XXX of two as well.
1509 #define largebin_index_64(sz)                                                \
1510 (((((unsigned long)(sz)) >>  6) <= 48)?  48 + (((unsigned long)(sz)) >>  6): \
1511  ((((unsigned long)(sz)) >>  9) <= 20)?  91 + (((unsigned long)(sz)) >>  9): \
1512  ((((unsigned long)(sz)) >> 12) <= 10)? 110 + (((unsigned long)(sz)) >> 12): \
1513  ((((unsigned long)(sz)) >> 15) <=  4)? 119 + (((unsigned long)(sz)) >> 15): \
1514  ((((unsigned long)(sz)) >> 18) <=  2)? 124 + (((unsigned long)(sz)) >> 18): \
1515                                         126)
1516
1517 #define largebin_index(sz) \
1518   (SIZE_SZ == 8 ? largebin_index_64 (sz)                                     \
1519    : MALLOC_ALIGNMENT == 16 ? largebin_index_32_big (sz)                     \
1520    : largebin_index_32 (sz))
1521
1522 #define bin_index(sz) \
1523  ((in_smallbin_range(sz)) ? smallbin_index(sz) : largebin_index(sz))
1524
1525
1526 /*
1527   Unsorted chunks
1528
1529     All remainders from chunk splits, as well as all returned chunks,
1530     are first placed in the "unsorted" bin. They are then placed
1531     in regular bins after malloc gives them ONE chance to be used before
1532     binning. So, basically, the unsorted_chunks list acts as a queue,
1533     with chunks being placed on it in free (and malloc_consolidate),
1534     and taken off (to be either used or placed in bins) in malloc.
1535
1536     The NON_MAIN_ARENA flag is never set for unsorted chunks, so it
1537     does not have to be taken into account in size comparisons.
1538 */
1539
1540 /* The otherwise unindexable 1-bin is used to hold unsorted chunks. */
1541 #define unsorted_chunks(M)          (bin_at(M, 1))
1542
1543 /*
1544   Top
1545
1546     The top-most available chunk (i.e., the one bordering the end of
1547     available memory) is treated specially. It is never included in
1548     any bin, is used only if no other chunk is available, and is
1549     released back to the system if it is very large (see
1550     M_TRIM_THRESHOLD).  Because top initially
1551     points to its own bin with initial zero size, thus forcing
1552     extension on the first malloc request, we avoid having any special
1553     code in malloc to check whether it even exists yet. But we still
1554     need to do so when getting memory from system, so we make
1555     initial_top treat the bin as a legal but unusable chunk during the
1556     interval between initialization and the first call to
1557     sysmalloc. (This is somewhat delicate, since it relies on
1558     the 2 preceding words to be zero during this interval as well.)
1559 */
1560
1561 /* Conveniently, the unsorted bin can be used as dummy top on first call */
1562 #define initial_top(M)              (unsorted_chunks(M))
1563
1564 /*
1565   Binmap
1566
1567     To help compensate for the large number of bins, a one-level index
1568     structure is used for bin-by-bin searching.  `binmap' is a
1569     bitvector recording whether bins are definitely empty so they can
1570     be skipped over during during traversals.  The bits are NOT always
1571     cleared as soon as bins are empty, but instead only
1572     when they are noticed to be empty during traversal in malloc.
1573 */
1574
1575 /* Conservatively use 32 bits per map word, even if on 64bit system */
1576 #define BINMAPSHIFT      5
1577 #define BITSPERMAP       (1U << BINMAPSHIFT)
1578 #define BINMAPSIZE       (NBINS / BITSPERMAP)
1579
1580 #define idx2block(i)     ((i) >> BINMAPSHIFT)
1581 #define idx2bit(i)       ((1U << ((i) & ((1U << BINMAPSHIFT)-1))))
1582
1583 #define mark_bin(m,i)    ((m)->binmap[idx2block(i)] |=  idx2bit(i))
1584 #define unmark_bin(m,i)  ((m)->binmap[idx2block(i)] &= ~(idx2bit(i)))
1585 #define get_binmap(m,i)  ((m)->binmap[idx2block(i)] &   idx2bit(i))
1586
1587 /*
1588   Fastbins
1589
1590     An array of lists holding recently freed small chunks.  Fastbins
1591     are not doubly linked.  It is faster to single-link them, and
1592     since chunks are never removed from the middles of these lists,
1593     double linking is not necessary. Also, unlike regular bins, they
1594     are not even processed in FIFO order (they use faster LIFO) since
1595     ordering doesn't much matter in the transient contexts in which
1596     fastbins are normally used.
1597
1598     Chunks in fastbins keep their inuse bit set, so they cannot
1599     be consolidated with other free chunks. malloc_consolidate
1600     releases all chunks in fastbins and consolidates them with
1601     other free chunks.
1602 */
1603
1604 typedef struct malloc_chunk* mfastbinptr;
1605 #define fastbin(ar_ptr, idx) ((ar_ptr)->fastbinsY[idx])
1606
1607 /* offset 2 to use otherwise unindexable first 2 bins */
1608 #define fastbin_index(sz) \
1609   ((((unsigned int)(sz)) >> (SIZE_SZ == 8 ? 4 : 3)) - 2)
1610
1611
1612 /* The maximum fastbin request size we support */
1613 #define MAX_FAST_SIZE     (80 * SIZE_SZ / 4)
1614
1615 #define NFASTBINS  (fastbin_index(request2size(MAX_FAST_SIZE))+1)
1616
1617 /*
1618   FASTBIN_CONSOLIDATION_THRESHOLD is the size of a chunk in free()
1619   that triggers automatic consolidation of possibly-surrounding
1620   fastbin chunks. This is a heuristic, so the exact value should not
1621   matter too much. It is defined at half the default trim threshold as a
1622   compromise heuristic to only attempt consolidation if it is likely
1623   to lead to trimming. However, it is not dynamically tunable, since
1624   consolidation reduces fragmentation surrounding large chunks even
1625   if trimming is not used.
1626 */
1627
1628 #define FASTBIN_CONSOLIDATION_THRESHOLD  (65536UL)
1629
1630 /*
1631   Since the lowest 2 bits in max_fast don't matter in size comparisons,
1632   they are used as flags.
1633 */
1634
1635 /*
1636   FASTCHUNKS_BIT held in max_fast indicates that there are probably
1637   some fastbin chunks. It is set true on entering a chunk into any
1638   fastbin, and cleared only in malloc_consolidate.
1639
1640   The truth value is inverted so that have_fastchunks will be true
1641   upon startup (since statics are zero-filled), simplifying
1642   initialization checks.
1643 */
1644
1645 #define FASTCHUNKS_BIT        (1U)
1646
1647 #define have_fastchunks(M)     (((M)->flags &  FASTCHUNKS_BIT) == 0)
1648 #define clear_fastchunks(M)    catomic_or (&(M)->flags, FASTCHUNKS_BIT)
1649 #define set_fastchunks(M)      catomic_and (&(M)->flags, ~FASTCHUNKS_BIT)
1650
1651 /*
1652   NONCONTIGUOUS_BIT indicates that MORECORE does not return contiguous
1653   regions.  Otherwise, contiguity is exploited in merging together,
1654   when possible, results from consecutive MORECORE calls.
1655
1656   The initial value comes from MORECORE_CONTIGUOUS, but is
1657   changed dynamically if mmap is ever used as an sbrk substitute.
1658 */
1659
1660 #define NONCONTIGUOUS_BIT     (2U)
1661
1662 #define contiguous(M)          (((M)->flags &  NONCONTIGUOUS_BIT) == 0)
1663 #define noncontiguous(M)       (((M)->flags &  NONCONTIGUOUS_BIT) != 0)
1664 #define set_noncontiguous(M)   ((M)->flags |=  NONCONTIGUOUS_BIT)
1665 #define set_contiguous(M)      ((M)->flags &= ~NONCONTIGUOUS_BIT)
1666
1667 /*
1668    Set value of max_fast.
1669    Use impossibly small value if 0.
1670    Precondition: there are no existing fastbin chunks.
1671    Setting the value clears fastchunk bit but preserves noncontiguous bit.
1672 */
1673
1674 #define set_max_fast(s) \
1675   global_max_fast = (((s) == 0)                                               \
1676                      ? SMALLBIN_WIDTH: ((s + SIZE_SZ) & ~MALLOC_ALIGN_MASK))
1677 #define get_max_fast() global_max_fast
1678
1679
1680 /*
1681    ----------- Internal state representation and initialization -----------
1682 */
1683
1684 struct malloc_state {
1685   /* Serialize access.  */
1686   mutex_t mutex;
1687
1688   /* Flags (formerly in max_fast).  */
1689   int flags;
1690
1691 #if THREAD_STATS
1692   /* Statistics for locking.  Only used if THREAD_STATS is defined.  */
1693   long stat_lock_direct, stat_lock_loop, stat_lock_wait;
1694 #endif
1695
1696   /* Fastbins */
1697   mfastbinptr      fastbinsY[NFASTBINS];
1698
1699   /* Base of the topmost chunk -- not otherwise kept in a bin */
1700   mchunkptr        top;
1701
1702   /* The remainder from the most recent split of a small request */
1703   mchunkptr        last_remainder;
1704
1705   /* Normal bins packed as described above */
1706   mchunkptr        bins[NBINS * 2 - 2];
1707
1708   /* Bitmap of bins */
1709   unsigned int     binmap[BINMAPSIZE];
1710
1711   /* Linked list */
1712   struct malloc_state *next;
1713
1714 #ifdef PER_THREAD
1715   /* Linked list for free arenas.  */
1716   struct malloc_state *next_free;
1717 #endif
1718
1719   /* Memory allocated from the system in this arena.  */
1720   INTERNAL_SIZE_T system_mem;
1721   INTERNAL_SIZE_T max_system_mem;
1722 };
1723
1724 struct malloc_par {
1725   /* Tunable parameters */
1726   unsigned long    trim_threshold;
1727   INTERNAL_SIZE_T  top_pad;
1728   INTERNAL_SIZE_T  mmap_threshold;
1729 #ifdef PER_THREAD
1730   INTERNAL_SIZE_T  arena_test;
1731   INTERNAL_SIZE_T  arena_max;
1732 #endif
1733
1734   /* Memory map support */
1735   int              n_mmaps;
1736   int              n_mmaps_max;
1737   int              max_n_mmaps;
1738   /* the mmap_threshold is dynamic, until the user sets
1739      it manually, at which point we need to disable any
1740      dynamic behavior. */
1741   int              no_dyn_threshold;
1742
1743   /* Statistics */
1744   INTERNAL_SIZE_T  mmapped_mem;
1745   /*INTERNAL_SIZE_T  sbrked_mem;*/
1746   /*INTERNAL_SIZE_T  max_sbrked_mem;*/
1747   INTERNAL_SIZE_T  max_mmapped_mem;
1748   INTERNAL_SIZE_T  max_total_mem; /* only kept for NO_THREADS */
1749
1750   /* First address handed out by MORECORE/sbrk.  */
1751   char*            sbrk_base;
1752 };
1753
1754 /* There are several instances of this struct ("arenas") in this
1755    malloc.  If you are adapting this malloc in a way that does NOT use
1756    a static or mmapped malloc_state, you MUST explicitly zero-fill it
1757    before using. This malloc relies on the property that malloc_state
1758    is initialized to all zeroes (as is true of C statics).  */
1759
1760 static struct malloc_state main_arena =
1761   {
1762     .mutex = MUTEX_INITIALIZER,
1763     .next = &main_arena
1764   };
1765
1766 /* There is only one instance of the malloc parameters.  */
1767
1768 static struct malloc_par mp_ =
1769   {
1770     .top_pad        = DEFAULT_TOP_PAD,
1771     .n_mmaps_max    = DEFAULT_MMAP_MAX,
1772     .mmap_threshold = DEFAULT_MMAP_THRESHOLD,
1773     .trim_threshold = DEFAULT_TRIM_THRESHOLD,
1774 #ifdef PER_THREAD
1775 # define NARENAS_FROM_NCORES(n) ((n) * (sizeof(long) == 4 ? 2 : 8))
1776     .arena_test     = NARENAS_FROM_NCORES (1)
1777 #endif
1778   };
1779
1780
1781 #ifdef PER_THREAD
1782 /*  Non public mallopt parameters.  */
1783 #define M_ARENA_TEST -7
1784 #define M_ARENA_MAX  -8
1785 #endif
1786
1787
1788 /* Maximum size of memory handled in fastbins.  */
1789 static INTERNAL_SIZE_T global_max_fast;
1790
1791 /*
1792   Initialize a malloc_state struct.
1793
1794   This is called only from within malloc_consolidate, which needs
1795   be called in the same contexts anyway.  It is never called directly
1796   outside of malloc_consolidate because some optimizing compilers try
1797   to inline it at all call points, which turns out not to be an
1798   optimization at all. (Inlining it in malloc_consolidate is fine though.)
1799 */
1800
1801 static void malloc_init_state(mstate av)
1802 {
1803   int     i;
1804   mbinptr bin;
1805
1806   /* Establish circular links for normal bins */
1807   for (i = 1; i < NBINS; ++i) {
1808     bin = bin_at(av,i);
1809     bin->fd = bin->bk = bin;
1810   }
1811
1812 #if MORECORE_CONTIGUOUS
1813   if (av != &main_arena)
1814 #endif
1815     set_noncontiguous(av);
1816   if (av == &main_arena)
1817     set_max_fast(DEFAULT_MXFAST);
1818   av->flags |= FASTCHUNKS_BIT;
1819
1820   av->top            = initial_top(av);
1821 }
1822
1823 /*
1824    Other internal utilities operating on mstates
1825 */
1826
1827 static void*  sysmalloc(INTERNAL_SIZE_T, mstate);
1828 static int      systrim(size_t, mstate);
1829 static void     malloc_consolidate(mstate);
1830
1831
1832 /* -------------- Early definitions for debugging hooks ---------------- */
1833
1834 /* Define and initialize the hook variables.  These weak definitions must
1835    appear before any use of the variables in a function (arena.c uses one).  */
1836 #ifndef weak_variable
1837 /* In GNU libc we want the hook variables to be weak definitions to
1838    avoid a problem with Emacs.  */
1839 # define weak_variable weak_function
1840 #endif
1841
1842 /* Forward declarations.  */
1843 static void* malloc_hook_ini (size_t sz,
1844                               const void *caller) __THROW;
1845 static void* realloc_hook_ini (void* ptr, size_t sz,
1846                                const void *caller) __THROW;
1847 static void* memalign_hook_ini (size_t alignment, size_t sz,
1848                                 const void *caller) __THROW;
1849
1850 void weak_variable (*__malloc_initialize_hook) (void) = NULL;
1851 void weak_variable (*__free_hook) (void *__ptr,
1852                                    const void *) = NULL;
1853 void *weak_variable (*__malloc_hook)
1854      (size_t __size, const void *) = malloc_hook_ini;
1855 void *weak_variable (*__realloc_hook)
1856      (void *__ptr, size_t __size, const void *)
1857      = realloc_hook_ini;
1858 void *weak_variable (*__memalign_hook)
1859      (size_t __alignment, size_t __size, const void *)
1860      = memalign_hook_ini;
1861 void weak_variable (*__after_morecore_hook) (void) = NULL;
1862
1863
1864 /* ---------------- Error behavior ------------------------------------ */
1865
1866 #ifndef DEFAULT_CHECK_ACTION
1867 #define DEFAULT_CHECK_ACTION 3
1868 #endif
1869
1870 static int check_action = DEFAULT_CHECK_ACTION;
1871
1872
1873 /* ------------------ Testing support ----------------------------------*/
1874
1875 static int perturb_byte;
1876
1877 #define alloc_perturb(p, n) memset (p, (perturb_byte ^ 0xff) & 0xff, n)
1878 #define free_perturb(p, n) memset (p, perturb_byte & 0xff, n)
1879
1880
1881 #include <stap-probe.h>
1882
1883 /* ------------------- Support for multiple arenas -------------------- */
1884 #include "arena.c"
1885
1886 /*
1887   Debugging support
1888
1889   These routines make a number of assertions about the states
1890   of data structures that should be true at all times. If any
1891   are not true, it's very likely that a user program has somehow
1892   trashed memory. (It's also possible that there is a coding error
1893   in malloc. In which case, please report it!)
1894 */
1895
1896 #if ! MALLOC_DEBUG
1897
1898 #define check_chunk(A,P)
1899 #define check_free_chunk(A,P)
1900 #define check_inuse_chunk(A,P)
1901 #define check_remalloced_chunk(A,P,N)
1902 #define check_malloced_chunk(A,P,N)
1903 #define check_malloc_state(A)
1904
1905 #else
1906
1907 #define check_chunk(A,P)              do_check_chunk(A,P)
1908 #define check_free_chunk(A,P)         do_check_free_chunk(A,P)
1909 #define check_inuse_chunk(A,P)        do_check_inuse_chunk(A,P)
1910 #define check_remalloced_chunk(A,P,N) do_check_remalloced_chunk(A,P,N)
1911 #define check_malloced_chunk(A,P,N)   do_check_malloced_chunk(A,P,N)
1912 #define check_malloc_state(A)         do_check_malloc_state(A)
1913
1914 /*
1915   Properties of all chunks
1916 */
1917
1918 static void do_check_chunk(mstate av, mchunkptr p)
1919 {
1920   unsigned long sz = chunksize(p);
1921   /* min and max possible addresses assuming contiguous allocation */
1922   char* max_address = (char*)(av->top) + chunksize(av->top);
1923   char* min_address = max_address - av->system_mem;
1924
1925   if (!chunk_is_mmapped(p)) {
1926
1927     /* Has legal address ... */
1928     if (p != av->top) {
1929       if (contiguous(av)) {
1930         assert(((char*)p) >= min_address);
1931         assert(((char*)p + sz) <= ((char*)(av->top)));
1932       }
1933     }
1934     else {
1935       /* top size is always at least MINSIZE */
1936       assert((unsigned long)(sz) >= MINSIZE);
1937       /* top predecessor always marked inuse */
1938       assert(prev_inuse(p));
1939     }
1940
1941   }
1942   else {
1943     /* address is outside main heap  */
1944     if (contiguous(av) && av->top != initial_top(av)) {
1945       assert(((char*)p) < min_address || ((char*)p) >= max_address);
1946     }
1947     /* chunk is page-aligned */
1948     assert(((p->prev_size + sz) & (GLRO(dl_pagesize)-1)) == 0);
1949     /* mem is aligned */
1950     assert(aligned_OK(chunk2mem(p)));
1951   }
1952 }
1953
1954 /*
1955   Properties of free chunks
1956 */
1957
1958 static void do_check_free_chunk(mstate av, mchunkptr p)
1959 {
1960   INTERNAL_SIZE_T sz = p->size & ~(PREV_INUSE|NON_MAIN_ARENA);
1961   mchunkptr next = chunk_at_offset(p, sz);
1962
1963   do_check_chunk(av, p);
1964
1965   /* Chunk must claim to be free ... */
1966   assert(!inuse(p));
1967   assert (!chunk_is_mmapped(p));
1968
1969   /* Unless a special marker, must have OK fields */
1970   if ((unsigned long)(sz) >= MINSIZE)
1971   {
1972     assert((sz & MALLOC_ALIGN_MASK) == 0);
1973     assert(aligned_OK(chunk2mem(p)));
1974     /* ... matching footer field */
1975     assert(next->prev_size == sz);
1976     /* ... and is fully consolidated */
1977     assert(prev_inuse(p));
1978     assert (next == av->top || inuse(next));
1979
1980     /* ... and has minimally sane links */
1981     assert(p->fd->bk == p);
1982     assert(p->bk->fd == p);
1983   }
1984   else /* markers are always of size SIZE_SZ */
1985     assert(sz == SIZE_SZ);
1986 }
1987
1988 /*
1989   Properties of inuse chunks
1990 */
1991
1992 static void do_check_inuse_chunk(mstate av, mchunkptr p)
1993 {
1994   mchunkptr next;
1995
1996   do_check_chunk(av, p);
1997
1998   if (chunk_is_mmapped(p))
1999     return; /* mmapped chunks have no next/prev */
2000
2001   /* Check whether it claims to be in use ... */
2002   assert(inuse(p));
2003
2004   next = next_chunk(p);
2005
2006   /* ... and is surrounded by OK chunks.
2007     Since more things can be checked with free chunks than inuse ones,
2008     if an inuse chunk borders them and debug is on, it's worth doing them.
2009   */
2010   if (!prev_inuse(p))  {
2011     /* Note that we cannot even look at prev unless it is not inuse */
2012     mchunkptr prv = prev_chunk(p);
2013     assert(next_chunk(prv) == p);
2014     do_check_free_chunk(av, prv);
2015   }
2016
2017   if (next == av->top) {
2018     assert(prev_inuse(next));
2019     assert(chunksize(next) >= MINSIZE);
2020   }
2021   else if (!inuse(next))
2022     do_check_free_chunk(av, next);
2023 }
2024
2025 /*
2026   Properties of chunks recycled from fastbins
2027 */
2028
2029 static void do_check_remalloced_chunk(mstate av, mchunkptr p, INTERNAL_SIZE_T s)
2030 {
2031   INTERNAL_SIZE_T sz = p->size & ~(PREV_INUSE|NON_MAIN_ARENA);
2032
2033   if (!chunk_is_mmapped(p)) {
2034     assert(av == arena_for_chunk(p));
2035     if (chunk_non_main_arena(p))
2036       assert(av != &main_arena);
2037     else
2038       assert(av == &main_arena);
2039   }
2040
2041   do_check_inuse_chunk(av, p);
2042
2043   /* Legal size ... */
2044   assert((sz & MALLOC_ALIGN_MASK) == 0);
2045   assert((unsigned long)(sz) >= MINSIZE);
2046   /* ... and alignment */
2047   assert(aligned_OK(chunk2mem(p)));
2048   /* chunk is less than MINSIZE more than request */
2049   assert((long)(sz) - (long)(s) >= 0);
2050   assert((long)(sz) - (long)(s + MINSIZE) < 0);
2051 }
2052
2053 /*
2054   Properties of nonrecycled chunks at the point they are malloced
2055 */
2056
2057 static void do_check_malloced_chunk(mstate av, mchunkptr p, INTERNAL_SIZE_T s)
2058 {
2059   /* same as recycled case ... */
2060   do_check_remalloced_chunk(av, p, s);
2061
2062   /*
2063     ... plus,  must obey implementation invariant that prev_inuse is
2064     always true of any allocated chunk; i.e., that each allocated
2065     chunk borders either a previously allocated and still in-use
2066     chunk, or the base of its memory arena. This is ensured
2067     by making all allocations from the `lowest' part of any found
2068     chunk.  This does not necessarily hold however for chunks
2069     recycled via fastbins.
2070   */
2071
2072   assert(prev_inuse(p));
2073 }
2074
2075
2076 /*
2077   Properties of malloc_state.
2078
2079   This may be useful for debugging malloc, as well as detecting user
2080   programmer errors that somehow write into malloc_state.
2081
2082   If you are extending or experimenting with this malloc, you can
2083   probably figure out how to hack this routine to print out or
2084   display chunk addresses, sizes, bins, and other instrumentation.
2085 */
2086
2087 static void do_check_malloc_state(mstate av)
2088 {
2089   int i;
2090   mchunkptr p;
2091   mchunkptr q;
2092   mbinptr b;
2093   unsigned int idx;
2094   INTERNAL_SIZE_T size;
2095   unsigned long total = 0;
2096   int max_fast_bin;
2097
2098   /* internal size_t must be no wider than pointer type */
2099   assert(sizeof(INTERNAL_SIZE_T) <= sizeof(char*));
2100
2101   /* alignment is a power of 2 */
2102   assert((MALLOC_ALIGNMENT & (MALLOC_ALIGNMENT-1)) == 0);
2103
2104   /* cannot run remaining checks until fully initialized */
2105   if (av->top == 0 || av->top == initial_top(av))
2106     return;
2107
2108   /* pagesize is a power of 2 */
2109   assert((GLRO(dl_pagesize) & (GLRO(dl_pagesize)-1)) == 0);
2110
2111   /* A contiguous main_arena is consistent with sbrk_base.  */
2112   if (av == &main_arena && contiguous(av))
2113     assert((char*)mp_.sbrk_base + av->system_mem ==
2114            (char*)av->top + chunksize(av->top));
2115
2116   /* properties of fastbins */
2117
2118   /* max_fast is in allowed range */
2119   assert((get_max_fast () & ~1) <= request2size(MAX_FAST_SIZE));
2120
2121   max_fast_bin = fastbin_index(get_max_fast ());
2122
2123   for (i = 0; i < NFASTBINS; ++i) {
2124     p = fastbin (av, i);
2125
2126     /* The following test can only be performed for the main arena.
2127        While mallopt calls malloc_consolidate to get rid of all fast
2128        bins (especially those larger than the new maximum) this does
2129        only happen for the main arena.  Trying to do this for any
2130        other arena would mean those arenas have to be locked and
2131        malloc_consolidate be called for them.  This is excessive.  And
2132        even if this is acceptable to somebody it still cannot solve
2133        the problem completely since if the arena is locked a
2134        concurrent malloc call might create a new arena which then
2135        could use the newly invalid fast bins.  */
2136
2137     /* all bins past max_fast are empty */
2138     if (av == &main_arena && i > max_fast_bin)
2139       assert(p == 0);
2140
2141     while (p != 0) {
2142       /* each chunk claims to be inuse */
2143       do_check_inuse_chunk(av, p);
2144       total += chunksize(p);
2145       /* chunk belongs in this bin */
2146       assert(fastbin_index(chunksize(p)) == i);
2147       p = p->fd;
2148     }
2149   }
2150
2151   if (total != 0)
2152     assert(have_fastchunks(av));
2153   else if (!have_fastchunks(av))
2154     assert(total == 0);
2155
2156   /* check normal bins */
2157   for (i = 1; i < NBINS; ++i) {
2158     b = bin_at(av,i);
2159
2160     /* binmap is accurate (except for bin 1 == unsorted_chunks) */
2161     if (i >= 2) {
2162       unsigned int binbit = get_binmap(av,i);
2163       int empty = last(b) == b;
2164       if (!binbit)
2165         assert(empty);
2166       else if (!empty)
2167         assert(binbit);
2168     }
2169
2170     for (p = last(b); p != b; p = p->bk) {
2171       /* each chunk claims to be free */
2172       do_check_free_chunk(av, p);
2173       size = chunksize(p);
2174       total += size;
2175       if (i >= 2) {
2176         /* chunk belongs in bin */
2177         idx = bin_index(size);
2178         assert(idx == i);
2179         /* lists are sorted */
2180         assert(p->bk == b ||
2181                (unsigned long)chunksize(p->bk) >= (unsigned long)chunksize(p));
2182
2183         if (!in_smallbin_range(size))
2184           {
2185             if (p->fd_nextsize != NULL)
2186               {
2187                 if (p->fd_nextsize == p)
2188                   assert (p->bk_nextsize == p);
2189                 else
2190                   {
2191                     if (p->fd_nextsize == first (b))
2192                       assert (chunksize (p) < chunksize (p->fd_nextsize));
2193                     else
2194                       assert (chunksize (p) > chunksize (p->fd_nextsize));
2195
2196                     if (p == first (b))
2197                       assert (chunksize (p) > chunksize (p->bk_nextsize));
2198                     else
2199                       assert (chunksize (p) < chunksize (p->bk_nextsize));
2200                   }
2201               }
2202             else
2203               assert (p->bk_nextsize == NULL);
2204           }
2205       } else if (!in_smallbin_range(size))
2206         assert (p->fd_nextsize == NULL && p->bk_nextsize == NULL);
2207       /* chunk is followed by a legal chain of inuse chunks */
2208       for (q = next_chunk(p);
2209            (q != av->top && inuse(q) &&
2210              (unsigned long)(chunksize(q)) >= MINSIZE);
2211            q = next_chunk(q))
2212         do_check_inuse_chunk(av, q);
2213     }
2214   }
2215
2216   /* top chunk is OK */
2217   check_chunk(av, av->top);
2218
2219 }
2220 #endif
2221
2222
2223 /* ----------------- Support for debugging hooks -------------------- */
2224 #include "hooks.c"
2225
2226
2227 /* ----------- Routines dealing with system allocation -------------- */
2228
2229 /*
2230   sysmalloc handles malloc cases requiring more memory from the system.
2231   On entry, it is assumed that av->top does not have enough
2232   space to service request for nb bytes, thus requiring that av->top
2233   be extended or replaced.
2234 */
2235
2236 static void* sysmalloc(INTERNAL_SIZE_T nb, mstate av)
2237 {
2238   mchunkptr       old_top;        /* incoming value of av->top */
2239   INTERNAL_SIZE_T old_size;       /* its size */
2240   char*           old_end;        /* its end address */
2241
2242   long            size;           /* arg to first MORECORE or mmap call */
2243   char*           brk;            /* return value from MORECORE */
2244
2245   long            correction;     /* arg to 2nd MORECORE call */
2246   char*           snd_brk;        /* 2nd return val */
2247
2248   INTERNAL_SIZE_T front_misalign; /* unusable bytes at front of new space */
2249   INTERNAL_SIZE_T end_misalign;   /* partial page left at end of new space */
2250   char*           aligned_brk;    /* aligned offset into brk */
2251
2252   mchunkptr       p;              /* the allocated/returned chunk */
2253   mchunkptr       remainder;      /* remainder from allocation */
2254   unsigned long   remainder_size; /* its size */
2255
2256
2257   size_t          pagemask  = GLRO(dl_pagesize) - 1;
2258   bool            tried_mmap = false;
2259
2260
2261   /*
2262     If have mmap, and the request size meets the mmap threshold, and
2263     the system supports mmap, and there are few enough currently
2264     allocated mmapped regions, try to directly map this request
2265     rather than expanding top.
2266   */
2267
2268   if ((unsigned long)(nb) >= (unsigned long)(mp_.mmap_threshold) &&
2269       (mp_.n_mmaps < mp_.n_mmaps_max)) {
2270
2271     char* mm;             /* return value from mmap call*/
2272
2273   try_mmap:
2274     /*
2275       Round up size to nearest page.  For mmapped chunks, the overhead
2276       is one SIZE_SZ unit larger than for normal chunks, because there
2277       is no following chunk whose prev_size field could be used.
2278
2279       See the front_misalign handling below, for glibc there is no
2280       need for further alignments unless we have have high alignment.
2281     */
2282     if (MALLOC_ALIGNMENT == 2 * SIZE_SZ)
2283       size = (nb + SIZE_SZ + pagemask) & ~pagemask;
2284     else
2285       size = (nb + SIZE_SZ + MALLOC_ALIGN_MASK + pagemask) & ~pagemask;
2286     tried_mmap = true;
2287
2288     /* Don't try if size wraps around 0 */
2289     if ((unsigned long)(size) > (unsigned long)(nb)) {
2290
2291       mm = (char*)(MMAP(0, size, PROT_READ|PROT_WRITE, 0));
2292
2293       if (mm != MAP_FAILED) {
2294
2295         /*
2296           The offset to the start of the mmapped region is stored
2297           in the prev_size field of the chunk. This allows us to adjust
2298           returned start address to meet alignment requirements here
2299           and in memalign(), and still be able to compute proper
2300           address argument for later munmap in free() and realloc().
2301         */
2302
2303         if (MALLOC_ALIGNMENT == 2 * SIZE_SZ)
2304           {
2305             /* For glibc, chunk2mem increases the address by 2*SIZE_SZ and
2306                MALLOC_ALIGN_MASK is 2*SIZE_SZ-1.  Each mmap'ed area is page
2307                aligned and therefore definitely MALLOC_ALIGN_MASK-aligned.  */
2308             assert (((INTERNAL_SIZE_T)chunk2mem(mm) & MALLOC_ALIGN_MASK) == 0);
2309             front_misalign = 0;
2310           }
2311         else
2312           front_misalign = (INTERNAL_SIZE_T)chunk2mem(mm) & MALLOC_ALIGN_MASK;
2313         if (front_misalign > 0) {
2314           correction = MALLOC_ALIGNMENT - front_misalign;
2315           p = (mchunkptr)(mm + correction);
2316           p->prev_size = correction;
2317           set_head(p, (size - correction) |IS_MMAPPED);
2318         }
2319         else
2320           {
2321             p = (mchunkptr)mm;
2322             set_head(p, size|IS_MMAPPED);
2323           }
2324
2325         /* update statistics */
2326
2327         int new = atomic_exchange_and_add (&mp_.n_mmaps, 1) + 1;
2328         atomic_max (&mp_.max_n_mmaps, new);
2329
2330         unsigned long sum;
2331         sum = atomic_exchange_and_add(&mp_.mmapped_mem, size) + size;
2332         atomic_max (&mp_.max_mmapped_mem, sum);
2333
2334         check_chunk(av, p);
2335
2336         return chunk2mem(p);
2337       }
2338     }
2339   }
2340
2341   /* Record incoming configuration of top */
2342
2343   old_top  = av->top;
2344   old_size = chunksize(old_top);
2345   old_end  = (char*)(chunk_at_offset(old_top, old_size));
2346
2347   brk = snd_brk = (char*)(MORECORE_FAILURE);
2348
2349   /*
2350      If not the first time through, we require old_size to be
2351      at least MINSIZE and to have prev_inuse set.
2352   */
2353
2354   assert((old_top == initial_top(av) && old_size == 0) ||
2355          ((unsigned long) (old_size) >= MINSIZE &&
2356           prev_inuse(old_top) &&
2357           ((unsigned long)old_end & pagemask) == 0));
2358
2359   /* Precondition: not enough current space to satisfy nb request */
2360   assert((unsigned long)(old_size) < (unsigned long)(nb + MINSIZE));
2361
2362
2363   if (av != &main_arena) {
2364
2365     heap_info *old_heap, *heap;
2366     size_t old_heap_size;
2367
2368     /* First try to extend the current heap. */
2369     old_heap = heap_for_ptr(old_top);
2370     old_heap_size = old_heap->size;
2371     if ((long) (MINSIZE + nb - old_size) > 0
2372         && grow_heap(old_heap, MINSIZE + nb - old_size) == 0) {
2373       av->system_mem += old_heap->size - old_heap_size;
2374       arena_mem += old_heap->size - old_heap_size;
2375       set_head(old_top, (((char *)old_heap + old_heap->size) - (char *)old_top)
2376                | PREV_INUSE);
2377     }
2378     else if ((heap = new_heap(nb + (MINSIZE + sizeof(*heap)), mp_.top_pad))) {
2379       /* Use a newly allocated heap.  */
2380       heap->ar_ptr = av;
2381       heap->prev = old_heap;
2382       av->system_mem += heap->size;
2383       arena_mem += heap->size;
2384       /* Set up the new top.  */
2385       top(av) = chunk_at_offset(heap, sizeof(*heap));
2386       set_head(top(av), (heap->size - sizeof(*heap)) | PREV_INUSE);
2387
2388       /* Setup fencepost and free the old top chunk with a multiple of
2389          MALLOC_ALIGNMENT in size. */
2390       /* The fencepost takes at least MINSIZE bytes, because it might
2391          become the top chunk again later.  Note that a footer is set
2392          up, too, although the chunk is marked in use. */
2393       old_size = (old_size - MINSIZE) & ~MALLOC_ALIGN_MASK;
2394       set_head(chunk_at_offset(old_top, old_size + 2*SIZE_SZ), 0|PREV_INUSE);
2395       if (old_size >= MINSIZE) {
2396         set_head(chunk_at_offset(old_top, old_size), (2*SIZE_SZ)|PREV_INUSE);
2397         set_foot(chunk_at_offset(old_top, old_size), (2*SIZE_SZ));
2398         set_head(old_top, old_size|PREV_INUSE|NON_MAIN_ARENA);
2399         _int_free(av, old_top, 1);
2400       } else {
2401         set_head(old_top, (old_size + 2*SIZE_SZ)|PREV_INUSE);
2402         set_foot(old_top, (old_size + 2*SIZE_SZ));
2403       }
2404     }
2405     else if (!tried_mmap)
2406       /* We can at least try to use to mmap memory.  */
2407       goto try_mmap;
2408
2409   } else { /* av == main_arena */
2410
2411
2412   /* Request enough space for nb + pad + overhead */
2413
2414   size = nb + mp_.top_pad + MINSIZE;
2415
2416   /*
2417     If contiguous, we can subtract out existing space that we hope to
2418     combine with new space. We add it back later only if
2419     we don't actually get contiguous space.
2420   */
2421
2422   if (contiguous(av))
2423     size -= old_size;
2424
2425   /*
2426     Round to a multiple of page size.
2427     If MORECORE is not contiguous, this ensures that we only call it
2428     with whole-page arguments.  And if MORECORE is contiguous and
2429     this is not first time through, this preserves page-alignment of
2430     previous calls. Otherwise, we correct to page-align below.
2431   */
2432
2433   size = (size + pagemask) & ~pagemask;
2434
2435   /*
2436     Don't try to call MORECORE if argument is so big as to appear
2437     negative. Note that since mmap takes size_t arg, it may succeed
2438     below even if we cannot call MORECORE.
2439   */
2440
2441   if (size > 0) {
2442     brk = (char*)(MORECORE(size));
2443     LIBC_PROBE (memory_sbrk_more, 2, brk, size);
2444   }
2445
2446   if (brk != (char*)(MORECORE_FAILURE)) {
2447     /* Call the `morecore' hook if necessary.  */
2448     void (*hook) (void) = force_reg (__after_morecore_hook);
2449     if (__builtin_expect (hook != NULL, 0))
2450       (*hook) ();
2451   } else {
2452   /*
2453     If have mmap, try using it as a backup when MORECORE fails or
2454     cannot be used. This is worth doing on systems that have "holes" in
2455     address space, so sbrk cannot extend to give contiguous space, but
2456     space is available elsewhere.  Note that we ignore mmap max count
2457     and threshold limits, since the space will not be used as a
2458     segregated mmap region.
2459   */
2460
2461     /* Cannot merge with old top, so add its size back in */
2462     if (contiguous(av))
2463       size = (size + old_size + pagemask) & ~pagemask;
2464
2465     /* If we are relying on mmap as backup, then use larger units */
2466     if ((unsigned long)(size) < (unsigned long)(MMAP_AS_MORECORE_SIZE))
2467       size = MMAP_AS_MORECORE_SIZE;
2468
2469     /* Don't try if size wraps around 0 */
2470     if ((unsigned long)(size) > (unsigned long)(nb)) {
2471
2472       char *mbrk = (char*)(MMAP(0, size, PROT_READ|PROT_WRITE, 0));
2473
2474       if (mbrk != MAP_FAILED) {
2475
2476         /* We do not need, and cannot use, another sbrk call to find end */
2477         brk = mbrk;
2478         snd_brk = brk + size;
2479
2480         /*
2481            Record that we no longer have a contiguous sbrk region.
2482            After the first time mmap is used as backup, we do not
2483            ever rely on contiguous space since this could incorrectly
2484            bridge regions.
2485         */
2486         set_noncontiguous(av);
2487       }
2488     }
2489   }
2490
2491   if (brk != (char*)(MORECORE_FAILURE)) {
2492     if (mp_.sbrk_base == 0)
2493       mp_.sbrk_base = brk;
2494     av->system_mem += size;
2495
2496     /*
2497       If MORECORE extends previous space, we can likewise extend top size.
2498     */
2499
2500     if (brk == old_end && snd_brk == (char*)(MORECORE_FAILURE))
2501       set_head(old_top, (size + old_size) | PREV_INUSE);
2502
2503     else if (contiguous(av) && old_size && brk < old_end) {
2504       /* Oops!  Someone else killed our space..  Can't touch anything.  */
2505       malloc_printerr (3, "break adjusted to free malloc space", brk);
2506     }
2507
2508     /*
2509       Otherwise, make adjustments:
2510
2511       * If the first time through or noncontiguous, we need to call sbrk
2512         just to find out where the end of memory lies.
2513
2514       * We need to ensure that all returned chunks from malloc will meet
2515         MALLOC_ALIGNMENT
2516
2517       * If there was an intervening foreign sbrk, we need to adjust sbrk
2518         request size to account for fact that we will not be able to
2519         combine new space with existing space in old_top.
2520
2521       * Almost all systems internally allocate whole pages at a time, in
2522         which case we might as well use the whole last page of request.
2523         So we allocate enough more memory to hit a page boundary now,
2524         which in turn causes future contiguous calls to page-align.
2525     */
2526
2527     else {
2528       front_misalign = 0;
2529       end_misalign = 0;
2530       correction = 0;
2531       aligned_brk = brk;
2532
2533       /* handle contiguous cases */
2534       if (contiguous(av)) {
2535
2536         /* Count foreign sbrk as system_mem.  */
2537         if (old_size)
2538           av->system_mem += brk - old_end;
2539
2540         /* Guarantee alignment of first new chunk made from this space */
2541
2542         front_misalign = (INTERNAL_SIZE_T)chunk2mem(brk) & MALLOC_ALIGN_MASK;
2543         if (front_misalign > 0) {
2544
2545           /*
2546             Skip over some bytes to arrive at an aligned position.
2547             We don't need to specially mark these wasted front bytes.
2548             They will never be accessed anyway because
2549             prev_inuse of av->top (and any chunk created from its start)
2550             is always true after initialization.
2551           */
2552
2553           correction = MALLOC_ALIGNMENT - front_misalign;
2554           aligned_brk += correction;
2555         }
2556
2557         /*
2558           If this isn't adjacent to existing space, then we will not
2559           be able to merge with old_top space, so must add to 2nd request.
2560         */
2561
2562         correction += old_size;
2563
2564         /* Extend the end address to hit a page boundary */
2565         end_misalign = (INTERNAL_SIZE_T)(brk + size + correction);
2566         correction += ((end_misalign + pagemask) & ~pagemask) - end_misalign;
2567
2568         assert(correction >= 0);
2569         snd_brk = (char*)(MORECORE(correction));
2570
2571         /*
2572           If can't allocate correction, try to at least find out current
2573           brk.  It might be enough to proceed without failing.
2574
2575           Note that if second sbrk did NOT fail, we assume that space
2576           is contiguous with first sbrk. This is a safe assumption unless
2577           program is multithreaded but doesn't use locks and a foreign sbrk
2578           occurred between our first and second calls.
2579         */
2580
2581         if (snd_brk == (char*)(MORECORE_FAILURE)) {
2582           correction = 0;
2583           snd_brk = (char*)(MORECORE(0));
2584         } else {
2585           /* Call the `morecore' hook if necessary.  */
2586           void (*hook) (void) = force_reg (__after_morecore_hook);
2587           if (__builtin_expect (hook != NULL, 0))
2588             (*hook) ();
2589         }
2590       }
2591
2592       /* handle non-contiguous cases */
2593       else {
2594         if (MALLOC_ALIGNMENT == 2 * SIZE_SZ)
2595           /* MORECORE/mmap must correctly align */
2596           assert(((unsigned long)chunk2mem(brk) & MALLOC_ALIGN_MASK) == 0);
2597         else {
2598           front_misalign = (INTERNAL_SIZE_T)chunk2mem(brk) & MALLOC_ALIGN_MASK;
2599           if (front_misalign > 0) {
2600
2601             /*
2602               Skip over some bytes to arrive at an aligned position.
2603               We don't need to specially mark these wasted front bytes.
2604               They will never be accessed anyway because
2605               prev_inuse of av->top (and any chunk created from its start)
2606               is always true after initialization.
2607             */
2608
2609             aligned_brk += MALLOC_ALIGNMENT - front_misalign;
2610           }
2611         }
2612
2613         /* Find out current end of memory */
2614         if (snd_brk == (char*)(MORECORE_FAILURE)) {
2615           snd_brk = (char*)(MORECORE(0));
2616         }
2617       }
2618
2619       /* Adjust top based on results of second sbrk */
2620       if (snd_brk != (char*)(MORECORE_FAILURE)) {
2621         av->top = (mchunkptr)aligned_brk;
2622         set_head(av->top, (snd_brk - aligned_brk + correction) | PREV_INUSE);
2623         av->system_mem += correction;
2624
2625         /*
2626           If not the first time through, we either have a
2627           gap due to foreign sbrk or a non-contiguous region.  Insert a
2628           double fencepost at old_top to prevent consolidation with space
2629           we don't own. These fenceposts are artificial chunks that are
2630           marked as inuse and are in any case too small to use.  We need
2631           two to make sizes and alignments work out.
2632         */
2633
2634         if (old_size != 0) {
2635           /*
2636              Shrink old_top to insert fenceposts, keeping size a
2637              multiple of MALLOC_ALIGNMENT. We know there is at least
2638              enough space in old_top to do this.
2639           */
2640           old_size = (old_size - 4*SIZE_SZ) & ~MALLOC_ALIGN_MASK;
2641           set_head(old_top, old_size | PREV_INUSE);
2642
2643           /*
2644             Note that the following assignments completely overwrite
2645             old_top when old_size was previously MINSIZE.  This is
2646             intentional. We need the fencepost, even if old_top otherwise gets
2647             lost.
2648           */
2649           chunk_at_offset(old_top, old_size            )->size =
2650             (2*SIZE_SZ)|PREV_INUSE;
2651
2652           chunk_at_offset(old_top, old_size + 2*SIZE_SZ)->size =
2653             (2*SIZE_SZ)|PREV_INUSE;
2654
2655           /* If possible, release the rest. */
2656           if (old_size >= MINSIZE) {
2657             _int_free(av, old_top, 1);
2658           }
2659
2660         }
2661       }
2662     }
2663   }
2664
2665   } /* if (av !=  &main_arena) */
2666
2667   if ((unsigned long)av->system_mem > (unsigned long)(av->max_system_mem))
2668     av->max_system_mem = av->system_mem;
2669   check_malloc_state(av);
2670
2671   /* finally, do the allocation */
2672   p = av->top;
2673   size = chunksize(p);
2674
2675   /* check that one of the above allocation paths succeeded */
2676   if ((unsigned long)(size) >= (unsigned long)(nb + MINSIZE)) {
2677     remainder_size = size - nb;
2678     remainder = chunk_at_offset(p, nb);
2679     av->top = remainder;
2680     set_head(p, nb | PREV_INUSE | (av != &main_arena ? NON_MAIN_ARENA : 0));
2681     set_head(remainder, remainder_size | PREV_INUSE);
2682     check_malloced_chunk(av, p, nb);
2683     return chunk2mem(p);
2684   }
2685
2686   /* catch all failure paths */
2687   __set_errno (ENOMEM);
2688   return 0;
2689 }
2690
2691
2692 /*
2693   systrim is an inverse of sorts to sysmalloc.  It gives memory back
2694   to the system (via negative arguments to sbrk) if there is unused
2695   memory at the `high' end of the malloc pool. It is called
2696   automatically by free() when top space exceeds the trim
2697   threshold. It is also called by the public malloc_trim routine.  It
2698   returns 1 if it actually released any memory, else 0.
2699 */
2700
2701 static int systrim(size_t pad, mstate av)
2702 {
2703   long  top_size;        /* Amount of top-most memory */
2704   long  extra;           /* Amount to release */
2705   long  released;        /* Amount actually released */
2706   char* current_brk;     /* address returned by pre-check sbrk call */
2707   char* new_brk;         /* address returned by post-check sbrk call */
2708   size_t pagesz;
2709
2710   pagesz = GLRO(dl_pagesize);
2711   top_size = chunksize(av->top);
2712
2713   /* Release in pagesize units, keeping at least one page */
2714   extra = (top_size - pad - MINSIZE - 1) & ~(pagesz - 1);
2715
2716   if (extra > 0) {
2717
2718     /*
2719       Only proceed if end of memory is where we last set it.
2720       This avoids problems if there were foreign sbrk calls.
2721     */
2722     current_brk = (char*)(MORECORE(0));
2723     if (current_brk == (char*)(av->top) + top_size) {
2724
2725       /*
2726         Attempt to release memory. We ignore MORECORE return value,
2727         and instead call again to find out where new end of memory is.
2728         This avoids problems if first call releases less than we asked,
2729         of if failure somehow altered brk value. (We could still
2730         encounter problems if it altered brk in some very bad way,
2731         but the only thing we can do is adjust anyway, which will cause
2732         some downstream failure.)
2733       */
2734
2735       MORECORE(-extra);
2736       /* Call the `morecore' hook if necessary.  */
2737       void (*hook) (void) = force_reg (__after_morecore_hook);
2738       if (__builtin_expect (hook != NULL, 0))
2739         (*hook) ();
2740       new_brk = (char*)(MORECORE(0));
2741
2742       LIBC_PROBE (memory_sbrk_less, 2, new_brk, extra);
2743
2744       if (new_brk != (char*)MORECORE_FAILURE) {
2745         released = (long)(current_brk - new_brk);
2746
2747         if (released != 0) {
2748           /* Success. Adjust top. */
2749           av->system_mem -= released;
2750           set_head(av->top, (top_size - released) | PREV_INUSE);
2751           check_malloc_state(av);
2752           return 1;
2753         }
2754       }
2755     }
2756   }
2757   return 0;
2758 }
2759
2760 static void
2761 internal_function
2762 munmap_chunk(mchunkptr p)
2763 {
2764   INTERNAL_SIZE_T size = chunksize(p);
2765
2766   assert (chunk_is_mmapped(p));
2767
2768   uintptr_t block = (uintptr_t) p - p->prev_size;
2769   size_t total_size = p->prev_size + size;
2770   /* Unfortunately we have to do the compilers job by hand here.  Normally
2771      we would test BLOCK and TOTAL-SIZE separately for compliance with the
2772      page size.  But gcc does not recognize the optimization possibility
2773      (in the moment at least) so we combine the two values into one before
2774      the bit test.  */
2775   if (__builtin_expect (((block | total_size) & (GLRO(dl_pagesize) - 1)) != 0, 0))
2776     {
2777       malloc_printerr (check_action, "munmap_chunk(): invalid pointer",
2778                        chunk2mem (p));
2779       return;
2780     }
2781
2782   atomic_decrement (&mp_.n_mmaps);
2783   atomic_add (&mp_.mmapped_mem, -total_size);
2784
2785   /* If munmap failed the process virtual memory address space is in a
2786      bad shape.  Just leave the block hanging around, the process will
2787      terminate shortly anyway since not much can be done.  */
2788   __munmap((char *)block, total_size);
2789 }
2790
2791 #if HAVE_MREMAP
2792
2793 static mchunkptr
2794 internal_function
2795 mremap_chunk(mchunkptr p, size_t new_size)
2796 {
2797   size_t page_mask = GLRO(dl_pagesize) - 1;
2798   INTERNAL_SIZE_T offset = p->prev_size;
2799   INTERNAL_SIZE_T size = chunksize(p);
2800   char *cp;
2801
2802   assert (chunk_is_mmapped(p));
2803   assert(((size + offset) & (GLRO(dl_pagesize)-1)) == 0);
2804
2805   /* Note the extra SIZE_SZ overhead as in mmap_chunk(). */
2806   new_size = (new_size + offset + SIZE_SZ + page_mask) & ~page_mask;
2807
2808   /* No need to remap if the number of pages does not change.  */
2809   if (size + offset == new_size)
2810     return p;
2811
2812   cp = (char *)__mremap((char *)p - offset, size + offset, new_size,
2813                         MREMAP_MAYMOVE);
2814
2815   if (cp == MAP_FAILED) return 0;
2816
2817   p = (mchunkptr)(cp + offset);
2818
2819   assert(aligned_OK(chunk2mem(p)));
2820
2821   assert((p->prev_size == offset));
2822   set_head(p, (new_size - offset)|IS_MMAPPED);
2823
2824   INTERNAL_SIZE_T new;
2825   new = atomic_exchange_and_add (&mp_.mmapped_mem, new_size - size - offset)
2826         + new_size - size - offset;
2827   atomic_max (&mp_.max_mmapped_mem, new);
2828   return p;
2829 }
2830
2831 #endif /* HAVE_MREMAP */
2832
2833 /*------------------------ Public wrappers. --------------------------------*/
2834
2835 void*
2836 __libc_malloc(size_t bytes)
2837 {
2838   mstate ar_ptr;
2839   void *victim;
2840
2841   void *(*hook) (size_t, const void *)
2842     = force_reg (__malloc_hook);
2843   if (__builtin_expect (hook != NULL, 0))
2844     return (*hook)(bytes, RETURN_ADDRESS (0));
2845
2846   arena_lookup(ar_ptr);
2847
2848   arena_lock(ar_ptr, bytes);
2849   if(!ar_ptr)
2850     return 0;
2851   victim = _int_malloc(ar_ptr, bytes);
2852   if(!victim) {
2853     LIBC_PROBE (memory_malloc_retry, 1, bytes);
2854     ar_ptr = arena_get_retry(ar_ptr, bytes);
2855     if (__builtin_expect(ar_ptr != NULL, 1)) {
2856       victim = _int_malloc(ar_ptr, bytes);
2857       (void)mutex_unlock(&ar_ptr->mutex);
2858     }
2859   } else
2860     (void)mutex_unlock(&ar_ptr->mutex);
2861   assert(!victim || chunk_is_mmapped(mem2chunk(victim)) ||
2862          ar_ptr == arena_for_chunk(mem2chunk(victim)));
2863   return victim;
2864 }
2865 libc_hidden_def(__libc_malloc)
2866
2867 void
2868 __libc_free(void* mem)
2869 {
2870   mstate ar_ptr;
2871   mchunkptr p;                          /* chunk corresponding to mem */
2872
2873   void (*hook) (void *, const void *)
2874     = force_reg (__free_hook);
2875   if (__builtin_expect (hook != NULL, 0)) {
2876     (*hook)(mem, RETURN_ADDRESS (0));
2877     return;
2878   }
2879
2880   if (mem == 0)                              /* free(0) has no effect */
2881     return;
2882
2883   p = mem2chunk(mem);
2884
2885   if (chunk_is_mmapped(p))                       /* release mmapped memory. */
2886   {
2887     /* see if the dynamic brk/mmap threshold needs adjusting */
2888     if (!mp_.no_dyn_threshold
2889         && p->size > mp_.mmap_threshold
2890         && p->size <= DEFAULT_MMAP_THRESHOLD_MAX)
2891       {
2892         mp_.mmap_threshold = chunksize (p);
2893         mp_.trim_threshold = 2 * mp_.mmap_threshold;
2894         LIBC_PROBE (memory_mallopt_free_dyn_thresholds, 2,
2895                     mp_.mmap_threshold, mp_.trim_threshold);
2896       }
2897     munmap_chunk(p);
2898     return;
2899   }
2900
2901   ar_ptr = arena_for_chunk(p);
2902   _int_free(ar_ptr, p, 0);
2903 }
2904 libc_hidden_def (__libc_free)
2905
2906 void*
2907 __libc_realloc(void* oldmem, size_t bytes)
2908 {
2909   mstate ar_ptr;
2910   INTERNAL_SIZE_T    nb;      /* padded request size */
2911
2912   void* newp;             /* chunk to return */
2913
2914   void *(*hook) (void *, size_t, const void *) =
2915     force_reg (__realloc_hook);
2916   if (__builtin_expect (hook != NULL, 0))
2917     return (*hook)(oldmem, bytes, RETURN_ADDRESS (0));
2918
2919 #if REALLOC_ZERO_BYTES_FREES
2920   if (bytes == 0 && oldmem != NULL) { __libc_free(oldmem); return 0; }
2921 #endif
2922
2923   /* realloc of null is supposed to be same as malloc */
2924   if (oldmem == 0) return __libc_malloc(bytes);
2925
2926   /* chunk corresponding to oldmem */
2927   const mchunkptr oldp    = mem2chunk(oldmem);
2928   /* its size */
2929   const INTERNAL_SIZE_T oldsize = chunksize(oldp);
2930
2931   /* Little security check which won't hurt performance: the
2932      allocator never wrapps around at the end of the address space.
2933      Therefore we can exclude some size values which might appear
2934      here by accident or by "design" from some intruder.  */
2935   if (__builtin_expect ((uintptr_t) oldp > (uintptr_t) -oldsize, 0)
2936       || __builtin_expect (misaligned_chunk (oldp), 0))
2937     {
2938       malloc_printerr (check_action, "realloc(): invalid pointer", oldmem);
2939       return NULL;
2940     }
2941
2942   checked_request2size(bytes, nb);
2943
2944   if (chunk_is_mmapped(oldp))
2945   {
2946     void* newmem;
2947
2948 #if HAVE_MREMAP
2949     newp = mremap_chunk(oldp, nb);
2950     if(newp) return chunk2mem(newp);
2951 #endif
2952     /* Note the extra SIZE_SZ overhead. */
2953     if(oldsize - SIZE_SZ >= nb) return oldmem; /* do nothing */
2954     /* Must alloc, copy, free. */
2955     newmem = __libc_malloc(bytes);
2956     if (newmem == 0) return 0; /* propagate failure */
2957     MALLOC_COPY(newmem, oldmem, oldsize - 2*SIZE_SZ);
2958     munmap_chunk(oldp);
2959     return newmem;
2960   }
2961
2962   ar_ptr = arena_for_chunk(oldp);
2963 #if THREAD_STATS
2964   if(!mutex_trylock(&ar_ptr->mutex))
2965     ++(ar_ptr->stat_lock_direct);
2966   else {
2967     (void)mutex_lock(&ar_ptr->mutex);
2968     ++(ar_ptr->stat_lock_wait);
2969   }
2970 #else
2971   (void)mutex_lock(&ar_ptr->mutex);
2972 #endif
2973
2974 #if !defined PER_THREAD
2975   LIBC_PROBE (memory_arena_reuse_realloc, 1, ar_ptr);
2976   /* As in malloc(), remember this arena for the next allocation. */
2977   tsd_setspecific(arena_key, (void *)ar_ptr);
2978 #endif
2979
2980   newp = _int_realloc(ar_ptr, oldp, oldsize, nb);
2981
2982   (void)mutex_unlock(&ar_ptr->mutex);
2983   assert(!newp || chunk_is_mmapped(mem2chunk(newp)) ||
2984          ar_ptr == arena_for_chunk(mem2chunk(newp)));
2985
2986   if (newp == NULL)
2987     {
2988       /* Try harder to allocate memory in other arenas.  */
2989       LIBC_PROBE (memory_realloc_retry, 2, bytes, oldmem);
2990       newp = __libc_malloc(bytes);
2991       if (newp != NULL)
2992         {
2993           MALLOC_COPY (newp, oldmem, oldsize - SIZE_SZ);
2994           _int_free(ar_ptr, oldp, 0);
2995         }
2996     }
2997
2998   return newp;
2999 }
3000 libc_hidden_def (__libc_realloc)
3001
3002 void*
3003 __libc_memalign(size_t alignment, size_t bytes)
3004 {
3005   mstate ar_ptr;
3006   void *p;
3007
3008   void *(*hook) (size_t, size_t, const void *) =
3009     force_reg (__memalign_hook);
3010   if (__builtin_expect (hook != NULL, 0))
3011     return (*hook)(alignment, bytes, RETURN_ADDRESS (0));
3012
3013   /* If need less alignment than we give anyway, just relay to malloc */
3014   if (alignment <= MALLOC_ALIGNMENT) return __libc_malloc(bytes);
3015
3016   /* Otherwise, ensure that it is at least a minimum chunk size */
3017   if (alignment <  MINSIZE) alignment = MINSIZE;
3018
3019   /* If the alignment is greater than SIZE_MAX / 2 + 1 it cannot be a
3020      power of 2 and will cause overflow in the check below.  */
3021   if (alignment > SIZE_MAX / 2 + 1)
3022     {
3023       __set_errno (EINVAL);
3024       return 0;
3025     }
3026
3027   /* Check for overflow.  */
3028   if (bytes > SIZE_MAX - alignment - MINSIZE)
3029     {
3030       __set_errno (ENOMEM);
3031       return 0;
3032     }
3033
3034   arena_get(ar_ptr, bytes + alignment + MINSIZE);
3035   if(!ar_ptr)
3036     return 0;
3037   p = _int_memalign(ar_ptr, alignment, bytes);
3038   if(!p) {
3039     LIBC_PROBE (memory_memalign_retry, 2, bytes, alignment);
3040     ar_ptr = arena_get_retry (ar_ptr, bytes);
3041     if (__builtin_expect(ar_ptr != NULL, 1)) {
3042       p = _int_memalign(ar_ptr, alignment, bytes);
3043       (void)mutex_unlock(&ar_ptr->mutex);
3044     }
3045   } else
3046     (void)mutex_unlock(&ar_ptr->mutex);
3047   assert(!p || chunk_is_mmapped(mem2chunk(p)) ||
3048          ar_ptr == arena_for_chunk(mem2chunk(p)));
3049   return p;
3050 }
3051 /* For ISO C11.  */
3052 weak_alias (__libc_memalign, aligned_alloc)
3053 libc_hidden_def (__libc_memalign)
3054
3055 void*
3056 __libc_valloc(size_t bytes)
3057 {
3058   mstate ar_ptr;
3059   void *p;
3060
3061   if(__malloc_initialized < 0)
3062     ptmalloc_init ();
3063
3064   size_t pagesz = GLRO(dl_pagesize);
3065
3066   /* Check for overflow.  */
3067   if (bytes > SIZE_MAX - pagesz - MINSIZE)
3068     {
3069       __set_errno (ENOMEM);
3070       return 0;
3071     }
3072
3073   void *(*hook) (size_t, size_t, const void *) =
3074     force_reg (__memalign_hook);
3075   if (__builtin_expect (hook != NULL, 0))
3076     return (*hook)(pagesz, bytes, RETURN_ADDRESS (0));
3077
3078   arena_get(ar_ptr, bytes + pagesz + MINSIZE);
3079   if(!ar_ptr)
3080     return 0;
3081   p = _int_valloc(ar_ptr, bytes);
3082   if(!p) {
3083     LIBC_PROBE (memory_valloc_retry, 1, bytes);
3084     ar_ptr = arena_get_retry (ar_ptr, bytes);
3085     if (__builtin_expect(ar_ptr != NULL, 1)) {
3086       p = _int_memalign(ar_ptr, pagesz, bytes);
3087       (void)mutex_unlock(&ar_ptr->mutex);
3088     }
3089   } else
3090     (void)mutex_unlock (&ar_ptr->mutex);
3091   assert(!p || chunk_is_mmapped(mem2chunk(p)) ||
3092          ar_ptr == arena_for_chunk(mem2chunk(p)));
3093
3094   return p;
3095 }
3096
3097 void*
3098 __libc_pvalloc(size_t bytes)
3099 {
3100   mstate ar_ptr;
3101   void *p;
3102
3103   if(__malloc_initialized < 0)
3104     ptmalloc_init ();
3105
3106   size_t pagesz = GLRO(dl_pagesize);
3107   size_t page_mask = GLRO(dl_pagesize) - 1;
3108   size_t rounded_bytes = (bytes + page_mask) & ~(page_mask);
3109
3110   /* Check for overflow.  */
3111   if (bytes > SIZE_MAX - 2*pagesz - MINSIZE)
3112     {
3113       __set_errno (ENOMEM);
3114       return 0;
3115     }
3116
3117   void *(*hook) (size_t, size_t, const void *) =
3118     force_reg (__memalign_hook);
3119   if (__builtin_expect (hook != NULL, 0))
3120     return (*hook)(pagesz, rounded_bytes, RETURN_ADDRESS (0));
3121
3122   arena_get(ar_ptr, bytes + 2*pagesz + MINSIZE);
3123   p = _int_pvalloc(ar_ptr, bytes);
3124   if(!p) {
3125     LIBC_PROBE (memory_pvalloc_retry, 1, bytes);
3126     ar_ptr = arena_get_retry (ar_ptr, bytes + 2*pagesz + MINSIZE);
3127     if (__builtin_expect(ar_ptr != NULL, 1)) {
3128       p = _int_memalign(ar_ptr, pagesz, rounded_bytes);
3129       (void)mutex_unlock(&ar_ptr->mutex);
3130     }
3131   } else
3132     (void)mutex_unlock(&ar_ptr->mutex);
3133   assert(!p || chunk_is_mmapped(mem2chunk(p)) ||
3134          ar_ptr == arena_for_chunk(mem2chunk(p)));
3135
3136   return p;
3137 }
3138
3139 void*
3140 __libc_calloc(size_t n, size_t elem_size)
3141 {
3142   mstate av;
3143   mchunkptr oldtop, p;
3144   INTERNAL_SIZE_T bytes, sz, csz, oldtopsize;
3145   void* mem;
3146   unsigned long clearsize;
3147   unsigned long nclears;
3148   INTERNAL_SIZE_T* d;
3149
3150   /* size_t is unsigned so the behavior on overflow is defined.  */
3151   bytes = n * elem_size;
3152 #define HALF_INTERNAL_SIZE_T \
3153   (((INTERNAL_SIZE_T) 1) << (8 * sizeof (INTERNAL_SIZE_T) / 2))
3154   if (__builtin_expect ((n | elem_size) >= HALF_INTERNAL_SIZE_T, 0)) {
3155     if (elem_size != 0 && bytes / elem_size != n) {
3156       __set_errno (ENOMEM);
3157       return 0;
3158     }
3159   }
3160
3161   void *(*hook) (size_t, const void *) =
3162     force_reg (__malloc_hook);
3163   if (__builtin_expect (hook != NULL, 0)) {
3164     sz = bytes;
3165     mem = (*hook)(sz, RETURN_ADDRESS (0));
3166     if(mem == 0)
3167       return 0;
3168     return memset(mem, 0, sz);
3169   }
3170
3171   sz = bytes;
3172
3173   arena_get(av, sz);
3174   if(!av)
3175     return 0;
3176
3177   /* Check if we hand out the top chunk, in which case there may be no
3178      need to clear. */
3179 #if MORECORE_CLEARS
3180   oldtop = top(av);
3181   oldtopsize = chunksize(top(av));
3182 #if MORECORE_CLEARS < 2
3183   /* Only newly allocated memory is guaranteed to be cleared.  */
3184   if (av == &main_arena &&
3185       oldtopsize < mp_.sbrk_base + av->max_system_mem - (char *)oldtop)
3186     oldtopsize = (mp_.sbrk_base + av->max_system_mem - (char *)oldtop);
3187 #endif
3188   if (av != &main_arena)
3189     {
3190       heap_info *heap = heap_for_ptr (oldtop);
3191       if (oldtopsize < (char *) heap + heap->mprotect_size - (char *) oldtop)
3192         oldtopsize = (char *) heap + heap->mprotect_size - (char *) oldtop;
3193     }
3194 #endif
3195   mem = _int_malloc(av, sz);
3196
3197
3198   assert(!mem || chunk_is_mmapped(mem2chunk(mem)) ||
3199          av == arena_for_chunk(mem2chunk(mem)));
3200
3201   if (mem == 0) {
3202     LIBC_PROBE (memory_calloc_retry, 1, sz);
3203     av = arena_get_retry (av, sz);
3204     if (__builtin_expect(av != NULL, 1)) {
3205       mem = _int_malloc(av, sz);
3206       (void)mutex_unlock(&av->mutex);
3207     }
3208     if (mem == 0) return 0;
3209   } else
3210     (void)mutex_unlock(&av->mutex);
3211   p = mem2chunk(mem);
3212
3213   /* Two optional cases in which clearing not necessary */
3214   if (chunk_is_mmapped (p))
3215     {
3216       if (__builtin_expect (perturb_byte, 0))
3217         MALLOC_ZERO (mem, sz);
3218       return mem;
3219     }
3220
3221   csz = chunksize(p);
3222
3223 #if MORECORE_CLEARS
3224   if (perturb_byte == 0 && (p == oldtop && csz > oldtopsize)) {
3225     /* clear only the bytes from non-freshly-sbrked memory */
3226     csz = oldtopsize;
3227   }
3228 #endif
3229
3230   /* Unroll clear of <= 36 bytes (72 if 8byte sizes).  We know that
3231      contents have an odd number of INTERNAL_SIZE_T-sized words;
3232      minimally 3.  */
3233   d = (INTERNAL_SIZE_T*)mem;
3234   clearsize = csz - SIZE_SZ;
3235   nclears = clearsize / sizeof(INTERNAL_SIZE_T);
3236   assert(nclears >= 3);
3237
3238   if (nclears > 9)
3239     MALLOC_ZERO(d, clearsize);
3240
3241   else {
3242     *(d+0) = 0;
3243     *(d+1) = 0;
3244     *(d+2) = 0;
3245     if (nclears > 4) {
3246       *(d+3) = 0;
3247       *(d+4) = 0;
3248       if (nclears > 6) {
3249         *(d+5) = 0;
3250         *(d+6) = 0;
3251         if (nclears > 8) {
3252           *(d+7) = 0;
3253           *(d+8) = 0;
3254         }
3255       }
3256     }
3257   }
3258
3259   return mem;
3260 }
3261
3262 /*
3263   ------------------------------ malloc ------------------------------
3264 */
3265
3266 static void*
3267 _int_malloc(mstate av, size_t bytes)
3268 {
3269   INTERNAL_SIZE_T nb;               /* normalized request size */
3270   unsigned int    idx;              /* associated bin index */
3271   mbinptr         bin;              /* associated bin */
3272
3273   mchunkptr       victim;           /* inspected/selected chunk */
3274   INTERNAL_SIZE_T size;             /* its size */
3275   int             victim_index;     /* its bin index */
3276
3277   mchunkptr       remainder;        /* remainder from a split */
3278   unsigned long   remainder_size;   /* its size */
3279
3280   unsigned int    block;            /* bit map traverser */
3281   unsigned int    bit;              /* bit map traverser */
3282   unsigned int    map;              /* current word of binmap */
3283
3284   mchunkptr       fwd;              /* misc temp for linking */
3285   mchunkptr       bck;              /* misc temp for linking */
3286
3287   const char *errstr = NULL;
3288
3289   /*
3290     Convert request size to internal form by adding SIZE_SZ bytes
3291     overhead plus possibly more to obtain necessary alignment and/or
3292     to obtain a size of at least MINSIZE, the smallest allocatable
3293     size. Also, checked_request2size traps (returning 0) request sizes
3294     that are so large that they wrap around zero when padded and
3295     aligned.
3296   */
3297
3298   checked_request2size(bytes, nb);
3299
3300   /*
3301     If the size qualifies as a fastbin, first check corresponding bin.
3302     This code is safe to execute even if av is not yet initialized, so we
3303     can try it without checking, which saves some time on this fast path.
3304   */
3305
3306   if ((unsigned long)(nb) <= (unsigned long)(get_max_fast ())) {
3307     idx = fastbin_index(nb);
3308     mfastbinptr* fb = &fastbin (av, idx);
3309     mchunkptr pp = *fb;
3310     do
3311       {
3312         victim = pp;
3313         if (victim == NULL)
3314           break;
3315       }
3316     while ((pp = catomic_compare_and_exchange_val_acq (fb, victim->fd, victim))
3317            != victim);
3318     if (victim != 0) {
3319       if (__builtin_expect (fastbin_index (chunksize (victim)) != idx, 0))
3320         {
3321           errstr = "malloc(): memory corruption (fast)";
3322         errout:
3323           malloc_printerr (check_action, errstr, chunk2mem (victim));
3324           return NULL;
3325         }
3326       check_remalloced_chunk(av, victim, nb);
3327       void *p = chunk2mem(victim);
3328       if (__builtin_expect (perturb_byte, 0))
3329         alloc_perturb (p, bytes);
3330       return p;
3331     }
3332   }
3333
3334   /*
3335     If a small request, check regular bin.  Since these "smallbins"
3336     hold one size each, no searching within bins is necessary.
3337     (For a large request, we need to wait until unsorted chunks are
3338     processed to find best fit. But for small ones, fits are exact
3339     anyway, so we can check now, which is faster.)
3340   */
3341
3342   if (in_smallbin_range(nb)) {
3343     idx = smallbin_index(nb);
3344     bin = bin_at(av,idx);
3345
3346     if ( (victim = last(bin)) != bin) {
3347       if (victim == 0) /* initialization check */
3348         malloc_consolidate(av);
3349       else {
3350         bck = victim->bk;
3351         if (__builtin_expect (bck->fd != victim, 0))
3352           {
3353             errstr = "malloc(): smallbin double linked list corrupted";
3354             goto errout;
3355           }
3356         set_inuse_bit_at_offset(victim, nb);
3357         bin->bk = bck;
3358         bck->fd = bin;
3359
3360         if (av != &main_arena)
3361           victim->size |= NON_MAIN_ARENA;
3362         check_malloced_chunk(av, victim, nb);
3363         void *p = chunk2mem(victim);
3364         if (__builtin_expect (perturb_byte, 0))
3365           alloc_perturb (p, bytes);
3366         return p;
3367       }
3368     }
3369   }
3370
3371   /*
3372      If this is a large request, consolidate fastbins before continuing.
3373      While it might look excessive to kill all fastbins before
3374      even seeing if there is space available, this avoids
3375      fragmentation problems normally associated with fastbins.
3376      Also, in practice, programs tend to have runs of either small or
3377      large requests, but less often mixtures, so consolidation is not
3378      invoked all that often in most programs. And the programs that
3379      it is called frequently in otherwise tend to fragment.
3380   */
3381
3382   else {
3383     idx = largebin_index(nb);
3384     if (have_fastchunks(av))
3385       malloc_consolidate(av);
3386   }
3387
3388   /*
3389     Process recently freed or remaindered chunks, taking one only if
3390     it is exact fit, or, if this a small request, the chunk is remainder from
3391     the most recent non-exact fit.  Place other traversed chunks in
3392     bins.  Note that this step is the only place in any routine where
3393     chunks are placed in bins.
3394
3395     The outer loop here is needed because we might not realize until
3396     near the end of malloc that we should have consolidated, so must
3397     do so and retry. This happens at most once, and only when we would
3398     otherwise need to expand memory to service a "small" request.
3399   */
3400
3401   for(;;) {
3402
3403     int iters = 0;
3404     while ( (victim = unsorted_chunks(av)->bk) != unsorted_chunks(av)) {
3405       bck = victim->bk;
3406       if (__builtin_expect (victim->size <= 2 * SIZE_SZ, 0)
3407           || __builtin_expect (victim->size > av->system_mem, 0))
3408         malloc_printerr (check_action, "malloc(): memory corruption",
3409                          chunk2mem (victim));
3410       size = chunksize(victim);
3411
3412       /*
3413          If a small request, try to use last remainder if it is the
3414          only chunk in unsorted bin.  This helps promote locality for
3415          runs of consecutive small requests. This is the only
3416          exception to best-fit, and applies only when there is
3417          no exact fit for a small chunk.
3418       */
3419
3420       if (in_smallbin_range(nb) &&
3421           bck == unsorted_chunks(av) &&
3422           victim == av->last_remainder &&
3423           (unsigned long)(size) > (unsigned long)(nb + MINSIZE)) {
3424
3425         /* split and reattach remainder */
3426         remainder_size = size - nb;
3427         remainder = chunk_at_offset(victim, nb);
3428         unsorted_chunks(av)->bk = unsorted_chunks(av)->fd = remainder;
3429         av->last_remainder = remainder;
3430         remainder->bk = remainder->fd = unsorted_chunks(av);
3431         if (!in_smallbin_range(remainder_size))
3432           {
3433             remainder->fd_nextsize = NULL;
3434             remainder->bk_nextsize = NULL;
3435           }
3436
3437         set_head(victim, nb | PREV_INUSE |
3438                  (av != &main_arena ? NON_MAIN_ARENA : 0));
3439         set_head(remainder, remainder_size | PREV_INUSE);
3440         set_foot(remainder, remainder_size);
3441
3442         check_malloced_chunk(av, victim, nb);
3443         void *p = chunk2mem(victim);
3444         if (__builtin_expect (perturb_byte, 0))
3445           alloc_perturb (p, bytes);
3446         return p;
3447       }
3448
3449       /* remove from unsorted list */
3450       unsorted_chunks(av)->bk = bck;
3451       bck->fd = unsorted_chunks(av);
3452
3453       /* Take now instead of binning if exact fit */
3454
3455       if (size == nb) {
3456         set_inuse_bit_at_offset(victim, size);
3457         if (av != &main_arena)
3458           victim->size |= NON_MAIN_ARENA;
3459         check_malloced_chunk(av, victim, nb);
3460         void *p = chunk2mem(victim);
3461         if (__builtin_expect (perturb_byte, 0))
3462           alloc_perturb (p, bytes);
3463         return p;
3464       }
3465
3466       /* place chunk in bin */
3467
3468       if (in_smallbin_range(size)) {
3469         victim_index = smallbin_index(size);
3470         bck = bin_at(av, victim_index);
3471         fwd = bck->fd;
3472       }
3473       else {
3474         victim_index = largebin_index(size);
3475         bck = bin_at(av, victim_index);
3476         fwd = bck->fd;
3477
3478         /* maintain large bins in sorted order */
3479         if (fwd != bck) {
3480           /* Or with inuse bit to speed comparisons */
3481           size |= PREV_INUSE;
3482           /* if smaller than smallest, bypass loop below */
3483           assert((bck->bk->size & NON_MAIN_ARENA) == 0);
3484           if ((unsigned long)(size) < (unsigned long)(bck->bk->size)) {
3485             fwd = bck;
3486             bck = bck->bk;
3487
3488             victim->fd_nextsize = fwd->fd;
3489             victim->bk_nextsize = fwd->fd->bk_nextsize;
3490             fwd->fd->bk_nextsize = victim->bk_nextsize->fd_nextsize = victim;
3491           }
3492           else {
3493             assert((fwd->size & NON_MAIN_ARENA) == 0);
3494             while ((unsigned long) size < fwd->size)
3495               {
3496                 fwd = fwd->fd_nextsize;
3497                 assert((fwd->size & NON_MAIN_ARENA) == 0);
3498               }
3499
3500             if ((unsigned long) size == (unsigned long) fwd->size)
3501               /* Always insert in the second position.  */
3502               fwd = fwd->fd;
3503             else
3504               {
3505                 victim->fd_nextsize = fwd;
3506                 victim->bk_nextsize = fwd->bk_nextsize;
3507                 fwd->bk_nextsize = victim;
3508                 victim->bk_nextsize->fd_nextsize = victim;
3509               }
3510             bck = fwd->bk;
3511           }
3512         } else
3513           victim->fd_nextsize = victim->bk_nextsize = victim;
3514       }
3515
3516       mark_bin(av, victim_index);
3517       victim->bk = bck;
3518       victim->fd = fwd;
3519       fwd->bk = victim;
3520       bck->fd = victim;
3521
3522 #define MAX_ITERS       10000
3523       if (++iters >= MAX_ITERS)
3524         break;
3525     }
3526
3527     /*
3528       If a large request, scan through the chunks of current bin in
3529       sorted order to find smallest that fits.  Use the skip list for this.
3530     */
3531
3532     if (!in_smallbin_range(nb)) {
3533       bin = bin_at(av, idx);
3534
3535       /* skip scan if empty or largest chunk is too small */
3536       if ((victim = first(bin)) != bin &&
3537           (unsigned long)(victim->size) >= (unsigned long)(nb)) {
3538
3539         victim = victim->bk_nextsize;
3540         while (((unsigned long)(size = chunksize(victim)) <
3541                 (unsigned long)(nb)))
3542           victim = victim->bk_nextsize;
3543
3544         /* Avoid removing the first entry for a size so that the skip
3545            list does not have to be rerouted.  */
3546         if (victim != last(bin) && victim->size == victim->fd->size)
3547           victim = victim->fd;
3548
3549         remainder_size = size - nb;
3550         unlink(victim, bck, fwd);
3551
3552         /* Exhaust */
3553         if (remainder_size < MINSIZE)  {
3554           set_inuse_bit_at_offset(victim, size);
3555           if (av != &main_arena)
3556             victim->size |= NON_MAIN_ARENA;
3557         }
3558         /* Split */
3559         else {
3560           remainder = chunk_at_offset(victim, nb);
3561           /* We cannot assume the unsorted list is empty and therefore
3562              have to perform a complete insert here.  */
3563           bck = unsorted_chunks(av);
3564           fwd = bck->fd;
3565           if (__builtin_expect (fwd->bk != bck, 0))
3566             {
3567               errstr = "malloc(): corrupted unsorted chunks";
3568               goto errout;
3569             }
3570           remainder->bk = bck;
3571           remainder->fd = fwd;
3572           bck->fd = remainder;
3573           fwd->bk = remainder;
3574           if (!in_smallbin_range(remainder_size))
3575             {
3576               remainder->fd_nextsize = NULL;
3577               remainder->bk_nextsize = NULL;
3578             }
3579           set_head(victim, nb | PREV_INUSE |
3580                    (av != &main_arena ? NON_MAIN_ARENA : 0));
3581           set_head(remainder, remainder_size | PREV_INUSE);
3582           set_foot(remainder, remainder_size);
3583         }
3584         check_malloced_chunk(av, victim, nb);
3585         void *p = chunk2mem(victim);
3586         if (__builtin_expect (perturb_byte, 0))
3587           alloc_perturb (p, bytes);
3588         return p;
3589       }
3590     }
3591
3592     /*
3593       Search for a chunk by scanning bins, starting with next largest
3594       bin. This search is strictly by best-fit; i.e., the smallest
3595       (with ties going to approximately the least recently used) chunk
3596       that fits is selected.
3597
3598       The bitmap avoids needing to check that most blocks are nonempty.
3599       The particular case of skipping all bins during warm-up phases
3600       when no chunks have been returned yet is faster than it might look.
3601     */
3602
3603     ++idx;
3604     bin = bin_at(av,idx);
3605     block = idx2block(idx);
3606     map = av->binmap[block];
3607     bit = idx2bit(idx);
3608
3609     for (;;) {
3610
3611       /* Skip rest of block if there are no more set bits in this block.  */
3612       if (bit > map || bit == 0) {
3613         do {
3614           if (++block >= BINMAPSIZE)  /* out of bins */
3615             goto use_top;
3616         } while ( (map = av->binmap[block]) == 0);
3617
3618         bin = bin_at(av, (block << BINMAPSHIFT));
3619         bit = 1;
3620       }
3621
3622       /* Advance to bin with set bit. There must be one. */
3623       while ((bit & map) == 0) {
3624         bin = next_bin(bin);
3625         bit <<= 1;
3626         assert(bit != 0);
3627       }
3628
3629       /* Inspect the bin. It is likely to be non-empty */
3630       victim = last(bin);
3631
3632       /*  If a false alarm (empty bin), clear the bit. */
3633       if (victim == bin) {
3634         av->binmap[block] = map &= ~bit; /* Write through */
3635         bin = next_bin(bin);
3636         bit <<= 1;
3637       }
3638
3639       else {
3640         size = chunksize(victim);
3641
3642         /*  We know the first chunk in this bin is big enough to use. */
3643         assert((unsigned long)(size) >= (unsigned long)(nb));
3644
3645         remainder_size = size - nb;
3646
3647         /* unlink */
3648         unlink(victim, bck, fwd);
3649
3650         /* Exhaust */
3651         if (remainder_size < MINSIZE) {
3652           set_inuse_bit_at_offset(victim, size);
3653           if (av != &main_arena)
3654             victim->size |= NON_MAIN_ARENA;
3655         }
3656
3657         /* Split */
3658         else {
3659           remainder = chunk_at_offset(victim, nb);
3660
3661           /* We cannot assume the unsorted list is empty and therefore
3662              have to perform a complete insert here.  */
3663           bck = unsorted_chunks(av);
3664           fwd = bck->fd;
3665           if (__builtin_expect (fwd->bk != bck, 0))
3666             {
3667               errstr = "malloc(): corrupted unsorted chunks 2";
3668               goto errout;
3669             }
3670           remainder->bk = bck;
3671           remainder->fd = fwd;
3672           bck->fd = remainder;
3673           fwd->bk = remainder;
3674
3675           /* advertise as last remainder */
3676           if (in_smallbin_range(nb))
3677             av->last_remainder = remainder;
3678           if (!in_smallbin_range(remainder_size))
3679             {
3680               remainder->fd_nextsize = NULL;
3681               remainder->bk_nextsize = NULL;
3682             }
3683           set_head(victim, nb | PREV_INUSE |
3684                    (av != &main_arena ? NON_MAIN_ARENA : 0));
3685           set_head(remainder, remainder_size | PREV_INUSE);
3686           set_foot(remainder, remainder_size);
3687         }
3688         check_malloced_chunk(av, victim, nb);
3689         void *p = chunk2mem(victim);
3690         if (__builtin_expect (perturb_byte, 0))
3691           alloc_perturb (p, bytes);
3692         return p;
3693       }
3694     }
3695
3696   use_top:
3697     /*
3698       If large enough, split off the chunk bordering the end of memory
3699       (held in av->top). Note that this is in accord with the best-fit
3700       search rule.  In effect, av->top is treated as larger (and thus
3701       less well fitting) than any other available chunk since it can
3702       be extended to be as large as necessary (up to system
3703       limitations).
3704
3705       We require that av->top always exists (i.e., has size >=
3706       MINSIZE) after initialization, so if it would otherwise be
3707       exhausted by current request, it is replenished. (The main
3708       reason for ensuring it exists is that we may need MINSIZE space
3709       to put in fenceposts in sysmalloc.)
3710     */
3711
3712     victim = av->top;
3713     size = chunksize(victim);
3714
3715     if ((unsigned long)(size) >= (unsigned long)(nb + MINSIZE)) {
3716       remainder_size = size - nb;
3717       remainder = chunk_at_offset(victim, nb);
3718       av->top = remainder;
3719       set_head(victim, nb | PREV_INUSE |
3720                (av != &main_arena ? NON_MAIN_ARENA : 0));
3721       set_head(remainder, remainder_size | PREV_INUSE);
3722
3723       check_malloced_chunk(av, victim, nb);
3724       void *p = chunk2mem(victim);
3725       if (__builtin_expect (perturb_byte, 0))
3726         alloc_perturb (p, bytes);
3727       return p;
3728     }
3729
3730     /* When we are using atomic ops to free fast chunks we can get
3731        here for all block sizes.  */
3732     else if (have_fastchunks(av)) {
3733       malloc_consolidate(av);
3734       /* restore original bin index */
3735       if (in_smallbin_range(nb))
3736         idx = smallbin_index(nb);
3737       else
3738         idx = largebin_index(nb);
3739     }
3740
3741     /*
3742        Otherwise, relay to handle system-dependent cases
3743     */
3744     else {
3745       void *p = sysmalloc(nb, av);
3746       if (p != NULL && __builtin_expect (perturb_byte, 0))
3747         alloc_perturb (p, bytes);
3748       return p;
3749     }
3750   }
3751 }
3752
3753 /*
3754   ------------------------------ free ------------------------------
3755 */
3756
3757 static void
3758 _int_free(mstate av, mchunkptr p, int have_lock)
3759 {
3760   INTERNAL_SIZE_T size;        /* its size */
3761   mfastbinptr*    fb;          /* associated fastbin */
3762   mchunkptr       nextchunk;   /* next contiguous chunk */
3763   INTERNAL_SIZE_T nextsize;    /* its size */
3764   int             nextinuse;   /* true if nextchunk is used */
3765   INTERNAL_SIZE_T prevsize;    /* size of previous contiguous chunk */
3766   mchunkptr       bck;         /* misc temp for linking */
3767   mchunkptr       fwd;         /* misc temp for linking */
3768
3769   const char *errstr = NULL;
3770   int locked = 0;
3771
3772   size = chunksize(p);
3773
3774   /* Little security check which won't hurt performance: the
3775      allocator never wrapps around at the end of the address space.
3776      Therefore we can exclude some size values which might appear
3777      here by accident or by "design" from some intruder.  */
3778   if (__builtin_expect ((uintptr_t) p > (uintptr_t) -size, 0)
3779       || __builtin_expect (misaligned_chunk (p), 0))
3780     {
3781       errstr = "free(): invalid pointer";
3782     errout:
3783       if (! have_lock && locked)
3784         (void)mutex_unlock(&av->mutex);
3785       malloc_printerr (check_action, errstr, chunk2mem(p));
3786       return;
3787     }
3788   /* We know that each chunk is at least MINSIZE bytes in size or a
3789      multiple of MALLOC_ALIGNMENT.  */
3790   if (__builtin_expect (size < MINSIZE || !aligned_OK (size), 0))
3791     {
3792       errstr = "free(): invalid size";
3793       goto errout;
3794     }
3795
3796   check_inuse_chunk(av, p);
3797
3798   /*
3799     If eligible, place chunk on a fastbin so it can be found
3800     and used quickly in malloc.
3801   */
3802
3803   if ((unsigned long)(size) <= (unsigned long)(get_max_fast ())
3804
3805 #if TRIM_FASTBINS
3806       /*
3807         If TRIM_FASTBINS set, don't place chunks
3808         bordering top into fastbins
3809       */
3810       && (chunk_at_offset(p, size) != av->top)
3811 #endif
3812       ) {
3813
3814     if (__builtin_expect (chunk_at_offset (p, size)->size <= 2 * SIZE_SZ, 0)
3815         || __builtin_expect (chunksize (chunk_at_offset (p, size))
3816                              >= av->system_mem, 0))
3817       {
3818         /* We might not have a lock at this point and concurrent modifications
3819            of system_mem might have let to a false positive.  Redo the test
3820            after getting the lock.  */
3821         if (have_lock
3822             || ({ assert (locked == 0);
3823                   mutex_lock(&av->mutex);
3824                   locked = 1;
3825                   chunk_at_offset (p, size)->size <= 2 * SIZE_SZ
3826                     || chunksize (chunk_at_offset (p, size)) >= av->system_mem;
3827               }))
3828           {
3829             errstr = "free(): invalid next size (fast)";
3830             goto errout;
3831           }
3832         if (! have_lock)
3833           {
3834             (void)mutex_unlock(&av->mutex);
3835             locked = 0;
3836           }
3837       }
3838
3839     if (__builtin_expect (perturb_byte, 0))
3840       free_perturb (chunk2mem(p), size - 2 * SIZE_SZ);
3841
3842     set_fastchunks(av);
3843     unsigned int idx = fastbin_index(size);
3844     fb = &fastbin (av, idx);
3845
3846     mchunkptr fd;
3847     mchunkptr old = *fb;
3848     unsigned int old_idx = ~0u;
3849     do
3850       {
3851         /* Another simple check: make sure the top of the bin is not the
3852            record we are going to add (i.e., double free).  */
3853         if (__builtin_expect (old == p, 0))
3854           {
3855             errstr = "double free or corruption (fasttop)";
3856             goto errout;
3857           }
3858         if (old != NULL)
3859           old_idx = fastbin_index(chunksize(old));
3860         p->fd = fd = old;
3861       }
3862     while ((old = catomic_compare_and_exchange_val_rel (fb, p, fd)) != fd);
3863
3864     if (fd != NULL && __builtin_expect (old_idx != idx, 0))
3865       {
3866         errstr = "invalid fastbin entry (free)";
3867         goto errout;
3868       }
3869   }
3870
3871   /*
3872     Consolidate other non-mmapped chunks as they arrive.
3873   */
3874
3875   else if (!chunk_is_mmapped(p)) {
3876     if (! have_lock) {
3877 #if THREAD_STATS
3878       if(!mutex_trylock(&av->mutex))
3879         ++(av->stat_lock_direct);
3880       else {
3881         (void)mutex_lock(&av->mutex);
3882         ++(av->stat_lock_wait);
3883       }
3884 #else
3885       (void)mutex_lock(&av->mutex);
3886 #endif
3887       locked = 1;
3888     }
3889
3890     nextchunk = chunk_at_offset(p, size);
3891
3892     /* Lightweight tests: check whether the block is already the
3893        top block.  */
3894     if (__builtin_expect (p == av->top, 0))
3895       {
3896         errstr = "double free or corruption (top)";
3897         goto errout;
3898       }
3899     /* Or whether the next chunk is beyond the boundaries of the arena.  */
3900     if (__builtin_expect (contiguous (av)
3901                           && (char *) nextchunk
3902                           >= ((char *) av->top + chunksize(av->top)), 0))
3903       {
3904         errstr = "double free or corruption (out)";
3905         goto errout;
3906       }
3907     /* Or whether the block is actually not marked used.  */
3908     if (__builtin_expect (!prev_inuse(nextchunk), 0))
3909       {
3910         errstr = "double free or corruption (!prev)";
3911         goto errout;
3912       }
3913
3914     nextsize = chunksize(nextchunk);
3915     if (__builtin_expect (nextchunk->size <= 2 * SIZE_SZ, 0)
3916         || __builtin_expect (nextsize >= av->system_mem, 0))
3917       {
3918         errstr = "free(): invalid next size (normal)";
3919         goto errout;
3920       }
3921
3922     if (__builtin_expect (perturb_byte, 0))
3923       free_perturb (chunk2mem(p), size - 2 * SIZE_SZ);
3924
3925     /* consolidate backward */
3926     if (!prev_inuse(p)) {
3927       prevsize = p->prev_size;
3928       size += prevsize;
3929       p = chunk_at_offset(p, -((long) prevsize));
3930       unlink(p, bck, fwd);
3931     }
3932
3933     if (nextchunk != av->top) {
3934       /* get and clear inuse bit */
3935       nextinuse = inuse_bit_at_offset(nextchunk, nextsize);
3936
3937       /* consolidate forward */
3938       if (!nextinuse) {
3939         unlink(nextchunk, bck, fwd);
3940         size += nextsize;
3941       } else
3942         clear_inuse_bit_at_offset(nextchunk, 0);
3943
3944       /*
3945         Place the chunk in unsorted chunk list. Chunks are
3946         not placed into regular bins until after they have
3947         been given one chance to be used in malloc.
3948       */
3949
3950       bck = unsorted_chunks(av);
3951       fwd = bck->fd;
3952       if (__builtin_expect (fwd->bk != bck, 0))
3953         {
3954           errstr = "free(): corrupted unsorted chunks";
3955           goto errout;
3956         }
3957       p->fd = fwd;
3958       p->bk = bck;
3959       if (!in_smallbin_range(size))
3960         {
3961           p->fd_nextsize = NULL;
3962           p->bk_nextsize = NULL;
3963         }
3964       bck->fd = p;
3965       fwd->bk = p;
3966
3967       set_head(p, size | PREV_INUSE);
3968       set_foot(p, size);
3969
3970       check_free_chunk(av, p);
3971     }
3972
3973     /*
3974       If the chunk borders the current high end of memory,
3975       consolidate into top
3976     */
3977
3978     else {
3979       size += nextsize;
3980       set_head(p, size | PREV_INUSE);
3981       av->top = p;
3982       check_chunk(av, p);
3983     }
3984
3985     /*
3986       If freeing a large space, consolidate possibly-surrounding
3987       chunks. Then, if the total unused topmost memory exceeds trim
3988       threshold, ask malloc_trim to reduce top.
3989
3990       Unless max_fast is 0, we don't know if there are fastbins
3991       bordering top, so we cannot tell for sure whether threshold
3992       has been reached unless fastbins are consolidated.  But we
3993       don't want to consolidate on each free.  As a compromise,
3994       consolidation is performed if FASTBIN_CONSOLIDATION_THRESHOLD
3995       is reached.
3996     */
3997
3998     if ((unsigned long)(size) >= FASTBIN_CONSOLIDATION_THRESHOLD) {
3999       if (have_fastchunks(av))
4000         malloc_consolidate(av);
4001
4002       if (av == &main_arena) {
4003 #ifndef MORECORE_CANNOT_TRIM
4004         if ((unsigned long)(chunksize(av->top)) >=
4005             (unsigned long)(mp_.trim_threshold))
4006           systrim(mp_.top_pad, av);
4007 #endif
4008       } else {
4009         /* Always try heap_trim(), even if the top chunk is not
4010            large, because the corresponding heap might go away.  */
4011         heap_info *heap = heap_for_ptr(top(av));
4012
4013         assert(heap->ar_ptr == av);
4014         heap_trim(heap, mp_.top_pad);
4015       }
4016     }
4017
4018     if (! have_lock) {
4019       assert (locked);
4020       (void)mutex_unlock(&av->mutex);
4021     }
4022   }
4023   /*
4024     If the chunk was allocated via mmap, release via munmap().
4025   */
4026
4027   else {
4028     munmap_chunk (p);
4029   }
4030 }
4031
4032 /*
4033   ------------------------- malloc_consolidate -------------------------
4034
4035   malloc_consolidate is a specialized version of free() that tears
4036   down chunks held in fastbins.  Free itself cannot be used for this
4037   purpose since, among other things, it might place chunks back onto
4038   fastbins.  So, instead, we need to use a minor variant of the same
4039   code.
4040
4041   Also, because this routine needs to be called the first time through
4042   malloc anyway, it turns out to be the perfect place to trigger
4043   initialization code.
4044 */
4045
4046 static void malloc_consolidate(mstate av)
4047 {
4048   mfastbinptr*    fb;                 /* current fastbin being consolidated */
4049   mfastbinptr*    maxfb;              /* last fastbin (for loop control) */
4050   mchunkptr       p;                  /* current chunk being consolidated */
4051   mchunkptr       nextp;              /* next chunk to consolidate */
4052   mchunkptr       unsorted_bin;       /* bin header */
4053   mchunkptr       first_unsorted;     /* chunk to link to */
4054
4055   /* These have same use as in free() */
4056   mchunkptr       nextchunk;
4057   INTERNAL_SIZE_T size;
4058   INTERNAL_SIZE_T nextsize;
4059   INTERNAL_SIZE_T prevsize;
4060   int             nextinuse;
4061   mchunkptr       bck;
4062   mchunkptr       fwd;
4063
4064   /*
4065     If max_fast is 0, we know that av hasn't
4066     yet been initialized, in which case do so below
4067   */
4068
4069   if (get_max_fast () != 0) {
4070     clear_fastchunks(av);
4071
4072     unsorted_bin = unsorted_chunks(av);
4073
4074     /*
4075       Remove each chunk from fast bin and consolidate it, placing it
4076       then in unsorted bin. Among other reasons for doing this,
4077       placing in unsorted bin avoids needing to calculate actual bins
4078       until malloc is sure that chunks aren't immediately going to be
4079       reused anyway.
4080     */
4081
4082     maxfb = &fastbin (av, NFASTBINS - 1);
4083     fb = &fastbin (av, 0);
4084     do {
4085       p = atomic_exchange_acq (fb, 0);
4086       if (p != 0) {
4087         do {
4088           check_inuse_chunk(av, p);
4089           nextp = p->fd;
4090
4091           /* Slightly streamlined version of consolidation code in free() */
4092           size = p->size & ~(PREV_INUSE|NON_MAIN_ARENA);
4093           nextchunk = chunk_at_offset(p, size);
4094           nextsize = chunksize(nextchunk);
4095
4096           if (!prev_inuse(p)) {
4097             prevsize = p->prev_size;
4098             size += prevsize;
4099             p = chunk_at_offset(p, -((long) prevsize));
4100             unlink(p, bck, fwd);
4101           }
4102
4103           if (nextchunk != av->top) {
4104             nextinuse = inuse_bit_at_offset(nextchunk, nextsize);
4105
4106             if (!nextinuse) {
4107               size += nextsize;
4108               unlink(nextchunk, bck, fwd);
4109             } else
4110               clear_inuse_bit_at_offset(nextchunk, 0);
4111
4112             first_unsorted = unsorted_bin->fd;
4113             unsorted_bin->fd = p;
4114             first_unsorted->bk = p;
4115
4116             if (!in_smallbin_range (size)) {
4117               p->fd_nextsize = NULL;
4118               p->bk_nextsize = NULL;
4119             }
4120
4121             set_head(p, size | PREV_INUSE);
4122             p->bk = unsorted_bin;
4123             p->fd = first_unsorted;
4124             set_foot(p, size);
4125           }
4126
4127           else {
4128             size += nextsize;
4129             set_head(p, size | PREV_INUSE);
4130             av->top = p;
4131           }
4132
4133         } while ( (p = nextp) != 0);
4134
4135       }
4136     } while (fb++ != maxfb);
4137   }
4138   else {
4139     malloc_init_state(av);
4140     check_malloc_state(av);
4141   }
4142 }
4143
4144 /*
4145   ------------------------------ realloc ------------------------------
4146 */
4147
4148 void*
4149 _int_realloc(mstate av, mchunkptr oldp, INTERNAL_SIZE_T oldsize,
4150              INTERNAL_SIZE_T nb)
4151 {
4152   mchunkptr        newp;            /* chunk to return */
4153   INTERNAL_SIZE_T  newsize;         /* its size */
4154   void*          newmem;          /* corresponding user mem */
4155
4156   mchunkptr        next;            /* next contiguous chunk after oldp */
4157
4158   mchunkptr        remainder;       /* extra space at end of newp */
4159   unsigned long    remainder_size;  /* its size */
4160
4161   mchunkptr        bck;             /* misc temp for linking */
4162   mchunkptr        fwd;             /* misc temp for linking */
4163
4164   unsigned long    copysize;        /* bytes to copy */
4165   unsigned int     ncopies;         /* INTERNAL_SIZE_T words to copy */
4166   INTERNAL_SIZE_T* s;               /* copy source */
4167   INTERNAL_SIZE_T* d;               /* copy destination */
4168
4169   const char *errstr = NULL;
4170
4171   /* oldmem size */
4172   if (__builtin_expect (oldp->size <= 2 * SIZE_SZ, 0)
4173       || __builtin_expect (oldsize >= av->system_mem, 0))
4174     {
4175       errstr = "realloc(): invalid old size";
4176     errout:
4177       malloc_printerr (check_action, errstr, chunk2mem(oldp));
4178       return NULL;
4179     }
4180
4181   check_inuse_chunk(av, oldp);
4182
4183   /* All callers already filter out mmap'ed chunks.  */
4184   assert (!chunk_is_mmapped(oldp));
4185
4186   next = chunk_at_offset(oldp, oldsize);
4187   INTERNAL_SIZE_T nextsize = chunksize(next);
4188   if (__builtin_expect (next->size <= 2 * SIZE_SZ, 0)
4189       || __builtin_expect (nextsize >= av->system_mem, 0))
4190     {
4191       errstr = "realloc(): invalid next size";
4192       goto errout;
4193     }
4194
4195   if ((unsigned long)(oldsize) >= (unsigned long)(nb)) {
4196     /* already big enough; split below */
4197     newp = oldp;
4198     newsize = oldsize;
4199   }
4200
4201   else {
4202     /* Try to expand forward into top */
4203     if (next == av->top &&
4204         (unsigned long)(newsize = oldsize + nextsize) >=
4205         (unsigned long)(nb + MINSIZE)) {
4206       set_head_size(oldp, nb | (av != &main_arena ? NON_MAIN_ARENA : 0));
4207       av->top = chunk_at_offset(oldp, nb);
4208       set_head(av->top, (newsize - nb) | PREV_INUSE);
4209       check_inuse_chunk(av, oldp);
4210       return chunk2mem(oldp);
4211     }
4212
4213     /* Try to expand forward into next chunk;  split off remainder below */
4214     else if (next != av->top &&
4215              !inuse(next) &&
4216              (unsigned long)(newsize = oldsize + nextsize) >=
4217              (unsigned long)(nb)) {
4218       newp = oldp;
4219       unlink(next, bck, fwd);
4220     }
4221
4222     /* allocate, copy, free */
4223     else {
4224       newmem = _int_malloc(av, nb - MALLOC_ALIGN_MASK);
4225       if (newmem == 0)
4226         return 0; /* propagate failure */
4227
4228       newp = mem2chunk(newmem);
4229       newsize = chunksize(newp);
4230
4231       /*
4232         Avoid copy if newp is next chunk after oldp.
4233       */
4234       if (newp == next) {
4235         newsize += oldsize;
4236         newp = oldp;
4237       }
4238       else {
4239         /*
4240           Unroll copy of <= 36 bytes (72 if 8byte sizes)
4241           We know that contents have an odd number of
4242           INTERNAL_SIZE_T-sized words; minimally 3.
4243         */
4244
4245         copysize = oldsize - SIZE_SZ;
4246         s = (INTERNAL_SIZE_T*)(chunk2mem(oldp));
4247         d = (INTERNAL_SIZE_T*)(newmem);
4248         ncopies = copysize / sizeof(INTERNAL_SIZE_T);
4249         assert(ncopies >= 3);
4250
4251         if (ncopies > 9)
4252           MALLOC_COPY(d, s, copysize);
4253
4254         else {
4255           *(d+0) = *(s+0);
4256           *(d+1) = *(s+1);
4257           *(d+2) = *(s+2);
4258           if (ncopies > 4) {
4259             *(d+3) = *(s+3);
4260             *(d+4) = *(s+4);
4261             if (ncopies > 6) {
4262               *(d+5) = *(s+5);
4263               *(d+6) = *(s+6);
4264               if (ncopies > 8) {
4265                 *(d+7) = *(s+7);
4266                 *(d+8) = *(s+8);
4267               }
4268             }
4269           }
4270         }
4271
4272         _int_free(av, oldp, 1);
4273         check_inuse_chunk(av, newp);
4274         return chunk2mem(newp);
4275       }
4276     }
4277   }
4278
4279   /* If possible, free extra space in old or extended chunk */
4280
4281   assert((unsigned long)(newsize) >= (unsigned long)(nb));
4282
4283   remainder_size = newsize - nb;
4284
4285   if (remainder_size < MINSIZE) { /* not enough extra to split off */
4286     set_head_size(newp, newsize | (av != &main_arena ? NON_MAIN_ARENA : 0));
4287     set_inuse_bit_at_offset(newp, newsize);
4288   }
4289   else { /* split remainder */
4290     remainder = chunk_at_offset(newp, nb);
4291     set_head_size(newp, nb | (av != &main_arena ? NON_MAIN_ARENA : 0));
4292     set_head(remainder, remainder_size | PREV_INUSE |
4293              (av != &main_arena ? NON_MAIN_ARENA : 0));
4294     /* Mark remainder as inuse so free() won't complain */
4295     set_inuse_bit_at_offset(remainder, remainder_size);
4296     _int_free(av, remainder, 1);
4297   }
4298
4299   check_inuse_chunk(av, newp);
4300   return chunk2mem(newp);
4301 }
4302
4303 /*
4304   ------------------------------ memalign ------------------------------
4305 */
4306
4307 static void*
4308 _int_memalign(mstate av, size_t alignment, size_t bytes)
4309 {
4310   INTERNAL_SIZE_T nb;             /* padded  request size */
4311   char*           m;              /* memory returned by malloc call */
4312   mchunkptr       p;              /* corresponding chunk */
4313   char*           brk;            /* alignment point within p */
4314   mchunkptr       newp;           /* chunk to return */
4315   INTERNAL_SIZE_T newsize;        /* its size */
4316   INTERNAL_SIZE_T leadsize;       /* leading space before alignment point */
4317   mchunkptr       remainder;      /* spare room at end to split off */
4318   unsigned long   remainder_size; /* its size */
4319   INTERNAL_SIZE_T size;
4320
4321   /* If need less alignment than we give anyway, just relay to malloc */
4322
4323   if (alignment <= MALLOC_ALIGNMENT) return _int_malloc(av, bytes);
4324
4325   /* Otherwise, ensure that it is at least a minimum chunk size */
4326
4327   if (alignment <  MINSIZE) alignment = MINSIZE;
4328
4329   /* Make sure alignment is power of 2 (in case MINSIZE is not).  */
4330   if ((alignment & (alignment - 1)) != 0) {
4331     size_t a = MALLOC_ALIGNMENT * 2;
4332     while ((unsigned long)a < (unsigned long)alignment) a <<= 1;
4333     alignment = a;
4334   }
4335
4336   checked_request2size(bytes, nb);
4337
4338   /*
4339     Strategy: find a spot within that chunk that meets the alignment
4340     request, and then possibly free the leading and trailing space.
4341   */
4342
4343
4344   /* Call malloc with worst case padding to hit alignment. */
4345
4346   m  = (char*)(_int_malloc(av, nb + alignment + MINSIZE));
4347
4348   if (m == 0) return 0; /* propagate failure */
4349
4350   p = mem2chunk(m);
4351
4352   if ((((unsigned long)(m)) % alignment) != 0) { /* misaligned */
4353
4354     /*
4355       Find an aligned spot inside chunk.  Since we need to give back
4356       leading space in a chunk of at least MINSIZE, if the first
4357       calculation places us at a spot with less than MINSIZE leader,
4358       we can move to the next aligned spot -- we've allocated enough
4359       total room so that this is always possible.
4360     */
4361
4362     brk = (char*)mem2chunk(((unsigned long)(m + alignment - 1)) &
4363                            -((signed long) alignment));
4364     if ((unsigned long)(brk - (char*)(p)) < MINSIZE)
4365       brk += alignment;
4366
4367     newp = (mchunkptr)brk;
4368     leadsize = brk - (char*)(p);
4369     newsize = chunksize(p) - leadsize;
4370
4371     /* For mmapped chunks, just adjust offset */
4372     if (chunk_is_mmapped(p)) {
4373       newp->prev_size = p->prev_size + leadsize;
4374       set_head(newp, newsize|IS_MMAPPED);
4375       return chunk2mem(newp);
4376     }
4377
4378     /* Otherwise, give back leader, use the rest */
4379     set_head(newp, newsize | PREV_INUSE |
4380              (av != &main_arena ? NON_MAIN_ARENA : 0));
4381     set_inuse_bit_at_offset(newp, newsize);
4382     set_head_size(p, leadsize | (av != &main_arena ? NON_MAIN_ARENA : 0));
4383     _int_free(av, p, 1);
4384     p = newp;
4385
4386     assert (newsize >= nb &&
4387             (((unsigned long)(chunk2mem(p))) % alignment) == 0);
4388   }
4389
4390   /* Also give back spare room at the end */
4391   if (!chunk_is_mmapped(p)) {
4392     size = chunksize(p);
4393     if ((unsigned long)(size) > (unsigned long)(nb + MINSIZE)) {
4394       remainder_size = size - nb;
4395       remainder = chunk_at_offset(p, nb);
4396       set_head(remainder, remainder_size | PREV_INUSE |
4397                (av != &main_arena ? NON_MAIN_ARENA : 0));
4398       set_head_size(p, nb);
4399       _int_free(av, remainder, 1);
4400     }
4401   }
4402
4403   check_inuse_chunk(av, p);
4404   return chunk2mem(p);
4405 }
4406
4407
4408 /*
4409   ------------------------------ valloc ------------------------------
4410 */
4411
4412 static void*
4413 _int_valloc(mstate av, size_t bytes)
4414 {
4415   /* Ensure initialization/consolidation */
4416   if (have_fastchunks(av)) malloc_consolidate(av);
4417   return _int_memalign(av, GLRO(dl_pagesize), bytes);
4418 }
4419
4420 /*
4421   ------------------------------ pvalloc ------------------------------
4422 */
4423
4424
4425 static void*
4426 _int_pvalloc(mstate av, size_t bytes)
4427 {
4428   size_t pagesz;
4429
4430   /* Ensure initialization/consolidation */
4431   if (have_fastchunks(av)) malloc_consolidate(av);
4432   pagesz = GLRO(dl_pagesize);
4433   return _int_memalign(av, pagesz, (bytes + pagesz - 1) & ~(pagesz - 1));
4434 }
4435
4436
4437 /*
4438   ------------------------------ malloc_trim ------------------------------
4439 */
4440
4441 static int mtrim(mstate av, size_t pad)
4442 {
4443   /* Ensure initialization/consolidation */
4444   malloc_consolidate (av);
4445
4446   const size_t ps = GLRO(dl_pagesize);
4447   int psindex = bin_index (ps);
4448   const size_t psm1 = ps - 1;
4449
4450   int result = 0;
4451   for (int i = 1; i < NBINS; ++i)
4452     if (i == 1 || i >= psindex)
4453       {
4454         mbinptr bin = bin_at (av, i);
4455
4456         for (mchunkptr p = last (bin); p != bin; p = p->bk)
4457           {
4458             INTERNAL_SIZE_T size = chunksize (p);
4459
4460             if (size > psm1 + sizeof (struct malloc_chunk))
4461               {
4462                 /* See whether the chunk contains at least one unused page.  */
4463                 char *paligned_mem = (char *) (((uintptr_t) p
4464                                                 + sizeof (struct malloc_chunk)
4465                                                 + psm1) & ~psm1);
4466
4467                 assert ((char *) chunk2mem (p) + 4 * SIZE_SZ <= paligned_mem);
4468                 assert ((char *) p + size > paligned_mem);
4469
4470                 /* This is the size we could potentially free.  */
4471                 size -= paligned_mem - (char *) p;
4472
4473                 if (size > psm1)
4474                   {
4475 #ifdef MALLOC_DEBUG
4476                     /* When debugging we simulate destroying the memory
4477                        content.  */
4478                     memset (paligned_mem, 0x89, size & ~psm1);
4479 #endif
4480                     __madvise (paligned_mem, size & ~psm1, MADV_DONTNEED);
4481
4482                     result = 1;
4483                   }
4484               }
4485           }
4486       }
4487
4488 #ifndef MORECORE_CANNOT_TRIM
4489   return result | (av == &main_arena ? systrim (pad, av) : 0);
4490 #else
4491   return result;
4492 #endif
4493 }
4494
4495
4496 int
4497 __malloc_trim(size_t s)
4498 {
4499   int result = 0;
4500
4501   if(__malloc_initialized < 0)
4502     ptmalloc_init ();
4503
4504   mstate ar_ptr = &main_arena;
4505   do
4506     {
4507       (void) mutex_lock (&ar_ptr->mutex);
4508       result |= mtrim (ar_ptr, s);
4509       (void) mutex_unlock (&ar_ptr->mutex);
4510
4511       ar_ptr = ar_ptr->next;
4512     }
4513   while (ar_ptr != &main_arena);
4514
4515   return result;
4516 }
4517
4518
4519 /*
4520   ------------------------- malloc_usable_size -------------------------
4521 */
4522
4523 static size_t
4524 musable(void* mem)
4525 {
4526   mchunkptr p;
4527   if (mem != 0) {
4528     p = mem2chunk(mem);
4529
4530     if (__builtin_expect(using_malloc_checking == 1, 0))
4531       return malloc_check_get_size(p);
4532     if (chunk_is_mmapped(p))
4533       return chunksize(p) - 2*SIZE_SZ;
4534     else if (inuse(p))
4535       return chunksize(p) - SIZE_SZ;
4536   }
4537   return 0;
4538 }
4539
4540
4541 size_t
4542 __malloc_usable_size(void* m)
4543 {
4544   size_t result;
4545
4546   result = musable(m);
4547   return result;
4548 }
4549
4550 /*
4551   ------------------------------ mallinfo ------------------------------
4552   Accumulate malloc statistics for arena AV into M.
4553 */
4554
4555 static void
4556 int_mallinfo(mstate av, struct mallinfo *m)
4557 {
4558   size_t i;
4559   mbinptr b;
4560   mchunkptr p;
4561   INTERNAL_SIZE_T avail;
4562   INTERNAL_SIZE_T fastavail;
4563   int nblocks;
4564   int nfastblocks;
4565
4566   /* Ensure initialization */
4567   if (av->top == 0)  malloc_consolidate(av);
4568
4569   check_malloc_state(av);
4570
4571   /* Account for top */
4572   avail = chunksize(av->top);
4573   nblocks = 1;  /* top always exists */
4574
4575   /* traverse fastbins */
4576   nfastblocks = 0;
4577   fastavail = 0;
4578
4579   for (i = 0; i < NFASTBINS; ++i) {
4580     for (p = fastbin (av, i); p != 0; p = p->fd) {
4581       ++nfastblocks;
4582       fastavail += chunksize(p);
4583     }
4584   }
4585
4586   avail += fastavail;
4587
4588   /* traverse regular bins */
4589   for (i = 1; i < NBINS; ++i) {
4590     b = bin_at(av, i);
4591     for (p = last(b); p != b; p = p->bk) {
4592       ++nblocks;
4593       avail += chunksize(p);
4594     }
4595   }
4596
4597   m->smblks += nfastblocks;
4598   m->ordblks += nblocks;
4599   m->fordblks += avail;
4600   m->uordblks += av->system_mem - avail;
4601   m->arena += av->system_mem;
4602   m->fsmblks += fastavail;
4603   if (av == &main_arena)
4604     {
4605       m->hblks = mp_.n_mmaps;
4606       m->hblkhd = mp_.mmapped_mem;
4607       m->usmblks = mp_.max_total_mem;
4608       m->keepcost = chunksize(av->top);
4609     }
4610 }
4611
4612
4613 struct mallinfo __libc_mallinfo()
4614 {
4615   struct mallinfo m;
4616   mstate ar_ptr;
4617
4618   if(__malloc_initialized < 0)
4619     ptmalloc_init ();
4620
4621   memset(&m, 0, sizeof (m));
4622   ar_ptr = &main_arena;
4623   do {
4624     (void)mutex_lock(&ar_ptr->mutex);
4625     int_mallinfo(ar_ptr, &m);
4626     (void)mutex_unlock(&ar_ptr->mutex);
4627
4628     ar_ptr = ar_ptr->next;
4629   } while (ar_ptr != &main_arena);
4630
4631   return m;
4632 }
4633
4634 /*
4635   ------------------------------ malloc_stats ------------------------------
4636 */
4637
4638 void
4639 __malloc_stats (void)
4640 {
4641   int i;
4642   mstate ar_ptr;
4643   unsigned int in_use_b = mp_.mmapped_mem, system_b = in_use_b;
4644 #if THREAD_STATS
4645   long stat_lock_direct = 0, stat_lock_loop = 0, stat_lock_wait = 0;
4646 #endif
4647
4648   if(__malloc_initialized < 0)
4649     ptmalloc_init ();
4650   _IO_flockfile (stderr);
4651   int old_flags2 = ((_IO_FILE *) stderr)->_flags2;
4652   ((_IO_FILE *) stderr)->_flags2 |= _IO_FLAGS2_NOTCANCEL;
4653   for (i=0, ar_ptr = &main_arena;; i++) {
4654     struct mallinfo mi;
4655
4656     memset(&mi, 0, sizeof(mi));
4657     (void)mutex_lock(&ar_ptr->mutex);
4658     int_mallinfo(ar_ptr, &mi);
4659     fprintf(stderr, "Arena %d:\n", i);
4660     fprintf(stderr, "system bytes     = %10u\n", (unsigned int)mi.arena);
4661     fprintf(stderr, "in use bytes     = %10u\n", (unsigned int)mi.uordblks);
4662 #if MALLOC_DEBUG > 1
4663     if (i > 0)
4664       dump_heap(heap_for_ptr(top(ar_ptr)));
4665 #endif
4666     system_b += mi.arena;
4667     in_use_b += mi.uordblks;
4668 #if THREAD_STATS
4669     stat_lock_direct += ar_ptr->stat_lock_direct;
4670     stat_lock_loop += ar_ptr->stat_lock_loop;
4671     stat_lock_wait += ar_ptr->stat_lock_wait;
4672 #endif
4673     (void)mutex_unlock(&ar_ptr->mutex);
4674     ar_ptr = ar_ptr->next;
4675     if(ar_ptr == &main_arena) break;
4676   }
4677   fprintf(stderr, "Total (incl. mmap):\n");
4678   fprintf(stderr, "system bytes     = %10u\n", system_b);
4679   fprintf(stderr, "in use bytes     = %10u\n", in_use_b);
4680   fprintf(stderr, "max mmap regions = %10u\n", (unsigned int)mp_.max_n_mmaps);
4681   fprintf(stderr, "max mmap bytes   = %10lu\n",
4682           (unsigned long)mp_.max_mmapped_mem);
4683 #if THREAD_STATS
4684   fprintf(stderr, "heaps created    = %10d\n",  stat_n_heaps);
4685   fprintf(stderr, "locked directly  = %10ld\n", stat_lock_direct);
4686   fprintf(stderr, "locked in loop   = %10ld\n", stat_lock_loop);
4687   fprintf(stderr, "locked waiting   = %10ld\n", stat_lock_wait);
4688   fprintf(stderr, "locked total     = %10ld\n",
4689           stat_lock_direct + stat_lock_loop + stat_lock_wait);
4690 #endif
4691   ((_IO_FILE *) stderr)->_flags2 |= old_flags2;
4692   _IO_funlockfile (stderr);
4693 }
4694
4695
4696 /*
4697   ------------------------------ mallopt ------------------------------
4698 */
4699
4700 int __libc_mallopt(int param_number, int value)
4701 {
4702   mstate av = &main_arena;
4703   int res = 1;
4704
4705   if(__malloc_initialized < 0)
4706     ptmalloc_init ();
4707   (void)mutex_lock(&av->mutex);
4708   /* Ensure initialization/consolidation */
4709   malloc_consolidate(av);
4710
4711   LIBC_PROBE (memory_mallopt, 2, param_number, value);
4712
4713   switch(param_number) {
4714   case M_MXFAST:
4715     if (value >= 0 && value <= MAX_FAST_SIZE)
4716       {
4717         LIBC_PROBE (memory_mallopt_mxfast, 2, value, get_max_fast ());
4718         set_max_fast(value);
4719       }
4720     else
4721       res = 0;
4722     break;
4723
4724   case M_TRIM_THRESHOLD:
4725     LIBC_PROBE (memory_mallopt_trim_threshold, 3, value,
4726                 mp_.trim_threshold, mp_.no_dyn_threshold);
4727     mp_.trim_threshold = value;
4728     mp_.no_dyn_threshold = 1;
4729     break;
4730
4731   case M_TOP_PAD:
4732     LIBC_PROBE (memory_mallopt_top_pad, 3, value,
4733                 mp_.top_pad, mp_.no_dyn_threshold);
4734     mp_.top_pad = value;
4735     mp_.no_dyn_threshold = 1;
4736     break;
4737
4738   case M_MMAP_THRESHOLD:
4739     /* Forbid setting the threshold too high. */
4740     if((unsigned long)value > HEAP_MAX_SIZE/2)
4741       res = 0;
4742     else
4743       {
4744         LIBC_PROBE (memory_mallopt_mmap_threshold, 3, value,
4745                     mp_.mmap_threshold, mp_.no_dyn_threshold);
4746         mp_.mmap_threshold = value;
4747         mp_.no_dyn_threshold = 1;
4748       }
4749     break;
4750
4751   case M_MMAP_MAX:
4752     LIBC_PROBE (memory_mallopt_mmap_max, 3, value,
4753                 mp_.n_mmaps_max, mp_.no_dyn_threshold);
4754     mp_.n_mmaps_max = value;
4755     mp_.no_dyn_threshold = 1;
4756     break;
4757
4758   case M_CHECK_ACTION:
4759     LIBC_PROBE (memory_mallopt_check_action, 2, value, check_action);
4760     check_action = value;
4761     break;
4762
4763   case M_PERTURB:
4764     LIBC_PROBE (memory_mallopt_perturb, 2, value, perturb_byte);
4765     perturb_byte = value;
4766     break;
4767
4768 #ifdef PER_THREAD
4769   case M_ARENA_TEST:
4770     if (value > 0)
4771       {
4772         LIBC_PROBE (memory_mallopt_arena_test, 2, value, mp_.arena_test);
4773         mp_.arena_test = value;
4774       }
4775     break;
4776
4777   case M_ARENA_MAX:
4778     if (value > 0)
4779       {
4780         LIBC_PROBE (memory_mallopt_arena_max, 2, value, mp_.arena_max);
4781         mp_.arena_max = value;
4782       }
4783     break;
4784 #endif
4785   }
4786   (void)mutex_unlock(&av->mutex);
4787   return res;
4788 }
4789 libc_hidden_def (__libc_mallopt)
4790
4791
4792 /*
4793   -------------------- Alternative MORECORE functions --------------------
4794 */
4795
4796
4797 /*
4798   General Requirements for MORECORE.
4799
4800   The MORECORE function must have the following properties:
4801
4802   If MORECORE_CONTIGUOUS is false:
4803
4804     * MORECORE must allocate in multiples of pagesize. It will
4805       only be called with arguments that are multiples of pagesize.
4806
4807     * MORECORE(0) must return an address that is at least
4808       MALLOC_ALIGNMENT aligned. (Page-aligning always suffices.)
4809
4810   else (i.e. If MORECORE_CONTIGUOUS is true):
4811
4812     * Consecutive calls to MORECORE with positive arguments
4813       return increasing addresses, indicating that space has been
4814       contiguously extended.
4815
4816     * MORECORE need not allocate in multiples of pagesize.
4817       Calls to MORECORE need not have args of multiples of pagesize.
4818
4819     * MORECORE need not page-align.
4820
4821   In either case:
4822
4823     * MORECORE may allocate more memory than requested. (Or even less,
4824       but this will generally result in a malloc failure.)
4825
4826     * MORECORE must not allocate memory when given argument zero, but
4827       instead return one past the end address of memory from previous
4828       nonzero call. This malloc does NOT call MORECORE(0)
4829       until at least one call with positive arguments is made, so
4830       the initial value returned is not important.
4831
4832     * Even though consecutive calls to MORECORE need not return contiguous
4833       addresses, it must be OK for malloc'ed chunks to span multiple
4834       regions in those cases where they do happen to be contiguous.
4835
4836     * MORECORE need not handle negative arguments -- it may instead
4837       just return MORECORE_FAILURE when given negative arguments.
4838       Negative arguments are always multiples of pagesize. MORECORE
4839       must not misinterpret negative args as large positive unsigned
4840       args. You can suppress all such calls from even occurring by defining
4841       MORECORE_CANNOT_TRIM,
4842
4843   There is some variation across systems about the type of the
4844   argument to sbrk/MORECORE. If size_t is unsigned, then it cannot
4845   actually be size_t, because sbrk supports negative args, so it is
4846   normally the signed type of the same width as size_t (sometimes
4847   declared as "intptr_t", and sometimes "ptrdiff_t").  It doesn't much
4848   matter though. Internally, we use "long" as arguments, which should
4849   work across all reasonable possibilities.
4850
4851   Additionally, if MORECORE ever returns failure for a positive
4852   request, then mmap is used as a noncontiguous system allocator. This
4853   is a useful backup strategy for systems with holes in address spaces
4854   -- in this case sbrk cannot contiguously expand the heap, but mmap
4855   may be able to map noncontiguous space.
4856
4857   If you'd like mmap to ALWAYS be used, you can define MORECORE to be
4858   a function that always returns MORECORE_FAILURE.
4859
4860   If you are using this malloc with something other than sbrk (or its
4861   emulation) to supply memory regions, you probably want to set
4862   MORECORE_CONTIGUOUS as false.  As an example, here is a custom
4863   allocator kindly contributed for pre-OSX macOS.  It uses virtually
4864   but not necessarily physically contiguous non-paged memory (locked
4865   in, present and won't get swapped out).  You can use it by
4866   uncommenting this section, adding some #includes, and setting up the
4867   appropriate defines above:
4868
4869       #define MORECORE osMoreCore
4870       #define MORECORE_CONTIGUOUS 0
4871
4872   There is also a shutdown routine that should somehow be called for
4873   cleanup upon program exit.
4874
4875   #define MAX_POOL_ENTRIES 100
4876   #define MINIMUM_MORECORE_SIZE  (64 * 1024)
4877   static int next_os_pool;
4878   void *our_os_pools[MAX_POOL_ENTRIES];
4879
4880   void *osMoreCore(int size)
4881   {
4882     void *ptr = 0;
4883     static void *sbrk_top = 0;
4884
4885     if (size > 0)
4886     {
4887       if (size < MINIMUM_MORECORE_SIZE)
4888          size = MINIMUM_MORECORE_SIZE;
4889       if (CurrentExecutionLevel() == kTaskLevel)
4890          ptr = PoolAllocateResident(size + RM_PAGE_SIZE, 0);
4891       if (ptr == 0)
4892       {
4893         return (void *) MORECORE_FAILURE;
4894       }
4895       // save ptrs so they can be freed during cleanup
4896       our_os_pools[next_os_pool] = ptr;
4897       next_os_pool++;
4898       ptr = (void *) ((((unsigned long) ptr) + RM_PAGE_MASK) & ~RM_PAGE_MASK);
4899       sbrk_top = (char *) ptr + size;
4900       return ptr;
4901     }
4902     else if (size < 0)
4903     {
4904       // we don't currently support shrink behavior
4905       return (void *) MORECORE_FAILURE;
4906     }
4907     else
4908     {
4909       return sbrk_top;
4910     }
4911   }
4912
4913   // cleanup any allocated memory pools
4914   // called as last thing before shutting down driver
4915
4916   void osCleanupMem(void)
4917   {
4918     void **ptr;
4919
4920     for (ptr = our_os_pools; ptr < &our_os_pools[MAX_POOL_ENTRIES]; ptr++)
4921       if (*ptr)
4922       {
4923          PoolDeallocate(*ptr);
4924          *ptr = 0;
4925       }
4926   }
4927
4928 */
4929
4930
4931 /* Helper code.  */
4932
4933 extern char **__libc_argv attribute_hidden;
4934
4935 static void
4936 malloc_printerr(int action, const char *str, void *ptr)
4937 {
4938   if ((action & 5) == 5)
4939     __libc_message (action & 2, "%s\n", str);
4940   else if (action & 1)
4941     {
4942       char buf[2 * sizeof (uintptr_t) + 1];
4943
4944       buf[sizeof (buf) - 1] = '\0';
4945       char *cp = _itoa_word ((uintptr_t) ptr, &buf[sizeof (buf) - 1], 16, 0);
4946       while (cp > buf)
4947         *--cp = '0';
4948
4949       __libc_message (action & 2, "*** Error in `%s': %s: 0x%s ***\n",
4950                       __libc_argv[0] ?: "<unknown>", str, cp);
4951     }
4952   else if (action & 2)
4953     abort ();
4954 }
4955
4956 #include <sys/param.h>
4957
4958 /* We need a wrapper function for one of the additions of POSIX.  */
4959 int
4960 __posix_memalign (void **memptr, size_t alignment, size_t size)
4961 {
4962   void *mem;
4963
4964   /* Test whether the SIZE argument is valid.  It must be a power of
4965      two multiple of sizeof (void *).  */
4966   if (alignment % sizeof (void *) != 0
4967       || !powerof2 (alignment / sizeof (void *)) != 0
4968       || alignment == 0)
4969     return EINVAL;
4970
4971   /* Call the hook here, so that caller is posix_memalign's caller
4972      and not posix_memalign itself.  */
4973   void *(*hook) (size_t, size_t, const void *) =
4974     force_reg (__memalign_hook);
4975   if (__builtin_expect (hook != NULL, 0))
4976     mem = (*hook)(alignment, size, RETURN_ADDRESS (0));
4977   else
4978     mem = __libc_memalign (alignment, size);
4979
4980   if (mem != NULL) {
4981     *memptr = mem;
4982     return 0;
4983   }
4984
4985   return ENOMEM;
4986 }
4987 weak_alias (__posix_memalign, posix_memalign)
4988
4989
4990 int
4991 malloc_info (int options, FILE *fp)
4992 {
4993   /* For now, at least.  */
4994   if (options != 0)
4995     return EINVAL;
4996
4997   int n = 0;
4998   size_t total_nblocks = 0;
4999   size_t total_nfastblocks = 0;
5000   size_t total_avail = 0;
5001   size_t total_fastavail = 0;
5002   size_t total_system = 0;
5003   size_t total_max_system = 0;
5004   size_t total_aspace = 0;
5005   size_t total_aspace_mprotect = 0;
5006
5007   void mi_arena (mstate ar_ptr)
5008   {
5009     fprintf (fp, "<heap nr=\"%d\">\n<sizes>\n", n++);
5010
5011     size_t nblocks = 0;
5012     size_t nfastblocks = 0;
5013     size_t avail = 0;
5014     size_t fastavail = 0;
5015     struct
5016     {
5017       size_t from;
5018       size_t to;
5019       size_t total;
5020       size_t count;
5021     } sizes[NFASTBINS + NBINS - 1];
5022 #define nsizes (sizeof (sizes) / sizeof (sizes[0]))
5023
5024     mutex_lock (&ar_ptr->mutex);
5025
5026     for (size_t i = 0; i < NFASTBINS; ++i)
5027       {
5028         mchunkptr p = fastbin (ar_ptr, i);
5029         if (p != NULL)
5030           {
5031             size_t nthissize = 0;
5032             size_t thissize = chunksize (p);
5033
5034             while (p != NULL)
5035               {
5036                 ++nthissize;
5037                 p = p->fd;
5038               }
5039
5040             fastavail += nthissize * thissize;
5041             nfastblocks += nthissize;
5042             sizes[i].from = thissize - (MALLOC_ALIGNMENT - 1);
5043             sizes[i].to = thissize;
5044             sizes[i].count = nthissize;
5045           }
5046         else
5047           sizes[i].from = sizes[i].to = sizes[i].count = 0;
5048
5049         sizes[i].total = sizes[i].count * sizes[i].to;
5050       }
5051
5052     mbinptr bin = bin_at (ar_ptr, 1);
5053     struct malloc_chunk *r = bin->fd;
5054     if (r != NULL)
5055       {
5056         while (r != bin)
5057           {
5058             ++sizes[NFASTBINS].count;
5059             sizes[NFASTBINS].total += r->size;
5060             sizes[NFASTBINS].from = MIN (sizes[NFASTBINS].from, r->size);
5061             sizes[NFASTBINS].to = MAX (sizes[NFASTBINS].to, r->size);
5062             r = r->fd;
5063           }
5064         nblocks += sizes[NFASTBINS].count;
5065         avail += sizes[NFASTBINS].total;
5066       }
5067
5068     for (size_t i = 2; i < NBINS; ++i)
5069       {
5070         bin = bin_at (ar_ptr, i);
5071         r = bin->fd;
5072         sizes[NFASTBINS - 1 + i].from = ~((size_t) 0);
5073         sizes[NFASTBINS - 1 + i].to = sizes[NFASTBINS - 1 + i].total
5074           = sizes[NFASTBINS - 1 + i].count = 0;
5075
5076         if (r != NULL)
5077           while (r != bin)
5078             {
5079               ++sizes[NFASTBINS - 1 + i].count;
5080               sizes[NFASTBINS - 1 + i].total += r->size;
5081               sizes[NFASTBINS - 1 + i].from
5082                 = MIN (sizes[NFASTBINS - 1 + i].from, r->size);
5083               sizes[NFASTBINS - 1 + i].to = MAX (sizes[NFASTBINS - 1 + i].to,
5084                                                  r->size);
5085
5086               r = r->fd;
5087             }
5088
5089         if (sizes[NFASTBINS - 1 + i].count == 0)
5090           sizes[NFASTBINS - 1 + i].from = 0;
5091         nblocks += sizes[NFASTBINS - 1 + i].count;
5092         avail += sizes[NFASTBINS - 1 + i].total;
5093       }
5094
5095     mutex_unlock (&ar_ptr->mutex);
5096
5097     total_nfastblocks += nfastblocks;
5098     total_fastavail += fastavail;
5099
5100     total_nblocks += nblocks;
5101     total_avail += avail;
5102
5103     for (size_t i = 0; i < nsizes; ++i)
5104       if (sizes[i].count != 0 && i != NFASTBINS)
5105         fprintf (fp, "\
5106 <size from=\"%zu\" to=\"%zu\" total=\"%zu\" count=\"%zu\"/>\n",
5107                  sizes[i].from, sizes[i].to, sizes[i].total, sizes[i].count);
5108
5109     if (sizes[NFASTBINS].count != 0)
5110       fprintf (fp, "\
5111 <unsorted from=\"%zu\" to=\"%zu\" total=\"%zu\" count=\"%zu\"/>\n",
5112                sizes[NFASTBINS].from, sizes[NFASTBINS].to,
5113                sizes[NFASTBINS].total, sizes[NFASTBINS].count);
5114
5115     total_system += ar_ptr->system_mem;
5116     total_max_system += ar_ptr->max_system_mem;
5117
5118     fprintf (fp,
5119              "</sizes>\n<total type=\"fast\" count=\"%zu\" size=\"%zu\"/>\n"
5120              "<total type=\"rest\" count=\"%zu\" size=\"%zu\"/>\n"
5121              "<system type=\"current\" size=\"%zu\"/>\n"
5122              "<system type=\"max\" size=\"%zu\"/>\n",
5123              nfastblocks, fastavail, nblocks, avail,
5124              ar_ptr->system_mem, ar_ptr->max_system_mem);
5125
5126     if (ar_ptr != &main_arena)
5127       {
5128         heap_info *heap = heap_for_ptr(top(ar_ptr));
5129         fprintf (fp,
5130                  "<aspace type=\"total\" size=\"%zu\"/>\n"
5131                  "<aspace type=\"mprotect\" size=\"%zu\"/>\n",
5132                  heap->size, heap->mprotect_size);
5133         total_aspace += heap->size;
5134         total_aspace_mprotect += heap->mprotect_size;
5135       }
5136     else
5137       {
5138         fprintf (fp,
5139                  "<aspace type=\"total\" size=\"%zu\"/>\n"
5140                  "<aspace type=\"mprotect\" size=\"%zu\"/>\n",
5141                  ar_ptr->system_mem, ar_ptr->system_mem);
5142         total_aspace += ar_ptr->system_mem;
5143         total_aspace_mprotect += ar_ptr->system_mem;
5144       }
5145
5146     fputs ("</heap>\n", fp);
5147   }
5148
5149   if(__malloc_initialized < 0)
5150     ptmalloc_init ();
5151
5152   fputs ("<malloc version=\"1\">\n", fp);
5153
5154   /* Iterate over all arenas currently in use.  */
5155   mstate ar_ptr = &main_arena;
5156   do
5157     {
5158       mi_arena (ar_ptr);
5159       ar_ptr = ar_ptr->next;
5160     }
5161   while (ar_ptr != &main_arena);
5162
5163   fprintf (fp,
5164            "<total type=\"fast\" count=\"%zu\" size=\"%zu\"/>\n"
5165            "<total type=\"rest\" count=\"%zu\" size=\"%zu\"/>\n"
5166            "<system type=\"current\" size=\"%zu\"/>\n"
5167            "<system type=\"max\" size=\"%zu\"/>\n"
5168            "<aspace type=\"total\" size=\"%zu\"/>\n"
5169            "<aspace type=\"mprotect\" size=\"%zu\"/>\n"
5170            "</malloc>\n",
5171            total_nfastblocks, total_fastavail, total_nblocks, total_avail,
5172            total_system, total_max_system,
5173            total_aspace, total_aspace_mprotect);
5174
5175   return 0;
5176 }
5177
5178
5179 strong_alias (__libc_calloc, __calloc) weak_alias (__libc_calloc, calloc)
5180 strong_alias (__libc_free, __cfree) weak_alias (__libc_free, cfree)
5181 strong_alias (__libc_free, __free) strong_alias (__libc_free, free)
5182 strong_alias (__libc_malloc, __malloc) strong_alias (__libc_malloc, malloc)
5183 strong_alias (__libc_memalign, __memalign)
5184 weak_alias (__libc_memalign, memalign)
5185 strong_alias (__libc_realloc, __realloc) strong_alias (__libc_realloc, realloc)
5186 strong_alias (__libc_valloc, __valloc) weak_alias (__libc_valloc, valloc)
5187 strong_alias (__libc_pvalloc, __pvalloc) weak_alias (__libc_pvalloc, pvalloc)
5188 strong_alias (__libc_mallinfo, __mallinfo)
5189 weak_alias (__libc_mallinfo, mallinfo)
5190 strong_alias (__libc_mallopt, __mallopt) weak_alias (__libc_mallopt, mallopt)
5191
5192 weak_alias (__malloc_stats, malloc_stats)
5193 weak_alias (__malloc_usable_size, malloc_usable_size)
5194 weak_alias (__malloc_trim, malloc_trim)
5195 weak_alias (__malloc_get_state, malloc_get_state)
5196 weak_alias (__malloc_set_state, malloc_set_state)
5197
5198
5199 /* ------------------------------------------------------------
5200 History:
5201
5202 [see ftp://g.oswego.edu/pub/misc/malloc.c for the history of dlmalloc]
5203
5204 */
5205 /*
5206  * Local variables:
5207  * c-basic-offset: 2
5208  * End:
5209  */