LCOV - code coverage report
Current view: top level - home/runner/zephyrproject/zephyr/lib/heap - heap.c (source / functions) Hit Total Coverage
Test: lcov.info Lines: 0 219 0.0 %
Date: 2024-09-16 20:15:30 Functions: 0 16 0.0 %
Legend: Lines: hit not hit | Branches: + taken - not taken # not executed Branches: 0 86 0.0 %

           Branch data     Line data    Source code
       1                 :            : /*
       2                 :            :  * Copyright (c) 2019 Intel Corporation
       3                 :            :  *
       4                 :            :  * SPDX-License-Identifier: Apache-2.0
       5                 :            :  */
       6                 :            : #include <zephyr/sys/sys_heap.h>
       7                 :            : #include <zephyr/sys/util.h>
       8                 :            : #include <zephyr/sys/heap_listener.h>
       9                 :            : #include <zephyr/kernel.h>
      10                 :            : #include <string.h>
      11                 :            : #include "heap.h"
      12                 :            : #ifdef CONFIG_MSAN
      13                 :            : #include <sanitizer/msan_interface.h>
      14                 :            : #endif
      15                 :            : 
      16                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
      17                 :            : static inline void increase_allocated_bytes(struct z_heap *h, size_t num_bytes)
      18                 :            : {
      19                 :            :         h->allocated_bytes += num_bytes;
      20                 :            :         h->max_allocated_bytes = MAX(h->max_allocated_bytes, h->allocated_bytes);
      21                 :            : }
      22                 :            : #endif
      23                 :            : 
      24                 :          0 : static void *chunk_mem(struct z_heap *h, chunkid_t c)
      25                 :            : {
      26                 :          0 :         chunk_unit_t *buf = chunk_buf(h);
      27                 :          0 :         uint8_t *ret = ((uint8_t *)&buf[c]) + chunk_header_bytes(h);
      28                 :            : 
      29                 :          0 :         CHECK(!(((uintptr_t)ret) & (big_heap(h) ? 7 : 3)));
      30                 :            : 
      31                 :          0 :         return ret;
      32                 :            : }
      33                 :            : 
      34                 :          0 : static void free_list_remove_bidx(struct z_heap *h, chunkid_t c, int bidx)
      35                 :            : {
      36                 :          0 :         struct z_heap_bucket *b = &h->buckets[bidx];
      37                 :            : 
      38                 :          0 :         CHECK(!chunk_used(h, c));
      39                 :          0 :         CHECK(b->next != 0);
      40                 :          0 :         CHECK(h->avail_buckets & BIT(bidx));
      41                 :            : 
      42         [ #  # ]:          0 :         if (next_free_chunk(h, c) == c) {
      43                 :            :                 /* this is the last chunk */
      44                 :          0 :                 h->avail_buckets &= ~BIT(bidx);
      45                 :          0 :                 b->next = 0;
      46                 :            :         } else {
      47                 :          0 :                 chunkid_t first = prev_free_chunk(h, c),
      48                 :          0 :                           second = next_free_chunk(h, c);
      49                 :            : 
      50                 :          0 :                 b->next = second;
      51                 :          0 :                 set_next_free_chunk(h, first, second);
      52                 :          0 :                 set_prev_free_chunk(h, second, first);
      53                 :            :         }
      54                 :            : 
      55                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
      56                 :            :         h->free_bytes -= chunksz_to_bytes(h, chunk_size(h, c));
      57                 :            : #endif
      58                 :          0 : }
      59                 :            : 
      60                 :          0 : static void free_list_remove(struct z_heap *h, chunkid_t c)
      61                 :            : {
      62         [ #  # ]:          0 :         if (!solo_free_header(h, c)) {
      63                 :          0 :                 int bidx = bucket_idx(h, chunk_size(h, c));
      64                 :          0 :                 free_list_remove_bidx(h, c, bidx);
      65                 :            :         }
      66                 :          0 : }
      67                 :            : 
      68                 :          0 : static void free_list_add_bidx(struct z_heap *h, chunkid_t c, int bidx)
      69                 :            : {
      70                 :          0 :         struct z_heap_bucket *b = &h->buckets[bidx];
      71                 :            : 
      72         [ #  # ]:          0 :         if (b->next == 0U) {
      73                 :          0 :                 CHECK((h->avail_buckets & BIT(bidx)) == 0);
      74                 :            : 
      75                 :            :                 /* Empty list, first item */
      76                 :          0 :                 h->avail_buckets |= BIT(bidx);
      77                 :          0 :                 b->next = c;
      78                 :          0 :                 set_prev_free_chunk(h, c, c);
      79                 :          0 :                 set_next_free_chunk(h, c, c);
      80                 :            :         } else {
      81                 :          0 :                 CHECK(h->avail_buckets & BIT(bidx));
      82                 :            : 
      83                 :            :                 /* Insert before (!) the "next" pointer */
      84                 :          0 :                 chunkid_t second = b->next;
      85                 :          0 :                 chunkid_t first = prev_free_chunk(h, second);
      86                 :            : 
      87                 :          0 :                 set_prev_free_chunk(h, c, first);
      88                 :          0 :                 set_next_free_chunk(h, c, second);
      89                 :          0 :                 set_next_free_chunk(h, first, c);
      90                 :          0 :                 set_prev_free_chunk(h, second, c);
      91                 :            :         }
      92                 :            : 
      93                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
      94                 :            :         h->free_bytes += chunksz_to_bytes(h, chunk_size(h, c));
      95                 :            : #endif
      96                 :          0 : }
      97                 :            : 
      98                 :          0 : static void free_list_add(struct z_heap *h, chunkid_t c)
      99                 :            : {
     100         [ #  # ]:          0 :         if (!solo_free_header(h, c)) {
     101                 :          0 :                 int bidx = bucket_idx(h, chunk_size(h, c));
     102                 :          0 :                 free_list_add_bidx(h, c, bidx);
     103                 :            :         }
     104                 :          0 : }
     105                 :            : 
     106                 :            : /* Splits a chunk "lc" into a left chunk and a right chunk at "rc".
     107                 :            :  * Leaves both chunks marked "free"
     108                 :            :  */
     109                 :          0 : static void split_chunks(struct z_heap *h, chunkid_t lc, chunkid_t rc)
     110                 :            : {
     111                 :          0 :         CHECK(rc > lc);
     112                 :          0 :         CHECK(rc - lc < chunk_size(h, lc));
     113                 :            : 
     114                 :          0 :         chunksz_t sz0 = chunk_size(h, lc);
     115                 :          0 :         chunksz_t lsz = rc - lc;
     116                 :          0 :         chunksz_t rsz = sz0 - lsz;
     117                 :            : 
     118                 :          0 :         set_chunk_size(h, lc, lsz);
     119                 :          0 :         set_chunk_size(h, rc, rsz);
     120                 :          0 :         set_left_chunk_size(h, rc, lsz);
     121                 :          0 :         set_left_chunk_size(h, right_chunk(h, rc), rsz);
     122                 :          0 : }
     123                 :            : 
     124                 :            : /* Does not modify free list */
     125                 :          0 : static void merge_chunks(struct z_heap *h, chunkid_t lc, chunkid_t rc)
     126                 :            : {
     127                 :          0 :         chunksz_t newsz = chunk_size(h, lc) + chunk_size(h, rc);
     128                 :            : 
     129                 :          0 :         set_chunk_size(h, lc, newsz);
     130                 :          0 :         set_left_chunk_size(h, right_chunk(h, rc), newsz);
     131                 :          0 : }
     132                 :            : 
     133                 :          0 : static void free_chunk(struct z_heap *h, chunkid_t c)
     134                 :            : {
     135                 :            :         /* Merge with free right chunk? */
     136         [ #  # ]:          0 :         if (!chunk_used(h, right_chunk(h, c))) {
     137                 :          0 :                 free_list_remove(h, right_chunk(h, c));
     138                 :          0 :                 merge_chunks(h, c, right_chunk(h, c));
     139                 :            :         }
     140                 :            : 
     141                 :            :         /* Merge with free left chunk? */
     142         [ #  # ]:          0 :         if (!chunk_used(h, left_chunk(h, c))) {
     143                 :          0 :                 free_list_remove(h, left_chunk(h, c));
     144                 :          0 :                 merge_chunks(h, left_chunk(h, c), c);
     145                 :          0 :                 c = left_chunk(h, c);
     146                 :            :         }
     147                 :            : 
     148                 :          0 :         free_list_add(h, c);
     149                 :          0 : }
     150                 :            : 
     151                 :            : /*
     152                 :            :  * Return the closest chunk ID corresponding to given memory pointer.
     153                 :            :  * Here "closest" is only meaningful in the context of sys_heap_aligned_alloc()
     154                 :            :  * where wanted alignment might not always correspond to a chunk header
     155                 :            :  * boundary.
     156                 :            :  */
     157                 :          0 : static chunkid_t mem_to_chunkid(struct z_heap *h, void *p)
     158                 :            : {
     159                 :          0 :         uint8_t *mem = p, *base = (uint8_t *)chunk_buf(h);
     160                 :          0 :         return (mem - chunk_header_bytes(h) - base) / CHUNK_UNIT;
     161                 :            : }
     162                 :            : 
     163                 :          0 : void sys_heap_free(struct sys_heap *heap, void *mem)
     164                 :            : {
     165         [ #  # ]:          0 :         if (mem == NULL) {
     166                 :            :                 return; /* ISO C free() semantics */
     167                 :            :         }
     168                 :          0 :         struct z_heap *h = heap->heap;
     169                 :          0 :         chunkid_t c = mem_to_chunkid(h, mem);
     170                 :            : 
     171                 :            :         /*
     172                 :            :          * This should catch many double-free cases.
     173                 :            :          * This is cheap enough so let's do it all the time.
     174                 :            :          */
     175         [ #  # ]:          0 :         __ASSERT(chunk_used(h, c),
     176                 :            :                  "unexpected heap state (double-free?) for memory at %p", mem);
     177                 :            : 
     178                 :            :         /*
     179                 :            :          * It is easy to catch many common memory overflow cases with
     180                 :            :          * a quick check on this and next chunk header fields that are
     181                 :            :          * immediately before and after the freed memory.
     182                 :            :          */
     183         [ #  # ]:          0 :         __ASSERT(left_chunk(h, right_chunk(h, c)) == c,
     184                 :            :                  "corrupted heap bounds (buffer overflow?) for memory at %p",
     185                 :            :                  mem);
     186                 :            : 
     187                 :          0 :         set_chunk_used(h, c, false);
     188                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
     189                 :            :         h->allocated_bytes -= chunksz_to_bytes(h, chunk_size(h, c));
     190                 :            : #endif
     191                 :            : 
     192                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     193                 :            :         heap_listener_notify_free(HEAP_ID_FROM_POINTER(heap), mem,
     194                 :            :                                   chunksz_to_bytes(h, chunk_size(h, c)));
     195                 :            : #endif
     196                 :            : 
     197                 :          0 :         free_chunk(h, c);
     198                 :            : }
     199                 :            : 
     200                 :          0 : size_t sys_heap_usable_size(struct sys_heap *heap, void *mem)
     201                 :            : {
     202                 :          0 :         struct z_heap *h = heap->heap;
     203                 :          0 :         chunkid_t c = mem_to_chunkid(h, mem);
     204                 :          0 :         size_t addr = (size_t)mem;
     205                 :          0 :         size_t chunk_base = (size_t)&chunk_buf(h)[c];
     206                 :          0 :         size_t chunk_sz = chunk_size(h, c) * CHUNK_UNIT;
     207                 :            : 
     208                 :          0 :         return chunk_sz - (addr - chunk_base);
     209                 :            : }
     210                 :            : 
     211                 :          0 : static chunkid_t alloc_chunk(struct z_heap *h, chunksz_t sz)
     212                 :            : {
     213                 :          0 :         int bi = bucket_idx(h, sz);
     214                 :          0 :         struct z_heap_bucket *b = &h->buckets[bi];
     215                 :            : 
     216                 :          0 :         CHECK(bi <= bucket_idx(h, h->end_chunk));
     217                 :            : 
     218                 :            :         /* First try a bounded count of items from the minimal bucket
     219                 :            :          * size.  These may not fit, trying (e.g.) three means that
     220                 :            :          * (assuming that chunk sizes are evenly distributed[1]) we
     221                 :            :          * have a 7/8 chance of finding a match, thus keeping the
     222                 :            :          * number of such blocks consumed by allocation higher than
     223                 :            :          * the number of smaller blocks created by fragmenting larger
     224                 :            :          * ones.
     225                 :            :          *
     226                 :            :          * [1] In practice, they are never evenly distributed, of
     227                 :            :          * course.  But even in pathological situations we still
     228                 :            :          * maintain our constant time performance and at worst see
     229                 :            :          * fragmentation waste of the order of the block allocated
     230                 :            :          * only.
     231                 :            :          */
     232         [ #  # ]:          0 :         if (b->next != 0U) {
     233                 :            :                 chunkid_t first = b->next;
     234                 :            :                 int i = CONFIG_SYS_HEAP_ALLOC_LOOPS;
     235                 :          0 :                 do {
     236                 :          0 :                         chunkid_t c = b->next;
     237         [ #  # ]:          0 :                         if (chunk_size(h, c) >= sz) {
     238                 :          0 :                                 free_list_remove_bidx(h, c, bi);
     239                 :          0 :                                 return c;
     240                 :            :                         }
     241                 :          0 :                         b->next = next_free_chunk(h, c);
     242                 :          0 :                         CHECK(b->next != 0);
     243   [ #  #  #  # ]:          0 :                 } while (--i && b->next != first);
     244                 :            :         }
     245                 :            : 
     246                 :            :         /* Otherwise pick the smallest non-empty bucket guaranteed to
     247                 :            :          * fit and use that unconditionally.
     248                 :            :          */
     249                 :          0 :         uint32_t bmask = h->avail_buckets & ~BIT_MASK(bi + 1);
     250                 :            : 
     251         [ #  # ]:          0 :         if (bmask != 0U) {
     252                 :          0 :                 int minbucket = __builtin_ctz(bmask);
     253                 :          0 :                 chunkid_t c = h->buckets[minbucket].next;
     254                 :            : 
     255                 :          0 :                 free_list_remove_bidx(h, c, minbucket);
     256                 :          0 :                 CHECK(chunk_size(h, c) >= sz);
     257                 :          0 :                 return c;
     258                 :            :         }
     259                 :            : 
     260                 :            :         return 0;
     261                 :            : }
     262                 :            : 
     263                 :          0 : void *sys_heap_alloc(struct sys_heap *heap, size_t bytes)
     264                 :            : {
     265                 :          0 :         struct z_heap *h = heap->heap;
     266                 :          0 :         void *mem;
     267                 :            : 
     268   [ #  #  #  # ]:          0 :         if ((bytes == 0U) || size_too_big(h, bytes)) {
     269                 :            :                 return NULL;
     270                 :            :         }
     271                 :            : 
     272                 :          0 :         chunksz_t chunk_sz = bytes_to_chunksz(h, bytes);
     273                 :          0 :         chunkid_t c = alloc_chunk(h, chunk_sz);
     274         [ #  # ]:          0 :         if (c == 0U) {
     275                 :            :                 return NULL;
     276                 :            :         }
     277                 :            : 
     278                 :            :         /* Split off remainder if any */
     279         [ #  # ]:          0 :         if (chunk_size(h, c) > chunk_sz) {
     280                 :          0 :                 split_chunks(h, c, c + chunk_sz);
     281                 :          0 :                 free_list_add(h, c + chunk_sz);
     282                 :            :         }
     283                 :            : 
     284                 :          0 :         set_chunk_used(h, c, true);
     285                 :            : 
     286                 :          0 :         mem = chunk_mem(h, c);
     287                 :            : 
     288                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
     289                 :            :         increase_allocated_bytes(h, chunksz_to_bytes(h, chunk_size(h, c)));
     290                 :            : #endif
     291                 :            : 
     292                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     293                 :            :         heap_listener_notify_alloc(HEAP_ID_FROM_POINTER(heap), mem,
     294                 :            :                                    chunksz_to_bytes(h, chunk_size(h, c)));
     295                 :            : #endif
     296                 :            : 
     297                 :          0 :         IF_ENABLED(CONFIG_MSAN, (__msan_allocated_memory(mem, bytes)));
     298                 :          0 :         return mem;
     299                 :            : }
     300                 :            : 
     301                 :          0 : void *sys_heap_aligned_alloc(struct sys_heap *heap, size_t align, size_t bytes)
     302                 :            : {
     303                 :          0 :         struct z_heap *h = heap->heap;
     304                 :          0 :         size_t gap, rew;
     305                 :            : 
     306                 :            :         /*
     307                 :            :          * Split align and rewind values (if any).
     308                 :            :          * We allow for one bit of rewind in addition to the alignment
     309                 :            :          * value to efficiently accommodate z_heap_aligned_alloc().
     310                 :            :          * So if e.g. align = 0x28 (32 | 8) this means we align to a 32-byte
     311                 :            :          * boundary and then rewind 8 bytes.
     312                 :            :          */
     313                 :          0 :         rew = align & -align;
     314         [ #  # ]:          0 :         if (align != rew) {
     315                 :          0 :                 align -= rew;
     316                 :          0 :                 gap = MIN(rew, chunk_header_bytes(h));
     317                 :            :         } else {
     318         [ #  # ]:          0 :                 if (align <= chunk_header_bytes(h)) {
     319                 :          0 :                         return sys_heap_alloc(heap, bytes);
     320                 :            :                 }
     321                 :            :                 rew = 0;
     322                 :            :                 gap = chunk_header_bytes(h);
     323                 :            :         }
     324         [ #  # ]:          0 :         __ASSERT((align & (align - 1)) == 0, "align must be a power of 2");
     325                 :            : 
     326   [ #  #  #  # ]:          0 :         if ((bytes == 0) || size_too_big(h, bytes)) {
     327                 :            :                 return NULL;
     328                 :            :         }
     329                 :            : 
     330                 :            :         /*
     331                 :            :          * Find a free block that is guaranteed to fit.
     332                 :            :          * We over-allocate to account for alignment and then free
     333                 :            :          * the extra allocations afterwards.
     334                 :            :          */
     335                 :          0 :         chunksz_t padded_sz = bytes_to_chunksz(h, bytes + align - gap);
     336                 :          0 :         chunkid_t c0 = alloc_chunk(h, padded_sz);
     337                 :            : 
     338         [ #  # ]:          0 :         if (c0 == 0) {
     339                 :            :                 return NULL;
     340                 :            :         }
     341                 :          0 :         uint8_t *mem = chunk_mem(h, c0);
     342                 :            : 
     343                 :            :         /* Align allocated memory */
     344                 :          0 :         mem = (uint8_t *) ROUND_UP(mem + rew, align) - rew;
     345                 :          0 :         chunk_unit_t *end = (chunk_unit_t *) ROUND_UP(mem + bytes, CHUNK_UNIT);
     346                 :            : 
     347                 :            :         /* Get corresponding chunks */
     348                 :          0 :         chunkid_t c = mem_to_chunkid(h, mem);
     349                 :          0 :         chunkid_t c_end = end - chunk_buf(h);
     350                 :          0 :         CHECK(c >= c0 && c  < c_end && c_end <= c0 + padded_sz);
     351                 :            : 
     352                 :            :         /* Split and free unused prefix */
     353         [ #  # ]:          0 :         if (c > c0) {
     354                 :          0 :                 split_chunks(h, c0, c);
     355                 :          0 :                 free_list_add(h, c0);
     356                 :            :         }
     357                 :            : 
     358                 :            :         /* Split and free unused suffix */
     359         [ #  # ]:          0 :         if (right_chunk(h, c) > c_end) {
     360                 :          0 :                 split_chunks(h, c, c_end);
     361                 :          0 :                 free_list_add(h, c_end);
     362                 :            :         }
     363                 :            : 
     364                 :          0 :         set_chunk_used(h, c, true);
     365                 :            : 
     366                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
     367                 :            :         increase_allocated_bytes(h, chunksz_to_bytes(h, chunk_size(h, c)));
     368                 :            : #endif
     369                 :            : 
     370                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     371                 :            :         heap_listener_notify_alloc(HEAP_ID_FROM_POINTER(heap), mem,
     372                 :            :                                    chunksz_to_bytes(h, chunk_size(h, c)));
     373                 :            : #endif
     374                 :            : 
     375                 :          0 :         IF_ENABLED(CONFIG_MSAN, (__msan_allocated_memory(mem, bytes)));
     376                 :          0 :         return mem;
     377                 :            : }
     378                 :            : 
     379                 :          0 : void *sys_heap_aligned_realloc(struct sys_heap *heap, void *ptr,
     380                 :            :                                size_t align, size_t bytes)
     381                 :            : {
     382                 :          0 :         struct z_heap *h = heap->heap;
     383                 :            : 
     384                 :            :         /* special realloc semantics */
     385         [ #  # ]:          0 :         if (ptr == NULL) {
     386                 :          0 :                 return sys_heap_aligned_alloc(heap, align, bytes);
     387                 :            :         }
     388         [ #  # ]:          0 :         if (bytes == 0) {
     389                 :          0 :                 sys_heap_free(heap, ptr);
     390                 :          0 :                 return NULL;
     391                 :            :         }
     392                 :            : 
     393         [ #  # ]:          0 :         __ASSERT((align & (align - 1)) == 0, "align must be a power of 2");
     394                 :            : 
     395         [ #  # ]:          0 :         if (size_too_big(h, bytes)) {
     396                 :            :                 return NULL;
     397                 :            :         }
     398                 :            : 
     399                 :          0 :         chunkid_t c = mem_to_chunkid(h, ptr);
     400                 :          0 :         chunkid_t rc = right_chunk(h, c);
     401                 :          0 :         size_t align_gap = (uint8_t *)ptr - (uint8_t *)chunk_mem(h, c);
     402                 :          0 :         chunksz_t chunks_need = bytes_to_chunksz(h, bytes + align_gap);
     403                 :            : 
     404   [ #  #  #  # ]:          0 :         if (align && ((uintptr_t)ptr & (align - 1))) {
     405                 :            :                 /* ptr is not sufficiently aligned */
     406         [ #  # ]:          0 :         } else if (chunk_size(h, c) == chunks_need) {
     407                 :            :                 /* We're good already */
     408                 :            :                 return ptr;
     409         [ #  # ]:          0 :         } else if (chunk_size(h, c) > chunks_need) {
     410                 :            :                 /* Shrink in place, split off and free unused suffix */
     411                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     412                 :            :                 size_t bytes_freed = chunksz_to_bytes(h, chunk_size(h, c));
     413                 :            : #endif
     414                 :            : 
     415                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
     416                 :            :                 h->allocated_bytes -=
     417                 :            :                         (chunk_size(h, c) - chunks_need) * CHUNK_UNIT;
     418                 :            : #endif
     419                 :            : 
     420                 :          0 :                 split_chunks(h, c, c + chunks_need);
     421                 :          0 :                 set_chunk_used(h, c, true);
     422                 :          0 :                 free_chunk(h, c + chunks_need);
     423                 :            : 
     424                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     425                 :            :                 heap_listener_notify_alloc(HEAP_ID_FROM_POINTER(heap), ptr,
     426                 :            :                                            chunksz_to_bytes(h, chunk_size(h, c)));
     427                 :            :                 heap_listener_notify_free(HEAP_ID_FROM_POINTER(heap), ptr,
     428                 :            :                                           bytes_freed);
     429                 :            : #endif
     430                 :            : 
     431                 :          0 :                 return ptr;
     432         [ #  # ]:          0 :         } else if (!chunk_used(h, rc) &&
     433         [ #  # ]:          0 :                    (chunk_size(h, c) + chunk_size(h, rc) >= chunks_need)) {
     434                 :            :                 /* Expand: split the right chunk and append */
     435                 :          0 :                 chunksz_t split_size = chunks_need - chunk_size(h, c);
     436                 :            : 
     437                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     438                 :            :                 size_t bytes_freed = chunksz_to_bytes(h, chunk_size(h, c));
     439                 :            : #endif
     440                 :            : 
     441                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
     442                 :            :                 increase_allocated_bytes(h, split_size * CHUNK_UNIT);
     443                 :            : #endif
     444                 :            : 
     445                 :          0 :                 free_list_remove(h, rc);
     446                 :            : 
     447         [ #  # ]:          0 :                 if (split_size < chunk_size(h, rc)) {
     448                 :          0 :                         split_chunks(h, rc, rc + split_size);
     449                 :          0 :                         free_list_add(h, rc + split_size);
     450                 :            :                 }
     451                 :            : 
     452                 :          0 :                 merge_chunks(h, c, rc);
     453                 :          0 :                 set_chunk_used(h, c, true);
     454                 :            : 
     455                 :            : #ifdef CONFIG_SYS_HEAP_LISTENER
     456                 :            :                 heap_listener_notify_alloc(HEAP_ID_FROM_POINTER(heap), ptr,
     457                 :            :                                            chunksz_to_bytes(h, chunk_size(h, c)));
     458                 :            :                 heap_listener_notify_free(HEAP_ID_FROM_POINTER(heap), ptr,
     459                 :            :                                           bytes_freed);
     460                 :            : #endif
     461                 :            : 
     462                 :          0 :                 return ptr;
     463                 :            :         } else {
     464                 :          0 :                 ;
     465                 :            :         }
     466                 :            : 
     467                 :            :         /*
     468                 :            :          * Fallback: allocate and copy
     469                 :            :          *
     470                 :            :          * Note for heap listener notification:
     471                 :            :          * The calls to allocation and free functions generate
     472                 :            :          * notification already, so there is no need to those here.
     473                 :            :          */
     474                 :          0 :         void *ptr2 = sys_heap_aligned_alloc(heap, align, bytes);
     475                 :            : 
     476         [ #  # ]:          0 :         if (ptr2 != NULL) {
     477                 :          0 :                 size_t prev_size = chunksz_to_bytes(h, chunk_size(h, c)) - align_gap;
     478                 :            : 
     479                 :          0 :                 memcpy(ptr2, ptr, MIN(prev_size, bytes));
     480                 :          0 :                 sys_heap_free(heap, ptr);
     481                 :            :         }
     482                 :            :         return ptr2;
     483                 :            : }
     484                 :            : 
     485                 :          0 : void sys_heap_init(struct sys_heap *heap, void *mem, size_t bytes)
     486                 :            : {
     487                 :          0 :         IF_ENABLED(CONFIG_MSAN, (__sanitizer_dtor_callback(mem, bytes)));
     488                 :            : 
     489                 :          0 :         if (IS_ENABLED(CONFIG_SYS_HEAP_SMALL_ONLY)) {
     490                 :            :                 /* Must fit in a 15 bit count of HUNK_UNIT */
     491         [ #  # ]:          0 :                 __ASSERT(bytes / CHUNK_UNIT <= 0x7fffU, "heap size is too big");
     492                 :            :         } else {
     493                 :            :                 /* Must fit in a 31 bit count of HUNK_UNIT */
     494                 :          0 :                 __ASSERT(bytes / CHUNK_UNIT <= 0x7fffffffU, "heap size is too big");
     495                 :            :         }
     496                 :            : 
     497                 :            :         /* Reserve the end marker chunk's header */
     498         [ #  # ]:          0 :         __ASSERT(bytes > heap_footer_bytes(bytes), "heap size is too small");
     499                 :          0 :         bytes -= heap_footer_bytes(bytes);
     500                 :            : 
     501                 :            :         /* Round the start up, the end down */
     502                 :          0 :         uintptr_t addr = ROUND_UP(mem, CHUNK_UNIT);
     503                 :          0 :         uintptr_t end = ROUND_DOWN((uint8_t *)mem + bytes, CHUNK_UNIT);
     504                 :          0 :         chunksz_t heap_sz = (end - addr) / CHUNK_UNIT;
     505                 :            : 
     506                 :          0 :         CHECK(end > addr);
     507         [ #  # ]:          0 :         __ASSERT(heap_sz > chunksz(sizeof(struct z_heap)), "heap size is too small");
     508                 :            : 
     509                 :          0 :         struct z_heap *h = (struct z_heap *)addr;
     510                 :          0 :         heap->heap = h;
     511                 :          0 :         h->end_chunk = heap_sz;
     512                 :          0 :         h->avail_buckets = 0;
     513                 :            : 
     514                 :            : #ifdef CONFIG_SYS_HEAP_RUNTIME_STATS
     515                 :            :         h->free_bytes = 0;
     516                 :            :         h->allocated_bytes = 0;
     517                 :            :         h->max_allocated_bytes = 0;
     518                 :            : #endif
     519                 :            : 
     520                 :          0 :         int nb_buckets = bucket_idx(h, heap_sz) + 1;
     521                 :          0 :         chunksz_t chunk0_size = chunksz(sizeof(struct z_heap) +
     522                 :            :                                      nb_buckets * sizeof(struct z_heap_bucket));
     523                 :            : 
     524         [ #  # ]:          0 :         __ASSERT(chunk0_size + min_chunk_size(h) <= heap_sz, "heap size is too small");
     525                 :            : 
     526         [ #  # ]:          0 :         for (int i = 0; i < nb_buckets; i++) {
     527                 :          0 :                 h->buckets[i].next = 0;
     528                 :            :         }
     529                 :            : 
     530                 :            :         /* chunk containing our struct z_heap */
     531                 :          0 :         set_chunk_size(h, 0, chunk0_size);
     532                 :          0 :         set_left_chunk_size(h, 0, 0);
     533                 :          0 :         set_chunk_used(h, 0, true);
     534                 :            : 
     535                 :            :         /* chunk containing the free heap */
     536                 :          0 :         set_chunk_size(h, chunk0_size, heap_sz - chunk0_size);
     537                 :          0 :         set_left_chunk_size(h, chunk0_size, chunk0_size);
     538                 :            : 
     539                 :            :         /* the end marker chunk */
     540                 :          0 :         set_chunk_size(h, heap_sz, 0);
     541                 :          0 :         set_left_chunk_size(h, heap_sz, heap_sz - chunk0_size);
     542                 :          0 :         set_chunk_used(h, heap_sz, true);
     543                 :            : 
     544                 :          0 :         free_list_add(h, chunk0_size);
     545                 :          0 : }

Generated by: LCOV version 1.14