Branch data Line data Source code
1 : : /*
2 : : * Copyright (c) 2019 Intel Corporation.
3 : : *
4 : : * SPDX-License-Identifier: Apache-2.0
5 : : */
6 : :
7 : : #include <zephyr/kernel.h>
8 : :
9 : : #include <kernel_internal.h>
10 : : #include <zephyr/kernel_structs.h>
11 : : #include <zephyr/sys/__assert.h>
12 : : #include <zephyr/arch/cpu.h>
13 : : #include <zephyr/logging/log_ctrl.h>
14 : : #include <zephyr/logging/log.h>
15 : : #include <zephyr/fatal.h>
16 : : #include <zephyr/debug/coredump.h>
17 : :
18 : : LOG_MODULE_DECLARE(os, CONFIG_KERNEL_LOG_LEVEL);
19 : :
20 : : /* LCOV_EXCL_START */
21 : : FUNC_NORETURN __weak void arch_system_halt(unsigned int reason)
22 : : {
23 : : ARG_UNUSED(reason);
24 : :
25 : : /* TODO: What's the best way to totally halt the system if SMP
26 : : * is enabled?
27 : : */
28 : :
29 : : (void)arch_irq_lock();
30 : : for (;;) {
31 : : /* Spin endlessly */
32 : : }
33 : : }
34 : : /* LCOV_EXCL_STOP */
35 : :
36 : : /* LCOV_EXCL_START */
37 : : __weak void k_sys_fatal_error_handler(unsigned int reason,
38 : : const struct arch_esf *esf)
39 : : {
40 : : ARG_UNUSED(esf);
41 : :
42 : : LOG_PANIC();
43 : : LOG_ERR("Halting system");
44 : : arch_system_halt(reason);
45 : : CODE_UNREACHABLE;
46 : : }
47 : : /* LCOV_EXCL_STOP */
48 : :
49 : 0 : static const char *thread_name_get(struct k_thread *thread)
50 : : {
51 [ # # ]: 0 : const char *thread_name = (thread != NULL) ? k_thread_name_get(thread) : NULL;
52 : :
53 [ # # # # ]: 0 : if ((thread_name == NULL) || (thread_name[0] == '\0')) {
54 : : thread_name = "unknown";
55 : : }
56 : :
57 : 0 : return thread_name;
58 : : }
59 : :
60 : 0 : static const char *reason_to_str(unsigned int reason)
61 : : {
62 [ # # ]: 0 : switch (reason) {
63 : : case K_ERR_CPU_EXCEPTION:
64 : : return "CPU exception";
65 : : case K_ERR_SPURIOUS_IRQ:
66 : : return "Unhandled interrupt";
67 : : case K_ERR_STACK_CHK_FAIL:
68 : : return "Stack overflow";
69 : : case K_ERR_KERNEL_OOPS:
70 : : return "Kernel oops";
71 : : case K_ERR_KERNEL_PANIC:
72 : : return "Kernel panic";
73 : : default:
74 : : return "Unknown error";
75 : : }
76 : : }
77 : :
78 : : /* LCOV_EXCL_START */
79 : : FUNC_NORETURN void k_fatal_halt(unsigned int reason)
80 : : {
81 : : arch_system_halt(reason);
82 : : }
83 : : /* LCOV_EXCL_STOP */
84 : :
85 : 0 : void z_fatal_error(unsigned int reason, const struct arch_esf *esf)
86 : : {
87 : : /* We can't allow this code to be preempted, but don't need to
88 : : * synchronize between CPUs, so an arch-layer lock is
89 : : * appropriate.
90 : : */
91 : 0 : unsigned int key = arch_irq_lock();
92 : 0 : struct k_thread *thread = IS_ENABLED(CONFIG_MULTITHREADING) ?
93 : : _current : NULL;
94 : :
95 : : /* twister looks for the "ZEPHYR FATAL ERROR" string, don't
96 : : * change it without also updating twister
97 : : */
98 : 0 : LOG_ERR(">>> ZEPHYR FATAL ERROR %d: %s on CPU %d", reason,
99 : : reason_to_str(reason), _current_cpu->id);
100 : :
101 : : /* FIXME: This doesn't seem to work as expected on all arches.
102 : : * Need a reliable way to determine whether the fault happened when
103 : : * an IRQ or exception was being handled, or thread context.
104 : : *
105 : : * See #17656
106 : : */
107 : : #if defined(CONFIG_ARCH_HAS_NESTED_EXCEPTION_DETECTION)
108 : : if ((esf != NULL) && arch_is_in_nested_exception(esf)) {
109 : : LOG_ERR("Fault during interrupt handling\n");
110 : : }
111 : : #endif /* CONFIG_ARCH_HAS_NESTED_EXCEPTION_DETECTION */
112 : :
113 : 0 : if (IS_ENABLED(CONFIG_MULTITHREADING)) {
114 : 0 : LOG_ERR("Current thread: %p (%s)", thread, thread_name_get(thread));
115 : : }
116 : :
117 : 0 : coredump(reason, esf, thread);
118 : :
119 : 0 : k_sys_fatal_error_handler(reason, esf);
120 : :
121 : : /* If the system fatal error handler returns, then kill the faulting
122 : : * thread; a policy decision was made not to hang the system.
123 : : *
124 : : * Policy for fatal errors in ISRs: unconditionally panic.
125 : : *
126 : : * There is one exception to this policy: a stack sentinel
127 : : * check may be performed (on behalf of the current thread)
128 : : * during ISR exit, but in this case the thread should be
129 : : * aborted.
130 : : *
131 : : * Note that k_thread_abort() returns on some architectures but
132 : : * not others; e.g. on ARC, x86_64, Xtensa with ASM2, ARM
133 : : */
134 : 0 : if (!IS_ENABLED(CONFIG_TEST)) {
135 : : __ASSERT(reason != K_ERR_KERNEL_PANIC,
136 : : "Attempted to recover from a kernel panic condition");
137 : : /* FIXME: #17656 */
138 : : #if defined(CONFIG_ARCH_HAS_NESTED_EXCEPTION_DETECTION)
139 : : if ((esf != NULL) && arch_is_in_nested_exception(esf)) {
140 : : #if defined(CONFIG_STACK_SENTINEL)
141 : : if (reason != K_ERR_STACK_CHK_FAIL) {
142 : : __ASSERT(0,
143 : : "Attempted to recover from a fatal error in ISR");
144 : : }
145 : : #endif /* CONFIG_STACK_SENTINEL */
146 : : }
147 : : #endif /* CONFIG_ARCH_HAS_NESTED_EXCEPTION_DETECTION */
148 : : } else {
149 : : /* Test mode */
150 : : #if defined(CONFIG_ARCH_HAS_NESTED_EXCEPTION_DETECTION)
151 : : if ((esf != NULL) && arch_is_in_nested_exception(esf)) {
152 : : /* Abort the thread only on STACK Sentinel check fail. */
153 : : #if defined(CONFIG_STACK_SENTINEL)
154 : : if (reason != K_ERR_STACK_CHK_FAIL) {
155 : : arch_irq_unlock(key);
156 : : return;
157 : : }
158 : : #else
159 : : arch_irq_unlock(key);
160 : : return;
161 : : #endif /* CONFIG_STACK_SENTINEL */
162 : : } else {
163 : : /* Abort the thread only if the fault is not due to
164 : : * a spurious ISR handler triggered.
165 : : */
166 : : if (reason == K_ERR_SPURIOUS_IRQ) {
167 : : arch_irq_unlock(key);
168 : : return;
169 : : }
170 : : }
171 : : #endif /*CONFIG_ARCH_HAS_NESTED_EXCEPTION_DETECTION */
172 : 0 : }
173 : :
174 : 0 : arch_irq_unlock(key);
175 : :
176 : 0 : if (IS_ENABLED(CONFIG_MULTITHREADING)) {
177 : 0 : k_thread_abort(thread);
178 : : }
179 : 0 : }
|