]> git.dujemihanovic.xyz Git - u-boot.git/commitdiff
x86: provide mb() macro
authorPhilip Oberfichtner <pro@denx.de>
Fri, 2 Aug 2024 09:25:35 +0000 (11:25 +0200)
committerTom Rini <trini@konsulko.com>
Tue, 3 Sep 2024 15:12:00 +0000 (09:12 -0600)
Implement a x86 memory barrier mb(). Furthermore, remove the previously
used mfence() function, which does the same thing.

The mb() macro is now equivalent to Linux (v6.9):
linux/arch/x86/include/asm/barrier.h

Signed-off-by: Philip Oberfichtner <pro@denx.de>
Reviewed-by: Simon Glass <sjg@chromium.org>
arch/x86/cpu/mp_init.c
arch/x86/include/asm/cpu.h
arch/x86/include/asm/io.h

index aa1f47d7227eb7fb453fe2b6899b343dd5ea79cb..e2e1849c065dfaa69f93d8203654c758eb3b6cfa 100644 (file)
@@ -164,12 +164,12 @@ static inline void barrier_wait(atomic_t *b)
 {
        while (atomic_read(b) == 0)
                asm("pause");
-       mfence();
+       mb();
 }
 
 static inline void release_barrier(atomic_t *b)
 {
-       mfence();
+       mb();
        atomic_set(b, 1);
 }
 
@@ -631,7 +631,7 @@ static int run_ap_work(struct mp_callback *callback, struct udevice *bsp,
                if (cur_cpu != i)
                        store_callback(&ap_callbacks[i], callback);
        }
-       mfence();
+       mb();
 
        /* Wait for all the APs to signal back that call has been accepted. */
        start = get_timer(0);
@@ -656,7 +656,7 @@ static int run_ap_work(struct mp_callback *callback, struct udevice *bsp,
        } while (cpus_accepted != num_aps);
 
        /* Make sure we can see any data written by the APs */
-       mfence();
+       mb();
 
        return 0;
 }
@@ -692,7 +692,7 @@ static int ap_wait_for_instruction(struct udevice *cpu, void *unused)
 
                /* Copy to local variable before using the value */
                memcpy(&lcb, cb, sizeof(lcb));
-               mfence();
+               mb();
                if (lcb.logical_cpu_number == MP_SELECT_ALL ||
                    lcb.logical_cpu_number == MP_SELECT_APS ||
                    dev_seq(cpu) == lcb.logical_cpu_number)
index 073f80b07f1021d569e59c366ce921628a683c05..87e0c6f12b6bcb01868ce3a627d7dc20281fd327 100644 (file)
@@ -185,11 +185,6 @@ static inline int flag_is_changeable_p(uint32_t flag)
 }
 #endif
 
-static inline void mfence(void)
-{
-       __asm__ __volatile__("mfence" : : : "memory");
-}
-
 /**
  * cpu_enable_paging_pae() - Enable PAE-paging
  *
index c6d90eb794a0230e0cefbc736d720f84c9d03cd5..1390193f09c76c32d066c224e1e889592beb0968 100644 (file)
@@ -240,6 +240,7 @@ static inline void sync(void)
  * have some advantages to use them instead of the simple one here.
  */
 #define dmb()          __asm__ __volatile__ ("" : : : "memory")
+#define mb()           __asm__ __volatile__ ("mfence" : : : "memory")
 #define __iormb()      dmb()
 #define __iowmb()      dmb()