aboutsummaryrefslogtreecommitdiff
path: root/gcc
diff options
context:
space:
mode:
authorHu, Lin1 <lin1.hu@intel.com>2025-03-18 16:50:24 +0800
committerHu, Lin1 <lin1.hu@intel.com>2025-03-20 10:00:22 +0800
commitc3a211c9329cbd4380820e5350f224aa04ba0071 (patch)
tree2c0d516351f8d618ff5cad8e121f0c1d3f2ce88f /gcc
parent2e7a92a68aab3aaee8872c1a59e1391e07517b05 (diff)
downloadgcc-c3a211c9329cbd4380820e5350f224aa04ba0071.zip
gcc-c3a211c9329cbd4380820e5350f224aa04ba0071.tar.gz
gcc-c3a211c9329cbd4380820e5350f224aa04ba0071.tar.bz2
i386: Add "s_" as Saturation for AVX10.2 SAT CVT Intrinsics.
This patch aims to add "s_" before intrinsic core name represent saturation. gcc/ChangeLog: * config/i386/avx10_2-512satcvtintrin.h: Add "s_" before intrinsics' core name. * config/i386/avx10_2satcvtintrin.h: Ditto. gcc/testsuite/ChangeLog: * gcc.target/i386/avx10_2-512-satcvt-1.c: Modify intrinsic name. * gcc.target/i386/avx10_2-512-vcvtbf162ibs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvtbf162iubs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvtph2ibs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvtph2iubs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvtps2ibs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvtps2iubs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttbf162ibs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttbf162iubs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttpd2dqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttpd2qqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttpd2udqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttpd2uqqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttph2ibs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttph2iubs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttps2dqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttps2ibs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttps2iubs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttps2qqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttps2udqs-2.c: Ditto. * gcc.target/i386/avx10_2-512-vcvttps2uqqs-2.c: Ditto. * gcc.target/i386/avx10_2-satcvt-1.c: Ditto. * gcc.target/i386/avx10_2-vcvttsd2sis-2.c: Ditto. * gcc.target/i386/avx10_2-vcvttsd2usis-2.c: Ditto. * gcc.target/i386/avx10_2-vcvttss2sis-2.c: Ditto. * gcc.target/i386/avx10_2-vcvttss2usis-2.c: Ditto. * gcc.target/i386/sse-14.c: Ditto. * gcc.target/i386/sse-22.c: Ditto.
Diffstat (limited to 'gcc')
-rw-r--r--gcc/config/i386/avx10_2-512satcvtintrin.h232
-rw-r--r--gcc/config/i386/avx10_2satcvtintrin.h368
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-satcvt-1.c192
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162ibs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162iubs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2ibs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2iubs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2ibs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2iubs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162ibs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162iubs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2dqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2qqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2udqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2uqqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2ibs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2iubs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2dqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2ibs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2iubs-2.c12
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2qqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2udqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2uqqs-2.c6
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-satcvt-1.c352
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2sis-2.c4
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2usis-2.c4
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2sis-2.c4
-rw-r--r--gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2usis-2.c4
-rw-r--r--gcc/testsuite/gcc.target/i386/sse-14.c96
-rw-r--r--gcc/testsuite/gcc.target/i386/sse-22.c96
30 files changed, 760 insertions, 760 deletions
diff --git a/gcc/config/i386/avx10_2-512satcvtintrin.h b/gcc/config/i386/avx10_2-512satcvtintrin.h
index 1cef1da..255bacd 100644
--- a/gcc/config/i386/avx10_2-512satcvtintrin.h
+++ b/gcc/config/i386/avx10_2-512satcvtintrin.h
@@ -36,7 +36,7 @@
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtbf16_epi8 (__m512bh __A)
+_mm512_ipcvts_bf16_epi8 (__m512bh __A)
{
return
(__m512i) __builtin_ia32_cvtbf162ibs512_mask ((__v32bf) __A,
@@ -47,7 +47,7 @@ _mm512_ipcvtbf16_epi8 (__m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtbf16_epi8 (__m512i __W, __mmask32 __U, __m512bh __A)
+_mm512_mask_ipcvts_bf16_epi8 (__m512i __W, __mmask32 __U, __m512bh __A)
{
return (__m512i) __builtin_ia32_cvtbf162ibs512_mask ((__v32bf) __A,
(__v32hi) __W,
@@ -56,7 +56,7 @@ _mm512_mask_ipcvtbf16_epi8 (__m512i __W, __mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtbf16_epi8 (__mmask32 __U, __m512bh __A)
+_mm512_maskz_ipcvts_bf16_epi8 (__mmask32 __U, __m512bh __A)
{
return
(__m512i) __builtin_ia32_cvtbf162ibs512_mask ((__v32bf) __A,
@@ -67,7 +67,7 @@ _mm512_maskz_ipcvtbf16_epi8 (__mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtbf16_epu8 (__m512bh __A)
+_mm512_ipcvts_bf16_epu8 (__m512bh __A)
{
return
(__m512i) __builtin_ia32_cvtbf162iubs512_mask ((__v32bf) __A,
@@ -78,7 +78,7 @@ _mm512_ipcvtbf16_epu8 (__m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtbf16_epu8 (__m512i __W, __mmask32 __U, __m512bh __A)
+_mm512_mask_ipcvts_bf16_epu8 (__m512i __W, __mmask32 __U, __m512bh __A)
{
return (__m512i) __builtin_ia32_cvtbf162iubs512_mask ((__v32bf) __A,
(__v32hi) __W,
@@ -87,7 +87,7 @@ _mm512_mask_ipcvtbf16_epu8 (__m512i __W, __mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtbf16_epu8 (__mmask32 __U, __m512bh __A)
+_mm512_maskz_ipcvts_bf16_epu8 (__mmask32 __U, __m512bh __A)
{
return
(__m512i) __builtin_ia32_cvtbf162iubs512_mask ((__v32bf) __A,
@@ -98,7 +98,7 @@ _mm512_maskz_ipcvtbf16_epu8 (__mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvttbf16_epi8 (__m512bh __A)
+_mm512_ipcvtts_bf16_epi8 (__m512bh __A)
{
return
(__m512i) __builtin_ia32_cvttbf162ibs512_mask ((__v32bf) __A,
@@ -109,7 +109,7 @@ _mm512_ipcvttbf16_epi8 (__m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvttbf16_epi8 (__m512i __W, __mmask32 __U, __m512bh __A)
+_mm512_mask_ipcvtts_bf16_epi8 (__m512i __W, __mmask32 __U, __m512bh __A)
{
return (__m512i) __builtin_ia32_cvttbf162ibs512_mask ((__v32bf) __A,
(__v32hi) __W,
@@ -118,7 +118,7 @@ _mm512_mask_ipcvttbf16_epi8 (__m512i __W, __mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvttbf16_epi8 (__mmask32 __U, __m512bh __A)
+_mm512_maskz_ipcvtts_bf16_epi8 (__mmask32 __U, __m512bh __A)
{
return
(__m512i) __builtin_ia32_cvttbf162ibs512_mask ((__v32bf) __A,
@@ -129,7 +129,7 @@ _mm512_maskz_ipcvttbf16_epi8 (__mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvttbf16_epu8 (__m512bh __A)
+_mm512_ipcvtts_bf16_epu8 (__m512bh __A)
{
return (__m512i)
__builtin_ia32_cvttbf162iubs512_mask ((__v32bf) __A,
@@ -139,7 +139,7 @@ _mm512_ipcvttbf16_epu8 (__m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvttbf16_epu8 (__m512i __W, __mmask32 __U, __m512bh __A)
+_mm512_mask_ipcvtts_bf16_epu8 (__m512i __W, __mmask32 __U, __m512bh __A)
{
return (__m512i) __builtin_ia32_cvttbf162iubs512_mask ((__v32bf) __A,
(__v32hi) __W,
@@ -148,7 +148,7 @@ _mm512_mask_ipcvttbf16_epu8 (__m512i __W, __mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvttbf16_epu8 (__mmask32 __U, __m512bh __A)
+_mm512_maskz_ipcvtts_bf16_epu8 (__mmask32 __U, __m512bh __A)
{
return (__m512i)
__builtin_ia32_cvttbf162iubs512_mask ((__v32bf) __A,
@@ -159,7 +159,7 @@ _mm512_maskz_ipcvttbf16_epu8 (__mmask32 __U, __m512bh __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtph_epi8 (__m512h __A)
+_mm512_ipcvts_ph_epi8 (__m512h __A)
{
return
(__m512i) __builtin_ia32_cvtph2ibs512_mask ((__v32hf) __A,
@@ -170,7 +170,7 @@ _mm512_ipcvtph_epi8 (__m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtph_epi8 (__m512i __W, __mmask32 __U, __m512h __A)
+_mm512_mask_ipcvts_ph_epi8 (__m512i __W, __mmask32 __U, __m512h __A)
{
return (__m512i) __builtin_ia32_cvtph2ibs512_mask ((__v32hf) __A,
(__v32hi) __W,
@@ -179,7 +179,7 @@ _mm512_mask_ipcvtph_epi8 (__m512i __W, __mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtph_epi8 (__mmask32 __U, __m512h __A)
+_mm512_maskz_ipcvts_ph_epi8 (__mmask32 __U, __m512h __A)
{
return
(__m512i) __builtin_ia32_cvtph2ibs512_mask ((__v32hf) __A,
@@ -190,7 +190,7 @@ _mm512_maskz_ipcvtph_epi8 (__mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtph_epu8 (__m512h __A)
+_mm512_ipcvts_ph_epu8 (__m512h __A)
{
return
(__m512i) __builtin_ia32_cvtph2iubs512_mask ((__v32hf) __A,
@@ -201,7 +201,7 @@ _mm512_ipcvtph_epu8 (__m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtph_epu8 (__m512i __W, __mmask32 __U, __m512h __A)
+_mm512_mask_ipcvts_ph_epu8 (__m512i __W, __mmask32 __U, __m512h __A)
{
return (__m512i) __builtin_ia32_cvtph2iubs512_mask ((__v32hf) __A,
(__v32hi) __W,
@@ -210,7 +210,7 @@ _mm512_mask_ipcvtph_epu8 (__m512i __W, __mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtph_epu8 (__mmask32 __U, __m512h __A)
+_mm512_maskz_ipcvts_ph_epu8 (__mmask32 __U, __m512h __A)
{
return
(__m512i) __builtin_ia32_cvtph2iubs512_mask ((__v32hf) __A,
@@ -221,7 +221,7 @@ _mm512_maskz_ipcvtph_epu8 (__mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtps_epi8 (__m512 __A)
+_mm512_ipcvts_ps_epi8 (__m512 __A)
{
return
(__m512i) __builtin_ia32_cvtps2ibs512_mask ((__v16sf) __A,
@@ -232,7 +232,7 @@ _mm512_ipcvtps_epi8 (__m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtps_epi8 (__m512i __W, __mmask16 __U, __m512 __A)
+_mm512_mask_ipcvts_ps_epi8 (__m512i __W, __mmask16 __U, __m512 __A)
{
return (__m512i) __builtin_ia32_cvtps2ibs512_mask ((__v16sf) __A,
(__v16si) __W,
@@ -241,7 +241,7 @@ _mm512_mask_ipcvtps_epi8 (__m512i __W, __mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtps_epi8 (__mmask16 __U, __m512 __A)
+_mm512_maskz_ipcvts_ps_epi8 (__mmask16 __U, __m512 __A)
{
return
(__m512i) __builtin_ia32_cvtps2ibs512_mask ((__v16sf) __A,
@@ -252,7 +252,7 @@ _mm512_maskz_ipcvtps_epi8 (__mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtps_epu8 (__m512 __A)
+_mm512_ipcvts_ps_epu8 (__m512 __A)
{
return
(__m512i) __builtin_ia32_cvtps2iubs512_mask ((__v16sf) __A,
@@ -263,7 +263,7 @@ _mm512_ipcvtps_epu8 (__m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtps_epu8 (__m512i __W, __mmask16 __U, __m512 __A)
+_mm512_mask_ipcvts_ps_epu8 (__m512i __W, __mmask16 __U, __m512 __A)
{
return (__m512i) __builtin_ia32_cvtps2iubs512_mask ((__v16sf) __A,
(__v16si) __W,
@@ -272,7 +272,7 @@ _mm512_mask_ipcvtps_epu8 (__m512i __W, __mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtps_epu8 (__mmask16 __U, __m512 __A)
+_mm512_maskz_ipcvts_ps_epu8 (__mmask16 __U, __m512 __A)
{
return
(__m512i) __builtin_ia32_cvtps2iubs512_mask ((__v16sf) __A,
@@ -283,7 +283,7 @@ _mm512_maskz_ipcvtps_epu8 (__mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvttph_epi8 (__m512h __A)
+_mm512_ipcvtts_ph_epi8 (__m512h __A)
{
return (__m512i)
__builtin_ia32_cvttph2ibs512_mask ((__v32hf) __A,
@@ -294,7 +294,7 @@ _mm512_ipcvttph_epi8 (__m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvttph_epi8 (__m512i __W, __mmask32 __U, __m512h __A)
+_mm512_mask_ipcvtts_ph_epi8 (__m512i __W, __mmask32 __U, __m512h __A)
{
return (__m512i) __builtin_ia32_cvttph2ibs512_mask ((__v32hf) __A,
(__v32hi) __W,
@@ -303,7 +303,7 @@ _mm512_mask_ipcvttph_epi8 (__m512i __W, __mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvttph_epi8 (__mmask32 __U, __m512h __A)
+_mm512_maskz_ipcvtts_ph_epi8 (__mmask32 __U, __m512h __A)
{
return
(__m512i) __builtin_ia32_cvttph2ibs512_mask ((__v32hf) __A,
@@ -314,7 +314,7 @@ _mm512_maskz_ipcvttph_epi8 (__mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvttph_epu8 (__m512h __A)
+_mm512_ipcvtts_ph_epu8 (__m512h __A)
{
return (__m512i)
__builtin_ia32_cvttph2iubs512_mask ((__v32hf) __A,
@@ -325,7 +325,7 @@ _mm512_ipcvttph_epu8 (__m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvttph_epu8 (__m512i __W, __mmask32 __U, __m512h __A)
+_mm512_mask_ipcvtts_ph_epu8 (__m512i __W, __mmask32 __U, __m512h __A)
{
return (__m512i) __builtin_ia32_cvttph2iubs512_mask ((__v32hf) __A,
(__v32hi) __W,
@@ -334,7 +334,7 @@ _mm512_mask_ipcvttph_epu8 (__m512i __W, __mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvttph_epu8 (__mmask32 __U, __m512h __A)
+_mm512_maskz_ipcvtts_ph_epu8 (__mmask32 __U, __m512h __A)
{
return (__m512i)
__builtin_ia32_cvttph2iubs512_mask ((__v32hf) __A,
@@ -345,7 +345,7 @@ _mm512_maskz_ipcvttph_epu8 (__mmask32 __U, __m512h __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvttps_epi8 (__m512 __A)
+_mm512_ipcvtts_ps_epi8 (__m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2ibs512_mask ((__v16sf) __A,
@@ -356,7 +356,7 @@ _mm512_ipcvttps_epi8 (__m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvttps_epi8 (__m512i __W, __mmask16 __U, __m512 __A)
+_mm512_mask_ipcvtts_ps_epi8 (__m512i __W, __mmask16 __U, __m512 __A)
{
return (__m512i) __builtin_ia32_cvttps2ibs512_mask ((__v16sf) __A,
(__v16si) __W,
@@ -365,7 +365,7 @@ _mm512_mask_ipcvttps_epi8 (__m512i __W, __mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvttps_epi8 (__mmask16 __U, __m512 __A)
+_mm512_maskz_ipcvtts_ps_epi8 (__mmask16 __U, __m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2ibs512_mask ((__v16sf) __A,
@@ -376,7 +376,7 @@ _mm512_maskz_ipcvttps_epi8 (__mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvttps_epu8 (__m512 __A)
+_mm512_ipcvtts_ps_epu8 (__m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2iubs512_mask ((__v16sf) __A,
@@ -387,7 +387,7 @@ _mm512_ipcvttps_epu8 (__m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvttps_epu8 (__m512i __W, __mmask16 __U, __m512 __A)
+_mm512_mask_ipcvtts_ps_epu8 (__m512i __W, __mmask16 __U, __m512 __A)
{
return (__m512i) __builtin_ia32_cvttps2iubs512_mask ((__v16sf) __A,
(__v16si) __W,
@@ -396,7 +396,7 @@ _mm512_mask_ipcvttps_epu8 (__m512i __W, __mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvttps_epu8 (__mmask16 __U, __m512 __A)
+_mm512_maskz_ipcvtts_ps_epu8 (__mmask16 __U, __m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2iubs512_mask ((__v16sf) __A,
@@ -407,7 +407,7 @@ _mm512_maskz_ipcvttps_epu8 (__mmask16 __U, __m512 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttspd_epi32 (__m512d __A)
+_mm512_cvtts_pd_epi32 (__m512d __A)
{
return (__m256i)
__builtin_ia32_cvttpd2dqs512_mask ((__v8df) __A,
@@ -418,7 +418,7 @@ _mm512_cvttspd_epi32 (__m512d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttspd_epi32 (__m256i __W, __mmask8 __U, __m512d __A)
+_mm512_mask_cvtts_pd_epi32 (__m256i __W, __mmask8 __U, __m512d __A)
{
return (__m256i) __builtin_ia32_cvttpd2dqs512_mask ((__v8df) __A,
(__v8si) __W,
@@ -427,7 +427,7 @@ _mm512_mask_cvttspd_epi32 (__m256i __W, __mmask8 __U, __m512d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttspd_epi32 (__mmask8 __U, __m512d __A)
+_mm512_maskz_cvtts_pd_epi32 (__mmask8 __U, __m512d __A)
{
return
(__m256i) __builtin_ia32_cvttpd2dqs512_mask ((__v8df) __A,
@@ -438,7 +438,7 @@ _mm512_maskz_cvttspd_epi32 (__mmask8 __U, __m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttspd_epi64 (__m512d __A)
+_mm512_cvtts_pd_epi64 (__m512d __A)
{
return (__m512i)
__builtin_ia32_cvttpd2qqs512_mask ((__v8df) __A,
@@ -449,7 +449,7 @@ _mm512_cvttspd_epi64 (__m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttspd_epi64 (__m512i __W, __mmask8 __U, __m512d __A)
+_mm512_mask_cvtts_pd_epi64 (__m512i __W, __mmask8 __U, __m512d __A)
{
return (__m512i) __builtin_ia32_cvttpd2qqs512_mask ((__v8df) __A,
(__v8di) __W,
@@ -458,7 +458,7 @@ _mm512_mask_cvttspd_epi64 (__m512i __W, __mmask8 __U, __m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttspd_epi64 (__mmask8 __U, __m512d __A)
+_mm512_maskz_cvtts_pd_epi64 (__mmask8 __U, __m512d __A)
{
return
(__m512i) __builtin_ia32_cvttpd2qqs512_mask ((__v8df) __A,
@@ -469,7 +469,7 @@ _mm512_maskz_cvttspd_epi64 (__mmask8 __U, __m512d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttspd_epu32 (__m512d __A)
+_mm512_cvtts_pd_epu32 (__m512d __A)
{
return (__m256i)
__builtin_ia32_cvttpd2udqs512_mask ((__v8df) __A,
@@ -480,7 +480,7 @@ _mm512_cvttspd_epu32 (__m512d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttspd_epu32 (__m256i __W, __mmask8 __U, __m512d __A)
+_mm512_mask_cvtts_pd_epu32 (__m256i __W, __mmask8 __U, __m512d __A)
{
return (__m256i) __builtin_ia32_cvttpd2udqs512_mask ((__v8df) __A,
(__v8si) __W,
@@ -489,7 +489,7 @@ _mm512_mask_cvttspd_epu32 (__m256i __W, __mmask8 __U, __m512d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttspd_epu32 (__mmask8 __U, __m512d __A)
+_mm512_maskz_cvtts_pd_epu32 (__mmask8 __U, __m512d __A)
{
return
(__m256i) __builtin_ia32_cvttpd2udqs512_mask ((__v8df) __A,
@@ -500,7 +500,7 @@ _mm512_maskz_cvttspd_epu32 (__mmask8 __U, __m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttspd_epu64 (__m512d __A)
+_mm512_cvtts_pd_epu64 (__m512d __A)
{
return (__m512i)
__builtin_ia32_cvttpd2uqqs512_mask ((__v8df) __A,
@@ -511,7 +511,7 @@ _mm512_cvttspd_epu64 (__m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttspd_epu64 (__m512i __W, __mmask8 __U, __m512d __A)
+_mm512_mask_cvtts_pd_epu64 (__m512i __W, __mmask8 __U, __m512d __A)
{
return (__m512i) __builtin_ia32_cvttpd2uqqs512_mask ((__v8df) __A,
(__v8di) __W,
@@ -520,7 +520,7 @@ _mm512_mask_cvttspd_epu64 (__m512i __W, __mmask8 __U, __m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttspd_epu64 (__mmask8 __U, __m512d __A)
+_mm512_maskz_cvtts_pd_epu64 (__mmask8 __U, __m512d __A)
{
return (__m512i)
__builtin_ia32_cvttpd2uqqs512_mask ((__v8df) __A,
@@ -531,7 +531,7 @@ _mm512_maskz_cvttspd_epu64 (__mmask8 __U, __m512d __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttsps_epi32 (__m512 __A)
+_mm512_cvtts_ps_epi32 (__m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2dqs512_mask ((__v16sf) __A,
@@ -542,7 +542,7 @@ _mm512_cvttsps_epi32 (__m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttsps_epi32 (__m512i __W, __mmask16 __U, __m512 __A)
+_mm512_mask_cvtts_ps_epi32 (__m512i __W, __mmask16 __U, __m512 __A)
{
return (__m512i) __builtin_ia32_cvttps2dqs512_mask ((__v16sf) __A,
(__v16si) __W,
@@ -551,7 +551,7 @@ _mm512_mask_cvttsps_epi32 (__m512i __W, __mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttsps_epi32 (__mmask16 __U, __m512 __A)
+_mm512_maskz_cvtts_ps_epi32 (__mmask16 __U, __m512 __A)
{
return
(__m512i) __builtin_ia32_cvttps2dqs512_mask ((__v16sf) __A,
@@ -562,7 +562,7 @@ _mm512_maskz_cvttsps_epi32 (__mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttsps_epi64 (__m256 __A)
+_mm512_cvtts_ps_epi64 (__m256 __A)
{
return (__m512i)
__builtin_ia32_cvttps2qqs512_mask ((__v8sf) __A,
@@ -573,7 +573,7 @@ _mm512_cvttsps_epi64 (__m256 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttsps_epi64 (__m512i __W, __mmask8 __U, __m256 __A)
+_mm512_mask_cvtts_ps_epi64 (__m512i __W, __mmask8 __U, __m256 __A)
{
return (__m512i) __builtin_ia32_cvttps2qqs512_mask ((__v8sf) __A,
(__v8di) __W,
@@ -582,7 +582,7 @@ _mm512_mask_cvttsps_epi64 (__m512i __W, __mmask8 __U, __m256 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttsps_epi64 (__mmask8 __U, __m256 __A)
+_mm512_maskz_cvtts_ps_epi64 (__mmask8 __U, __m256 __A)
{
return
(__m512i) __builtin_ia32_cvttps2qqs512_mask ((__v8sf) __A,
@@ -593,7 +593,7 @@ _mm512_maskz_cvttsps_epi64 (__mmask8 __U, __m256 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttsps_epu32 (__m512 __A)
+_mm512_cvtts_ps_epu32 (__m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2udqs512_mask ((__v16sf) __A,
@@ -604,7 +604,7 @@ _mm512_cvttsps_epu32 (__m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttsps_epu32 (__m512i __W, __mmask16 __U, __m512 __A)
+_mm512_mask_cvtts_ps_epu32 (__m512i __W, __mmask16 __U, __m512 __A)
{
return (__m512i) __builtin_ia32_cvttps2udqs512_mask ((__v16sf) __A,
(__v16si) __W,
@@ -613,7 +613,7 @@ _mm512_mask_cvttsps_epu32 (__m512i __W, __mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttsps_epu32 (__mmask16 __U, __m512 __A)
+_mm512_maskz_cvtts_ps_epu32 (__mmask16 __U, __m512 __A)
{
return (__m512i)
__builtin_ia32_cvttps2udqs512_mask ((__v16sf) __A,
@@ -624,7 +624,7 @@ _mm512_maskz_cvttsps_epu32 (__mmask16 __U, __m512 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_cvttsps_epu64 (__m256 __A)
+_mm512_cvtts_ps_epu64 (__m256 __A)
{
return (__m512i)
__builtin_ia32_cvttps2uqqs512_mask ((__v8sf) __A,
@@ -635,7 +635,7 @@ _mm512_cvttsps_epu64 (__m256 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_cvttsps_epu64 (__m512i __W, __mmask8 __U, __m256 __A)
+_mm512_mask_cvtts_ps_epu64 (__m512i __W, __mmask8 __U, __m256 __A)
{
return (__m512i) __builtin_ia32_cvttps2uqqs512_mask ((__v8sf) __A,
(__v8di) __W,
@@ -644,7 +644,7 @@ _mm512_mask_cvttsps_epu64 (__m512i __W, __mmask8 __U, __m256 __A)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_cvttsps_epu64 (__mmask8 __U, __m256 __A)
+_mm512_maskz_cvtts_ps_epu64 (__mmask8 __U, __m256 __A)
{
return
(__m512i) __builtin_ia32_cvttps2uqqs512_mask ((__v8sf) __A,
@@ -656,7 +656,7 @@ _mm512_maskz_cvttsps_epu64 (__mmask8 __U, __m256 __A)
#ifdef __OPTIMIZE__
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvt_roundph_epi8 (__m512h __A, const int __R)
+_mm512_ipcvts_roundph_epi8 (__m512h __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtph2ibs512_mask_round ((__v32hf) __A,
@@ -668,8 +668,8 @@ _mm512_ipcvt_roundph_epi8 (__m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvt_roundph_epi8 (__m512i __W, __mmask32 __U, __m512h __A,
- const int __R)
+_mm512_mask_ipcvts_roundph_epi8 (__m512i __W, __mmask32 __U, __m512h __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvtph2ibs512_mask_round ((__v32hf) __A,
(__v32hi) __W,
@@ -679,7 +679,7 @@ _mm512_mask_ipcvt_roundph_epi8 (__m512i __W, __mmask32 __U, __m512h __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvt_roundph_epi8 (__mmask32 __U, __m512h __A, const int __R)
+_mm512_maskz_ipcvts_roundph_epi8 (__mmask32 __U, __m512h __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtph2ibs512_mask_round ((__v32hf) __A,
@@ -691,7 +691,7 @@ _mm512_maskz_ipcvt_roundph_epi8 (__mmask32 __U, __m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvt_roundph_epu8 (__m512h __A, const int __R)
+_mm512_ipcvts_roundph_epu8 (__m512h __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtph2iubs512_mask_round ((__v32hf) __A,
@@ -703,8 +703,8 @@ _mm512_ipcvt_roundph_epu8 (__m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvt_roundph_epu8 (__m512i __W, __mmask32 __U, __m512h __A,
- const int __R)
+_mm512_mask_ipcvts_roundph_epu8 (__m512i __W, __mmask32 __U, __m512h __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvtph2iubs512_mask_round ((__v32hf) __A,
(__v32hi) __W,
@@ -714,7 +714,7 @@ _mm512_mask_ipcvt_roundph_epu8 (__m512i __W, __mmask32 __U, __m512h __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvt_roundph_epu8 (__mmask32 __U, __m512h __A, const int __R)
+_mm512_maskz_ipcvts_roundph_epu8 (__mmask32 __U, __m512h __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtph2iubs512_mask_round ((__v32hf) __A,
@@ -726,7 +726,7 @@ _mm512_maskz_ipcvt_roundph_epu8 (__mmask32 __U, __m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvt_roundps_epi8 (__m512 __A, const int __R)
+_mm512_ipcvts_roundps_epi8 (__m512 __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtps2ibs512_mask_round ((__v16sf) __A,
@@ -738,8 +738,8 @@ _mm512_ipcvt_roundps_epi8 (__m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvt_roundps_epi8 (__m512i __W, __mmask16 __U, __m512 __A,
- const int __R)
+_mm512_mask_ipcvts_roundps_epi8 (__m512i __W, __mmask16 __U, __m512 __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvtps2ibs512_mask_round ((__v16sf) __A,
(__v16si) __W,
@@ -749,7 +749,7 @@ _mm512_mask_ipcvt_roundps_epi8 (__m512i __W, __mmask16 __U, __m512 __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvt_roundps_epi8 (__mmask16 __U, __m512 __A, const int __R)
+_mm512_maskz_ipcvts_roundps_epi8 (__mmask16 __U, __m512 __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtps2ibs512_mask_round ((__v16sf) __A,
@@ -761,7 +761,7 @@ _mm512_maskz_ipcvt_roundps_epi8 (__mmask16 __U, __m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvt_roundps_epu8 (__m512 __A, const int __R)
+_mm512_ipcvts_roundps_epu8 (__m512 __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtps2iubs512_mask_round ((__v16sf) __A,
@@ -773,8 +773,8 @@ _mm512_ipcvt_roundps_epu8 (__m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvt_roundps_epu8 (__m512i __W, __mmask16 __U, __m512 __A,
- const int __R)
+_mm512_mask_ipcvts_roundps_epu8 (__m512i __W, __mmask16 __U, __m512 __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvtps2iubs512_mask_round ((__v16sf) __A,
(__v16si) __W,
@@ -784,7 +784,7 @@ _mm512_mask_ipcvt_roundps_epu8 (__m512i __W, __mmask16 __U, __m512 __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvt_roundps_epu8 (__mmask16 __U, __m512 __A, const int __R)
+_mm512_maskz_ipcvts_roundps_epu8 (__mmask16 __U, __m512 __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvtps2iubs512_mask_round ((__v16sf) __A,
@@ -796,7 +796,7 @@ _mm512_maskz_ipcvt_roundps_epu8 (__mmask16 __U, __m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtt_roundph_epi8 (__m512h __A, const int __R)
+_mm512_ipcvtts_roundph_epi8 (__m512h __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttph2ibs512_mask_round ((__v32hf) __A,
@@ -808,8 +808,8 @@ _mm512_ipcvtt_roundph_epi8 (__m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtt_roundph_epi8 (__m512i __W, __mmask32 __U, __m512h __A,
- const int __R)
+_mm512_mask_ipcvtts_roundph_epi8 (__m512i __W, __mmask32 __U, __m512h __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvttph2ibs512_mask_round ((__v32hf) __A,
(__v32hi) __W,
@@ -819,7 +819,7 @@ _mm512_mask_ipcvtt_roundph_epi8 (__m512i __W, __mmask32 __U, __m512h __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtt_roundph_epi8 (__mmask32 __U, __m512h __A, const int __R)
+_mm512_maskz_ipcvtts_roundph_epi8 (__mmask32 __U, __m512h __A, const int __R)
{
return
(__m512i) __builtin_ia32_cvttph2ibs512_mask_round ((__v32hf) __A,
@@ -831,7 +831,7 @@ _mm512_maskz_ipcvtt_roundph_epi8 (__mmask32 __U, __m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtt_roundph_epu8 (__m512h __A, const int __R)
+_mm512_ipcvtts_roundph_epu8 (__m512h __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttph2iubs512_mask_round ((__v32hf) __A,
@@ -843,8 +843,8 @@ _mm512_ipcvtt_roundph_epu8 (__m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtt_roundph_epu8 (__m512i __W, __mmask32 __U, __m512h __A,
- const int __R)
+_mm512_mask_ipcvtts_roundph_epu8 (__m512i __W, __mmask32 __U, __m512h __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvttph2iubs512_mask_round ((__v32hf) __A,
(__v32hi) __W,
@@ -854,7 +854,7 @@ _mm512_mask_ipcvtt_roundph_epu8 (__m512i __W, __mmask32 __U, __m512h __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtt_roundph_epu8 (__mmask32 __U, __m512h __A, const int __R)
+_mm512_maskz_ipcvtts_roundph_epu8 (__mmask32 __U, __m512h __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttph2iubs512_mask_round ((__v32hf) __A,
@@ -866,7 +866,7 @@ _mm512_maskz_ipcvtt_roundph_epu8 (__mmask32 __U, __m512h __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtt_roundps_epi8 (__m512 __A, const int __R)
+_mm512_ipcvtts_roundps_epi8 (__m512 __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttps2ibs512_mask_round ((__v16sf) __A,
@@ -878,8 +878,8 @@ _mm512_ipcvtt_roundps_epi8 (__m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtt_roundps_epi8 (__m512i __W, __mmask16 __U, __m512 __A,
- const int __R)
+_mm512_mask_ipcvtts_roundps_epi8 (__m512i __W, __mmask16 __U, __m512 __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvttps2ibs512_mask_round ((__v16sf) __A,
(__v16si) __W,
@@ -889,7 +889,7 @@ _mm512_mask_ipcvtt_roundps_epi8 (__m512i __W, __mmask16 __U, __m512 __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtt_roundps_epi8 (__mmask16 __U, __m512 __A, const int __R)
+_mm512_maskz_ipcvtts_roundps_epi8 (__mmask16 __U, __m512 __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttps2ibs512_mask_round ((__v16sf) __A,
@@ -901,7 +901,7 @@ _mm512_maskz_ipcvtt_roundps_epi8 (__mmask16 __U, __m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_ipcvtt_roundps_epu8 (__m512 __A, const int __R)
+_mm512_ipcvtts_roundps_epu8 (__m512 __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttps2iubs512_mask_round ((__v16sf) __A,
@@ -913,8 +913,8 @@ _mm512_ipcvtt_roundps_epu8 (__m512 __A, const int __R)
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_mask_ipcvtt_roundps_epu8 (__m512i __W, __mmask16 __U, __m512 __A,
- const int __R)
+_mm512_mask_ipcvtts_roundps_epu8 (__m512i __W, __mmask16 __U, __m512 __A,
+ const int __R)
{
return (__m512i) __builtin_ia32_cvttps2iubs512_mask_round ((__v16sf) __A,
(__v16si) __W,
@@ -924,7 +924,7 @@ _mm512_mask_ipcvtt_roundps_epu8 (__m512i __W, __mmask16 __U, __m512 __A,
extern __inline __m512i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm512_maskz_ipcvtt_roundps_epu8 (__mmask16 __U, __m512 __A, const int __R)
+_mm512_maskz_ipcvtts_roundps_epu8 (__mmask16 __U, __m512 __A, const int __R)
{
return (__m512i)
__builtin_ia32_cvttps2iubs512_mask_round ((__v16sf) __A,
@@ -1214,7 +1214,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
__R);
}
#else
-#define _mm512_ipcvt_roundph_epi8(A, R) \
+#define _mm512_ipcvts_roundph_epi8(A, R) \
((__m512i) \
__builtin_ia32_cvtph2ibs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1222,13 +1222,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (-1), \
(R)))
-#define _mm512_mask_ipcvt_roundph_epi8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundph_epi8(W, U, A, R) \
((__m512i) __builtin_ia32_cvtph2ibs512_mask_round ((__v32hf) (A), \
(__v32hi) (W), \
(__mmask32) (U), \
(R)))
-#define _mm512_maskz_ipcvt_roundph_epi8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundph_epi8(U, A, R) \
((__m512i) \
__builtin_ia32_cvtph2ibs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1236,7 +1236,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (U), \
(R)))
-#define _mm512_ipcvt_roundph_epu8(A, R) \
+#define _mm512_ipcvts_roundph_epu8(A, R) \
((__m512i) \
__builtin_ia32_cvtph2iubs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1244,13 +1244,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (-1), \
(R)))
-#define _mm512_mask_ipcvt_roundph_epu8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundph_epu8(W, U, A, R) \
((__m512i) __builtin_ia32_cvtph2iubs512_mask_round ((__v32hf) (A), \
(__v32hi) (W), \
(__mmask32) (U), \
(R)))
-#define _mm512_maskz_ipcvt_roundph_epu8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundph_epu8(U, A, R) \
((__m512i) \
__builtin_ia32_cvtph2iubs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1258,7 +1258,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (U), \
(R)))
-#define _mm512_ipcvt_roundps_epi8(A, R) \
+#define _mm512_ipcvts_roundps_epi8(A, R) \
((__m512i) \
__builtin_ia32_cvtps2ibs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1266,13 +1266,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm512_mask_ipcvt_roundps_epi8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundps_epi8(W, U, A, R) \
((__m512i) __builtin_ia32_cvtps2ibs512_mask_round ((__v16sf) (A), \
(__v16si) (W), \
(__mmask16) (U), \
(R)))
-#define _mm512_maskz_ipcvt_roundps_epi8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundps_epi8(U, A, R) \
((__m512i) \
__builtin_ia32_cvtps2ibs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1280,7 +1280,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm512_ipcvt_roundps_epu8(A, R) \
+#define _mm512_ipcvts_roundps_epu8(A, R) \
((__m512i) \
__builtin_ia32_cvtps2iubs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1288,13 +1288,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm512_mask_ipcvt_roundps_epu8(W, U, A, R) \
+#define _mm512_mask_ipcvts_roundps_epu8(W, U, A, R) \
((__m512i) __builtin_ia32_cvtps2iubs512_mask_round ((__v16sf) (A), \
(__v16si) (W), \
(__mmask16) (U), \
(R)))
-#define _mm512_maskz_ipcvt_roundps_epu8(U, A, R) \
+#define _mm512_maskz_ipcvts_roundps_epu8(U, A, R) \
((__m512i) \
__builtin_ia32_cvtps2iubs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1302,7 +1302,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm512_ipcvtt_roundph_epi8(A, R) \
+#define _mm512_ipcvtts_roundph_epi8(A, R) \
((__m512i) \
__builtin_ia32_cvttph2ibs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1310,13 +1310,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (-1), \
(R)))
-#define _mm512_mask_ipcvtt_roundph_epi8(W, U, A, R) \
+#define _mm512_mask_ipcvtts_roundph_epi8(W, U, A, R) \
((__m512i) __builtin_ia32_cvttph2ibs512_mask_round ((__v32hf) (A), \
(__v32hi) (W), \
(__mmask32) (U), \
(R)))
-#define _mm512_maskz_ipcvtt_roundph_epi8(U, A, R) \
+#define _mm512_maskz_ipcvtts_roundph_epi8(U, A, R) \
((__m512i) \
__builtin_ia32_cvttph2ibs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1324,7 +1324,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (U), \
(R)))
-#define _mm512_ipcvtt_roundph_epu8(A, R) \
+#define _mm512_ipcvtts_roundph_epu8(A, R) \
((__m512i) \
__builtin_ia32_cvttph2iubs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1332,13 +1332,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (-1), \
(R)))
-#define _mm512_mask_ipcvtt_roundph_epu8(W, U, A, R) \
+#define _mm512_mask_ipcvtts_roundph_epu8(W, U, A, R) \
((__m512i) __builtin_ia32_cvttph2iubs512_mask_round ((__v32hf) (A), \
(__v32hi) (W), \
(__mmask32) (U), \
(R)))
-#define _mm512_maskz_ipcvtt_roundph_epu8(U, A, R) \
+#define _mm512_maskz_ipcvtts_roundph_epu8(U, A, R) \
((__m512i) \
__builtin_ia32_cvttph2iubs512_mask_round ((__v32hf) (A), \
(__v32hi) \
@@ -1346,7 +1346,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask32) (U), \
(R)))
-#define _mm512_ipcvtt_roundps_epi8(A, R) \
+#define _mm512_ipcvtts_roundps_epi8(A, R) \
((__m512i) \
__builtin_ia32_cvttps2ibs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1354,13 +1354,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm512_mask_ipcvtt_roundps_epi8(W, U, A, R) \
+#define _mm512_mask_ipcvtts_roundps_epi8(W, U, A, R) \
((__m512i) __builtin_ia32_cvttps2ibs512_mask_round ((__v16sf) (A), \
(__v16si) (W), \
(__mmask16) (U), \
(R)))
-#define _mm512_maskz_ipcvtt_roundps_epi8(U, A, R) \
+#define _mm512_maskz_ipcvtts_roundps_epi8(U, A, R) \
((__m512i) \
__builtin_ia32_cvttps2ibs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1368,7 +1368,7 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm512_ipcvtt_roundps_epu8(A, R) \
+#define _mm512_ipcvtts_roundps_epu8(A, R) \
((__m512i) \
__builtin_ia32_cvttps2iubs512_mask_round ((__v16sf) (A), \
(__v16si) \
@@ -1376,13 +1376,13 @@ _mm512_maskz_cvtts_roundps_epu64 (__mmask8 __U, __m256 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm512_mask_ipcvtt_roundps_epu8(W, U, A, R) \
+#define _mm512_mask_ipcvtts_roundps_epu8(W, U, A, R) \
((__m512i) __builtin_ia32_cvttps2iubs512_mask_round ((__v16sf) (A), \
(__v16si) (W), \
(__mmask16) (U), \
(R)))
-#define _mm512_maskz_ipcvtt_roundps_epu8(U, A, R) \
+#define _mm512_maskz_ipcvtts_roundps_epu8(U, A, R) \
((__m512i) \
__builtin_ia32_cvttps2iubs512_mask_round ((__v16sf) (A), \
(__v16si) \
diff --git a/gcc/config/i386/avx10_2satcvtintrin.h b/gcc/config/i386/avx10_2satcvtintrin.h
index 9588bb1..c662c4b 100644
--- a/gcc/config/i386/avx10_2satcvtintrin.h
+++ b/gcc/config/i386/avx10_2satcvtintrin.h
@@ -36,7 +36,7 @@
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvtbf16_epi8 (__m128bh __A)
+_mm_ipcvts_bf16_epi8 (__m128bh __A)
{
return (__m128i) __builtin_ia32_cvtbf162ibs128_mask ((__v8bf) __A,
(__v8hi)
@@ -46,7 +46,7 @@ _mm_ipcvtbf16_epi8 (__m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvtbf16_epi8 (__m128i __W, __mmask8 __U, __m128bh __A)
+_mm_mask_ipcvts_bf16_epi8 (__m128i __W, __mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvtbf162ibs128_mask ((__v8bf) __A,
(__v8hi) __W,
@@ -55,7 +55,7 @@ _mm_mask_ipcvtbf16_epi8 (__m128i __W, __mmask8 __U, __m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvtbf16_epi8 (__mmask8 __U, __m128bh __A)
+_mm_maskz_ipcvts_bf16_epi8 (__mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvtbf162ibs128_mask ((__v8bf) __A,
(__v8hi)
@@ -65,7 +65,7 @@ _mm_maskz_ipcvtbf16_epi8 (__mmask8 __U, __m128bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtbf16_epi8 (__m256bh __A)
+_mm256_ipcvts_bf16_epi8 (__m256bh __A)
{
return
(__m256i) __builtin_ia32_cvtbf162ibs256_mask ((__v16bf) __A,
@@ -76,7 +76,7 @@ _mm256_ipcvtbf16_epi8 (__m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtbf16_epi8 (__m256i __W, __mmask16 __U, __m256bh __A)
+_mm256_mask_ipcvts_bf16_epi8 (__m256i __W, __mmask16 __U, __m256bh __A)
{
return (__m256i) __builtin_ia32_cvtbf162ibs256_mask ((__v16bf) __A,
(__v16hi) __W,
@@ -85,7 +85,7 @@ _mm256_mask_ipcvtbf16_epi8 (__m256i __W, __mmask16 __U, __m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtbf16_epi8 (__mmask16 __U, __m256bh __A)
+_mm256_maskz_ipcvts_bf16_epi8 (__mmask16 __U, __m256bh __A)
{
return
(__m256i) __builtin_ia32_cvtbf162ibs256_mask ((__v16bf) __A,
@@ -96,7 +96,7 @@ _mm256_maskz_ipcvtbf16_epi8 (__mmask16 __U, __m256bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvtbf16_epu8 (__m128bh __A)
+_mm_ipcvts_bf16_epu8 (__m128bh __A)
{
return
(__m128i) __builtin_ia32_cvtbf162iubs128_mask ((__v8bf) __A,
@@ -107,7 +107,7 @@ _mm_ipcvtbf16_epu8 (__m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvtbf16_epu8 (__m128i __W, __mmask8 __U, __m128bh __A)
+_mm_mask_ipcvts_bf16_epu8 (__m128i __W, __mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvtbf162iubs128_mask ((__v8bf) __A,
(__v8hi) __W,
@@ -116,7 +116,7 @@ _mm_mask_ipcvtbf16_epu8 (__m128i __W, __mmask8 __U, __m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvtbf16_epu8 (__mmask8 __U, __m128bh __A)
+_mm_maskz_ipcvts_bf16_epu8 (__mmask8 __U, __m128bh __A)
{
return
(__m128i) __builtin_ia32_cvtbf162iubs128_mask ((__v8bf) __A,
@@ -127,7 +127,7 @@ _mm_maskz_ipcvtbf16_epu8 (__mmask8 __U, __m128bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtbf16_epu8 (__m256bh __A)
+_mm256_ipcvts_bf16_epu8 (__m256bh __A)
{
return
(__m256i) __builtin_ia32_cvtbf162iubs256_mask ((__v16bf) __A,
@@ -138,7 +138,7 @@ _mm256_ipcvtbf16_epu8 (__m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtbf16_epu8 (__m256i __W, __mmask16 __U, __m256bh __A)
+_mm256_mask_ipcvts_bf16_epu8 (__m256i __W, __mmask16 __U, __m256bh __A)
{
return (__m256i) __builtin_ia32_cvtbf162iubs256_mask ((__v16bf) __A,
(__v16hi) __W,
@@ -147,7 +147,7 @@ _mm256_mask_ipcvtbf16_epu8 (__m256i __W, __mmask16 __U, __m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtbf16_epu8 (__mmask16 __U, __m256bh __A)
+_mm256_maskz_ipcvts_bf16_epu8 (__mmask16 __U, __m256bh __A)
{
return
(__m256i) __builtin_ia32_cvtbf162iubs256_mask ((__v16bf) __A,
@@ -158,7 +158,7 @@ _mm256_maskz_ipcvtbf16_epu8 (__mmask16 __U, __m256bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvtph_epi8 (__m128h __A)
+_mm_ipcvts_ph_epi8 (__m128h __A)
{
return (__m128i) __builtin_ia32_cvtph2ibs128_mask ((__v8hf) __A,
(__v8hi)
@@ -168,7 +168,7 @@ _mm_ipcvtph_epi8 (__m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvtph_epi8 (__m128i __W, __mmask8 __U, __m128h __A)
+_mm_mask_ipcvts_ph_epi8 (__m128i __W, __mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvtph2ibs128_mask ((__v8hf) __A,
(__v8hi) __W,
@@ -177,7 +177,7 @@ _mm_mask_ipcvtph_epi8 (__m128i __W, __mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvtph_epi8 (__mmask8 __U, __m128h __A)
+_mm_maskz_ipcvts_ph_epi8 (__mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvtph2ibs128_mask ((__v8hf) __A,
(__v8hi)
@@ -187,7 +187,7 @@ _mm_maskz_ipcvtph_epi8 (__mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvtph_epu8 (__m128h __A)
+_mm_ipcvts_ph_epu8 (__m128h __A)
{
return (__m128i) __builtin_ia32_cvtph2iubs128_mask ((__v8hf) __A,
(__v8hi)
@@ -197,7 +197,7 @@ _mm_ipcvtph_epu8 (__m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvtph_epu8 (__m128i __W, __mmask8 __U, __m128h __A)
+_mm_mask_ipcvts_ph_epu8 (__m128i __W, __mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvtph2iubs128_mask ((__v8hf) __A,
(__v8hi) __W,
@@ -206,7 +206,7 @@ _mm_mask_ipcvtph_epu8 (__m128i __W, __mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvtph_epu8 (__mmask8 __U, __m128h __A)
+_mm_maskz_ipcvts_ph_epu8 (__mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvtph2iubs128_mask ((__v8hf) __A,
(__v8hi)
@@ -216,7 +216,7 @@ _mm_maskz_ipcvtph_epu8 (__mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvtps_epi8 (__m128 __A)
+_mm_ipcvts_ps_epi8 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvtps2ibs128_mask ((__v4sf) __A,
(__v4si)
@@ -226,7 +226,7 @@ _mm_ipcvtps_epi8 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvtps_epi8 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_ipcvts_ps_epi8 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvtps2ibs128_mask ((__v4sf) __A,
(__v4si) __W,
@@ -235,7 +235,7 @@ _mm_mask_ipcvtps_epi8 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvtps_epi8 (__mmask8 __U, __m128 __A)
+_mm_maskz_ipcvts_ps_epi8 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvtps2ibs128_mask ((__v4sf) __A,
(__v4si)
@@ -245,7 +245,7 @@ _mm_maskz_ipcvtps_epi8 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvtps_epu8 (__m128 __A)
+_mm_ipcvts_ps_epu8 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvtps2iubs128_mask ((__v4sf) __A,
(__v4si)
@@ -255,7 +255,7 @@ _mm_ipcvtps_epu8 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvtps_epu8 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_ipcvts_ps_epu8 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvtps2iubs128_mask ((__v4sf) __A,
(__v4si) __W,
@@ -264,7 +264,7 @@ _mm_mask_ipcvtps_epu8 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvtps_epu8 (__mmask8 __U, __m128 __A)
+_mm_maskz_ipcvts_ps_epu8 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvtps2iubs128_mask ((__v4sf) __A,
(__v4si)
@@ -274,7 +274,7 @@ _mm_maskz_ipcvtps_epu8 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvttbf16_epi8 (__m128bh __A)
+_mm_ipcvtts_bf16_epi8 (__m128bh __A)
{
return
(__m128i) __builtin_ia32_cvttbf162ibs128_mask ((__v8bf) __A,
@@ -285,7 +285,7 @@ _mm_ipcvttbf16_epi8 (__m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvttbf16_epi8 (__m128i __W, __mmask8 __U, __m128bh __A)
+_mm_mask_ipcvtts_bf16_epi8 (__m128i __W, __mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvttbf162ibs128_mask ((__v8bf) __A,
(__v8hi) __W,
@@ -294,7 +294,7 @@ _mm_mask_ipcvttbf16_epi8 (__m128i __W, __mmask8 __U, __m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvttbf16_epi8 (__mmask8 __U, __m128bh __A)
+_mm_maskz_ipcvtts_bf16_epi8 (__mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvttbf162ibs128_mask ((__v8bf) __A,
(__v8hi)
@@ -304,7 +304,7 @@ _mm_maskz_ipcvttbf16_epi8 (__mmask8 __U, __m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvttbf16_epu8 (__m128bh __A)
+_mm_ipcvtts_bf16_epu8 (__m128bh __A)
{
return
(__m128i) __builtin_ia32_cvttbf162iubs128_mask ((__v8bf) __A,
@@ -315,7 +315,7 @@ _mm_ipcvttbf16_epu8 (__m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvttbf16_epu8 (__m128i __W, __mmask8 __U, __m128bh __A)
+_mm_mask_ipcvtts_bf16_epu8 (__m128i __W, __mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvttbf162iubs128_mask ((__v8bf) __A,
(__v8hi) __W,
@@ -324,7 +324,7 @@ _mm_mask_ipcvttbf16_epu8 (__m128i __W, __mmask8 __U, __m128bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvttbf16_epu8 (__mmask8 __U, __m128bh __A)
+_mm_maskz_ipcvtts_bf16_epu8 (__mmask8 __U, __m128bh __A)
{
return (__m128i) __builtin_ia32_cvttbf162iubs128_mask ((__v8bf) __A,
(__v8hi)
@@ -334,7 +334,7 @@ _mm_maskz_ipcvttbf16_epu8 (__mmask8 __U, __m128bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvttbf16_epi8 (__m256bh __A)
+_mm256_ipcvtts_bf16_epi8 (__m256bh __A)
{
return (__m256i)
__builtin_ia32_cvttbf162ibs256_mask ((__v16bf) __A,
@@ -344,7 +344,7 @@ _mm256_ipcvttbf16_epi8 (__m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvttbf16_epi8 (__m256i __W, __mmask16 __U, __m256bh __A)
+_mm256_mask_ipcvtts_bf16_epi8 (__m256i __W, __mmask16 __U, __m256bh __A)
{
return (__m256i) __builtin_ia32_cvttbf162ibs256_mask ((__v16bf) __A,
(__v16hi) __W,
@@ -353,7 +353,7 @@ _mm256_mask_ipcvttbf16_epi8 (__m256i __W, __mmask16 __U, __m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvttbf16_epi8 (__mmask16 __U, __m256bh __A)
+_mm256_maskz_ipcvtts_bf16_epi8 (__mmask16 __U, __m256bh __A)
{
return (__m256i)
__builtin_ia32_cvttbf162ibs256_mask ((__v16bf) __A,
@@ -363,7 +363,7 @@ _mm256_maskz_ipcvttbf16_epi8 (__mmask16 __U, __m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvttbf16_epu8 (__m256bh __A)
+_mm256_ipcvtts_bf16_epu8 (__m256bh __A)
{
return (__m256i)
__builtin_ia32_cvttbf162iubs256_mask ((__v16bf) __A,
@@ -373,7 +373,7 @@ _mm256_ipcvttbf16_epu8 (__m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvttbf16_epu8 (__m256i __W, __mmask16 __U, __m256bh __A)
+_mm256_mask_ipcvtts_bf16_epu8 (__m256i __W, __mmask16 __U, __m256bh __A)
{
return (__m256i) __builtin_ia32_cvttbf162iubs256_mask ((__v16bf) __A,
(__v16hi) __W,
@@ -382,7 +382,7 @@ _mm256_mask_ipcvttbf16_epu8 (__m256i __W, __mmask16 __U, __m256bh __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvttbf16_epu8 (__mmask16 __U, __m256bh __A)
+_mm256_maskz_ipcvtts_bf16_epu8 (__mmask16 __U, __m256bh __A)
{
return (__m256i)
__builtin_ia32_cvttbf162iubs256_mask ((__v16bf) __A,
@@ -392,7 +392,7 @@ _mm256_maskz_ipcvttbf16_epu8 (__mmask16 __U, __m256bh __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvttph_epi8 (__m128h __A)
+_mm_ipcvtts_ph_epi8 (__m128h __A)
{
return (__m128i) __builtin_ia32_cvttph2ibs128_mask ((__v8hf) __A,
(__v8hi)
@@ -402,7 +402,7 @@ _mm_ipcvttph_epi8 (__m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvttph_epi8 (__m128i __W, __mmask8 __U, __m128h __A)
+_mm_mask_ipcvtts_ph_epi8 (__m128i __W, __mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvttph2ibs128_mask ((__v8hf) __A,
(__v8hi) __W,
@@ -411,7 +411,7 @@ _mm_mask_ipcvttph_epi8 (__m128i __W, __mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvttph_epi8 (__mmask8 __U, __m128h __A)
+_mm_maskz_ipcvtts_ph_epi8 (__mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvttph2ibs128_mask ((__v8hf) __A,
(__v8hi)
@@ -421,7 +421,7 @@ _mm_maskz_ipcvttph_epi8 (__mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvttph_epu8 (__m128h __A)
+_mm_ipcvtts_ph_epu8 (__m128h __A)
{
return (__m128i) __builtin_ia32_cvttph2iubs128_mask ((__v8hf) __A,
(__v8hi)
@@ -431,7 +431,7 @@ _mm_ipcvttph_epu8 (__m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvttph_epu8 (__m128i __W, __mmask8 __U, __m128h __A)
+_mm_mask_ipcvtts_ph_epu8 (__m128i __W, __mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvttph2iubs128_mask ((__v8hf) __A,
(__v8hi) __W,
@@ -440,7 +440,7 @@ _mm_mask_ipcvttph_epu8 (__m128i __W, __mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvttph_epu8 (__mmask8 __U, __m128h __A)
+_mm_maskz_ipcvtts_ph_epu8 (__mmask8 __U, __m128h __A)
{
return (__m128i) __builtin_ia32_cvttph2iubs128_mask ((__v8hf) __A,
(__v8hi)
@@ -450,7 +450,7 @@ _mm_maskz_ipcvttph_epu8 (__mmask8 __U, __m128h __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvttps_epi8 (__m128 __A)
+_mm_ipcvtts_ps_epi8 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2ibs128_mask ((__v4sf) __A,
(__v4si)
@@ -460,7 +460,7 @@ _mm_ipcvttps_epi8 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvttps_epi8 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_ipcvtts_ps_epi8 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2ibs128_mask ((__v4sf) __A,
(__v4si) __W,
@@ -469,7 +469,7 @@ _mm_mask_ipcvttps_epi8 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvttps_epi8 (__mmask8 __U, __m128 __A)
+_mm_maskz_ipcvtts_ps_epi8 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2ibs128_mask ((__v4sf) __A,
(__v4si)
@@ -479,7 +479,7 @@ _mm_maskz_ipcvttps_epi8 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_ipcvttps_epu8 (__m128 __A)
+_mm_ipcvtts_ps_epu8 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2iubs128_mask ((__v4sf) __A,
(__v4si)
@@ -489,7 +489,7 @@ _mm_ipcvttps_epu8 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_ipcvttps_epu8 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_ipcvtts_ps_epu8 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2iubs128_mask ((__v4sf) __A,
(__v4si) __W,
@@ -498,7 +498,7 @@ _mm_mask_ipcvttps_epu8 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_ipcvttps_epu8 (__mmask8 __U, __m128 __A)
+_mm_maskz_ipcvtts_ps_epu8 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2iubs128_mask ((__v4sf) __A,
(__v4si)
@@ -508,7 +508,7 @@ _mm_maskz_ipcvttps_epu8 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttspd_epi32 (__m128d __A)
+_mm_cvtts_pd_epi32 (__m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2dqs128_mask ((__v2df) __A,
(__v4si)
@@ -518,7 +518,7 @@ _mm_cvttspd_epi32 (__m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttspd_epi32 (__m128i __W, __mmask8 __U, __m128d __A)
+_mm_mask_cvtts_pd_epi32 (__m128i __W, __mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2dqs128_mask ((__v2df) __A,
(__v4si) __W,
@@ -527,7 +527,7 @@ _mm_mask_cvttspd_epi32 (__m128i __W, __mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttspd_epi32 (__mmask8 __U, __m128d __A)
+_mm_maskz_cvtts_pd_epi32 (__mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2dqs128_mask ((__v2df) __A,
(__v4si)
@@ -537,7 +537,7 @@ _mm_maskz_cvttspd_epi32 (__mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttspd_epi64 (__m128d __A)
+_mm_cvtts_pd_epi64 (__m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2qqs128_mask ((__v2df) __A,
(__v2di)
@@ -547,7 +547,7 @@ _mm_cvttspd_epi64 (__m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttspd_epi64 (__m128i __W, __mmask8 __U, __m128d __A)
+_mm_mask_cvtts_pd_epi64 (__m128i __W, __mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2qqs128_mask ((__v2df) __A,
(__v2di) __W,
@@ -556,7 +556,7 @@ _mm_mask_cvttspd_epi64 (__m128i __W, __mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttspd_epi64 (__mmask8 __U, __m128d __A)
+_mm_maskz_cvtts_pd_epi64 (__mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2qqs128_mask ((__v2df) __A,
(__v2di)
@@ -566,7 +566,7 @@ _mm_maskz_cvttspd_epi64 (__mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttspd_epu32 (__m128d __A)
+_mm_cvtts_pd_epu32 (__m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2udqs128_mask ((__v2df) __A,
(__v4si)
@@ -576,7 +576,7 @@ _mm_cvttspd_epu32 (__m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttspd_epu32 (__m128i __W, __mmask8 __U, __m128d __A)
+_mm_mask_cvtts_pd_epu32 (__m128i __W, __mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2udqs128_mask ((__v2df) __A,
(__v4si) __W,
@@ -585,7 +585,7 @@ _mm_mask_cvttspd_epu32 (__m128i __W, __mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttspd_epu32 (__mmask8 __U, __m128d __A)
+_mm_maskz_cvtts_pd_epu32 (__mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2udqs128_mask ((__v2df) __A,
(__v4si)
@@ -595,7 +595,7 @@ _mm_maskz_cvttspd_epu32 (__mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttspd_epu64 (__m128d __A)
+_mm_cvtts_pd_epu64 (__m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2uqqs128_mask ((__v2df) __A,
(__v2di)
@@ -605,7 +605,7 @@ _mm_cvttspd_epu64 (__m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttspd_epu64 (__m128i __W, __mmask8 __U, __m128d __A)
+_mm_mask_cvtts_pd_epu64 (__m128i __W, __mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2uqqs128_mask ((__v2df) __A,
(__v2di) __W,
@@ -614,7 +614,7 @@ _mm_mask_cvttspd_epu64 (__m128i __W, __mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttspd_epu64 (__mmask8 __U, __m128d __A)
+_mm_maskz_cvtts_pd_epu64 (__mmask8 __U, __m128d __A)
{
return (__m128i) __builtin_ia32_cvttpd2uqqs128_mask ((__v2df) __A,
(__v2di)
@@ -624,7 +624,7 @@ _mm_maskz_cvttspd_epu64 (__mmask8 __U, __m128d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsps_epi32 (__m128 __A)
+_mm_cvtts_ps_epi32 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2dqs128_mask ((__v4sf) __A,
(__v4si)
@@ -634,7 +634,7 @@ _mm_cvttsps_epi32 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttsps_epi32 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_cvtts_ps_epi32 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2dqs128_mask ((__v4sf) __A,
(__v4si) __W,
@@ -643,7 +643,7 @@ _mm_mask_cvttsps_epi32 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttsps_epi32 (__mmask8 __U, __m128 __A)
+_mm_maskz_cvtts_ps_epi32 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2dqs128_mask ((__v4sf) __A,
(__v4si)
@@ -653,7 +653,7 @@ _mm_maskz_cvttsps_epi32 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsps_epi64 (__m128 __A)
+_mm_cvtts_ps_epi64 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2qqs128_mask ((__v4sf) __A,
(__v2di)
@@ -663,7 +663,7 @@ _mm_cvttsps_epi64 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttsps_epi64 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_cvtts_ps_epi64 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2qqs128_mask ((__v4sf) __A,
(__v2di) __W,
@@ -672,7 +672,7 @@ _mm_mask_cvttsps_epi64 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttsps_epi64 (__mmask8 __U, __m128 __A)
+_mm_maskz_cvtts_ps_epi64 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2qqs128_mask ((__v4sf) __A,
(__v2di)
@@ -682,7 +682,7 @@ _mm_maskz_cvttsps_epi64 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsps_epu32 (__m128 __A)
+_mm_cvtts_ps_epu32 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2udqs128_mask ((__v4sf) __A,
(__v4si)
@@ -692,7 +692,7 @@ _mm_cvttsps_epu32 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttsps_epu32 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_cvtts_ps_epu32 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2udqs128_mask ((__v4sf) __A,
(__v4si) __W,
@@ -701,7 +701,7 @@ _mm_mask_cvttsps_epu32 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttsps_epu32 (__mmask8 __U, __m128 __A)
+_mm_maskz_cvtts_ps_epu32 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2udqs128_mask ((__v4sf) __A,
(__v4si)
@@ -711,7 +711,7 @@ _mm_maskz_cvttsps_epu32 (__mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsps_epu64 (__m128 __A)
+_mm_cvtts_ps_epu64 (__m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2uqqs128_mask ((__v4sf) __A,
(__v2di)
@@ -721,7 +721,7 @@ _mm_cvttsps_epu64 (__m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_mask_cvttsps_epu64 (__m128i __W, __mmask8 __U, __m128 __A)
+_mm_mask_cvtts_ps_epu64 (__m128i __W, __mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2uqqs128_mask ((__v4sf) __A,
(__v2di) __W,
@@ -730,7 +730,7 @@ _mm_mask_cvttsps_epu64 (__m128i __W, __mmask8 __U, __m128 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_maskz_cvttsps_epu64 (__mmask8 __U, __m128 __A)
+_mm_maskz_cvtts_ps_epu64 (__mmask8 __U, __m128 __A)
{
return (__m128i) __builtin_ia32_cvttps2uqqs128_mask ((__v4sf) __A,
(__v2di)
@@ -740,7 +740,7 @@ _mm_maskz_cvttsps_epu64 (__mmask8 __U, __m128 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtph_epi8 (__m256h __A)
+_mm256_ipcvts_ph_epi8 (__m256h __A)
{
return
(__m256i) __builtin_ia32_cvtph2ibs256_mask ((__v16hf) __A,
@@ -751,7 +751,7 @@ _mm256_ipcvtph_epi8 (__m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtph_epi8 (__m256i __W, __mmask16 __U, __m256h __A)
+_mm256_mask_ipcvts_ph_epi8 (__m256i __W, __mmask16 __U, __m256h __A)
{
return (__m256i) __builtin_ia32_cvtph2ibs256_mask ((__v16hf) __A,
(__v16hi) __W,
@@ -760,7 +760,7 @@ _mm256_mask_ipcvtph_epi8 (__m256i __W, __mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtph_epi8 (__mmask16 __U, __m256h __A)
+_mm256_maskz_ipcvts_ph_epi8 (__mmask16 __U, __m256h __A)
{
return
(__m256i) __builtin_ia32_cvtph2ibs256_mask ((__v16hf) __A,
@@ -771,7 +771,7 @@ _mm256_maskz_ipcvtph_epi8 (__mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtph_epu8 (__m256h __A)
+_mm256_ipcvts_ph_epu8 (__m256h __A)
{
return (__m256i)
__builtin_ia32_cvtph2iubs256_mask ((__v16hf) __A,
@@ -782,7 +782,7 @@ _mm256_ipcvtph_epu8 (__m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtph_epu8 (__m256i __W, __mmask16 __U, __m256h __A)
+_mm256_mask_ipcvts_ph_epu8 (__m256i __W, __mmask16 __U, __m256h __A)
{
return (__m256i) __builtin_ia32_cvtph2iubs256_mask ((__v16hf) __A,
(__v16hi) __W,
@@ -791,7 +791,7 @@ _mm256_mask_ipcvtph_epu8 (__m256i __W, __mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtph_epu8 (__mmask16 __U, __m256h __A)
+_mm256_maskz_ipcvts_ph_epu8 (__mmask16 __U, __m256h __A)
{
return
(__m256i) __builtin_ia32_cvtph2iubs256_mask ((__v16hf) __A,
@@ -802,7 +802,7 @@ _mm256_maskz_ipcvtph_epu8 (__mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtps_epi8 (__m256 __A)
+_mm256_ipcvts_ps_epi8 (__m256 __A)
{
return
(__m256i) __builtin_ia32_cvtps2ibs256_mask ((__v8sf) __A,
@@ -813,7 +813,7 @@ _mm256_ipcvtps_epi8 (__m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtps_epi8 (__m256i __W, __mmask8 __U, __m256 __A)
+_mm256_mask_ipcvts_ps_epi8 (__m256i __W, __mmask8 __U, __m256 __A)
{
return (__m256i) __builtin_ia32_cvtps2ibs256_mask ((__v8sf) __A,
(__v8si) __W,
@@ -822,7 +822,7 @@ _mm256_mask_ipcvtps_epi8 (__m256i __W, __mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtps_epi8 (__mmask8 __U, __m256 __A)
+_mm256_maskz_ipcvts_ps_epi8 (__mmask8 __U, __m256 __A)
{
return
(__m256i) __builtin_ia32_cvtps2ibs256_mask ((__v8sf) __A,
@@ -833,7 +833,7 @@ _mm256_maskz_ipcvtps_epi8 (__mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtps_epu8 (__m256 __A)
+_mm256_ipcvts_ps_epu8 (__m256 __A)
{
return (__m256i)
__builtin_ia32_cvtps2iubs256_mask ((__v8sf) __A,
@@ -844,7 +844,7 @@ _mm256_ipcvtps_epu8 (__m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtps_epu8 (__m256i __W, __mmask8 __U, __m256 __A)
+_mm256_mask_ipcvts_ps_epu8 (__m256i __W, __mmask8 __U, __m256 __A)
{
return (__m256i) __builtin_ia32_cvtps2iubs256_mask ((__v8sf) __A,
(__v8si) __W,
@@ -853,7 +853,7 @@ _mm256_mask_ipcvtps_epu8 (__m256i __W, __mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtps_epu8 (__mmask8 __U, __m256 __A)
+_mm256_maskz_ipcvts_ps_epu8 (__mmask8 __U, __m256 __A)
{
return
(__m256i) __builtin_ia32_cvtps2iubs256_mask ((__v8sf) __A,
@@ -864,7 +864,7 @@ _mm256_maskz_ipcvtps_epu8 (__mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvttph_epi8 (__m256h __A)
+_mm256_ipcvtts_ph_epi8 (__m256h __A)
{
return (__m256i)
__builtin_ia32_cvttph2ibs256_mask ((__v16hf) __A,
@@ -875,7 +875,7 @@ _mm256_ipcvttph_epi8 (__m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvttph_epi8 (__m256i __W, __mmask16 __U, __m256h __A)
+_mm256_mask_ipcvtts_ph_epi8 (__m256i __W, __mmask16 __U, __m256h __A)
{
return (__m256i) __builtin_ia32_cvttph2ibs256_mask ((__v16hf) __A,
(__v16hi) __W,
@@ -884,7 +884,7 @@ _mm256_mask_ipcvttph_epi8 (__m256i __W, __mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvttph_epi8 (__mmask16 __U, __m256h __A)
+_mm256_maskz_ipcvtts_ph_epi8 (__mmask16 __U, __m256h __A)
{
return
(__m256i) __builtin_ia32_cvttph2ibs256_mask ((__v16hf) __A,
@@ -895,7 +895,7 @@ _mm256_maskz_ipcvttph_epi8 (__mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvttph_epu8 (__m256h __A)
+_mm256_ipcvtts_ph_epu8 (__m256h __A)
{
return (__m256i)
__builtin_ia32_cvttph2iubs256_mask ((__v16hf) __A,
@@ -906,7 +906,7 @@ _mm256_ipcvttph_epu8 (__m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvttph_epu8 (__m256i __W, __mmask16 __U, __m256h __A)
+_mm256_mask_ipcvtts_ph_epu8 (__m256i __W, __mmask16 __U, __m256h __A)
{
return (__m256i) __builtin_ia32_cvttph2iubs256_mask ((__v16hf) __A,
(__v16hi) __W,
@@ -915,7 +915,7 @@ _mm256_mask_ipcvttph_epu8 (__m256i __W, __mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvttph_epu8 (__mmask16 __U, __m256h __A)
+_mm256_maskz_ipcvtts_ph_epu8 (__mmask16 __U, __m256h __A)
{
return
(__m256i) __builtin_ia32_cvttph2iubs256_mask ((__v16hf) __A,
@@ -926,7 +926,7 @@ _mm256_maskz_ipcvttph_epu8 (__mmask16 __U, __m256h __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvttps_epi8 (__m256 __A)
+_mm256_ipcvtts_ps_epi8 (__m256 __A)
{
return (__m256i)
__builtin_ia32_cvttps2ibs256_mask ((__v8sf) __A,
@@ -937,7 +937,7 @@ _mm256_ipcvttps_epi8 (__m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvttps_epi8 (__m256i __W, __mmask8 __U, __m256 __A)
+_mm256_mask_ipcvtts_ps_epi8 (__m256i __W, __mmask8 __U, __m256 __A)
{
return (__m256i) __builtin_ia32_cvttps2ibs256_mask ((__v8sf) __A,
(__v8si) __W,
@@ -946,7 +946,7 @@ _mm256_mask_ipcvttps_epi8 (__m256i __W, __mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvttps_epi8 (__mmask8 __U, __m256 __A)
+_mm256_maskz_ipcvtts_ps_epi8 (__mmask8 __U, __m256 __A)
{
return
(__m256i) __builtin_ia32_cvttps2ibs256_mask ((__v8sf) __A,
@@ -957,7 +957,7 @@ _mm256_maskz_ipcvttps_epi8 (__mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvttps_epu8 (__m256 __A)
+_mm256_ipcvtts_ps_epu8 (__m256 __A)
{
return (__m256i)
__builtin_ia32_cvttps2iubs256_mask ((__v8sf) __A,
@@ -968,7 +968,7 @@ _mm256_ipcvttps_epu8 (__m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvttps_epu8 (__m256i __W, __mmask8 __U, __m256 __A)
+_mm256_mask_ipcvtts_ps_epu8 (__m256i __W, __mmask8 __U, __m256 __A)
{
return (__m256i) __builtin_ia32_cvttps2iubs256_mask ((__v8sf) __A,
(__v8si) __W,
@@ -977,7 +977,7 @@ _mm256_mask_ipcvttps_epu8 (__m256i __W, __mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvttps_epu8 (__mmask8 __U, __m256 __A)
+_mm256_maskz_ipcvtts_ps_epu8 (__mmask8 __U, __m256 __A)
{
return
(__m256i) __builtin_ia32_cvttps2iubs256_mask ((__v8sf) __A,
@@ -988,7 +988,7 @@ _mm256_maskz_ipcvttps_epu8 (__mmask8 __U, __m256 __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttspd_epi32 (__m256d __A)
+_mm256_cvtts_pd_epi32 (__m256d __A)
{
return
(__m128i) __builtin_ia32_cvttpd2dqs256_mask ((__v4df) __A,
@@ -999,7 +999,7 @@ _mm256_cvttspd_epi32 (__m256d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttspd_epi32 (__m128i __W, __mmask8 __U, __m256d __A)
+_mm256_mask_cvtts_pd_epi32 (__m128i __W, __mmask8 __U, __m256d __A)
{
return (__m128i) __builtin_ia32_cvttpd2dqs256_mask ((__v4df) __A,
(__v4si) __W,
@@ -1008,7 +1008,7 @@ _mm256_mask_cvttspd_epi32 (__m128i __W, __mmask8 __U, __m256d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttspd_epi32 (__mmask8 __U, __m256d __A)
+_mm256_maskz_cvtts_pd_epi32 (__mmask8 __U, __m256d __A)
{
return
(__m128i) __builtin_ia32_cvttpd2dqs256_mask ((__v4df) __A,
@@ -1019,7 +1019,7 @@ _mm256_maskz_cvttspd_epi32 (__mmask8 __U, __m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttspd_epi64 (__m256d __A)
+_mm256_cvtts_pd_epi64 (__m256d __A)
{
return (__m256i)
__builtin_ia32_cvttpd2qqs256_mask ((__v4df) __A,
@@ -1030,7 +1030,7 @@ _mm256_cvttspd_epi64 (__m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttspd_epi64 (__m256i __W, __mmask8 __U, __m256d __A)
+_mm256_mask_cvtts_pd_epi64 (__m256i __W, __mmask8 __U, __m256d __A)
{
return (__m256i) __builtin_ia32_cvttpd2qqs256_mask ((__v4df) __A,
(__v4di) __W,
@@ -1039,7 +1039,7 @@ _mm256_mask_cvttspd_epi64 (__m256i __W, __mmask8 __U, __m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttspd_epi64 (__mmask8 __U, __m256d __A)
+_mm256_maskz_cvtts_pd_epi64 (__mmask8 __U, __m256d __A)
{
return
(__m256i) __builtin_ia32_cvttpd2qqs256_mask ((__v4df) __A,
@@ -1050,7 +1050,7 @@ _mm256_maskz_cvttspd_epi64 (__mmask8 __U, __m256d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttspd_epu32 (__m256d __A)
+_mm256_cvtts_pd_epu32 (__m256d __A)
{
return
(__m128i) __builtin_ia32_cvttpd2udqs256_mask ((__v4df) __A,
@@ -1061,7 +1061,7 @@ _mm256_cvttspd_epu32 (__m256d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttspd_epu32 (__m128i __W, __mmask8 __U, __m256d __A)
+_mm256_mask_cvtts_pd_epu32 (__m128i __W, __mmask8 __U, __m256d __A)
{
return (__m128i) __builtin_ia32_cvttpd2udqs256_mask ((__v4df) __A,
(__v4si) __W,
@@ -1070,7 +1070,7 @@ _mm256_mask_cvttspd_epu32 (__m128i __W, __mmask8 __U, __m256d __A)
extern __inline __m128i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttspd_epu32 (__mmask8 __U, __m256d __A)
+_mm256_maskz_cvtts_pd_epu32 (__mmask8 __U, __m256d __A)
{
return
(__m128i) __builtin_ia32_cvttpd2udqs256_mask ((__v4df) __A,
@@ -1081,7 +1081,7 @@ _mm256_maskz_cvttspd_epu32 (__mmask8 __U, __m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttspd_epu64 (__m256d __A)
+_mm256_cvtts_pd_epu64 (__m256d __A)
{
return (__m256i)
__builtin_ia32_cvttpd2uqqs256_mask ((__v4df) __A,
@@ -1092,7 +1092,7 @@ _mm256_cvttspd_epu64 (__m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttspd_epu64 (__m256i __W, __mmask8 __U, __m256d __A)
+_mm256_mask_cvtts_pd_epu64 (__m256i __W, __mmask8 __U, __m256d __A)
{
return (__m256i) __builtin_ia32_cvttpd2uqqs256_mask ((__v4df) __A,
(__v4di) __W,
@@ -1101,7 +1101,7 @@ _mm256_mask_cvttspd_epu64 (__m256i __W, __mmask8 __U, __m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttspd_epu64 (__mmask8 __U, __m256d __A)
+_mm256_maskz_cvtts_pd_epu64 (__mmask8 __U, __m256d __A)
{
return
(__m256i) __builtin_ia32_cvttpd2uqqs256_mask ((__v4df) __A,
@@ -1112,7 +1112,7 @@ _mm256_maskz_cvttspd_epu64 (__mmask8 __U, __m256d __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttsps_epi32 (__m256 __A)
+_mm256_cvtts_ps_epi32 (__m256 __A)
{
return (__m256i)
__builtin_ia32_cvttps2dqs256_mask ((__v8sf) __A,
@@ -1123,7 +1123,7 @@ _mm256_cvttsps_epi32 (__m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttsps_epi32 (__m256i __W, __mmask8 __U, __m256 __A)
+_mm256_mask_cvtts_ps_epi32 (__m256i __W, __mmask8 __U, __m256 __A)
{
return (__m256i) __builtin_ia32_cvttps2dqs256_mask ((__v8sf) __A,
(__v8si) __W,
@@ -1132,7 +1132,7 @@ _mm256_mask_cvttsps_epi32 (__m256i __W, __mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttsps_epi32 (__mmask8 __U, __m256 __A)
+_mm256_maskz_cvtts_ps_epi32 (__mmask8 __U, __m256 __A)
{
return
(__m256i) __builtin_ia32_cvttps2dqs256_mask ((__v8sf) __A,
@@ -1143,7 +1143,7 @@ _mm256_maskz_cvttsps_epi32 (__mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttsps_epi64 (__m128 __A)
+_mm256_cvtts_ps_epi64 (__m128 __A)
{
return (__m256i)
__builtin_ia32_cvttps2qqs256_mask ((__v4sf) __A,
@@ -1154,7 +1154,7 @@ _mm256_cvttsps_epi64 (__m128 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttsps_epi64 (__m256i __W, __mmask8 __U, __m128 __A)
+_mm256_mask_cvtts_ps_epi64 (__m256i __W, __mmask8 __U, __m128 __A)
{
return (__m256i) __builtin_ia32_cvttps2qqs256_mask ((__v4sf) __A,
(__v4di) __W,
@@ -1163,7 +1163,7 @@ _mm256_mask_cvttsps_epi64 (__m256i __W, __mmask8 __U, __m128 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttsps_epi64 (__mmask8 __U, __m128 __A)
+_mm256_maskz_cvtts_ps_epi64 (__mmask8 __U, __m128 __A)
{
return
(__m256i) __builtin_ia32_cvttps2qqs256_mask ((__v4sf) __A,
@@ -1174,7 +1174,7 @@ _mm256_maskz_cvttsps_epi64 (__mmask8 __U, __m128 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttsps_epu32 (__m256 __A)
+_mm256_cvtts_ps_epu32 (__m256 __A)
{
return (__m256i)
__builtin_ia32_cvttps2udqs256_mask ((__v8sf) __A,
@@ -1185,7 +1185,7 @@ _mm256_cvttsps_epu32 (__m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttsps_epu32 (__m256i __W, __mmask8 __U, __m256 __A)
+_mm256_mask_cvtts_ps_epu32 (__m256i __W, __mmask8 __U, __m256 __A)
{
return (__m256i) __builtin_ia32_cvttps2udqs256_mask ((__v8sf) __A,
(__v8si) __W,
@@ -1194,7 +1194,7 @@ _mm256_mask_cvttsps_epu32 (__m256i __W, __mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttsps_epu32 (__mmask8 __U, __m256 __A)
+_mm256_maskz_cvtts_ps_epu32 (__mmask8 __U, __m256 __A)
{
return
(__m256i) __builtin_ia32_cvttps2udqs256_mask ((__v8sf) __A,
@@ -1205,7 +1205,7 @@ _mm256_maskz_cvttsps_epu32 (__mmask8 __U, __m256 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_cvttsps_epu64 (__m128 __A)
+_mm256_cvtts_ps_epu64 (__m128 __A)
{
return (__m256i)
__builtin_ia32_cvttps2uqqs256_mask ((__v4sf) __A,
@@ -1216,7 +1216,7 @@ _mm256_cvttsps_epu64 (__m128 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_cvttsps_epu64 (__m256i __W, __mmask8 __U, __m128 __A)
+_mm256_mask_cvtts_ps_epu64 (__m256i __W, __mmask8 __U, __m128 __A)
{
return (__m256i) __builtin_ia32_cvttps2uqqs256_mask ((__v4sf) __A,
(__v4di) __W,
@@ -1225,7 +1225,7 @@ _mm256_mask_cvttsps_epu64 (__m256i __W, __mmask8 __U, __m128 __A)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_cvttsps_epu64 (__mmask8 __U, __m128 __A)
+_mm256_maskz_cvtts_ps_epu64 (__mmask8 __U, __m128 __A)
{
return
(__m256i) __builtin_ia32_cvttps2uqqs256_mask ((__v4sf) __A,
@@ -1236,7 +1236,7 @@ _mm256_maskz_cvttsps_epu64 (__mmask8 __U, __m128 __A)
extern __inline int
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttssd_epi32 (__m128d __A)
+_mm_cvtts_sd_epi32 (__m128d __A)
{
return (int) __builtin_ia32_cvttsd2sis32_round ((__v2df) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -1244,7 +1244,7 @@ _mm_cvttssd_epi32 (__m128d __A)
extern __inline unsigned int
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttssd_epu32 (__m128d __A)
+_mm_cvtts_sd_epu32 (__m128d __A)
{
return (unsigned int) __builtin_ia32_cvttsd2usis32_round ((__v2df) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -1252,7 +1252,7 @@ _mm_cvttssd_epu32 (__m128d __A)
extern __inline int
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsss_epi32 (__m128 __A)
+_mm_cvtts_ss_epi32 (__m128 __A)
{
return (int) __builtin_ia32_cvttss2sis32_round ((__v4sf) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -1260,7 +1260,7 @@ _mm_cvttsss_epi32 (__m128 __A)
extern __inline unsigned int
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsss_epu32 (__m128 __A)
+_mm_cvtts_ss_epu32 (__m128 __A)
{
return (unsigned int) __builtin_ia32_cvttss2usis32_round ((__v4sf) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -1269,7 +1269,7 @@ _mm_cvttsss_epu32 (__m128 __A)
#ifdef __OPTIMIZE__
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvt_roundph_epi8 (__m256h __A, const int __R)
+_mm256_ipcvts_roundph_epi8 (__m256h __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvtph2ibs256_mask_round ((__v16hf) __A,
@@ -1281,8 +1281,8 @@ _mm256_ipcvt_roundph_epi8 (__m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvt_roundph_epi8 (__m256i __W, __mmask16 __U, __m256h __A,
- const int __R)
+_mm256_mask_ipcvts_roundph_epi8 (__m256i __W, __mmask16 __U, __m256h __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvtph2ibs256_mask_round ((__v16hf) __A,
(__v16hi) __W,
@@ -1292,7 +1292,7 @@ _mm256_mask_ipcvt_roundph_epi8 (__m256i __W, __mmask16 __U, __m256h __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvt_roundph_epi8 (__mmask16 __U, __m256h __A, const int __R)
+_mm256_maskz_ipcvts_roundph_epi8 (__mmask16 __U, __m256h __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvtph2ibs256_mask_round ((__v16hf) __A,
@@ -1304,7 +1304,7 @@ _mm256_maskz_ipcvt_roundph_epi8 (__mmask16 __U, __m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvt_roundph_epu8 (__m256h __A, const int __R)
+_mm256_ipcvts_roundph_epu8 (__m256h __A, const int __R)
{
return (__m256i)
__builtin_ia32_cvtph2iubs256_mask_round ((__v16hf) __A,
@@ -1316,8 +1316,8 @@ _mm256_ipcvt_roundph_epu8 (__m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvt_roundph_epu8 (__m256i __W, __mmask16 __U, __m256h __A,
- const int __R)
+_mm256_mask_ipcvts_roundph_epu8 (__m256i __W, __mmask16 __U, __m256h __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvtph2iubs256_mask_round ((__v16hf) __A,
(__v16hi) __W,
@@ -1327,7 +1327,7 @@ _mm256_mask_ipcvt_roundph_epu8 (__m256i __W, __mmask16 __U, __m256h __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvt_roundph_epu8 (__mmask16 __U, __m256h __A, const int __R)
+_mm256_maskz_ipcvts_roundph_epu8 (__mmask16 __U, __m256h __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvtph2iubs256_mask_round ((__v16hf) __A,
@@ -1339,7 +1339,7 @@ _mm256_maskz_ipcvt_roundph_epu8 (__mmask16 __U, __m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvt_roundps_epi8 (__m256 __A, const int __R)
+_mm256_ipcvts_roundps_epi8 (__m256 __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvtps2ibs256_mask_round ((__v8sf) __A,
@@ -1351,8 +1351,8 @@ _mm256_ipcvt_roundps_epi8 (__m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvt_roundps_epi8 (__m256i __W, __mmask8 __U, __m256 __A,
- const int __R)
+_mm256_mask_ipcvts_roundps_epi8 (__m256i __W, __mmask8 __U, __m256 __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvtps2ibs256_mask_round ((__v8sf) __A,
(__v8si) __W,
@@ -1362,7 +1362,7 @@ _mm256_mask_ipcvt_roundps_epi8 (__m256i __W, __mmask8 __U, __m256 __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvt_roundps_epi8 (__mmask8 __U, __m256 __A, const int __R)
+_mm256_maskz_ipcvts_roundps_epi8 (__mmask8 __U, __m256 __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvtps2ibs256_mask_round ((__v8sf) __A,
@@ -1374,7 +1374,7 @@ _mm256_maskz_ipcvt_roundps_epi8 (__mmask8 __U, __m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvt_roundps_epu8 (__m256 __A, const int __R)
+_mm256_ipcvts_roundps_epu8 (__m256 __A, const int __R)
{
return (__m256i)
__builtin_ia32_cvtps2iubs256_mask_round ((__v8sf) __A,
@@ -1386,8 +1386,8 @@ _mm256_ipcvt_roundps_epu8 (__m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvt_roundps_epu8 (__m256i __W, __mmask8 __U, __m256 __A,
- const int __R)
+_mm256_mask_ipcvts_roundps_epu8 (__m256i __W, __mmask8 __U, __m256 __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvtps2iubs256_mask_round ((__v8sf) __A,
(__v8si) __W,
@@ -1397,7 +1397,7 @@ _mm256_mask_ipcvt_roundps_epu8 (__m256i __W, __mmask8 __U, __m256 __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvt_roundps_epu8 (__mmask8 __U, __m256 __A, const int __R)
+_mm256_maskz_ipcvts_roundps_epu8 (__mmask8 __U, __m256 __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvtps2iubs256_mask_round ((__v8sf) __A,
@@ -1409,7 +1409,7 @@ _mm256_maskz_ipcvt_roundps_epu8 (__mmask8 __U, __m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtt_roundph_epi8 (__m256h __A, const int __R)
+_mm256_ipcvtts_roundph_epi8 (__m256h __A, const int __R)
{
return (__m256i)
__builtin_ia32_cvttph2ibs256_mask_round ((__v16hf) __A,
@@ -1421,8 +1421,8 @@ _mm256_ipcvtt_roundph_epi8 (__m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtt_roundph_epi8 (__m256i __W, __mmask16 __U, __m256h __A,
- const int __R)
+_mm256_mask_ipcvtts_roundph_epi8 (__m256i __W, __mmask16 __U, __m256h __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvttph2ibs256_mask_round ((__v16hf) __A,
(__v16hi) __W,
@@ -1432,7 +1432,7 @@ _mm256_mask_ipcvtt_roundph_epi8 (__m256i __W, __mmask16 __U, __m256h __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtt_roundph_epi8 (__mmask16 __U, __m256h __A, const int __R)
+_mm256_maskz_ipcvtts_roundph_epi8 (__mmask16 __U, __m256h __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvttph2ibs256_mask_round ((__v16hf) __A,
@@ -1444,7 +1444,7 @@ _mm256_maskz_ipcvtt_roundph_epi8 (__mmask16 __U, __m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtt_roundph_epu8 (__m256h __A, const int __R)
+_mm256_ipcvtts_roundph_epu8 (__m256h __A, const int __R)
{
return (__m256i)
__builtin_ia32_cvttph2iubs256_mask_round ((__v16hf) __A,
@@ -1456,8 +1456,8 @@ _mm256_ipcvtt_roundph_epu8 (__m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtt_roundph_epu8 (__m256i __W, __mmask16 __U, __m256h __A,
- const int __R)
+_mm256_mask_ipcvtts_roundph_epu8 (__m256i __W, __mmask16 __U, __m256h __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvttph2iubs256_mask_round ((__v16hf) __A,
(__v16hi) __W,
@@ -1467,7 +1467,7 @@ _mm256_mask_ipcvtt_roundph_epu8 (__m256i __W, __mmask16 __U, __m256h __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtt_roundph_epu8 (__mmask16 __U, __m256h __A, const int __R)
+_mm256_maskz_ipcvtts_roundph_epu8 (__mmask16 __U, __m256h __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvttph2iubs256_mask_round ((__v16hf) __A,
@@ -1479,7 +1479,7 @@ _mm256_maskz_ipcvtt_roundph_epu8 (__mmask16 __U, __m256h __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtt_roundps_epi8 (__m256 __A, const int __R)
+_mm256_ipcvtts_roundps_epi8 (__m256 __A, const int __R)
{
return (__m256i)
__builtin_ia32_cvttps2ibs256_mask_round ((__v8sf) __A,
@@ -1491,8 +1491,8 @@ _mm256_ipcvtt_roundps_epi8 (__m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtt_roundps_epi8 (__m256i __W, __mmask8 __U, __m256 __A,
- const int __R)
+_mm256_mask_ipcvtts_roundps_epi8 (__m256i __W, __mmask8 __U, __m256 __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvttps2ibs256_mask_round ((__v8sf) __A,
(__v8si) __W,
@@ -1502,7 +1502,7 @@ _mm256_mask_ipcvtt_roundps_epi8 (__m256i __W, __mmask8 __U, __m256 __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtt_roundps_epi8 (__mmask8 __U, __m256 __A, const int __R)
+_mm256_maskz_ipcvtts_roundps_epi8 (__mmask8 __U, __m256 __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvttps2ibs256_mask_round ((__v8sf) __A,
@@ -1514,7 +1514,7 @@ _mm256_maskz_ipcvtt_roundps_epi8 (__mmask8 __U, __m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_ipcvtt_roundps_epu8 (__m256 __A, const int __R)
+_mm256_ipcvtts_roundps_epu8 (__m256 __A, const int __R)
{
return (__m256i)
__builtin_ia32_cvttps2iubs256_mask_round ((__v8sf) __A,
@@ -1526,8 +1526,8 @@ _mm256_ipcvtt_roundps_epu8 (__m256 __A, const int __R)
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_mask_ipcvtt_roundps_epu8 (__m256i __W, __mmask8 __U, __m256 __A,
- const int __R)
+_mm256_mask_ipcvtts_roundps_epu8 (__m256i __W, __mmask8 __U, __m256 __A,
+ const int __R)
{
return (__m256i) __builtin_ia32_cvttps2iubs256_mask_round ((__v8sf) __A,
(__v8si) __W,
@@ -1537,7 +1537,7 @@ _mm256_mask_ipcvtt_roundps_epu8 (__m256i __W, __mmask8 __U, __m256 __A,
extern __inline __m256i
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm256_maskz_ipcvtt_roundps_epu8 (__mmask8 __U, __m256 __A, const int __R)
+_mm256_maskz_ipcvtts_roundps_epu8 (__mmask8 __U, __m256 __A, const int __R)
{
return
(__m256i) __builtin_ia32_cvttps2iubs256_mask_round ((__v8sf) __A,
@@ -1860,7 +1860,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
}
#else
-#define _mm256_ipcvt_roundph_epi8(A, R) \
+#define _mm256_ipcvts_roundph_epi8(A, R) \
((__m256i) \
__builtin_ia32_cvtph2ibs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1868,13 +1868,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm256_mask_ipcvt_roundph_epi8(W, U, A, R) \
+#define _mm256_mask_ipcvts_roundph_epi8(W, U, A, R) \
((__m256i) __builtin_ia32_cvtph2ibs256_mask_round ((__v16hf) (A), \
(__v16hi) (W), \
(__mmask16) (U), \
(R)))
-#define _mm256_maskz_ipcvt_roundph_epi8(U, A, R) \
+#define _mm256_maskz_ipcvts_roundph_epi8(U, A, R) \
((__m256i) \
__builtin_ia32_cvtph2ibs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1882,7 +1882,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm256_ipcvt_roundph_epu8(A, R) \
+#define _mm256_ipcvts_roundph_epu8(A, R) \
((__m256i) \
__builtin_ia32_cvtph2iubs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1890,13 +1890,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm256_mask_ipcvt_roundph_epu8(W, U, A, R) \
+#define _mm256_mask_ipcvts_roundph_epu8(W, U, A, R) \
((__m256i) __builtin_ia32_cvtph2iubs256_mask_round ((__v16hf) (A), \
(__v16hi) (W), \
(__mmask16) (U), \
(R)))
-#define _mm256_maskz_ipcvt_roundph_epu8(U, A, R) \
+#define _mm256_maskz_ipcvts_roundph_epu8(U, A, R) \
((__m256i) \
__builtin_ia32_cvtph2iubs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1904,7 +1904,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm256_ipcvt_roundps_epi8(A, R) \
+#define _mm256_ipcvts_roundps_epi8(A, R) \
((__m256i) \
__builtin_ia32_cvtps2ibs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -1912,13 +1912,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (-1), \
(R)))
-#define _mm256_mask_ipcvt_roundps_epi8(W, U, A, R) \
+#define _mm256_mask_ipcvts_roundps_epi8(W, U, A, R) \
((__m256i) __builtin_ia32_cvtps2ibs256_mask_round ((__v8sf) (A), \
(__v8si) (W), \
(__mmask8) (U), \
(R)))
-#define _mm256_maskz_ipcvt_roundps_epi8(U, A, R) \
+#define _mm256_maskz_ipcvts_roundps_epi8(U, A, R) \
((__m256i) \
__builtin_ia32_cvtps2ibs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -1926,7 +1926,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (U), \
(R)))
-#define _mm256_ipcvt_roundps_epu8(A, R) \
+#define _mm256_ipcvts_roundps_epu8(A, R) \
((__m256i) \
__builtin_ia32_cvtps2iubs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -1934,13 +1934,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (-1), \
(R)))
-#define _mm256_mask_ipcvt_roundps_epu8(W, U, A, R) \
+#define _mm256_mask_ipcvts_roundps_epu8(W, U, A, R) \
((__m256i) __builtin_ia32_cvtps2iubs256_mask_round ((__v8sf) (A), \
(__v8si) (W), \
(__mmask8) (U), \
(R)))
-#define _mm256_maskz_ipcvt_roundps_epu8(U, A, R) \
+#define _mm256_maskz_ipcvts_roundps_epu8(U, A, R) \
((__m256i) \
__builtin_ia32_cvtps2iubs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -1948,7 +1948,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (U), \
(R)))
-#define _mm256_ipcvtt_roundph_epi8(A, R) \
+#define _mm256_ipcvtts_roundph_epi8(A, R) \
((__m256i) \
__builtin_ia32_cvttph2ibs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1956,13 +1956,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm256_mask_ipcvtt_roundph_epi8(W, U, A, R) \
+#define _mm256_mask_ipcvtts_roundph_epi8(W, U, A, R) \
((__m256i) __builtin_ia32_cvttph2ibs256_mask_round ((__v16hf) (A), \
(__v16hi) (W), \
(__mmask16) (U), \
(R)))
-#define _mm256_maskz_ipcvtt_roundph_epi8(U, A, R) \
+#define _mm256_maskz_ipcvtts_roundph_epi8(U, A, R) \
((__m256i) \
__builtin_ia32_cvttph2ibs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1970,7 +1970,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm256_ipcvtt_roundph_epu8(A, R) \
+#define _mm256_ipcvtts_roundph_epu8(A, R) \
((__m256i) \
__builtin_ia32_cvttph2iubs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1978,13 +1978,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (-1), \
(R)))
-#define _mm256_mask_ipcvtt_roundph_epu8(W, U, A, R) \
+#define _mm256_mask_ipcvtts_roundph_epu8(W, U, A, R) \
((__m256i) __builtin_ia32_cvttph2iubs256_mask_round ((__v16hf) (A), \
(__v16hi) (W), \
(__mmask16) (U), \
(R)))
-#define _mm256_maskz_ipcvtt_roundph_epu8(U, A, R) \
+#define _mm256_maskz_ipcvtts_roundph_epu8(U, A, R) \
((__m256i) \
__builtin_ia32_cvttph2iubs256_mask_round ((__v16hf) (A), \
(__v16hi) \
@@ -1992,7 +1992,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask16) (U), \
(R)))
-#define _mm256_ipcvtt_roundps_epi8(A, R) \
+#define _mm256_ipcvtts_roundps_epi8(A, R) \
((__m256i) \
__builtin_ia32_cvttps2ibs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -2000,13 +2000,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (-1), \
(R)))
-#define _mm256_mask_ipcvtt_roundps_epi8(W, U, A, R) \
+#define _mm256_mask_ipcvtts_roundps_epi8(W, U, A, R) \
((__m256i) __builtin_ia32_cvttps2ibs256_mask_round ((__v8sf) (A), \
(__v8si) (W), \
(__mmask8) (U), \
(R)))
-#define _mm256_maskz_ipcvtt_roundps_epi8(U, A, R) \
+#define _mm256_maskz_ipcvtts_roundps_epi8(U, A, R) \
((__m256i) \
__builtin_ia32_cvttps2ibs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -2014,7 +2014,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (U), \
(R)))
-#define _mm256_ipcvtt_roundps_epu8(A, R) \
+#define _mm256_ipcvtts_roundps_epu8(A, R) \
((__m256i) \
__builtin_ia32_cvttps2iubs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -2022,13 +2022,13 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
(__mmask8) (-1), \
(R)))
-#define _mm256_mask_ipcvtt_roundps_epu8(W, U, A, R) \
+#define _mm256_mask_ipcvtts_roundps_epu8(W, U, A, R) \
((__m256i) __builtin_ia32_cvttps2iubs256_mask_round ((__v8sf) (A), \
(__v8si) (W), \
(__mmask8) (U), \
(R)))
-#define _mm256_maskz_ipcvtt_roundps_epu8(U, A, R) \
+#define _mm256_maskz_ipcvtts_roundps_epu8(U, A, R) \
((__m256i) \
__builtin_ia32_cvttps2iubs256_mask_round ((__v8sf) (A), \
(__v8si) \
@@ -2419,7 +2419,7 @@ _mm_cvtts_roundss_epu32 (__m128 __A, const int __R)
#ifdef __x86_64__
extern __inline long long
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttssd_epi64 (__m128d __A)
+_mm_cvtts_sd_epi64 (__m128d __A)
{
return (long long) __builtin_ia32_cvttsd2sis64_round ((__v2df) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -2427,7 +2427,7 @@ _mm_cvttssd_epi64 (__m128d __A)
extern __inline unsigned long long
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttssd_epu64 (__m128d __A)
+_mm_cvtts_sd_epu64 (__m128d __A)
{
return (unsigned long long) __builtin_ia32_cvttsd2usis64_round ((__v2df) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -2435,7 +2435,7 @@ _mm_cvttssd_epu64 (__m128d __A)
extern __inline long long
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsss_epi64 (__m128 __A)
+_mm_cvtts_ss_epi64 (__m128 __A)
{
return (long long) __builtin_ia32_cvttss2sis64_round ((__v4sf) __A,
_MM_FROUND_CUR_DIRECTION);
@@ -2444,7 +2444,7 @@ _mm_cvttsss_epi64 (__m128 __A)
extern __inline unsigned long long
__attribute__ ((__gnu_inline__, __always_inline__, __artificial__))
-_mm_cvttsss_epu64 (__m128 __A)
+_mm_cvtts_ss_epu64 (__m128 __A)
{
return (unsigned long long) __builtin_ia32_cvttss2usis64_round ((__v4sf) __A,
_MM_FROUND_CUR_DIRECTION);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-satcvt-1.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-satcvt-1.c
index bf10ac2..dd24216 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-satcvt-1.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-satcvt-1.c
@@ -117,130 +117,130 @@ volatile __mmask32 m32;
void extern
avx10_2_test (void)
{
- xi = _mm512_ipcvtph_epi8 (xh);
- xi = _mm512_mask_ipcvtph_epi8 (xi, m32, xh);
- xi = _mm512_maskz_ipcvtph_epi8 (m32, xh);
- xi = _mm512_ipcvt_roundph_epi8 (xh, 4);
- xi = _mm512_mask_ipcvt_roundph_epi8 (xi, m32, xh, 8);
- xi = _mm512_maskz_ipcvt_roundph_epi8 (m32, xh, 11);
-
- xi = _mm512_ipcvtph_epu8 (xh);
- xi = _mm512_mask_ipcvtph_epu8 (xi, m32, xh);
- xi = _mm512_maskz_ipcvtph_epu8 (m32, xh);
- xi = _mm512_ipcvt_roundph_epu8 (xh, 4);
- xi = _mm512_mask_ipcvt_roundph_epu8 (xi, m32, xh, 8);
- xi = _mm512_maskz_ipcvt_roundph_epu8 (m32, xh, 11);
-
- xi = _mm512_ipcvttph_epi8 (xh);
- xi = _mm512_mask_ipcvttph_epi8 (xi, m32, xh);
- xi = _mm512_maskz_ipcvttph_epi8 (m32, xh);
- xi = _mm512_ipcvtt_roundph_epi8 (xh, 4);
- xi = _mm512_mask_ipcvtt_roundph_epi8 (xi, m32, xh, 8);
- xi = _mm512_maskz_ipcvtt_roundph_epi8 (m32, xh, 8);
-
- xi = _mm512_ipcvttph_epu8 (xh);
- xi = _mm512_mask_ipcvttph_epu8 (xi, m32, xh);
- xi = _mm512_maskz_ipcvttph_epu8 (m32, xh);
- xi = _mm512_ipcvtt_roundph_epu8 (xh, 4);
- xi = _mm512_mask_ipcvtt_roundph_epu8 (xi, m32, xh, 8);
- xi = _mm512_maskz_ipcvtt_roundph_epu8 (m32, xh, 8);
-
- xi = _mm512_ipcvtps_epi8 (x);
- xi = _mm512_mask_ipcvtps_epi8 (xi, m16, x);
- xi = _mm512_maskz_ipcvtps_epi8 (m16, x);
- xi = _mm512_ipcvt_roundps_epi8 (x, 4);
- xi = _mm512_mask_ipcvt_roundps_epi8 (xi, m16, x, 8);
- xi = _mm512_maskz_ipcvt_roundps_epi8 (m16, x, 11);
-
- xi = _mm512_ipcvtps_epu8 (x);
- xi = _mm512_mask_ipcvtps_epu8 (xi, m16, x);
- xi = _mm512_maskz_ipcvtps_epu8 (m16, x);
- xi = _mm512_ipcvt_roundps_epu8 (x, 4);
- xi = _mm512_mask_ipcvt_roundps_epu8 (xi, m16, x, 8);
- xi = _mm512_maskz_ipcvt_roundps_epu8 (m16, x, 11);
-
- xi = _mm512_ipcvttps_epi8 (x);
- xi = _mm512_mask_ipcvttps_epi8 (xi, m16, x);
- xi = _mm512_maskz_ipcvttps_epi8 (m16, x);
- xi = _mm512_ipcvtt_roundps_epi8 (x, 4);
- xi = _mm512_mask_ipcvtt_roundps_epi8 (xi, m16, x, 8);
- xi = _mm512_maskz_ipcvtt_roundps_epi8 (m16, x, 8);
-
- xi = _mm512_ipcvttps_epu8 (x);
- xi = _mm512_mask_ipcvttps_epu8 (xi, m16, x);
- xi = _mm512_maskz_ipcvttps_epu8 (m16, x);
- xi = _mm512_ipcvtt_roundps_epu8 (x, 4);
- xi = _mm512_mask_ipcvtt_roundps_epu8 (xi, m16, x, 8);
- xi = _mm512_maskz_ipcvtt_roundps_epu8 (m16, x, 8);
-
- xi = _mm512_ipcvtbf16_epi8 (xbh);
- xi = _mm512_mask_ipcvtbf16_epi8 (xi, m32, xbh);
- xi = _mm512_maskz_ipcvtbf16_epi8 (m32, xbh);
-
- xi = _mm512_ipcvtbf16_epu8 (xbh);
- xi = _mm512_mask_ipcvtbf16_epu8 (xi, m32, xbh);
- xi = _mm512_maskz_ipcvtbf16_epu8 (m32, xbh);
-
- xi = _mm512_ipcvttbf16_epi8 (xbh);
- xi = _mm512_mask_ipcvttbf16_epi8 (xi, m32, xbh);
- xi = _mm512_maskz_ipcvttbf16_epi8 (m32, xbh);
-
- xi = _mm512_ipcvttbf16_epu8 (xbh);
- xi = _mm512_mask_ipcvttbf16_epu8 (xi, m32, xbh);
- xi = _mm512_maskz_ipcvttbf16_epu8 (m32, xbh);
-
- hxi = _mm512_cvttspd_epi32 (xd);
- hxi = _mm512_mask_cvttspd_epi32 (hxi, m8, xd);
- hxi = _mm512_maskz_cvttspd_epi32 (m8, xd);
+ xi = _mm512_ipcvts_ph_epi8 (xh);
+ xi = _mm512_mask_ipcvts_ph_epi8 (xi, m32, xh);
+ xi = _mm512_maskz_ipcvts_ph_epi8 (m32, xh);
+ xi = _mm512_ipcvts_roundph_epi8 (xh, 4);
+ xi = _mm512_mask_ipcvts_roundph_epi8 (xi, m32, xh, 8);
+ xi = _mm512_maskz_ipcvts_roundph_epi8 (m32, xh, 11);
+
+ xi = _mm512_ipcvts_ph_epu8 (xh);
+ xi = _mm512_mask_ipcvts_ph_epu8 (xi, m32, xh);
+ xi = _mm512_maskz_ipcvts_ph_epu8 (m32, xh);
+ xi = _mm512_ipcvts_roundph_epu8 (xh, 4);
+ xi = _mm512_mask_ipcvts_roundph_epu8 (xi, m32, xh, 8);
+ xi = _mm512_maskz_ipcvts_roundph_epu8 (m32, xh, 11);
+
+ xi = _mm512_ipcvtts_ph_epi8 (xh);
+ xi = _mm512_mask_ipcvtts_ph_epi8 (xi, m32, xh);
+ xi = _mm512_maskz_ipcvtts_ph_epi8 (m32, xh);
+ xi = _mm512_ipcvtts_roundph_epi8 (xh, 4);
+ xi = _mm512_mask_ipcvtts_roundph_epi8 (xi, m32, xh, 8);
+ xi = _mm512_maskz_ipcvtts_roundph_epi8 (m32, xh, 8);
+
+ xi = _mm512_ipcvtts_ph_epu8 (xh);
+ xi = _mm512_mask_ipcvtts_ph_epu8 (xi, m32, xh);
+ xi = _mm512_maskz_ipcvtts_ph_epu8 (m32, xh);
+ xi = _mm512_ipcvtts_roundph_epu8 (xh, 4);
+ xi = _mm512_mask_ipcvtts_roundph_epu8 (xi, m32, xh, 8);
+ xi = _mm512_maskz_ipcvtts_roundph_epu8 (m32, xh, 8);
+
+ xi = _mm512_ipcvts_ps_epi8 (x);
+ xi = _mm512_mask_ipcvts_ps_epi8 (xi, m16, x);
+ xi = _mm512_maskz_ipcvts_ps_epi8 (m16, x);
+ xi = _mm512_ipcvts_roundps_epi8 (x, 4);
+ xi = _mm512_mask_ipcvts_roundps_epi8 (xi, m16, x, 8);
+ xi = _mm512_maskz_ipcvts_roundps_epi8 (m16, x, 11);
+
+ xi = _mm512_ipcvts_ps_epu8 (x);
+ xi = _mm512_mask_ipcvts_ps_epu8 (xi, m16, x);
+ xi = _mm512_maskz_ipcvts_ps_epu8 (m16, x);
+ xi = _mm512_ipcvts_roundps_epu8 (x, 4);
+ xi = _mm512_mask_ipcvts_roundps_epu8 (xi, m16, x, 8);
+ xi = _mm512_maskz_ipcvts_roundps_epu8 (m16, x, 11);
+
+ xi = _mm512_ipcvtts_ps_epi8 (x);
+ xi = _mm512_mask_ipcvtts_ps_epi8 (xi, m16, x);
+ xi = _mm512_maskz_ipcvtts_ps_epi8 (m16, x);
+ xi = _mm512_ipcvtts_roundps_epi8 (x, 4);
+ xi = _mm512_mask_ipcvtts_roundps_epi8 (xi, m16, x, 8);
+ xi = _mm512_maskz_ipcvtts_roundps_epi8 (m16, x, 8);
+
+ xi = _mm512_ipcvtts_ps_epu8 (x);
+ xi = _mm512_mask_ipcvtts_ps_epu8 (xi, m16, x);
+ xi = _mm512_maskz_ipcvtts_ps_epu8 (m16, x);
+ xi = _mm512_ipcvtts_roundps_epu8 (x, 4);
+ xi = _mm512_mask_ipcvtts_roundps_epu8 (xi, m16, x, 8);
+ xi = _mm512_maskz_ipcvtts_roundps_epu8 (m16, x, 8);
+
+ xi = _mm512_ipcvts_bf16_epi8 (xbh);
+ xi = _mm512_mask_ipcvts_bf16_epi8 (xi, m32, xbh);
+ xi = _mm512_maskz_ipcvts_bf16_epi8 (m32, xbh);
+
+ xi = _mm512_ipcvts_bf16_epu8 (xbh);
+ xi = _mm512_mask_ipcvts_bf16_epu8 (xi, m32, xbh);
+ xi = _mm512_maskz_ipcvts_bf16_epu8 (m32, xbh);
+
+ xi = _mm512_ipcvtts_bf16_epi8 (xbh);
+ xi = _mm512_mask_ipcvtts_bf16_epi8 (xi, m32, xbh);
+ xi = _mm512_maskz_ipcvtts_bf16_epi8 (m32, xbh);
+
+ xi = _mm512_ipcvtts_bf16_epu8 (xbh);
+ xi = _mm512_mask_ipcvtts_bf16_epu8 (xi, m32, xbh);
+ xi = _mm512_maskz_ipcvtts_bf16_epu8 (m32, xbh);
+
+ hxi = _mm512_cvtts_pd_epi32 (xd);
+ hxi = _mm512_mask_cvtts_pd_epi32 (hxi, m8, xd);
+ hxi = _mm512_maskz_cvtts_pd_epi32 (m8, xd);
hxi = _mm512_cvtts_roundpd_epi32 (xd, 8);
hxi = _mm512_mask_cvtts_roundpd_epi32 (hxi, m8, xd, 8);
hxi = _mm512_maskz_cvtts_roundpd_epi32 (m8, xd, 8);
- xi = _mm512_cvttspd_epi64 (xd);
- xi = _mm512_mask_cvttspd_epi64 (xi, m8, xd);
- xi = _mm512_maskz_cvttspd_epi64 (m8, xd);
+ xi = _mm512_cvtts_pd_epi64 (xd);
+ xi = _mm512_mask_cvtts_pd_epi64 (xi, m8, xd);
+ xi = _mm512_maskz_cvtts_pd_epi64 (m8, xd);
xi = _mm512_cvtts_roundpd_epi64 (xd, 8);
xi = _mm512_mask_cvtts_roundpd_epi64 (xi, m8, xd, 8);
xi = _mm512_maskz_cvtts_roundpd_epi64 (m8, xd, 8);
- hxi = _mm512_cvttspd_epu32 (xd);
- hxi = _mm512_mask_cvttspd_epu32 (hxi, m8, xd);
- hxi = _mm512_maskz_cvttspd_epu32 (m8, xd);
+ hxi = _mm512_cvtts_pd_epu32 (xd);
+ hxi = _mm512_mask_cvtts_pd_epu32 (hxi, m8, xd);
+ hxi = _mm512_maskz_cvtts_pd_epu32 (m8, xd);
hxi = _mm512_cvtts_roundpd_epu32 (xd, 8);
hxi = _mm512_mask_cvtts_roundpd_epu32 (hxi, m8, xd, 8);
hxi = _mm512_maskz_cvtts_roundpd_epu32 (m8, xd, 8);
- xi = _mm512_cvttspd_epu64 (xd);
- xi = _mm512_mask_cvttspd_epu64 (xi, m8, xd);
- xi = _mm512_maskz_cvttspd_epu64 (m8, xd);
+ xi = _mm512_cvtts_pd_epu64 (xd);
+ xi = _mm512_mask_cvtts_pd_epu64 (xi, m8, xd);
+ xi = _mm512_maskz_cvtts_pd_epu64 (m8, xd);
xi = _mm512_cvtts_roundpd_epu64 (xd, 8);
xi = _mm512_mask_cvtts_roundpd_epu64 (xi, m8, xd, 8);
xi = _mm512_maskz_cvtts_roundpd_epu64 (m8, xd, 8);
- xi = _mm512_cvttsps_epi32 (x);
- xi = _mm512_mask_cvttsps_epi32 (xi, m16, x);
- xi = _mm512_maskz_cvttsps_epi32 (m16, x);
+ xi = _mm512_cvtts_ps_epi32 (x);
+ xi = _mm512_mask_cvtts_ps_epi32 (xi, m16, x);
+ xi = _mm512_maskz_cvtts_ps_epi32 (m16, x);
xi = _mm512_cvtts_roundps_epi32 (x, 8);
xi = _mm512_mask_cvtts_roundps_epi32 (xi, m16, x, 8);
xi = _mm512_maskz_cvtts_roundps_epi32 (m16, x, 8);
- xi = _mm512_cvttsps_epi64 (hx);
- xi = _mm512_mask_cvttsps_epi64 (xi, m8, hx);
- xi = _mm512_maskz_cvttsps_epi64 (m8, hx);
+ xi = _mm512_cvtts_ps_epi64 (hx);
+ xi = _mm512_mask_cvtts_ps_epi64 (xi, m8, hx);
+ xi = _mm512_maskz_cvtts_ps_epi64 (m8, hx);
xi = _mm512_cvtts_roundps_epi64 (hx, 8);
xi = _mm512_mask_cvtts_roundps_epi64 (xi, m8, hx, 8);
xi = _mm512_maskz_cvtts_roundps_epi64 (m8, hx, 8);
- xi = _mm512_cvttsps_epu32 (x);
- xi = _mm512_mask_cvttsps_epu32 (xi, m16, x);
- xi = _mm512_maskz_cvttsps_epu32 (m16, x);
+ xi = _mm512_cvtts_ps_epu32 (x);
+ xi = _mm512_mask_cvtts_ps_epu32 (xi, m16, x);
+ xi = _mm512_maskz_cvtts_ps_epu32 (m16, x);
xi = _mm512_cvtts_roundps_epu32 (x, 8);
xi = _mm512_mask_cvtts_roundps_epu32 (xi, m16, x, 8);
xi = _mm512_maskz_cvtts_roundps_epu32 (m16, x, 8);
- xi = _mm512_cvttsps_epu64 (hx);
- xi = _mm512_mask_cvttsps_epu64 (xi, m8, hx);
- xi = _mm512_maskz_cvttsps_epu64 (m8, hx);
+ xi = _mm512_cvtts_ps_epu64 (hx);
+ xi = _mm512_mask_cvtts_ps_epu64 (xi, m8, hx);
+ xi = _mm512_maskz_cvtts_ps_epu64 (m8, hx);
xi = _mm512_cvtts_roundps_epu64 (hx, 8);
xi = _mm512_mask_cvtts_roundps_epu64 (xi, m8, hx, 8);
xi = _mm512_maskz_cvtts_roundps_epu64 (m8, hx, 8);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162ibs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162ibs-2.c
index 35dde47..7f7e20c 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162ibs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162ibs-2.c
@@ -50,9 +50,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvtbf16_epi8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvtbf16_epi8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvtbf16_epi8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvts_bf16_epi8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvts_bf16_epi8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvts_bf16_epi8) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162iubs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162iubs-2.c
index 9a1125f..3b4c2ec 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162iubs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtbf162iubs-2.c
@@ -50,9 +50,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvtbf16_epu8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvtbf16_epu8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvtbf16_epu8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvts_bf16_epu8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvts_bf16_epu8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvts_bf16_epu8) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2ibs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2ibs-2.c
index d9ca3ef..0c860b0 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2ibs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2ibs-2.c
@@ -49,9 +49,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvtph_epi8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvtph_epi8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvtph_epi8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvts_ph_epi8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvts_ph_epi8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvts_ph_epi8) (mask, s.x);
CALC (s.a, res_ref);
@@ -67,9 +67,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvt_roundph_epi8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvt_roundph_epi8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvt_roundph_epi8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvts_roundph_epi8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvts_roundph_epi8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvts_roundph_epi8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_w) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2iubs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2iubs-2.c
index cd6aaa4..75e4e11 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2iubs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtph2iubs-2.c
@@ -49,9 +49,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvtph_epu8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvtph_epu8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvtph_epu8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvts_ph_epu8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvts_ph_epu8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvts_ph_epu8) (mask, s.x);
CALC (s.a, res_ref);
@@ -67,9 +67,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvt_roundph_epu8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvt_roundph_epu8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvt_roundph_epu8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvts_roundph_epu8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvts_roundph_epu8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvts_roundph_epu8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_w) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2ibs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2ibs-2.c
index aaa1a64..44a0e2c 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2ibs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2ibs-2.c
@@ -50,9 +50,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvtps_epi8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvtps_epi8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvtps_epi8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvts_ps_epi8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvts_ps_epi8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvts_ps_epi8) (mask, s.x);
CALC (s.a, res_ref);
@@ -68,9 +68,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvt_roundps_epi8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvt_roundps_epi8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvt_roundps_epi8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvts_roundps_epi8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvts_roundps_epi8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvts_roundps_epi8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_d) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2iubs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2iubs-2.c
index 274805a..709734e 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2iubs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvtps2iubs-2.c
@@ -48,9 +48,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvtps_epu8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvtps_epu8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvtps_epu8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvts_ps_epu8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvts_ps_epu8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvts_ps_epu8) (mask, s.x);
CALC (s.a, res_ref);
@@ -66,9 +66,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvt_roundps_epu8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvt_roundps_epu8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvt_roundps_epu8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvts_roundps_epu8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvts_roundps_epu8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvts_roundps_epu8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_d) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162ibs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162ibs-2.c
index b91d951..eea2e70 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162ibs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162ibs-2.c
@@ -50,9 +50,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvttbf16_epi8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvttbf16_epi8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvttbf16_epi8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvtts_bf16_epi8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvtts_bf16_epi8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvtts_bf16_epi8) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162iubs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162iubs-2.c
index e648ca2..9f52302 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162iubs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttbf162iubs-2.c
@@ -50,9 +50,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvttbf16_epu8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvttbf16_epu8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvttbf16_epu8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvtts_bf16_epu8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvtts_bf16_epu8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvtts_bf16_epu8) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2dqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2dqs-2.c
index fd1a2b2..0b12aed 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2dqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2dqs-2.c
@@ -48,9 +48,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttspd_epi32) (s.x);
- res2.x = INTRINSIC (_mask_cvttspd_epi32) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttspd_epi32) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_pd_epi32) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_pd_epi32) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_pd_epi32) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2qqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2qqs-2.c
index a9943e4..fdadda9 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2qqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2qqs-2.c
@@ -47,9 +47,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttspd_epi64) (s.x);
- res2.x = INTRINSIC (_mask_cvttspd_epi64) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttspd_epi64) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_pd_epi64) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_pd_epi64) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_pd_epi64) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2udqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2udqs-2.c
index ac39288..dbf0567 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2udqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2udqs-2.c
@@ -48,9 +48,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttspd_epu32) (s.x);
- res2.x = INTRINSIC (_mask_cvttspd_epu32) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttspd_epu32) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_pd_epu32) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_pd_epu32) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_pd_epu32) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2uqqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2uqqs-2.c
index 346978b..d5bb46a 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2uqqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttpd2uqqs-2.c
@@ -47,9 +47,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttspd_epu64) (s.x);
- res2.x = INTRINSIC (_mask_cvttspd_epu64) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttspd_epu64) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_pd_epu64) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_pd_epu64) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_pd_epu64) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2ibs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2ibs-2.c
index e50de96..03f18f7 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2ibs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2ibs-2.c
@@ -49,9 +49,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvttph_epi8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvttph_epi8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvttph_epi8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvtts_ph_epi8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvtts_ph_epi8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvtts_ph_epi8) (mask, s.x);
CALC (s.a, res_ref);
@@ -67,9 +67,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvtt_roundph_epi8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvtt_roundph_epi8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvtt_roundph_epi8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvtts_roundph_epi8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvtts_roundph_epi8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvtts_roundph_epi8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_w) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2iubs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2iubs-2.c
index 0736356..8a05dfd 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2iubs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttph2iubs-2.c
@@ -49,16 +49,16 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvttph_epu8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvttph_epu8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvttph_epu8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvtts_ph_epu8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvtts_ph_epu8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvtts_ph_epu8) (mask, s.x);
CALC (s.a, res_ref);
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvtt_roundph_epu8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvtt_roundph_epu8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvtt_roundph_epu8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvtts_roundph_epu8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvtts_roundph_epu8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvtts_roundph_epu8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_w) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2dqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2dqs-2.c
index 302457e..ee268cc 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2dqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2dqs-2.c
@@ -47,9 +47,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttsps_epi32) (s.x);
- res2.x = INTRINSIC (_mask_cvttsps_epi32) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttsps_epi32) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_ps_epi32) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_ps_epi32) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_ps_epi32) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2ibs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2ibs-2.c
index 61c5bde..f63fee4 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2ibs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2ibs-2.c
@@ -50,9 +50,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvttps_epi8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvttps_epi8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvttps_epi8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvtts_ps_epi8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvtts_ps_epi8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvtts_ps_epi8) (mask, s.x);
CALC (s.a, res_ref);
@@ -68,9 +68,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvtt_roundps_epi8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvtt_roundps_epi8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvtt_roundps_epi8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvtts_roundps_epi8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvtts_roundps_epi8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvtts_roundps_epi8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_d) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2iubs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2iubs-2.c
index 0fb0d5f..1b0f70e 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2iubs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2iubs-2.c
@@ -48,9 +48,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_ipcvttps_epu8) (s.x);
- res2.x = INTRINSIC (_mask_ipcvttps_epu8) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_ipcvttps_epu8) (mask, s.x);
+ res1.x = INTRINSIC (_ipcvtts_ps_epu8) (s.x);
+ res2.x = INTRINSIC (_mask_ipcvtts_ps_epu8) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_ipcvtts_ps_epu8) (mask, s.x);
CALC (s.a, res_ref);
@@ -66,9 +66,9 @@ TEST (void)
abort ();
#if AVX512F_LEN != 128
- res1.x = INTRINSIC (_ipcvtt_roundps_epu8) (s.x, 8);
- res2.x = INTRINSIC (_mask_ipcvtt_roundps_epu8) (res2.x, mask, s.x, 8);
- res3.x = INTRINSIC (_maskz_ipcvtt_roundps_epu8) (mask, s.x, 8);
+ res1.x = INTRINSIC (_ipcvtts_roundps_epu8) (s.x, 8);
+ res2.x = INTRINSIC (_mask_ipcvtts_roundps_epu8) (res2.x, mask, s.x, 8);
+ res3.x = INTRINSIC (_maskz_ipcvtts_roundps_epu8) (mask, s.x, 8);
if (UNION_CHECK (AVX512F_LEN, i_d) (res1, res_ref))
abort ();
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2qqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2qqs-2.c
index 2ff250e..f8fde12 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2qqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2qqs-2.c
@@ -48,9 +48,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttsps_epi64) (s.x);
- res2.x = INTRINSIC (_mask_cvttsps_epi64) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttsps_epi64) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_ps_epi64) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_ps_epi64) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_ps_epi64) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2udqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2udqs-2.c
index ff0d016..2d7f631 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2udqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2udqs-2.c
@@ -47,9 +47,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttsps_epu32) (s.x);
- res2.x = INTRINSIC (_mask_cvttsps_epu32) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttsps_epu32) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_ps_epu32) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_ps_epu32) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_ps_epu32) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2uqqs-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2uqqs-2.c
index ef3019b..32e206d 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2uqqs-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-512-vcvttps2uqqs-2.c
@@ -48,9 +48,9 @@ TEST (void)
for (i = 0; i < SIZE; i++)
res2.a[i] = DEFAULT_VALUE;
- res1.x = INTRINSIC (_cvttsps_epu64) (s.x);
- res2.x = INTRINSIC (_mask_cvttsps_epu64) (res2.x, mask, s.x);
- res3.x = INTRINSIC (_maskz_cvttsps_epu64) (mask, s.x);
+ res1.x = INTRINSIC (_cvtts_ps_epu64) (s.x);
+ res2.x = INTRINSIC (_mask_cvtts_ps_epu64) (res2.x, mask, s.x);
+ res3.x = INTRINSIC (_maskz_cvtts_ps_epu64) (mask, s.x);
CALC (s.a, res_ref);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-satcvt-1.c b/gcc/testsuite/gcc.target/i386/avx10_2-satcvt-1.c
index e30f958..dd8b874 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-satcvt-1.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-satcvt-1.c
@@ -199,228 +199,228 @@ volatile unsigned long long ull;
void extern
avx10_2_test (void)
{
- xi = _mm256_ipcvtph_epi8 (xh);
- xi = _mm256_mask_ipcvtph_epi8 (xi, m16, xh);
- xi = _mm256_maskz_ipcvtph_epi8 (m16, xh);
- xi = _mm256_ipcvt_roundph_epi8 (xh, 4);
- xi = _mm256_mask_ipcvt_roundph_epi8 (xi, m16, xh, 8);
- xi = _mm256_maskz_ipcvt_roundph_epi8 (m16, xh, 11);
-
- xi = _mm256_ipcvtph_epu8 (xh);
- xi = _mm256_mask_ipcvtph_epu8 (xi, m16, xh);
- xi = _mm256_maskz_ipcvtph_epu8 (m16, xh);
- xi = _mm256_ipcvt_roundph_epu8 (xh, 4);
- xi = _mm256_mask_ipcvt_roundph_epu8 (xi, m16, xh, 8);
- xi = _mm256_maskz_ipcvt_roundph_epu8 (m16, xh, 11);
-
- xi = _mm256_ipcvttph_epi8 (xh);
- xi = _mm256_mask_ipcvttph_epi8 (xi, m16, xh);
- xi = _mm256_maskz_ipcvttph_epi8 (m16, xh);
- xi = _mm256_ipcvtt_roundph_epi8 (xh, 4);
- xi = _mm256_mask_ipcvtt_roundph_epi8 (xi, m16, xh, 8);
- xi = _mm256_maskz_ipcvtt_roundph_epi8 (m16, xh, 8);
-
- xi = _mm256_ipcvttph_epu8 (xh);
- xi = _mm256_mask_ipcvttph_epu8 (xi, m16, xh);
- xi = _mm256_maskz_ipcvttph_epu8 (m16, xh);
- xi = _mm256_ipcvtt_roundph_epu8 (xh, 4);
- xi = _mm256_mask_ipcvtt_roundph_epu8 (xi, m16, xh, 8);
- xi = _mm256_maskz_ipcvtt_roundph_epu8 (m16, xh, 8);
-
- xi = _mm256_ipcvtps_epi8 (x);
- xi = _mm256_mask_ipcvtps_epi8 (xi, m8, x);
- xi = _mm256_maskz_ipcvtps_epi8 (m8, x);
- xi = _mm256_ipcvt_roundps_epi8 (x, 4);
- xi = _mm256_mask_ipcvt_roundps_epi8 (xi, m8, x, 8);
- xi = _mm256_maskz_ipcvt_roundps_epi8 (m8, x, 11);
-
- xi = _mm256_ipcvtps_epu8 (x);
- xi = _mm256_mask_ipcvtps_epu8 (xi, m8, x);
- xi = _mm256_maskz_ipcvtps_epu8 (m8, x);
- xi = _mm256_ipcvt_roundps_epu8 (x, 4);
- xi = _mm256_mask_ipcvt_roundps_epu8 (xi, m8, x, 8);
- xi = _mm256_maskz_ipcvt_roundps_epu8 (m8, x, 11);
-
- xi = _mm256_ipcvttps_epi8 (x);
- xi = _mm256_mask_ipcvttps_epi8 (xi, m8, x);
- xi = _mm256_maskz_ipcvttps_epi8 (m8, x);
- xi = _mm256_ipcvtt_roundps_epi8 (x, 4);
- xi = _mm256_mask_ipcvtt_roundps_epi8 (xi, m8, x, 8);
- xi = _mm256_maskz_ipcvtt_roundps_epi8 (m8, x, 8);
-
- xi = _mm256_ipcvttps_epu8 (x);
- xi = _mm256_mask_ipcvttps_epu8 (xi, m8, x);
- xi = _mm256_maskz_ipcvttps_epu8 (m8, x);
- xi = _mm256_ipcvtt_roundps_epu8 (x, 4);
- xi = _mm256_mask_ipcvtt_roundps_epu8 (xi, m8, x, 8);
- xi = _mm256_maskz_ipcvtt_roundps_epu8 (m8, x, 8);
-
- xi = _mm256_ipcvtbf16_epi8 (xbh);
- xi = _mm256_mask_ipcvtbf16_epi8 (xi, m16, xbh);
- xi = _mm256_maskz_ipcvtbf16_epi8 (m16, xbh);
-
- xi = _mm256_ipcvtbf16_epu8 (xbh);
- xi = _mm256_mask_ipcvtbf16_epu8 (xi, m16, xbh);
- xi = _mm256_maskz_ipcvtbf16_epu8 (m16, xbh);
-
- xi = _mm256_ipcvttbf16_epi8 (xbh);
- xi = _mm256_mask_ipcvttbf16_epi8 (xi, m16, xbh);
- xi = _mm256_maskz_ipcvttbf16_epi8 (m16, xbh);
-
- xi = _mm256_ipcvttbf16_epu8 (xbh);
- xi = _mm256_mask_ipcvttbf16_epu8 (xi, m16, xbh);
- xi = _mm256_maskz_ipcvttbf16_epu8 (m16, xbh);
-
- hxi = _mm_ipcvtph_epi8 (hxh);
- hxi = _mm_mask_ipcvtph_epi8 (hxi, m8, hxh);
- hxi = _mm_maskz_ipcvtph_epi8 (m8, hxh);
-
- hxi = _mm_ipcvtph_epu8 (hxh);
- hxi = _mm_mask_ipcvtph_epu8 (hxi, m8, hxh);
- hxi = _mm_maskz_ipcvtph_epu8 (m8, hxh);
-
- hxi = _mm_ipcvttph_epi8 (hxh);
- hxi = _mm_mask_ipcvttph_epi8 (hxi, m8, hxh);
- hxi = _mm_maskz_ipcvttph_epi8 (m8, hxh);
-
- hxi = _mm_ipcvttph_epu8 (hxh);
- hxi = _mm_mask_ipcvttph_epu8 (hxi, m8, hxh);
- hxi = _mm_maskz_ipcvttph_epu8 (m8, hxh);
-
- hxi = _mm_ipcvtps_epi8 (hx);
- hxi = _mm_mask_ipcvtps_epi8 (hxi, m8, hx);
- hxi = _mm_maskz_ipcvtps_epi8 (m8, hx);
-
- hxi = _mm_ipcvtps_epu8 (hx);
- hxi = _mm_mask_ipcvtps_epu8 (hxi, m8, hx);
- hxi = _mm_maskz_ipcvtps_epu8 (m8, hx);
-
- hxi = _mm_ipcvttps_epi8 (hx);
- hxi = _mm_mask_ipcvttps_epi8 (hxi, m8, hx);
- hxi = _mm_maskz_ipcvttps_epi8 (m8, hx);
-
- hxi = _mm_ipcvttps_epu8 (hx);
- hxi = _mm_mask_ipcvttps_epu8 (hxi, m8, hx);
- hxi = _mm_maskz_ipcvttps_epu8 (m8, hx);
-
- hxi = _mm_ipcvtbf16_epi8 (hxbh);
- hxi = _mm_mask_ipcvtbf16_epi8 (hxi, m8, hxbh);
- hxi = _mm_maskz_ipcvtbf16_epi8 (m8, hxbh);
-
- hxi = _mm_ipcvtbf16_epu8 (hxbh);
- hxi = _mm_mask_ipcvtbf16_epu8 (hxi, m8, hxbh);
- hxi = _mm_maskz_ipcvtbf16_epu8 (m8, hxbh);
-
- hxi = _mm_ipcvttbf16_epi8 (hxbh);
- hxi = _mm_mask_ipcvttbf16_epi8 (hxi, m8, hxbh);
- hxi = _mm_maskz_ipcvttbf16_epi8 (m8, hxbh);
-
- hxi = _mm_ipcvttbf16_epu8 (hxbh);
- hxi = _mm_mask_ipcvttbf16_epu8 (hxi, m8, hxbh);
- hxi = _mm_maskz_ipcvttbf16_epu8 (m8, hxbh);
-
- hxi = _mm256_cvttspd_epi32 (xd);
- hxi = _mm256_mask_cvttspd_epi32 (hxi, m8, xd);
- hxi = _mm256_maskz_cvttspd_epi32 (m8, xd);
+ xi = _mm256_ipcvts_ph_epi8 (xh);
+ xi = _mm256_mask_ipcvts_ph_epi8 (xi, m16, xh);
+ xi = _mm256_maskz_ipcvts_ph_epi8 (m16, xh);
+ xi = _mm256_ipcvts_roundph_epi8 (xh, 4);
+ xi = _mm256_mask_ipcvts_roundph_epi8 (xi, m16, xh, 8);
+ xi = _mm256_maskz_ipcvts_roundph_epi8 (m16, xh, 11);
+
+ xi = _mm256_ipcvts_ph_epu8 (xh);
+ xi = _mm256_mask_ipcvts_ph_epu8 (xi, m16, xh);
+ xi = _mm256_maskz_ipcvts_ph_epu8 (m16, xh);
+ xi = _mm256_ipcvts_roundph_epu8 (xh, 4);
+ xi = _mm256_mask_ipcvts_roundph_epu8 (xi, m16, xh, 8);
+ xi = _mm256_maskz_ipcvts_roundph_epu8 (m16, xh, 11);
+
+ xi = _mm256_ipcvtts_ph_epi8 (xh);
+ xi = _mm256_mask_ipcvtts_ph_epi8 (xi, m16, xh);
+ xi = _mm256_maskz_ipcvtts_ph_epi8 (m16, xh);
+ xi = _mm256_ipcvtts_roundph_epi8 (xh, 4);
+ xi = _mm256_mask_ipcvtts_roundph_epi8 (xi, m16, xh, 8);
+ xi = _mm256_maskz_ipcvtts_roundph_epi8 (m16, xh, 8);
+
+ xi = _mm256_ipcvtts_ph_epu8 (xh);
+ xi = _mm256_mask_ipcvtts_ph_epu8 (xi, m16, xh);
+ xi = _mm256_maskz_ipcvtts_ph_epu8 (m16, xh);
+ xi = _mm256_ipcvtts_roundph_epu8 (xh, 4);
+ xi = _mm256_mask_ipcvtts_roundph_epu8 (xi, m16, xh, 8);
+ xi = _mm256_maskz_ipcvtts_roundph_epu8 (m16, xh, 8);
+
+ xi = _mm256_ipcvts_ps_epi8 (x);
+ xi = _mm256_mask_ipcvts_ps_epi8 (xi, m8, x);
+ xi = _mm256_maskz_ipcvts_ps_epi8 (m8, x);
+ xi = _mm256_ipcvts_roundps_epi8 (x, 4);
+ xi = _mm256_mask_ipcvts_roundps_epi8 (xi, m8, x, 8);
+ xi = _mm256_maskz_ipcvts_roundps_epi8 (m8, x, 11);
+
+ xi = _mm256_ipcvts_ps_epu8 (x);
+ xi = _mm256_mask_ipcvts_ps_epu8 (xi, m8, x);
+ xi = _mm256_maskz_ipcvts_ps_epu8 (m8, x);
+ xi = _mm256_ipcvts_roundps_epu8 (x, 4);
+ xi = _mm256_mask_ipcvts_roundps_epu8 (xi, m8, x, 8);
+ xi = _mm256_maskz_ipcvts_roundps_epu8 (m8, x, 11);
+
+ xi = _mm256_ipcvtts_ps_epi8 (x);
+ xi = _mm256_mask_ipcvtts_ps_epi8 (xi, m8, x);
+ xi = _mm256_maskz_ipcvtts_ps_epi8 (m8, x);
+ xi = _mm256_ipcvtts_roundps_epi8 (x, 4);
+ xi = _mm256_mask_ipcvtts_roundps_epi8 (xi, m8, x, 8);
+ xi = _mm256_maskz_ipcvtts_roundps_epi8 (m8, x, 8);
+
+ xi = _mm256_ipcvtts_ps_epu8 (x);
+ xi = _mm256_mask_ipcvtts_ps_epu8 (xi, m8, x);
+ xi = _mm256_maskz_ipcvtts_ps_epu8 (m8, x);
+ xi = _mm256_ipcvtts_roundps_epu8 (x, 4);
+ xi = _mm256_mask_ipcvtts_roundps_epu8 (xi, m8, x, 8);
+ xi = _mm256_maskz_ipcvtts_roundps_epu8 (m8, x, 8);
+
+ xi = _mm256_ipcvts_bf16_epi8 (xbh);
+ xi = _mm256_mask_ipcvts_bf16_epi8 (xi, m16, xbh);
+ xi = _mm256_maskz_ipcvts_bf16_epi8 (m16, xbh);
+
+ xi = _mm256_ipcvts_bf16_epu8 (xbh);
+ xi = _mm256_mask_ipcvts_bf16_epu8 (xi, m16, xbh);
+ xi = _mm256_maskz_ipcvts_bf16_epu8 (m16, xbh);
+
+ xi = _mm256_ipcvtts_bf16_epi8 (xbh);
+ xi = _mm256_mask_ipcvtts_bf16_epi8 (xi, m16, xbh);
+ xi = _mm256_maskz_ipcvtts_bf16_epi8 (m16, xbh);
+
+ xi = _mm256_ipcvtts_bf16_epu8 (xbh);
+ xi = _mm256_mask_ipcvtts_bf16_epu8 (xi, m16, xbh);
+ xi = _mm256_maskz_ipcvtts_bf16_epu8 (m16, xbh);
+
+ hxi = _mm_ipcvts_ph_epi8 (hxh);
+ hxi = _mm_mask_ipcvts_ph_epi8 (hxi, m8, hxh);
+ hxi = _mm_maskz_ipcvts_ph_epi8 (m8, hxh);
+
+ hxi = _mm_ipcvts_ph_epu8 (hxh);
+ hxi = _mm_mask_ipcvts_ph_epu8 (hxi, m8, hxh);
+ hxi = _mm_maskz_ipcvts_ph_epu8 (m8, hxh);
+
+ hxi = _mm_ipcvtts_ph_epi8 (hxh);
+ hxi = _mm_mask_ipcvtts_ph_epi8 (hxi, m8, hxh);
+ hxi = _mm_maskz_ipcvtts_ph_epi8 (m8, hxh);
+
+ hxi = _mm_ipcvtts_ph_epu8 (hxh);
+ hxi = _mm_mask_ipcvtts_ph_epu8 (hxi, m8, hxh);
+ hxi = _mm_maskz_ipcvtts_ph_epu8 (m8, hxh);
+
+ hxi = _mm_ipcvts_ps_epi8 (hx);
+ hxi = _mm_mask_ipcvts_ps_epi8 (hxi, m8, hx);
+ hxi = _mm_maskz_ipcvts_ps_epi8 (m8, hx);
+
+ hxi = _mm_ipcvts_ps_epu8 (hx);
+ hxi = _mm_mask_ipcvts_ps_epu8 (hxi, m8, hx);
+ hxi = _mm_maskz_ipcvts_ps_epu8 (m8, hx);
+
+ hxi = _mm_ipcvtts_ps_epi8 (hx);
+ hxi = _mm_mask_ipcvtts_ps_epi8 (hxi, m8, hx);
+ hxi = _mm_maskz_ipcvtts_ps_epi8 (m8, hx);
+
+ hxi = _mm_ipcvtts_ps_epu8 (hx);
+ hxi = _mm_mask_ipcvtts_ps_epu8 (hxi, m8, hx);
+ hxi = _mm_maskz_ipcvtts_ps_epu8 (m8, hx);
+
+ hxi = _mm_ipcvts_bf16_epi8 (hxbh);
+ hxi = _mm_mask_ipcvts_bf16_epi8 (hxi, m8, hxbh);
+ hxi = _mm_maskz_ipcvts_bf16_epi8 (m8, hxbh);
+
+ hxi = _mm_ipcvts_bf16_epu8 (hxbh);
+ hxi = _mm_mask_ipcvts_bf16_epu8 (hxi, m8, hxbh);
+ hxi = _mm_maskz_ipcvts_bf16_epu8 (m8, hxbh);
+
+ hxi = _mm_ipcvtts_bf16_epi8 (hxbh);
+ hxi = _mm_mask_ipcvtts_bf16_epi8 (hxi, m8, hxbh);
+ hxi = _mm_maskz_ipcvtts_bf16_epi8 (m8, hxbh);
+
+ hxi = _mm_ipcvtts_bf16_epu8 (hxbh);
+ hxi = _mm_mask_ipcvtts_bf16_epu8 (hxi, m8, hxbh);
+ hxi = _mm_maskz_ipcvtts_bf16_epu8 (m8, hxbh);
+
+ hxi = _mm256_cvtts_pd_epi32 (xd);
+ hxi = _mm256_mask_cvtts_pd_epi32 (hxi, m8, xd);
+ hxi = _mm256_maskz_cvtts_pd_epi32 (m8, xd);
hxi = _mm256_cvtts_roundpd_epi32 (xd, 8);
hxi = _mm256_mask_cvtts_roundpd_epi32 (hxi, m8, xd, 8);
hxi = _mm256_maskz_cvtts_roundpd_epi32 (m8, xd, 8);
- xi = _mm256_cvttspd_epi64 (xd);
- xi = _mm256_mask_cvttspd_epi64 (xi, m8, xd);
- xi = _mm256_maskz_cvttspd_epi64 (m8, xd);
+ xi = _mm256_cvtts_pd_epi64 (xd);
+ xi = _mm256_mask_cvtts_pd_epi64 (xi, m8, xd);
+ xi = _mm256_maskz_cvtts_pd_epi64 (m8, xd);
xi = _mm256_cvtts_roundpd_epi64 (xd, 8);
xi = _mm256_mask_cvtts_roundpd_epi64 (xi, m8, xd, 8);
xi = _mm256_maskz_cvtts_roundpd_epi64 (m8, xd, 8);
- hxi = _mm256_cvttspd_epu32 (xd);
- hxi = _mm256_mask_cvttspd_epu32 (hxi, m8, xd);
- hxi = _mm256_maskz_cvttspd_epu32 (m8, xd);
+ hxi = _mm256_cvtts_pd_epu32 (xd);
+ hxi = _mm256_mask_cvtts_pd_epu32 (hxi, m8, xd);
+ hxi = _mm256_maskz_cvtts_pd_epu32 (m8, xd);
hxi = _mm256_cvtts_roundpd_epu32 (xd, 8);
hxi = _mm256_mask_cvtts_roundpd_epu32 (hxi, m8, xd, 8);
hxi = _mm256_maskz_cvtts_roundpd_epu32 (m8, xd, 8);
- xi = _mm256_cvttspd_epu64 (xd);
- xi = _mm256_mask_cvttspd_epu64 (xi, m8, xd);
- xi = _mm256_maskz_cvttspd_epu64 (m8, xd);
+ xi = _mm256_cvtts_pd_epu64 (xd);
+ xi = _mm256_mask_cvtts_pd_epu64 (xi, m8, xd);
+ xi = _mm256_maskz_cvtts_pd_epu64 (m8, xd);
xi = _mm256_cvtts_roundpd_epu64 (xd, 8);
xi = _mm256_mask_cvtts_roundpd_epu64 (xi, m8, xd, 8);
xi = _mm256_maskz_cvtts_roundpd_epu64 (m8, xd, 8);
- xi = _mm256_cvttsps_epi32 (x);
- xi = _mm256_mask_cvttsps_epi32 (xi, m16, x);
- xi = _mm256_maskz_cvttsps_epi32 (m16, x);
+ xi = _mm256_cvtts_ps_epi32 (x);
+ xi = _mm256_mask_cvtts_ps_epi32 (xi, m16, x);
+ xi = _mm256_maskz_cvtts_ps_epi32 (m16, x);
xi = _mm256_cvtts_roundps_epi32 (x, 8);
xi = _mm256_mask_cvtts_roundps_epi32 (xi, m16, x, 8);
xi = _mm256_maskz_cvtts_roundps_epi32 (m16, x, 8);
- xi = _mm256_cvttsps_epi64 (hx);
- xi = _mm256_mask_cvttsps_epi64 (xi, m8, hx);
- xi = _mm256_maskz_cvttsps_epi64 (m8, hx);
+ xi = _mm256_cvtts_ps_epi64 (hx);
+ xi = _mm256_mask_cvtts_ps_epi64 (xi, m8, hx);
+ xi = _mm256_maskz_cvtts_ps_epi64 (m8, hx);
xi = _mm256_cvtts_roundps_epi64 (hx, 8);
xi = _mm256_mask_cvtts_roundps_epi64 (xi, m8, hx, 8);
xi = _mm256_maskz_cvtts_roundps_epi64 (m8, hx, 8);
- xi = _mm256_cvttsps_epu32 (x);
- xi = _mm256_mask_cvttsps_epu32 (xi, m16, x);
- xi = _mm256_maskz_cvttsps_epu32 (m16, x);
+ xi = _mm256_cvtts_ps_epu32 (x);
+ xi = _mm256_mask_cvtts_ps_epu32 (xi, m16, x);
+ xi = _mm256_maskz_cvtts_ps_epu32 (m16, x);
xi = _mm256_cvtts_roundps_epu32 (x, 8);
xi = _mm256_mask_cvtts_roundps_epu32 (xi, m16, x, 8);
xi = _mm256_maskz_cvtts_roundps_epu32 (m16, x, 8);
- xi = _mm256_cvttsps_epu64 (hx);
- xi = _mm256_mask_cvttsps_epu64 (xi, m8, hx);
- xi = _mm256_maskz_cvttsps_epu64 (m8, hx);
+ xi = _mm256_cvtts_ps_epu64 (hx);
+ xi = _mm256_mask_cvtts_ps_epu64 (xi, m8, hx);
+ xi = _mm256_maskz_cvtts_ps_epu64 (m8, hx);
xi = _mm256_cvtts_roundps_epu64 (hx, 8);
xi = _mm256_mask_cvtts_roundps_epu64 (xi, m8, hx, 8);
xi = _mm256_maskz_cvtts_roundps_epu64 (m8, hx, 8);
- hxi = _mm_cvttspd_epi32 (hxd);
- hxi = _mm_mask_cvttspd_epi32 (hxi, m8, hxd);
- hxi = _mm_maskz_cvttspd_epi32 (m8, hxd);
+ hxi = _mm_cvtts_pd_epi32 (hxd);
+ hxi = _mm_mask_cvtts_pd_epi32 (hxi, m8, hxd);
+ hxi = _mm_maskz_cvtts_pd_epi32 (m8, hxd);
- hxi = _mm_cvttspd_epi64 (hxd);
- hxi = _mm_mask_cvttspd_epi64 (hxi, m8, hxd);
- hxi = _mm_maskz_cvttspd_epi64 (m8, hxd);
+ hxi = _mm_cvtts_pd_epi64 (hxd);
+ hxi = _mm_mask_cvtts_pd_epi64 (hxi, m8, hxd);
+ hxi = _mm_maskz_cvtts_pd_epi64 (m8, hxd);
- hxi = _mm_cvttspd_epu32 (hxd);
- hxi = _mm_mask_cvttspd_epu32 (hxi, m8, hxd);
- hxi = _mm_maskz_cvttspd_epu32 (m8, hxd);
+ hxi = _mm_cvtts_pd_epu32 (hxd);
+ hxi = _mm_mask_cvtts_pd_epu32 (hxi, m8, hxd);
+ hxi = _mm_maskz_cvtts_pd_epu32 (m8, hxd);
- hxi = _mm_cvttspd_epu64 (hxd);
- hxi = _mm_mask_cvttspd_epu64 (hxi, m8, hxd);
- hxi = _mm_maskz_cvttspd_epu64 (m8, hxd);
+ hxi = _mm_cvtts_pd_epu64 (hxd);
+ hxi = _mm_mask_cvtts_pd_epu64 (hxi, m8, hxd);
+ hxi = _mm_maskz_cvtts_pd_epu64 (m8, hxd);
- hxi = _mm_cvttsps_epi32 (hx);
- hxi = _mm_mask_cvttsps_epi32 (hxi, m8, hx);
- hxi = _mm_maskz_cvttsps_epi32 (m8, hx);
+ hxi = _mm_cvtts_ps_epi32 (hx);
+ hxi = _mm_mask_cvtts_ps_epi32 (hxi, m8, hx);
+ hxi = _mm_maskz_cvtts_ps_epi32 (m8, hx);
- hxi = _mm_cvttsps_epi64 (hx);
- hxi = _mm_mask_cvttsps_epi64 (hxi, m8, hx);
- hxi = _mm_maskz_cvttsps_epi64 (m8, hx);
+ hxi = _mm_cvtts_ps_epi64 (hx);
+ hxi = _mm_mask_cvtts_ps_epi64 (hxi, m8, hx);
+ hxi = _mm_maskz_cvtts_ps_epi64 (m8, hx);
- hxi = _mm_cvttsps_epu32 (hx);
- hxi = _mm_mask_cvttsps_epu32 (hxi, m8, hx);
- hxi = _mm_maskz_cvttsps_epu32 (m8, hx);
+ hxi = _mm_cvtts_ps_epu32 (hx);
+ hxi = _mm_mask_cvtts_ps_epu32 (hxi, m8, hx);
+ hxi = _mm_maskz_cvtts_ps_epu32 (m8, hx);
- hxi = _mm_cvttsps_epu64 (hx);
- hxi = _mm_mask_cvttsps_epu64 (hxi, m8, hx);
- hxi = _mm_maskz_cvttsps_epu64 (m8, hx);
+ hxi = _mm_cvtts_ps_epu64 (hx);
+ hxi = _mm_mask_cvtts_ps_epu64 (hxi, m8, hx);
+ hxi = _mm_maskz_cvtts_ps_epu64 (m8, hx);
- i = _mm_cvttssd_epi32 (hxd);
- ui = _mm_cvttssd_epu32 (hxd);
- i = _mm_cvttsss_epi32 (hx);
- ui = _mm_cvttsss_epu32 (hx);
+ i = _mm_cvtts_sd_epi32 (hxd);
+ ui = _mm_cvtts_sd_epu32 (hxd);
+ i = _mm_cvtts_ss_epi32 (hx);
+ ui = _mm_cvtts_ss_epu32 (hx);
i = _mm_cvtts_roundsd_epi32 (hxd, 8);
ui = _mm_cvtts_roundsd_epu32 (hxd, 8);
i = _mm_cvtts_roundss_epi32 (hx, 8);
ui = _mm_cvtts_roundss_epu32 (hx, 8);
#ifdef __x86_64__
- ll = _mm_cvttssd_epi64 (hxd);
- ull = _mm_cvttssd_epu64 (hxd);
- ll = _mm_cvttsss_epi64 (hx);
- ull = _mm_cvttsss_epu64 (hx);
+ ll = _mm_cvtts_sd_epi64 (hxd);
+ ull = _mm_cvtts_sd_epu64 (hxd);
+ ll = _mm_cvtts_ss_epi64 (hx);
+ ull = _mm_cvtts_ss_epu64 (hx);
ll = _mm_cvtts_roundsd_epi64 (hxd, 8);
ull = _mm_cvtts_roundsd_epu64 (hxd, 8);
ll = _mm_cvtts_roundss_epi64 (hx, 8);
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2sis-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2sis-2.c
index 87f2c57..72c7fe4 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2sis-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2sis-2.c
@@ -31,7 +31,7 @@ TEST (void)
if (res1 != res1_ref)
abort();
- res1 = _mm_cvttssd_epi32 (s.x);
+ res1 = _mm_cvtts_sd_epi32 (s.x);
if (s.a[0] > INT_MAX)
res1_ref = INT_MAX;
@@ -56,7 +56,7 @@ TEST (void)
if (res2 != res2_ref)
abort();
- res2 = _mm_cvttssd_epi64 (s.x);
+ res2 = _mm_cvtts_sd_epi64 (s.x);
if (s.a[0] > LLONG_MAX)
res2_ref = LLONG_MAX;
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2usis-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2usis-2.c
index 1e46e25..bce0043 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2usis-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttsd2usis-2.c
@@ -31,7 +31,7 @@ TEST (void)
if (res1 != res1_ref)
abort();
- res1 = _mm_cvttssd_epu32 (s.x);
+ res1 = _mm_cvtts_sd_epu32 (s.x);
if (s.a[0] > UINT_MAX)
res1_ref = UINT_MAX;
@@ -56,7 +56,7 @@ TEST (void)
if (res2 != res2_ref)
abort();
- res2 = _mm_cvttssd_epu64 (s.x);
+ res2 = _mm_cvtts_sd_epu64 (s.x);
if (s.a[0] > ULONG_MAX)
res2_ref = ULONG_MAX;
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2sis-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2sis-2.c
index 5616ca5..0c64922 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2sis-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2sis-2.c
@@ -31,7 +31,7 @@ TEST (void)
if (res1 != res1_ref)
abort();
- res1 = _mm_cvttsss_epi32 (s.x);
+ res1 = _mm_cvtts_ss_epi32 (s.x);
if (s.a[0] > INT_MAX)
res1_ref = INT_MAX;
@@ -56,7 +56,7 @@ TEST (void)
if (res2 != res2_ref)
abort();
- res2 = _mm_cvttsss_epi64 (s.x);
+ res2 = _mm_cvtts_ss_epi64 (s.x);
if (s.a[0] > LLONG_MAX)
res2_ref = LLONG_MAX;
diff --git a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2usis-2.c b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2usis-2.c
index 286f2ef..af63bb7 100644
--- a/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2usis-2.c
+++ b/gcc/testsuite/gcc.target/i386/avx10_2-vcvttss2usis-2.c
@@ -30,7 +30,7 @@ TEST (void)
if (res1 != res1_ref)
abort();
- res1 = _mm_cvttsss_epu32 (s.x);
+ res1 = _mm_cvtts_ss_epu32 (s.x);
if (s.a[0] > UINT_MAX)
res1_ref = UINT_MAX;
@@ -55,7 +55,7 @@ TEST (void)
if (res2 != res2_ref)
abort();
- res2 = _mm_cvttsss_epu64 (s.x);
+ res2 = _mm_cvtts_ss_epu64 (s.x);
if (s.a[0] > ULONG_MAX)
res2_ref = ULONG_MAX;
diff --git a/gcc/testsuite/gcc.target/i386/sse-14.c b/gcc/testsuite/gcc.target/i386/sse-14.c
index 840f296..1afe408 100644
--- a/gcc/testsuite/gcc.target/i386/sse-14.c
+++ b/gcc/testsuite/gcc.target/i386/sse-14.c
@@ -1433,30 +1433,30 @@ test_3 (_mm256_mask_cmp_pbh_mask, __mmask16, __mmask16, __m256bh, __m256bh, 1)
test_3 (_mm_mask_cmp_pbh_mask, __mmask8, __mmask8, __m128bh, __m128bh, 1)
/* avx10_2-512satcvtintrin.h */
-test_1 (_mm512_ipcvt_roundph_epi8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvt_roundph_epu8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvt_roundps_epi8, __m512i, __m512, 8)
-test_1 (_mm512_ipcvt_roundps_epu8, __m512i, __m512, 8)
-test_1 (_mm512_ipcvtt_roundph_epi8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvtt_roundph_epu8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvtt_roundps_epi8, __m512i, __m512, 8)
-test_1 (_mm512_ipcvtt_roundps_epu8, __m512i, __m512, 8)
-test_2 (_mm512_maskz_ipcvt_roundph_epi8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvt_roundph_epu8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvt_roundps_epi8, __m512i, __mmask16, __m512, 8)
-test_2 (_mm512_maskz_ipcvt_roundps_epu8, __m512i, __mmask16, __m512, 8)
-test_2 (_mm512_maskz_ipcvtt_roundph_epi8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvtt_roundph_epu8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvtt_roundps_epi8, __m512i, __mmask16, __m512, 8)
-test_2 (_mm512_maskz_ipcvtt_roundps_epu8, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvt_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvt_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvt_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvt_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvtt_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvtt_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvtt_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvtt_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
+test_1 (_mm512_ipcvts_roundph_epi8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvts_roundph_epu8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvts_roundps_epi8, __m512i, __m512, 8)
+test_1 (_mm512_ipcvts_roundps_epu8, __m512i, __m512, 8)
+test_1 (_mm512_ipcvtts_roundph_epi8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvtts_roundph_epu8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvtts_roundps_epi8, __m512i, __m512, 8)
+test_1 (_mm512_ipcvtts_roundps_epu8, __m512i, __m512, 8)
+test_2 (_mm512_maskz_ipcvts_roundph_epi8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvts_roundph_epu8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvts_roundps_epi8, __m512i, __mmask16, __m512, 8)
+test_2 (_mm512_maskz_ipcvts_roundps_epu8, __m512i, __mmask16, __m512, 8)
+test_2 (_mm512_maskz_ipcvtts_roundph_epi8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvtts_roundph_epu8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvtts_roundps_epi8, __m512i, __mmask16, __m512, 8)
+test_2 (_mm512_maskz_ipcvtts_roundps_epu8, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvts_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvts_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvts_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvts_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvtts_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvtts_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvtts_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvtts_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
test_1 (_mm512_cvtts_roundpd_epi32, __m256i, __m512d, 8)
test_2 (_mm512_maskz_cvtts_roundpd_epi32, __m256i, __mmask8, __m512d, 8)
test_3 (_mm512_mask_cvtts_roundpd_epi32, __m256i, __m256i, __mmask8, __m512d, 8)
@@ -1483,30 +1483,30 @@ test_2 (_mm512_maskz_cvtts_roundps_epu64, __m512i, __mmask8, __m256, 8)
test_3 (_mm512_mask_cvtts_roundps_epu64, __m512i, __m512i, __mmask8, __m256, 8)
/* avx10_2satcvtintrin.h */
-test_1 (_mm256_ipcvt_roundph_epi8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvt_roundph_epu8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvt_roundps_epi8, __m256i, __m256, 8)
-test_1 (_mm256_ipcvt_roundps_epu8, __m256i, __m256, 8)
-test_1 (_mm256_ipcvtt_roundph_epi8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvtt_roundph_epu8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvtt_roundps_epi8, __m256i, __m256, 8)
-test_1 (_mm256_ipcvtt_roundps_epu8, __m256i, __m256, 8)
-test_2 (_mm256_maskz_ipcvt_roundph_epi8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvt_roundph_epu8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvt_roundps_epi8, __m256i, __mmask8, __m256, 8)
-test_2 (_mm256_maskz_ipcvt_roundps_epu8, __m256i, __mmask8, __m256, 8)
-test_2 (_mm256_maskz_ipcvtt_roundph_epi8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvtt_roundph_epu8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvtt_roundps_epi8, __m256i, __mmask8, __m256, 8)
-test_2 (_mm256_maskz_ipcvtt_roundps_epu8, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvt_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvt_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvt_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvt_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvtt_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvtt_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvtt_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvtt_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
+test_1 (_mm256_ipcvts_roundph_epi8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvts_roundph_epu8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvts_roundps_epi8, __m256i, __m256, 8)
+test_1 (_mm256_ipcvts_roundps_epu8, __m256i, __m256, 8)
+test_1 (_mm256_ipcvtts_roundph_epi8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvtts_roundph_epu8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvtts_roundps_epi8, __m256i, __m256, 8)
+test_1 (_mm256_ipcvtts_roundps_epu8, __m256i, __m256, 8)
+test_2 (_mm256_maskz_ipcvts_roundph_epi8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvts_roundph_epu8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvts_roundps_epi8, __m256i, __mmask8, __m256, 8)
+test_2 (_mm256_maskz_ipcvts_roundps_epu8, __m256i, __mmask8, __m256, 8)
+test_2 (_mm256_maskz_ipcvtts_roundph_epi8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvtts_roundph_epu8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvtts_roundps_epi8, __m256i, __mmask8, __m256, 8)
+test_2 (_mm256_maskz_ipcvtts_roundps_epu8, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvts_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvts_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvts_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvts_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvtts_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvtts_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvtts_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvtts_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
test_1 (_mm256_cvtts_roundpd_epi32, __m128i, __m256d, 8)
test_2 (_mm256_maskz_cvtts_roundpd_epi32, __m128i, __mmask8, __m256d, 8)
test_3 (_mm256_mask_cvtts_roundpd_epi32, __m128i, __m128i, __mmask8, __m256d, 8)
diff --git a/gcc/testsuite/gcc.target/i386/sse-22.c b/gcc/testsuite/gcc.target/i386/sse-22.c
index 5e7276e..2da3d05 100644
--- a/gcc/testsuite/gcc.target/i386/sse-22.c
+++ b/gcc/testsuite/gcc.target/i386/sse-22.c
@@ -1472,30 +1472,30 @@ test_3 (_mm256_mask_cmp_pbh_mask, __mmask16, __mmask16, __m256bh, __m256bh, 1)
test_3 (_mm_mask_cmp_pbh_mask, __mmask8, __mmask8, __m128bh, __m128bh, 1)
/* avx10_2-512satcvtintrin.h */
-test_1 (_mm512_ipcvt_roundph_epi8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvt_roundph_epu8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvt_roundps_epi8, __m512i, __m512, 8)
-test_1 (_mm512_ipcvt_roundps_epu8, __m512i, __m512, 8)
-test_1 (_mm512_ipcvtt_roundph_epi8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvtt_roundph_epu8, __m512i, __m512h, 8)
-test_1 (_mm512_ipcvtt_roundps_epi8, __m512i, __m512, 8)
-test_1 (_mm512_ipcvtt_roundps_epu8, __m512i, __m512, 8)
-test_2 (_mm512_maskz_ipcvt_roundph_epi8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvt_roundph_epu8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvt_roundps_epi8, __m512i, __mmask16, __m512, 8)
-test_2 (_mm512_maskz_ipcvt_roundps_epu8, __m512i, __mmask16, __m512, 8)
-test_2 (_mm512_maskz_ipcvtt_roundph_epi8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvtt_roundph_epu8, __m512i, __mmask32, __m512h, 8)
-test_2 (_mm512_maskz_ipcvtt_roundps_epi8, __m512i, __mmask16, __m512, 8)
-test_2 (_mm512_maskz_ipcvtt_roundps_epu8, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvt_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvt_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvt_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvt_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvtt_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvtt_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
-test_3 (_mm512_mask_ipcvtt_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
-test_3 (_mm512_mask_ipcvtt_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
+test_1 (_mm512_ipcvts_roundph_epi8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvts_roundph_epu8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvts_roundps_epi8, __m512i, __m512, 8)
+test_1 (_mm512_ipcvts_roundps_epu8, __m512i, __m512, 8)
+test_1 (_mm512_ipcvtts_roundph_epi8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvtts_roundph_epu8, __m512i, __m512h, 8)
+test_1 (_mm512_ipcvtts_roundps_epi8, __m512i, __m512, 8)
+test_1 (_mm512_ipcvtts_roundps_epu8, __m512i, __m512, 8)
+test_2 (_mm512_maskz_ipcvts_roundph_epi8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvts_roundph_epu8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvts_roundps_epi8, __m512i, __mmask16, __m512, 8)
+test_2 (_mm512_maskz_ipcvts_roundps_epu8, __m512i, __mmask16, __m512, 8)
+test_2 (_mm512_maskz_ipcvtts_roundph_epi8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvtts_roundph_epu8, __m512i, __mmask32, __m512h, 8)
+test_2 (_mm512_maskz_ipcvtts_roundps_epi8, __m512i, __mmask16, __m512, 8)
+test_2 (_mm512_maskz_ipcvtts_roundps_epu8, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvts_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvts_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvts_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvts_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvtts_roundph_epi8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvtts_roundph_epu8, __m512i, __m512i, __mmask32, __m512h, 8)
+test_3 (_mm512_mask_ipcvtts_roundps_epi8, __m512i, __m512i, __mmask16, __m512, 8)
+test_3 (_mm512_mask_ipcvtts_roundps_epu8, __m512i, __m512i, __mmask16, __m512, 8)
test_1 (_mm512_cvtts_roundpd_epi32, __m256i, __m512d, 8)
test_2 (_mm512_maskz_cvtts_roundpd_epi32, __m256i, __mmask8, __m512d, 8)
test_3 (_mm512_mask_cvtts_roundpd_epi32, __m256i, __m256i, __mmask8, __m512d, 8)
@@ -1522,30 +1522,30 @@ test_2 (_mm512_maskz_cvtts_roundps_epu64, __m512i, __mmask8, __m256, 8)
test_3 (_mm512_mask_cvtts_roundps_epu64, __m512i, __m512i, __mmask8, __m256, 8)
/* avx10_2satcvtintrin.h */
-test_1 (_mm256_ipcvt_roundph_epi8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvt_roundph_epu8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvt_roundps_epi8, __m256i, __m256, 8)
-test_1 (_mm256_ipcvt_roundps_epu8, __m256i, __m256, 8)
-test_1 (_mm256_ipcvtt_roundph_epi8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvtt_roundph_epu8, __m256i, __m256h, 8)
-test_1 (_mm256_ipcvtt_roundps_epi8, __m256i, __m256, 8)
-test_1 (_mm256_ipcvtt_roundps_epu8, __m256i, __m256, 8)
-test_2 (_mm256_maskz_ipcvt_roundph_epi8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvt_roundph_epu8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvt_roundps_epi8, __m256i, __mmask8, __m256, 8)
-test_2 (_mm256_maskz_ipcvt_roundps_epu8, __m256i, __mmask8, __m256, 8)
-test_2 (_mm256_maskz_ipcvtt_roundph_epi8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvtt_roundph_epu8, __m256i, __mmask16, __m256h, 8)
-test_2 (_mm256_maskz_ipcvtt_roundps_epi8, __m256i, __mmask8, __m256, 8)
-test_2 (_mm256_maskz_ipcvtt_roundps_epu8, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvt_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvt_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvt_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvt_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvtt_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvtt_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
-test_3 (_mm256_mask_ipcvtt_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
-test_3 (_mm256_mask_ipcvtt_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
+test_1 (_mm256_ipcvts_roundph_epi8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvts_roundph_epu8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvts_roundps_epi8, __m256i, __m256, 8)
+test_1 (_mm256_ipcvts_roundps_epu8, __m256i, __m256, 8)
+test_1 (_mm256_ipcvtts_roundph_epi8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvtts_roundph_epu8, __m256i, __m256h, 8)
+test_1 (_mm256_ipcvtts_roundps_epi8, __m256i, __m256, 8)
+test_1 (_mm256_ipcvtts_roundps_epu8, __m256i, __m256, 8)
+test_2 (_mm256_maskz_ipcvts_roundph_epi8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvts_roundph_epu8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvts_roundps_epi8, __m256i, __mmask8, __m256, 8)
+test_2 (_mm256_maskz_ipcvts_roundps_epu8, __m256i, __mmask8, __m256, 8)
+test_2 (_mm256_maskz_ipcvtts_roundph_epi8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvtts_roundph_epu8, __m256i, __mmask16, __m256h, 8)
+test_2 (_mm256_maskz_ipcvtts_roundps_epi8, __m256i, __mmask8, __m256, 8)
+test_2 (_mm256_maskz_ipcvtts_roundps_epu8, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvts_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvts_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvts_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvts_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvtts_roundph_epi8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvtts_roundph_epu8, __m256i, __m256i, __mmask16, __m256h, 8)
+test_3 (_mm256_mask_ipcvtts_roundps_epi8, __m256i, __m256i, __mmask8, __m256, 8)
+test_3 (_mm256_mask_ipcvtts_roundps_epu8, __m256i, __m256i, __mmask8, __m256, 8)
test_1 (_mm256_cvtts_roundpd_epi32, __m128i, __m256d, 8)
test_2 (_mm256_maskz_cvtts_roundpd_epi32, __m128i, __mmask8, __m256d, 8)
test_3 (_mm256_mask_cvtts_roundpd_epi32, __m128i, __m128i, __mmask8, __m256d, 8)