forked from OSchip/llvm-project
[AVX512] Replace masked AND/OR/XOR intrinsics with native code and remove the builtins.
llvm-svn: 275049
This commit is contained in:
parent
d84f337953
commit
4d61a3c2d8
|
@ -974,12 +974,6 @@ TARGET_BUILTIN(__builtin_ia32_cvtudq2pd512_mask, "V8dV8iV8dUc", "", "avx512f")
|
|||
TARGET_BUILTIN(__builtin_ia32_cvtpd2ps512_mask, "V8fV8dV8fUcIi", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_vcvtps2ph512_mask, "V16sV16fIiV16sUs", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_vcvtph2ps512_mask, "V16fV16sV16fUsIi", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandd512_mask, "V16iV16iV16iV16iUs", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandq512_mask, "V8LLiV8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pord512_mask, "V16iV16iV16iV16iUs", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_porq512_mask, "V8LLiV8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pxord512_mask, "V16iV16iV16iV16iUs", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pxorq512_mask, "V8LLiV8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pabsd512_mask, "V16iV16iV16iUs", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pabsq512_mask, "V8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pmaxsd512_mask, "V16iV16iV16iV16iUs", "", "avx512f")
|
||||
|
@ -1105,22 +1099,6 @@ TARGET_BUILTIN(__builtin_ia32_pmuludq256_mask, "V4LLiV8iV8iV4LLiUc", "", "avx512
|
|||
TARGET_BUILTIN(__builtin_ia32_pmuludq128_mask, "V2LLiV4iV4iV2LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pmulld256_mask, "V8iV8iV8iV8iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pmulld128_mask, "V4iV4iV4iV4iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandd256_mask, "V8iV8iV8iV8iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandd128_mask, "V4iV4iV4iV4iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandnd256_mask, "V8iV8iV8iV8iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandnd128_mask, "V4iV4iV4iV4iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pord256_mask, "V8iV8iV8iV8iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pord128_mask, "V4iV4iV4iV4iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pxord256_mask, "V8iV8iV8iV8iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pxord128_mask, "V4iV4iV4iV4iUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandq256_mask, "V4LLiV4LLiV4LLiV4LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandq128_mask, "V2LLiV2LLiV2LLiV2LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandnq256_mask, "V4LLiV4LLiV4LLiV4LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandnq128_mask, "V2LLiV2LLiV2LLiV2LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_porq256_mask, "V4LLiV4LLiV4LLiV4LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_porq128_mask, "V2LLiV2LLiV2LLiV2LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pxorq256_mask, "V4LLiV4LLiV4LLiV4LLiUc", "", "avx512vl")
|
||||
TARGET_BUILTIN(__builtin_ia32_pxorq128_mask, "V2LLiV2LLiV2LLiV2LLiUc", "", "avx512vl")
|
||||
|
||||
TARGET_BUILTIN(__builtin_ia32_paddb512_mask, "V64cV64cV64cV64cULLi", "", "avx512bw")
|
||||
TARGET_BUILTIN(__builtin_ia32_psubb512_mask, "V64cV64cV64cV64cULLi", "", "avx512bw")
|
||||
|
@ -1138,8 +1116,6 @@ TARGET_BUILTIN(__builtin_ia32_psubw128_mask, "V8sV8sV8sV8sUc", "", "avx512vl,avx
|
|||
TARGET_BUILTIN(__builtin_ia32_pmullw256_mask, "V16sV16sV16sV16sUs", "", "avx512vl,avx512bw")
|
||||
TARGET_BUILTIN(__builtin_ia32_pmullw128_mask, "V8sV8sV8sV8sUc", "", "avx512vl,avx512bw")
|
||||
|
||||
TARGET_BUILTIN(__builtin_ia32_pandnd512_mask, "V16iV16iV16iV16iUs", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_pandnq512_mask, "V8LLiV8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_paddq512_mask, "V8LLiV8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_psubq512_mask, "V8LLiV8LLiV8LLiV8LLiUc", "", "avx512f")
|
||||
TARGET_BUILTIN(__builtin_ia32_paddd512_mask, "V16iV16iV16iV16iUs", "", "avx512f")
|
||||
|
|
|
@ -513,7 +513,7 @@ _mm512_and_epi32(__m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_and_epi32(__m512i __src, __mmask16 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_selectd_512 ((__mmask16) __k,
|
||||
return (__m512i)__builtin_ia32_selectd_512((__mmask16)__k,
|
||||
(__v16si) _mm512_and_epi32(__a, __b),
|
||||
(__v16si) __src);
|
||||
}
|
||||
|
@ -521,7 +521,7 @@ _mm512_mask_and_epi32(__m512i __src, __mmask16 __k, __m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_and_epi32(__mmask16 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) _mm512_mask_and_epi32(_mm512_setzero_si512 (),
|
||||
return (__m512i) _mm512_mask_and_epi32(_mm512_setzero_si512 (),
|
||||
__k, __a, __b);
|
||||
}
|
||||
|
||||
|
@ -542,7 +542,7 @@ _mm512_mask_and_epi64(__m512i __src, __mmask8 __k, __m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_and_epi64(__mmask8 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) _mm512_mask_and_epi64((__v8di)_mm512_setzero_si512 (),
|
||||
return (__m512i) _mm512_mask_and_epi64(_mm512_setzero_si512 (),
|
||||
__k, __a, __b);
|
||||
}
|
||||
|
||||
|
@ -555,59 +555,45 @@ _mm512_andnot_si512 (__m512i __A, __m512i __B)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_andnot_epi32 (__m512i __A, __m512i __B)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pandnd512_mask ((__v16si) __A,
|
||||
(__v16si) __B,
|
||||
(__v16si)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask16) -1);
|
||||
return (__m512i)(~(__v16su)(__A) & (__v16su)__B);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_andnot_epi32 (__m512i __W, __mmask16 __U, __m512i __A, __m512i __B)
|
||||
_mm512_mask_andnot_epi32(__m512i __W, __mmask16 __U, __m512i __A, __m512i __B)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pandnd512_mask ((__v16si) __A,
|
||||
(__v16si) __B,
|
||||
(__v16si) __W,
|
||||
(__mmask16) __U);
|
||||
return (__m512i)__builtin_ia32_selectd_512((__mmask16)__U,
|
||||
(__v16si)_mm512_andnot_epi32(__A, __B),
|
||||
(__v16si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_andnot_epi32 (__mmask16 __U, __m512i __A, __m512i __B)
|
||||
_mm512_maskz_andnot_epi32(__mmask16 __U, __m512i __A, __m512i __B)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pandnd512_mask ((__v16si) __A,
|
||||
(__v16si) __B,
|
||||
(__v16si)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask16) __U);
|
||||
return (__m512i)_mm512_mask_andnot_epi32(_mm512_setzero_si512(),
|
||||
__U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_andnot_epi64 (__m512i __A, __m512i __B)
|
||||
_mm512_andnot_epi64(__m512i __A, __m512i __B)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pandnq512_mask ((__v8di) __A,
|
||||
(__v8di) __B,
|
||||
(__v8di)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask8) -1);
|
||||
return (__m512i)(~(__v8du)(__A) & (__v8du)__B);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_andnot_epi64 (__m512i __W, __mmask8 __U, __m512i __A, __m512i __B)
|
||||
_mm512_mask_andnot_epi64(__m512i __W, __mmask8 __U, __m512i __A, __m512i __B)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pandnq512_mask ((__v8di) __A,
|
||||
(__v8di) __B,
|
||||
(__v8di) __W, __U);
|
||||
return (__m512i)__builtin_ia32_selectq_512((__mmask8)__U,
|
||||
(__v8di)_mm512_andnot_epi64(__A, __B),
|
||||
(__v8di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_andnot_epi64 (__mmask8 __U, __m512i __A, __m512i __B)
|
||||
_mm512_maskz_andnot_epi64(__mmask8 __U, __m512i __A, __m512i __B)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pandnq512_mask ((__v8di) __A,
|
||||
(__v8di) __B,
|
||||
(__v8di)
|
||||
_mm512_setzero_pd (),
|
||||
__U);
|
||||
return (__m512i)_mm512_mask_andnot_epi64(_mm512_setzero_si512(),
|
||||
__U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_or_epi32(__m512i __a, __m512i __b)
|
||||
{
|
||||
|
@ -617,19 +603,15 @@ _mm512_or_epi32(__m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_or_epi32(__m512i __src, __mmask16 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pord512_mask((__v16si) __a,
|
||||
(__v16si) __b,
|
||||
(__v16si) __src,
|
||||
(__mmask16) __k);
|
||||
return (__m512i)__builtin_ia32_selectd_512((__mmask16)__k,
|
||||
(__v16si)_mm512_or_epi32(__a, __b),
|
||||
(__v16si)__src);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_or_epi32(__mmask16 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pord512_mask((__v16si) __a,
|
||||
(__v16si) __b,
|
||||
(__v16si)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask16) __k);
|
||||
return (__m512i)_mm512_mask_or_epi32(_mm512_setzero_si512(), __k, __a, __b);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
|
@ -641,19 +623,15 @@ _mm512_or_epi64(__m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_or_epi64(__m512i __src, __mmask8 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_porq512_mask ((__v8di) __a,
|
||||
(__v8di) __b,
|
||||
(__v8di) __src,
|
||||
(__mmask8) __k);
|
||||
return (__m512i)__builtin_ia32_selectq_512((__mmask8)__k,
|
||||
(__v8di)_mm512_or_epi64(__a, __b),
|
||||
(__v8di)__src);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_or_epi64(__mmask8 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_porq512_mask ((__v8di) __a,
|
||||
(__v8di) __b,
|
||||
(__v8di)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask8) __k);
|
||||
return (__m512i)_mm512_mask_or_epi64(_mm512_setzero_si512(), __k, __a, __b);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
|
@ -665,19 +643,15 @@ _mm512_xor_epi32(__m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_xor_epi32(__m512i __src, __mmask16 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pxord512_mask((__v16si) __a,
|
||||
(__v16si) __b,
|
||||
(__v16si) __src,
|
||||
(__mmask16) __k);
|
||||
return (__m512i)__builtin_ia32_selectd_512((__mmask16)__k,
|
||||
(__v16si)_mm512_xor_epi32(__a, __b),
|
||||
(__v16si)__src);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_xor_epi32(__mmask16 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pxord512_mask((__v16si) __a,
|
||||
(__v16si) __b,
|
||||
(__v16si)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask16) __k);
|
||||
return (__m512i)_mm512_mask_xor_epi32(_mm512_setzero_si512(), __k, __a, __b);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
|
@ -689,19 +663,15 @@ _mm512_xor_epi64(__m512i __a, __m512i __b)
|
|||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_mask_xor_epi64(__m512i __src, __mmask8 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pxorq512_mask ((__v8di) __a,
|
||||
(__v8di) __b,
|
||||
(__v8di) __src,
|
||||
(__mmask8) __k);
|
||||
return (__m512i)__builtin_ia32_selectq_512((__mmask8)__k,
|
||||
(__v8di)_mm512_xor_epi64(__a, __b),
|
||||
(__v8di)__src);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
_mm512_maskz_xor_epi64(__mmask8 __k, __m512i __a, __m512i __b)
|
||||
{
|
||||
return (__m512i) __builtin_ia32_pxorq512_mask ((__v8di) __a,
|
||||
(__v8di) __b,
|
||||
(__v8di)
|
||||
_mm512_setzero_si512 (),
|
||||
(__mmask8) __k);
|
||||
return (__m512i)_mm512_mask_xor_epi64(_mm512_setzero_si512(), __k, __a, __b);
|
||||
}
|
||||
|
||||
static __inline__ __m512i __DEFAULT_FN_ATTRS
|
||||
|
@ -721,6 +691,7 @@ _mm512_xor_si512(__m512i __a, __m512i __b)
|
|||
{
|
||||
return (__m512i)((__v8du)__a ^ (__v8du)__b);
|
||||
}
|
||||
|
||||
/* Arithmetic */
|
||||
|
||||
static __inline __m512d __DEFAULT_FN_ATTRS
|
||||
|
|
|
@ -890,316 +890,231 @@ _mm_mask_mullo_epi32 (__m128i __W, __mmask16 __M, __m128i __A,
|
|||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_and_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
_mm256_mask_and_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandd256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U,
|
||||
(__v8si)_mm256_and_si256(__A, __B),
|
||||
(__v8si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_and_epi32 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
_mm256_maskz_and_epi32(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandd256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si)
|
||||
_mm256_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
return (__m256i)_mm256_mask_and_epi32(_mm256_setzero_si256(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_and_epi32 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
_mm_mask_and_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandd128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m128i)__builtin_ia32_selectd_128((__mmask8)__U,
|
||||
(__v4si)_mm_and_si128(__A, __B),
|
||||
(__v4si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_and_epi32 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
_mm_maskz_and_epi32(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandd128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si)
|
||||
_mm_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
return (__m128i)_mm_mask_and_epi32(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_andnot_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
_mm256_mask_andnot_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandnd256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U,
|
||||
(__v8si)_mm256_andnot_si256(__A, __B),
|
||||
(__v8si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_andnot_epi32 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
_mm256_maskz_andnot_epi32(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandnd256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si)
|
||||
_mm256_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
return (__m256i)_mm256_mask_andnot_epi32(_mm256_setzero_si256(),
|
||||
__U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_andnot_epi32 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B)
|
||||
_mm_mask_andnot_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandnd128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m128i)__builtin_ia32_selectd_128((__mmask8)__U,
|
||||
(__v4si)_mm_andnot_si128(__A, __B),
|
||||
(__v4si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_andnot_epi32 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandnd128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si)
|
||||
_mm_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
return (__m128i)_mm_mask_andnot_epi32(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_or_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
_mm256_mask_or_epi32 (__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pord256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U,
|
||||
(__v8si)_mm256_or_si256(__A, __B),
|
||||
(__v8si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_or_epi32 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
_mm256_maskz_or_epi32(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pord256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si)
|
||||
_mm256_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
return (__m256i)_mm256_mask_or_epi32(_mm256_setzero_si256(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_or_epi32 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
_mm_mask_or_epi32(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pord128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m128i)__builtin_ia32_selectd_128((__mmask8)__U,
|
||||
(__v4si)_mm_or_si128(__A, __B),
|
||||
(__v4si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_or_epi32 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
_mm_maskz_or_epi32(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pord128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si)
|
||||
_mm_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
return (__m128i)_mm_mask_or_epi32(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_xor_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
_mm256_mask_xor_epi32(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pxord256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m256i)__builtin_ia32_selectd_256((__mmask8)__U,
|
||||
(__v8si)_mm256_xor_si256(__A, __B),
|
||||
(__v8si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_xor_epi32 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
_mm256_maskz_xor_epi32(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pxord256_mask ((__v8si) __A,
|
||||
(__v8si) __B,
|
||||
(__v8si)
|
||||
_mm256_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
return (__m256i)_mm256_mask_xor_epi32(_mm256_setzero_si256(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_xor_epi32 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
_mm_mask_xor_epi32(__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pxord128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si) __W,
|
||||
(__mmask8) __U);
|
||||
return (__m128i)__builtin_ia32_selectd_128((__mmask8)__U,
|
||||
(__v4si)_mm_xor_si128(__A, __B),
|
||||
(__v4si)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_xor_epi32 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
_mm_maskz_xor_epi32(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pxord128_mask ((__v4si) __A,
|
||||
(__v4si) __B,
|
||||
(__v4si)
|
||||
_mm_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
return (__m128i)_mm_mask_xor_epi32(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_and_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
_mm256_mask_and_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di) __W, __U);
|
||||
return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U,
|
||||
(__v4di)_mm256_and_si256(__A, __B),
|
||||
(__v4di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_and_epi64 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
_mm256_maskz_and_epi64(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di)
|
||||
_mm256_setzero_pd (),
|
||||
__U);
|
||||
return (__m256i)_mm256_mask_and_epi64(_mm256_setzero_si256(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_and_epi64 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
_mm_mask_and_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U,
|
||||
(__v2di)_mm_and_si128(__A, __B),
|
||||
(__v2di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_and_epi64(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i)_mm_mask_and_epi64(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_andnot_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U,
|
||||
(__v4di)_mm256_andnot_si256(__A, __B),
|
||||
(__v4di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_andnot_epi64(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i)_mm256_mask_andnot_epi64(_mm256_setzero_si256(),
|
||||
__U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_andnot_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U,
|
||||
(__v2di)_mm_andnot_si128(__A, __B),
|
||||
(__v2di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_andnot_epi64(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i)_mm_mask_andnot_epi64(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_or_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U,
|
||||
(__v4di)_mm256_or_si256(__A, __B),
|
||||
(__v4di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_or_epi64(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i)_mm256_mask_or_epi64(_mm256_setzero_si256(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_or_epi64(__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U,
|
||||
(__v2di)_mm_or_si128(__A, __B),
|
||||
(__v2di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_or_epi64(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i)_mm_mask_or_epi64(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_xor_epi64(__m256i __W, __mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i)__builtin_ia32_selectq_256((__mmask8)__U,
|
||||
(__v4di)_mm256_xor_si256(__A, __B),
|
||||
(__v4di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_xor_epi64(__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i)_mm256_mask_xor_epi64(_mm256_setzero_si256(), __U, __A, __B);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_xor_epi64(__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di) __W, __U);
|
||||
return (__m128i)__builtin_ia32_selectq_128((__mmask8)__U,
|
||||
(__v2di)_mm_xor_si128(__A, __B),
|
||||
(__v2di)__W);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_and_epi64 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
_mm_maskz_xor_epi64(__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di)
|
||||
_mm_setzero_pd (),
|
||||
__U);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_andnot_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandnq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di) __W, __U);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_andnot_epi64 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pandnq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di)
|
||||
_mm256_setzero_pd (),
|
||||
__U);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_andnot_epi64 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandnq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di) __W, __U);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_andnot_epi64 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pandnq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di)
|
||||
_mm_setzero_pd (),
|
||||
__U);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_or_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_porq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di) __W,
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_or_epi64 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_porq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_or_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_porq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di) __W,
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_or_epi64 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_porq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_mask_xor_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pxorq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di) __W,
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m256i __DEFAULT_FN_ATTRS
|
||||
_mm256_maskz_xor_epi64 (__mmask8 __U, __m256i __A, __m256i __B)
|
||||
{
|
||||
return (__m256i) __builtin_ia32_pxorq256_mask ((__v4di) __A,
|
||||
(__v4di) __B,
|
||||
(__v4di)
|
||||
_mm256_setzero_si256 (),
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_mask_xor_epi64 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pxorq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di) __W,
|
||||
(__mmask8) __U);
|
||||
}
|
||||
|
||||
static __inline__ __m128i __DEFAULT_FN_ATTRS
|
||||
_mm_maskz_xor_epi64 (__mmask8 __U, __m128i __A, __m128i __B)
|
||||
{
|
||||
return (__m128i) __builtin_ia32_pxorq128_mask ((__v2di) __A,
|
||||
(__v2di) __B,
|
||||
(__v2di)
|
||||
_mm_setzero_si128 (),
|
||||
(__mmask8) __U);
|
||||
return (__m128i)_mm_mask_xor_epi64(_mm_setzero_si128(), __U, __A, __B);
|
||||
}
|
||||
|
||||
#define _mm_cmp_epi32_mask(a, b, p) __extension__ ({ \
|
||||
|
|
|
@ -1428,49 +1428,65 @@ __m512i test_mm512_maskz_and_epi64(__mmask8 __k, __m512i __a, __m512i __b) {
|
|||
|
||||
__m512i test_mm512_mask_or_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_mask_or_epi32
|
||||
// CHECK: @llvm.x86.avx512.mask.por.d.512
|
||||
// CHECK: or <16 x i32>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1>
|
||||
// CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}}
|
||||
return _mm512_mask_or_epi32(__src, __k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_maskz_or_epi32(__mmask16 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_maskz_or_epi32
|
||||
// CHECK: @llvm.x86.avx512.mask.por.d.512
|
||||
// CHECK: or <16 x i32>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1>
|
||||
// CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}}
|
||||
return _mm512_maskz_or_epi32(__k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_mask_or_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_mask_or_epi64
|
||||
// CHECK: @llvm.x86.avx512.mask.por.q.512
|
||||
// CHECK: %[[OR_RES:.*]] = or <8 x i64>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1>
|
||||
// CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[OR_RES]], <8 x i64> %{{.*}}
|
||||
return _mm512_mask_or_epi64(__src, __k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_maskz_or_epi64(__mmask8 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_maskz_or_epi64
|
||||
// CHECK: @llvm.x86.avx512.mask.por.q.512
|
||||
// CHECK: %[[OR_RES:.*]] = or <8 x i64>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1>
|
||||
// CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[OR_RES]], <8 x i64> %{{.*}}
|
||||
return _mm512_maskz_or_epi64(__k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_mask_xor_epi32(__m512i __src,__mmask16 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_mask_xor_epi32
|
||||
// CHECK: @llvm.x86.avx512.mask.pxor.d.512
|
||||
// CHECK: xor <16 x i32>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1>
|
||||
// CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}}
|
||||
return _mm512_mask_xor_epi32(__src, __k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_maskz_xor_epi32(__mmask16 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_maskz_xor_epi32
|
||||
// CHECK: @llvm.x86.avx512.mask.pxor.d.512
|
||||
// CHECK: xor <16 x i32>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i16 %{{.*}} to <16 x i1>
|
||||
// CHECK: select <16 x i1> %[[MASK]], <16 x i32> %{{.*}}, <16 x i32> %{{.*}}
|
||||
return _mm512_maskz_xor_epi32(__k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_mask_xor_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_mask_xor_epi64
|
||||
// CHECK: @llvm.x86.avx512.mask.pxor.q.512
|
||||
// CHECK: %[[XOR_RES:.*]] = xor <8 x i64>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1>
|
||||
// CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[XOR_RES]], <8 x i64> %{{.*}}
|
||||
return _mm512_mask_xor_epi64(__src, __k,__a, __b);
|
||||
}
|
||||
|
||||
__m512i test_mm512_maskz_xor_epi64(__mmask8 __k, __m512i __a, __m512i __b) {
|
||||
// CHECK-LABEL: @test_mm512_maskz_xor_epi64
|
||||
// CHECK: @llvm.x86.avx512.mask.pxor.q.512
|
||||
// CHECK: %[[XOR_RES:.*]] = xor <8 x i64>
|
||||
// CHECK: %[[MASK:.*]] = bitcast i8 %{{.*}} to <8 x i1>
|
||||
// CHECK: select <8 x i1> %[[MASK]], <8 x i64> %[[XOR_RES]], <8 x i64> %{{.*}}
|
||||
return _mm512_maskz_xor_epi64(__k,__a, __b);
|
||||
}
|
||||
|
||||
|
@ -1511,15 +1527,19 @@ __m512i test_mm512_xor_epi64(__m512i __src,__mmask8 __k, __m512i __a, __m512i __
|
|||
}
|
||||
|
||||
__m512i test_mm512_maskz_andnot_epi32 (__mmask16 __k,__m512i __A, __m512i __B){
|
||||
//CHECK-LABEL: @test_mm512_maskz_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.512
|
||||
// CHECK-LABEL: @test_mm512_maskz_andnot_epi32
|
||||
// CHECK: xor <16 x i32> %{{.*}}, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1>
|
||||
// CHECK: and <16 x i32> %{{.*}}, %{{.*}}
|
||||
// CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}}
|
||||
return _mm512_maskz_andnot_epi32(__k,__A,__B);
|
||||
}
|
||||
|
||||
__m512i test_mm512_mask_andnot_epi32 (__mmask16 __k,__m512i __A, __m512i __B,
|
||||
__m512i __src) {
|
||||
//CHECK-LABEL: @test_mm512_mask_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.512
|
||||
// CHECK-LABEL: @test_mm512_mask_andnot_epi32
|
||||
// CHECK: xor <16 x i32> %{{.*}}, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1>
|
||||
// CHECK: and <16 x i32> %{{.*}}, %{{.*}}
|
||||
// CHECK: select <16 x i1> %{{.*}}, <16 x i32> %{{.*}}, <16 x i32> %{{.*}}
|
||||
return _mm512_mask_andnot_epi32(__src,__k,__A,__B);
|
||||
}
|
||||
|
||||
|
@ -1535,27 +1555,33 @@ __m512i test_mm512_andnot_si512(__m512i __A, __m512i __B)
|
|||
}
|
||||
|
||||
__m512i test_mm512_andnot_epi32(__m512i __A, __m512i __B) {
|
||||
//CHECK-LABEL: @test_mm512_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.512
|
||||
// CHECK-LABEL: @test_mm512_andnot_epi32
|
||||
// CHECK: xor <16 x i32> %{{.*}}, <i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1, i32 -1>
|
||||
// CHECK: and <16 x i32> %{{.*}}, %{{.*}}
|
||||
return _mm512_andnot_epi32(__A,__B);
|
||||
}
|
||||
|
||||
__m512i test_mm512_maskz_andnot_epi64 (__mmask8 __k,__m512i __A, __m512i __B) {
|
||||
//CHECK-LABEL: @test_mm512_maskz_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.512
|
||||
// CHECK-LABEL: @test_mm512_maskz_andnot_epi64
|
||||
// CHECK: xor <8 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
// CHECK: and <8 x i64> %{{.*}}, %{{.*}}
|
||||
// CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}}
|
||||
return _mm512_maskz_andnot_epi64(__k,__A,__B);
|
||||
}
|
||||
|
||||
__m512i test_mm512_mask_andnot_epi64 (__mmask8 __k,__m512i __A, __m512i __B,
|
||||
__m512i __src) {
|
||||
//CHECK-LABEL: @test_mm512_mask_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.512
|
||||
// CHECK: xor <8 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
// CHECK: and <8 x i64> %{{.*}}, %{{.*}}
|
||||
// CHECK: select <8 x i1> %{{.*}}, <8 x i64> %{{.*}}, <8 x i64> %{{.*}}
|
||||
return _mm512_mask_andnot_epi64(__src,__k,__A,__B);
|
||||
}
|
||||
|
||||
__m512i test_mm512_andnot_epi64(__m512i __A, __m512i __B) {
|
||||
//CHECK-LABEL: @test_mm512_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.512
|
||||
// CHECK: xor <8 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
// CHECK: and <8 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm512_andnot_epi64(__A,__B);
|
||||
}
|
||||
|
||||
|
|
|
@ -792,204 +792,232 @@ __m256i test_mm256_mask_mullo_epi32 (__m256i __W, __mmask8 __M, __m256i __A,
|
|||
__m256i test_mm256_mask_and_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_and_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.d.256
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm256_mask_and_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_and_epi32 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_and_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.d.256
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
||||
return _mm256_maskz_and_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_and_epi32 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_and_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.d.128
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm_mask_and_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_and_epi32 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_and_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.d.128
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}
|
||||
return _mm_maskz_and_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_andnot_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
||||
return _mm256_mask_andnot_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_andnot_epi32 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
||||
return _mm256_maskz_andnot_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_andnot_epi32 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, <i64 -1, i64 -1>
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}
|
||||
return _mm_mask_andnot_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_andnot_epi32 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_andnot_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.d.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, <i64 -1, i64 -1>
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}
|
||||
return _mm_maskz_andnot_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_or_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_or_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.por.d.256
|
||||
//CHECK: or <4 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm256_mask_or_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_or_epi32 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_or_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.por.d.256
|
||||
//CHECK: or <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
||||
return _mm256_maskz_or_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_or_epi32 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_or_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.por.d.128
|
||||
//CHECK: or <2 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm_mask_or_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_or_epi32 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_or_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.por.d.128
|
||||
//CHECK: or <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}
|
||||
return _mm_maskz_or_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_xor_epi32 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_xor_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.d.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm256_mask_xor_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_xor_epi32 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_xor_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.d.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
||||
return _mm256_maskz_xor_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_xor_epi32 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_xor_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.d.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm_mask_xor_epi32(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_xor_epi32 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_xor_epi32
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.d.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}
|
||||
return _mm_maskz_xor_epi32(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_and_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_and_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.q.256
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm256_mask_and_epi64(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_and_epi64 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_and_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.q.256
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}}
|
||||
return _mm256_maskz_and_epi64(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_and_epi64 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_and_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.q.128
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm_mask_and_epi64(__W,__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_and_epi64 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_and_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pand.q.128
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}
|
||||
return _mm_maskz_and_epi64(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_andnot_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}}
|
||||
return _mm256_mask_andnot_epi64(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_andnot_epi64 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, <i64 -1, i64 -1, i64 -1, i64 -1>
|
||||
//CHECK: and <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}}
|
||||
return _mm256_maskz_andnot_epi64(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_andnot_epi64 (__m128i __W, __mmask8 __U, __m128i __A,
|
||||
__m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, <i64 -1, i64 -1>
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}
|
||||
return _mm_mask_andnot_epi64(__W,__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_andnot_epi64 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_andnot_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pandn.q.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, <i64 -1, i64 -1>
|
||||
//CHECK: and <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}
|
||||
return _mm_maskz_andnot_epi64(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_or_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_or_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.por.q.256
|
||||
//CHECK: or <4 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm256_mask_or_epi64(__W,__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_or_epi64 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_or_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.por.q.256
|
||||
//CHECK: or <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}}
|
||||
return _mm256_maskz_or_epi64(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_or_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_or_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.por.q.128
|
||||
//CHECK: or <2 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm_mask_or_epi64(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_or_epi64 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_or_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.por.q.128
|
||||
//CHECK-LABEL: @test_mm_maskz_or_epi64
|
||||
//CHECK: or <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}
|
||||
return _mm_maskz_or_epi64( __U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_mask_xor_epi64 (__m256i __W, __mmask8 __U, __m256i __A,
|
||||
__m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_mask_xor_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.q.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm256_mask_xor_epi64(__W,__U, __A, __B);
|
||||
}
|
||||
|
||||
__m256i test_mm256_maskz_xor_epi64 (__mmask8 __U, __m256i __A, __m256i __B) {
|
||||
//CHECK-LABEL: @test_mm256_maskz_xor_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.q.256
|
||||
//CHECK: xor <4 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <4 x i1> %{{.*}}, <4 x i64> %{{.*}}, <4 x i64> %{{.*}}
|
||||
return _mm256_maskz_xor_epi64(__U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_mask_xor_epi64 (__m128i __W, __mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_mask_xor_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.q.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, %{{.*}}
|
||||
return _mm_mask_xor_epi64(__W, __U, __A, __B);
|
||||
}
|
||||
|
||||
__m128i test_mm_maskz_xor_epi64 (__mmask8 __U, __m128i __A, __m128i __B) {
|
||||
//CHECK-LABEL: @test_mm_maskz_xor_epi64
|
||||
//CHECK: @llvm.x86.avx512.mask.pxor.q.128
|
||||
//CHECK: xor <2 x i64> %{{.*}}, %{{.*}}
|
||||
//CHECK: select <2 x i1> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}
|
||||
return _mm_maskz_xor_epi64( __U, __A, __B);
|
||||
}
|
||||
|
||||
|
|
Loading…
Reference in New Issue