200 lines
7.3 KiB
C
200 lines
7.3 KiB
C
// RUN: %clang_cc1 -flax-vector-conversions=none -ffreestanding %s -triple=x86_64-apple-darwin \
|
|
// RUN: -target-feature +avx512bf16 -target-feature \
|
|
// RUN: +avx512vl -emit-llvm -o - -Wall -Werror | FileCheck %s
|
|
|
|
#include <immintrin.h>
|
|
|
|
__m128bh test_mm_cvtne2ps2bf16(__m128 A, __m128 B) {
|
|
// CHECK-LABEL: @test_mm_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.128
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm_cvtne2ps_pbh(A, B);
|
|
}
|
|
|
|
__m128bh test_mm_maskz_cvtne2ps2bf16(__m128 A, __m128 B, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm_maskz_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.128
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm_maskz_cvtne2ps_pbh(U, A, B);
|
|
}
|
|
|
|
__m128bh test_mm_mask_cvtne2ps2bf16(__m128bh C, __mmask8 U, __m128 A, __m128 B) {
|
|
// CHECK-LABEL: @test_mm_mask_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.128
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm_mask_cvtne2ps_pbh(C, U, A, B);
|
|
}
|
|
|
|
__m256bh test_mm256_cvtne2ps2bf16(__m256 A, __m256 B) {
|
|
// CHECK-LABEL: @test_mm256_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.256
|
|
// CHECK: ret <16 x i16> %{{.*}}
|
|
return _mm256_cvtne2ps_pbh(A, B);
|
|
}
|
|
|
|
__m256bh test_mm256_maskz_cvtne2ps2bf16(__m256 A, __m256 B, __mmask16 U) {
|
|
// CHECK-LABEL: @test_mm256_maskz_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.256
|
|
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
|
|
// CHECK: ret <16 x i16> %{{.*}}
|
|
return _mm256_maskz_cvtne2ps_pbh(U, A, B);
|
|
}
|
|
|
|
__m256bh test_mm256_mask_cvtne2ps2bf16(__m256bh C, __mmask16 U, __m256 A, __m256 B) {
|
|
// CHECK-LABEL: @test_mm256_mask_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.256
|
|
// CHECK: select <16 x i1> %{{.*}}, <16 x i16> %{{.*}}, <16 x i16> %{{.*}}
|
|
// CHECK: ret <16 x i16> %{{.*}}
|
|
return _mm256_mask_cvtne2ps_pbh(C, U, A, B);
|
|
}
|
|
|
|
__m512bh test_mm512_cvtne2ps2bf16(__m512 A, __m512 B) {
|
|
// CHECK-LABEL: @test_mm512_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.512
|
|
// CHECK: ret <32 x i16> %{{.*}}
|
|
return _mm512_cvtne2ps_pbh(A, B);
|
|
}
|
|
|
|
__m512bh test_mm512_maskz_cvtne2ps2bf16(__m512 A, __m512 B, __mmask32 U) {
|
|
// CHECK-LABEL: @test_mm512_maskz_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.512
|
|
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
|
|
// CHECK: ret <32 x i16> %{{.*}}
|
|
return _mm512_maskz_cvtne2ps_pbh(U, A, B);
|
|
}
|
|
|
|
__m512bh test_mm512_mask_cvtne2ps2bf16(__m512bh C, __mmask32 U, __m512 A, __m512 B) {
|
|
// CHECK-LABEL: @test_mm512_mask_cvtne2ps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtne2ps2bf16.512
|
|
// CHECK: select <32 x i1> %{{.*}}, <32 x i16> %{{.*}}, <32 x i16> %{{.*}}
|
|
// CHECK: ret <32 x i16> %{{.*}}
|
|
return _mm512_mask_cvtne2ps_pbh(C, U, A, B);
|
|
}
|
|
|
|
__m128bh test_mm_cvtneps2bf16(__m128 A) {
|
|
// CHECK-LABEL: @test_mm_cvtneps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.128
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm_cvtneps_pbh(A);
|
|
}
|
|
|
|
__m128bh test_mm_mask_cvtneps2bf16(__m128bh C, __mmask8 U, __m128 A) {
|
|
// CHECK-LABEL: @test_mm_mask_cvtneps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm_mask_cvtneps_pbh(C, U, A);
|
|
}
|
|
|
|
__m128bh test_mm_maskz_cvtneps2bf16(__m128 A, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm_maskz_cvtneps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.128
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm_maskz_cvtneps_pbh(U, A);
|
|
}
|
|
|
|
__m128bh test_mm256_cvtneps2bf16(__m256 A) {
|
|
// CHECK-LABEL: @test_mm256_cvtneps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtneps2bf16.256
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm256_cvtneps_pbh(A);
|
|
}
|
|
|
|
__m128bh test_mm256_mask_cvtneps2bf16(__m128bh C, __mmask8 U, __m256 A) {
|
|
// CHECK-LABEL: @test_mm256_mask_cvtneps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtneps2bf16.256
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm256_mask_cvtneps_pbh(C, U, A);
|
|
}
|
|
|
|
__m128bh test_mm256_maskz_cvtneps2bf16(__m256 A, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm256_maskz_cvtneps2bf16
|
|
// CHECK: @llvm.x86.avx512bf16.cvtneps2bf16.256
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}
|
|
// CHECK: ret <8 x i16> %{{.*}}
|
|
return _mm256_maskz_cvtneps_pbh(U, A);
|
|
}
|
|
|
|
__m128 test_mm_dpbf16_ps(__m128 D, __m128bh A, __m128bh B) {
|
|
// CHECK-LABEL: @test_mm_dpbf16_ps
|
|
// CHECK: @llvm.x86.avx512bf16.dpbf16ps.128
|
|
// CHECK: ret <4 x float> %{{.*}}
|
|
return _mm_dpbf16_ps(D, A, B);
|
|
}
|
|
|
|
__m128 test_mm_maskz_dpbf16_ps(__m128 D, __m128bh A, __m128bh B, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm_maskz_dpbf16_ps
|
|
// CHECK: @llvm.x86.avx512bf16.dpbf16ps.128
|
|
// CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}}
|
|
// CHECK: ret <4 x float> %{{.*}}
|
|
return _mm_maskz_dpbf16_ps(U, D, A, B);
|
|
}
|
|
|
|
__m128 test_mm_mask_dpbf16_ps(__m128 D, __m128bh A, __m128bh B, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm_mask_dpbf16_ps
|
|
// CHECK: @llvm.x86.avx512bf16.dpbf16ps.128
|
|
// CHECK: select <4 x i1> %{{.*}}, <4 x float> %{{.*}}, <4 x float> %{{.*}}
|
|
// CHECK: ret <4 x float> %{{.*}}
|
|
return _mm_mask_dpbf16_ps(D, U, A, B);
|
|
}
|
|
__m256 test_mm256_dpbf16_ps(__m256 D, __m256bh A, __m256bh B) {
|
|
// CHECK-LABEL: @test_mm256_dpbf16_ps
|
|
// CHECK: @llvm.x86.avx512bf16.dpbf16ps.256
|
|
// CHECK: ret <8 x float> %{{.*}}
|
|
return _mm256_dpbf16_ps(D, A, B);
|
|
}
|
|
|
|
__m256 test_mm256_maskz_dpbf16_ps(__m256 D, __m256bh A, __m256bh B, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm256_maskz_dpbf16_ps
|
|
// CHECK: @llvm.x86.avx512bf16.dpbf16ps.256
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
|
|
// CHECK: ret <8 x float> %{{.*}}
|
|
return _mm256_maskz_dpbf16_ps(U, D, A, B);
|
|
}
|
|
|
|
__m256 test_mm256_mask_dpbf16_ps(__m256 D, __m256bh A, __m256bh B, __mmask8 U) {
|
|
// CHECK-LABEL: @test_mm256_mask_dpbf16_ps
|
|
// CHECK: @llvm.x86.avx512bf16.dpbf16ps.256
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x float> %{{.*}}, <8 x float> %{{.*}}
|
|
// CHECK: ret <8 x float> %{{.*}}
|
|
return _mm256_mask_dpbf16_ps(D, U, A, B);
|
|
}
|
|
|
|
__bfloat16 test_mm_cvtness_sbh(float A) {
|
|
// CHECK-LABEL: @test_mm_cvtness_sbh
|
|
// CHECK: @llvm.x86.avx512bf16.mask.cvtneps2bf16.128
|
|
// CHECK: ret i16 %{{.*}}
|
|
return _mm_cvtness_sbh(A);
|
|
}
|
|
|
|
__m256 test_mm256_cvtpbh_ps(__m128bh A) {
|
|
// CHECK-LABEL: @test_mm256_cvtpbh_ps
|
|
// CHECK: sext <8 x i16> %{{.*}} to <8 x i32>
|
|
// CHECK: @llvm.x86.avx2.pslli.d
|
|
// CHECK: bitcast <4 x i64> %{{.*}} to <8 x float>
|
|
// CHECK: ret <8 x float> %{{.*}}
|
|
return _mm256_cvtpbh_ps(A);
|
|
}
|
|
|
|
__m256 test_mm256_maskz_cvtpbh_ps(__mmask8 M, __m128bh A) {
|
|
// CHECK-LABEL: @test_mm256_maskz_cvtpbh_ps
|
|
// CHECK: sext <8 x i16> %{{.*}} to <8 x i32>
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
|
// CHECK: @llvm.x86.avx2.pslli.d
|
|
// CHECK: bitcast <4 x i64> %{{.*}} to <8 x float>
|
|
// CHECK: ret <8 x float> %{{.*}}
|
|
return _mm256_maskz_cvtpbh_ps(M, A);
|
|
}
|
|
|
|
__m256 test_mm256_mask_cvtpbh_ps(__m256 S, __mmask8 M, __m128bh A) {
|
|
// CHECK-LABEL: @test_mm256_mask_cvtpbh_ps
|
|
// CHECK: sext <8 x i16> %{{.*}} to <8 x i32>
|
|
// CHECK: @llvm.x86.avx2.pslli.d
|
|
// CHECK: select <8 x i1> %{{.*}}, <8 x i32> %{{.*}}, <8 x i32> %{{.*}}
|
|
// CHECK: bitcast <4 x i64> %{{.*}} to <8 x float>
|
|
// CHECK: ret <8 x float> %{{.*}}
|
|
return _mm256_mask_cvtpbh_ps(S, M, A);
|
|
}
|