Bill Schmidt
2014-09-29 17:27:27 UTC
Hi,
While working on another patch, I observed that the test case
gcc.dg/vmx/ops.c contains numerous calls to vec_splat and friends for
which the second argument (the element selector) is out of range. At
best these calls are invalid; as it is, we generate insns that can cause
trouble during optimization. (In the case I saw, simplify-rtx tried to
reduce the splat of its input at compile time, but the out-of-range
element selector caused it to report a bad insn and abort.) This patch
removes all of the calls with out-of-range element selectors from the
test case.
Tested on powerpc64le-unknown-linux-gnu. Ok to commit?
Thanks,
Bill
2014-09-29 Bill Schmidt <***@vnet.linux.ibm.com>
* gcc.dg/vmx/ops.c: Remove calls to vec_splat, vec_vsplth,
vec_vspltw, and vec_vspltb for which the second argument is out of
range.
Index: gcc/testsuite/gcc.dg/vmx/ops.c
===================================================================
--- gcc/testsuite/gcc.dg/vmx/ops.c (revision 215683)
+++ gcc/testsuite/gcc.dg/vmx/ops.c (working copy)
@@ -337,32 +337,8 @@ void f2() {
*var_vec_b16++ = vec_splat(var_vec_b16[0], 5);
*var_vec_b16++ = vec_splat(var_vec_b16[0], 6);
*var_vec_b16++ = vec_splat(var_vec_b16[0], 7);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 8);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 9);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 10);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 11);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 12);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 13);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 14);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 15);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 16);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 17);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 18);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 19);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 20);
}
void f3() {
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 21);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 22);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 23);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 24);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 25);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 26);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 27);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 28);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 29);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 30);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 31);
*var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u32[1]);
*var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u8[1]);
@@ -393,30 +369,6 @@ void f3() {
*var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
*var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
*var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u32[1]);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u8[1]);
@@ -451,36 +403,8 @@ void f3() {
*var_vec_b32++ = vec_splat(var_vec_b32[0], 1);
*var_vec_b32++ = vec_splat(var_vec_b32[0], 2);
*var_vec_b32++ = vec_splat(var_vec_b32[0], 3);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 4);
}
void f4() {
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 5);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 6);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 7);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 8);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 9);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 10);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 11);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 12);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 13);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 14);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 15);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 16);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 17);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 18);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 19);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 20);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 21);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 22);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 23);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 24);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 25);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 26);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 27);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 28);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 29);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 30);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 31);
*var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u16[1]);
*var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u32[1]);
*var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u8[1]);
@@ -509,34 +433,6 @@ void f4() {
*var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
*var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
*var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u16[1]);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u32[1]);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u8[1]);
@@ -583,22 +479,6 @@ void f5() {
*var_vec_b8++ = vec_splat(var_vec_b8[0], 13);
*var_vec_b8++ = vec_splat(var_vec_b8[0], 14);
*var_vec_b8++ = vec_splat(var_vec_b8[0], 15);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 16);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 17);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 18);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 19);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 20);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 21);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 22);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 23);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 24);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 25);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 26);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 27);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 28);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 29);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 30);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 31);
*var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u16[1]);
*var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u32[1]);
*var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u8[1]);
@@ -635,22 +515,6 @@ void f5() {
*var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
*var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
*var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u16[1]);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u32[1]);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u8[1]);
@@ -783,34 +647,6 @@ void f7() {
*var_vec_f32++ = vec_splat(var_vec_f32[0], 1);
*var_vec_f32++ = vec_splat(var_vec_f32[0], 2);
*var_vec_f32++ = vec_splat(var_vec_f32[0], 3);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 4);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 5);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 6);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 7);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 8);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 9);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 10);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 11);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 12);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 13);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 14);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 15);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 16);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 17);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 18);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 19);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 20);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 21);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 22);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 23);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 24);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 25);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 26);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 27);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 28);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 29);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 30);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 31);
*var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_s8[1]);
*var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_u8[1]);
*var_vec_f32++ = vec_sub(var_vec_f32[0], var_vec_f32[1]);
@@ -931,34 +767,6 @@ void f8() {
*var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
*var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
*var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
*var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_s8[1]);
*var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_u8[1]);
*var_vec_f32++ = vec_vsubfp(var_vec_f32[0], var_vec_f32[1]);
@@ -1007,30 +815,6 @@ void f9() {
*var_vec_p16++ = vec_splat(var_vec_p16[0], 5);
*var_vec_p16++ = vec_splat(var_vec_p16[0], 6);
*var_vec_p16++ = vec_splat(var_vec_p16[0], 7);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 8);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 9);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 10);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 11);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 12);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 13);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 14);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 15);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 16);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 17);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 18);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 19);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 20);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 21);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 22);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 23);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 24);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 25);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 26);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 27);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 28);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 29);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 30);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 31);
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u16[1]);
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u32[1]);
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u8[1]);
@@ -1071,30 +855,6 @@ void f10() {
*var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
*var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
*var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u16[1]);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u32[1]);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u8[1]);
@@ -1180,30 +940,6 @@ void f11() {
*var_vec_s16++ = vec_splat(var_vec_s16[0], 5);
*var_vec_s16++ = vec_splat(var_vec_s16[0], 6);
*var_vec_s16++ = vec_splat(var_vec_s16[0], 7);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 8);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 9);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 10);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 11);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 12);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 13);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 14);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 15);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 16);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 17);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 18);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 19);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 20);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 21);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 22);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 23);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 24);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 25);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 26);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 27);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 28);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 29);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 30);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 31);
*var_vec_s16++ = vec_splat_s16( 0);
*var_vec_s16++ = vec_splat_s16( 1);
*var_vec_s16++ = vec_splat_s16( 2);
@@ -1321,30 +1057,6 @@ void f12() {
*var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
*var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
*var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
*var_vec_s16++ = vec_vspltish( 0);
*var_vec_s16++ = vec_vspltish( 1);
*var_vec_s16++ = vec_vspltish( 2);
@@ -1505,34 +1217,6 @@ void f14() {
*var_vec_s32++ = vec_splat(var_vec_s32[0], 1);
*var_vec_s32++ = vec_splat(var_vec_s32[0], 2);
*var_vec_s32++ = vec_splat(var_vec_s32[0], 3);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 4);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 5);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 6);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 7);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 8);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 9);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 10);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 11);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 12);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 13);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 14);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 15);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 16);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 17);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 18);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 19);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 20);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 21);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 22);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 23);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 24);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 25);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 26);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 27);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 28);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 29);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 30);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 31);
*var_vec_s32++ = vec_splat_s32( 0);
*var_vec_s32++ = vec_splat_s32( 1);
*var_vec_s32++ = vec_splat_s32( 2);
@@ -1713,34 +1397,6 @@ void f16() {
*var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
*var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
*var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u16[1]);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u32[1]);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u8[1]);
@@ -1847,22 +1503,6 @@ void f17() {
*var_vec_s8++ = vec_splat(var_vec_s8[0], 13);
*var_vec_s8++ = vec_splat(var_vec_s8[0], 14);
*var_vec_s8++ = vec_splat(var_vec_s8[0], 15);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 16);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 17);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 18);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 19);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 20);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 21);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 22);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 23);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 24);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 25);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 26);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 27);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 28);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 29);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 30);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 31);
*var_vec_s8++ = vec_splat_s8( 0);
*var_vec_s8++ = vec_splat_s8( 1);
*var_vec_s8++ = vec_splat_s8( 2);
@@ -1981,22 +1621,6 @@ void f19() {
*var_vec_s8++ = vec_vspltb(var_vec_s8[0], 13);
*var_vec_s8++ = vec_vspltb(var_vec_s8[0], 14);
*var_vec_s8++ = vec_vspltb(var_vec_s8[0], 15);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 16);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 17);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 18);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 19);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 20);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 21);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 22);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 23);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 24);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 25);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 26);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 27);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 28);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 29);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 30);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 31);
*var_vec_s8++ = vec_vspltisb( 0);
*var_vec_s8++ = vec_vspltisb( 1);
*var_vec_s8++ = vec_vspltisb( 2);
@@ -2126,30 +1750,6 @@ void f20() {
*var_vec_u16++ = vec_splat(var_vec_u16[0], 5);
*var_vec_u16++ = vec_splat(var_vec_u16[0], 6);
*var_vec_u16++ = vec_splat(var_vec_u16[0], 7);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 8);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 9);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 10);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 11);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 12);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 13);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 14);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 15);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 16);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 17);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 18);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 19);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 20);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 21);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 22);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 23);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 24);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 25);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 26);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 27);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 28);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 29);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 30);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 31);
*var_vec_u16++ = vec_splat_u16( 0);
*var_vec_u16++ = vec_splat_u16( 1);
*var_vec_u16++ = vec_splat_u16( 2);
@@ -2262,32 +1862,8 @@ void f21() {
*var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
*var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
*var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
}
void f22() {
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u32[1]);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u8[1]);
@@ -2412,34 +1988,6 @@ void f23() {
*var_vec_u32++ = vec_splat(var_vec_u32[0], 1);
*var_vec_u32++ = vec_splat(var_vec_u32[0], 2);
*var_vec_u32++ = vec_splat(var_vec_u32[0], 3);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 4);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 5);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 6);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 7);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 8);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 9);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 10);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 11);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 12);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 13);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 14);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 15);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 16);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 17);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 18);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 19);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 20);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 21);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 22);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 23);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 24);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 25);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 26);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 27);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 28);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 29);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 30);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 31);
*var_vec_u32++ = vec_splat_u32( 0);
*var_vec_u32++ = vec_splat_u32( 1);
*var_vec_u32++ = vec_splat_u32( 2);
@@ -2586,34 +2134,6 @@ void f25() {
*var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
*var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
*var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u16[1]);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u8[1]);
@@ -2734,22 +2254,6 @@ void f26() {
*var_vec_u8++ = vec_splat(var_vec_u8[0], 13);
*var_vec_u8++ = vec_splat(var_vec_u8[0], 14);
*var_vec_u8++ = vec_splat(var_vec_u8[0], 15);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 16);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 17);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 18);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 19);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 20);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 21);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 22);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 23);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 24);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 25);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 26);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 27);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 28);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 29);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 30);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 31);
*var_vec_u8++ = vec_splat_u8( 0);
*var_vec_u8++ = vec_splat_u8( 1);
*var_vec_u8++ = vec_splat_u8( 2);
@@ -2867,24 +2371,8 @@ void f27() {
*var_vec_u8++ = vec_vspltb(var_vec_u8[0], 13);
*var_vec_u8++ = vec_vspltb(var_vec_u8[0], 14);
*var_vec_u8++ = vec_vspltb(var_vec_u8[0], 15);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 16);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 17);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 18);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 19);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 20);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 21);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 22);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 23);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 24);
}
void f28() {
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 25);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 26);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 27);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 28);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 29);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 30);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 31);
*var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u16[1]);
*var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u32[1]);
*var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u8[1]);
While working on another patch, I observed that the test case
gcc.dg/vmx/ops.c contains numerous calls to vec_splat and friends for
which the second argument (the element selector) is out of range. At
best these calls are invalid; as it is, we generate insns that can cause
trouble during optimization. (In the case I saw, simplify-rtx tried to
reduce the splat of its input at compile time, but the out-of-range
element selector caused it to report a bad insn and abort.) This patch
removes all of the calls with out-of-range element selectors from the
test case.
Tested on powerpc64le-unknown-linux-gnu. Ok to commit?
Thanks,
Bill
2014-09-29 Bill Schmidt <***@vnet.linux.ibm.com>
* gcc.dg/vmx/ops.c: Remove calls to vec_splat, vec_vsplth,
vec_vspltw, and vec_vspltb for which the second argument is out of
range.
Index: gcc/testsuite/gcc.dg/vmx/ops.c
===================================================================
--- gcc/testsuite/gcc.dg/vmx/ops.c (revision 215683)
+++ gcc/testsuite/gcc.dg/vmx/ops.c (working copy)
@@ -337,32 +337,8 @@ void f2() {
*var_vec_b16++ = vec_splat(var_vec_b16[0], 5);
*var_vec_b16++ = vec_splat(var_vec_b16[0], 6);
*var_vec_b16++ = vec_splat(var_vec_b16[0], 7);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 8);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 9);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 10);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 11);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 12);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 13);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 14);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 15);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 16);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 17);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 18);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 19);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 20);
}
void f3() {
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 21);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 22);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 23);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 24);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 25);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 26);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 27);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 28);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 29);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 30);
- *var_vec_b16++ = vec_splat(var_vec_b16[0], 31);
*var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u32[1]);
*var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u8[1]);
@@ -393,30 +369,6 @@ void f3() {
*var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
*var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
*var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
- *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u16[1]);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u32[1]);
*var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u8[1]);
@@ -451,36 +403,8 @@ void f3() {
*var_vec_b32++ = vec_splat(var_vec_b32[0], 1);
*var_vec_b32++ = vec_splat(var_vec_b32[0], 2);
*var_vec_b32++ = vec_splat(var_vec_b32[0], 3);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 4);
}
void f4() {
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 5);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 6);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 7);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 8);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 9);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 10);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 11);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 12);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 13);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 14);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 15);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 16);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 17);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 18);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 19);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 20);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 21);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 22);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 23);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 24);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 25);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 26);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 27);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 28);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 29);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 30);
- *var_vec_b32++ = vec_splat(var_vec_b32[0], 31);
*var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u16[1]);
*var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u32[1]);
*var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u8[1]);
@@ -509,34 +433,6 @@ void f4() {
*var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
*var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
*var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
- *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u16[1]);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u32[1]);
*var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u8[1]);
@@ -583,22 +479,6 @@ void f5() {
*var_vec_b8++ = vec_splat(var_vec_b8[0], 13);
*var_vec_b8++ = vec_splat(var_vec_b8[0], 14);
*var_vec_b8++ = vec_splat(var_vec_b8[0], 15);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 16);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 17);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 18);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 19);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 20);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 21);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 22);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 23);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 24);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 25);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 26);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 27);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 28);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 29);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 30);
- *var_vec_b8++ = vec_splat(var_vec_b8[0], 31);
*var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u16[1]);
*var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u32[1]);
*var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u8[1]);
@@ -635,22 +515,6 @@ void f5() {
*var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
*var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
*var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
- *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u16[1]);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u32[1]);
*var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u8[1]);
@@ -783,34 +647,6 @@ void f7() {
*var_vec_f32++ = vec_splat(var_vec_f32[0], 1);
*var_vec_f32++ = vec_splat(var_vec_f32[0], 2);
*var_vec_f32++ = vec_splat(var_vec_f32[0], 3);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 4);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 5);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 6);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 7);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 8);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 9);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 10);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 11);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 12);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 13);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 14);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 15);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 16);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 17);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 18);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 19);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 20);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 21);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 22);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 23);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 24);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 25);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 26);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 27);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 28);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 29);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 30);
- *var_vec_f32++ = vec_splat(var_vec_f32[0], 31);
*var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_s8[1]);
*var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_u8[1]);
*var_vec_f32++ = vec_sub(var_vec_f32[0], var_vec_f32[1]);
@@ -931,34 +767,6 @@ void f8() {
*var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
*var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
*var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
- *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
*var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_s8[1]);
*var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_u8[1]);
*var_vec_f32++ = vec_vsubfp(var_vec_f32[0], var_vec_f32[1]);
@@ -1007,30 +815,6 @@ void f9() {
*var_vec_p16++ = vec_splat(var_vec_p16[0], 5);
*var_vec_p16++ = vec_splat(var_vec_p16[0], 6);
*var_vec_p16++ = vec_splat(var_vec_p16[0], 7);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 8);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 9);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 10);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 11);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 12);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 13);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 14);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 15);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 16);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 17);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 18);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 19);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 20);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 21);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 22);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 23);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 24);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 25);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 26);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 27);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 28);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 29);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 30);
- *var_vec_p16++ = vec_splat(var_vec_p16[0], 31);
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u16[1]);
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u32[1]);
*var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u8[1]);
@@ -1071,30 +855,6 @@ void f10() {
*var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
*var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
*var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
- *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u16[1]);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u32[1]);
*var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u8[1]);
@@ -1180,30 +940,6 @@ void f11() {
*var_vec_s16++ = vec_splat(var_vec_s16[0], 5);
*var_vec_s16++ = vec_splat(var_vec_s16[0], 6);
*var_vec_s16++ = vec_splat(var_vec_s16[0], 7);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 8);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 9);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 10);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 11);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 12);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 13);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 14);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 15);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 16);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 17);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 18);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 19);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 20);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 21);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 22);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 23);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 24);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 25);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 26);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 27);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 28);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 29);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 30);
- *var_vec_s16++ = vec_splat(var_vec_s16[0], 31);
*var_vec_s16++ = vec_splat_s16( 0);
*var_vec_s16++ = vec_splat_s16( 1);
*var_vec_s16++ = vec_splat_s16( 2);
@@ -1321,30 +1057,6 @@ void f12() {
*var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
*var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
*var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
- *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
*var_vec_s16++ = vec_vspltish( 0);
*var_vec_s16++ = vec_vspltish( 1);
*var_vec_s16++ = vec_vspltish( 2);
@@ -1505,34 +1217,6 @@ void f14() {
*var_vec_s32++ = vec_splat(var_vec_s32[0], 1);
*var_vec_s32++ = vec_splat(var_vec_s32[0], 2);
*var_vec_s32++ = vec_splat(var_vec_s32[0], 3);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 4);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 5);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 6);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 7);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 8);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 9);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 10);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 11);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 12);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 13);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 14);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 15);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 16);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 17);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 18);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 19);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 20);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 21);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 22);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 23);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 24);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 25);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 26);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 27);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 28);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 29);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 30);
- *var_vec_s32++ = vec_splat(var_vec_s32[0], 31);
*var_vec_s32++ = vec_splat_s32( 0);
*var_vec_s32++ = vec_splat_s32( 1);
*var_vec_s32++ = vec_splat_s32( 2);
@@ -1713,34 +1397,6 @@ void f16() {
*var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
*var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
*var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
- *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u16[1]);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u32[1]);
*var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u8[1]);
@@ -1847,22 +1503,6 @@ void f17() {
*var_vec_s8++ = vec_splat(var_vec_s8[0], 13);
*var_vec_s8++ = vec_splat(var_vec_s8[0], 14);
*var_vec_s8++ = vec_splat(var_vec_s8[0], 15);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 16);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 17);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 18);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 19);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 20);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 21);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 22);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 23);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 24);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 25);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 26);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 27);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 28);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 29);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 30);
- *var_vec_s8++ = vec_splat(var_vec_s8[0], 31);
*var_vec_s8++ = vec_splat_s8( 0);
*var_vec_s8++ = vec_splat_s8( 1);
*var_vec_s8++ = vec_splat_s8( 2);
@@ -1981,22 +1621,6 @@ void f19() {
*var_vec_s8++ = vec_vspltb(var_vec_s8[0], 13);
*var_vec_s8++ = vec_vspltb(var_vec_s8[0], 14);
*var_vec_s8++ = vec_vspltb(var_vec_s8[0], 15);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 16);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 17);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 18);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 19);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 20);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 21);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 22);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 23);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 24);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 25);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 26);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 27);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 28);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 29);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 30);
- *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 31);
*var_vec_s8++ = vec_vspltisb( 0);
*var_vec_s8++ = vec_vspltisb( 1);
*var_vec_s8++ = vec_vspltisb( 2);
@@ -2126,30 +1750,6 @@ void f20() {
*var_vec_u16++ = vec_splat(var_vec_u16[0], 5);
*var_vec_u16++ = vec_splat(var_vec_u16[0], 6);
*var_vec_u16++ = vec_splat(var_vec_u16[0], 7);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 8);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 9);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 10);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 11);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 12);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 13);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 14);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 15);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 16);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 17);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 18);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 19);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 20);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 21);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 22);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 23);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 24);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 25);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 26);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 27);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 28);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 29);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 30);
- *var_vec_u16++ = vec_splat(var_vec_u16[0], 31);
*var_vec_u16++ = vec_splat_u16( 0);
*var_vec_u16++ = vec_splat_u16( 1);
*var_vec_u16++ = vec_splat_u16( 2);
@@ -2262,32 +1862,8 @@ void f21() {
*var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
*var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
*var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
}
void f22() {
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
- *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u16[1]);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u32[1]);
*var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u8[1]);
@@ -2412,34 +1988,6 @@ void f23() {
*var_vec_u32++ = vec_splat(var_vec_u32[0], 1);
*var_vec_u32++ = vec_splat(var_vec_u32[0], 2);
*var_vec_u32++ = vec_splat(var_vec_u32[0], 3);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 4);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 5);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 6);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 7);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 8);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 9);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 10);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 11);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 12);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 13);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 14);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 15);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 16);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 17);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 18);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 19);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 20);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 21);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 22);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 23);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 24);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 25);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 26);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 27);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 28);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 29);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 30);
- *var_vec_u32++ = vec_splat(var_vec_u32[0], 31);
*var_vec_u32++ = vec_splat_u32( 0);
*var_vec_u32++ = vec_splat_u32( 1);
*var_vec_u32++ = vec_splat_u32( 2);
@@ -2586,34 +2134,6 @@ void f25() {
*var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
*var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
*var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
- *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u16[1]);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u32[1]);
*var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u8[1]);
@@ -2734,22 +2254,6 @@ void f26() {
*var_vec_u8++ = vec_splat(var_vec_u8[0], 13);
*var_vec_u8++ = vec_splat(var_vec_u8[0], 14);
*var_vec_u8++ = vec_splat(var_vec_u8[0], 15);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 16);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 17);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 18);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 19);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 20);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 21);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 22);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 23);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 24);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 25);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 26);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 27);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 28);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 29);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 30);
- *var_vec_u8++ = vec_splat(var_vec_u8[0], 31);
*var_vec_u8++ = vec_splat_u8( 0);
*var_vec_u8++ = vec_splat_u8( 1);
*var_vec_u8++ = vec_splat_u8( 2);
@@ -2867,24 +2371,8 @@ void f27() {
*var_vec_u8++ = vec_vspltb(var_vec_u8[0], 13);
*var_vec_u8++ = vec_vspltb(var_vec_u8[0], 14);
*var_vec_u8++ = vec_vspltb(var_vec_u8[0], 15);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 16);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 17);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 18);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 19);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 20);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 21);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 22);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 23);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 24);
}
void f28() {
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 25);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 26);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 27);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 28);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 29);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 30);
- *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 31);
*var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u16[1]);
*var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u32[1]);
*var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u8[1]);