; RUN: llc -march=hexagon -enable-unsafe-fp-math -enable-pipeliner \ ; RUN: -pipeliner-prune-deps=false -stats -o /dev/null < %s ; REQUIRES: asserts ; Test that checks we dont crash when SWP a loop with lots of Phis, and ; the Phi operand refer to Phis from the same loop. ; Function Attrs: nounwind define void @f0(float* nocapture %a0, float* nocapture %a1) #0 { b0: %v0 = alloca [400 x float], align 4 %v1 = getelementptr inbounds float, float* %a1, i32 1 %v2 = getelementptr inbounds float, float* %a1, i32 2 %v3 = getelementptr inbounds float, float* %a1, i32 3 %v4 = getelementptr inbounds float, float* %a1, i32 4 %v5 = getelementptr inbounds float, float* %a1, i32 5 %v6 = getelementptr inbounds float, float* %a1, i32 6 %v7 = getelementptr inbounds float, float* %a1, i32 7 %v8 = getelementptr inbounds float, float* %a1, i32 8 %v9 = getelementptr inbounds float, float* %a1, i32 9 %v10 = getelementptr inbounds float, float* %a1, i32 10 %v11 = getelementptr inbounds float, float* %a1, i32 11 %v12 = getelementptr inbounds float, float* %a1, i32 12 %v13 = getelementptr inbounds float, float* %a1, i32 13 %v14 = getelementptr inbounds float, float* %a1, i32 14 %v15 = getelementptr inbounds float, float* %a1, i32 15 %v16 = getelementptr inbounds float, float* %a1, i32 16 %v17 = load float, float* %a1, align 4 %v18 = load float, float* %v1, align 4 %v19 = load float, float* %v2, align 4 %v20 = load float, float* %v3, align 4 %v21 = load float, float* %v4, align 4 %v22 = load float, float* %v5, align 4 %v23 = load float, float* %v6, align 4 %v24 = load float, float* %v7, align 4 %v25 = load float, float* %v8, align 4 %v26 = load float, float* %v9, align 4 %v27 = load float, float* %v10, align 4 %v28 = load float, float* %v11, align 4 %v29 = load float, float* %v12, align 4 %v30 = load float, float* %v13, align 4 %v31 = load float, float* %v14, align 4 %v32 = load float, float* %v15, align 4 %v33 = load float, float* %v16, align 4 br label %b1 b1: ; preds = %b1, %b0 %v34 = phi float [ undef, %b0 ], [ %v103, %b1 ] %v35 = phi float [ undef, %b0 ], [ %v34, %b1 ] %v36 = phi float [ undef, %b0 ], [ %v35, %b1 ] %v37 = phi float [ undef, %b0 ], [ %v36, %b1 ] %v38 = phi float [ undef, %b0 ], [ %v37, %b1 ] %v39 = phi float [ undef, %b0 ], [ %v38, %b1 ] %v40 = phi float [ undef, %b0 ], [ %v39, %b1 ] %v41 = phi float [ undef, %b0 ], [ %v40, %b1 ] %v42 = phi float [ undef, %b0 ], [ %v41, %b1 ] %v43 = phi float [ undef, %b0 ], [ %v42, %b1 ] %v44 = phi float [ undef, %b0 ], [ %v43, %b1 ] %v45 = phi float [ undef, %b0 ], [ %v44, %b1 ] %v46 = phi float [ undef, %b0 ], [ %v45, %b1 ] %v47 = phi float [ undef, %b0 ], [ %v46, %b1 ] %v48 = phi float [ undef, %b0 ], [ %v47, %b1 ] %v49 = phi float [ undef, %b0 ], [ %v48, %b1 ] %v50 = phi float [ %v33, %b0 ], [ %v105, %b1 ] %v51 = phi float [ %v32, %b0 ], [ %v100, %b1 ] %v52 = phi float [ %v31, %b0 ], [ %v98, %b1 ] %v53 = phi float [ %v30, %b0 ], [ %v96, %b1 ] %v54 = phi float [ %v29, %b0 ], [ %v94, %b1 ] %v55 = phi float [ %v28, %b0 ], [ %v92, %b1 ] %v56 = phi float [ %v27, %b0 ], [ %v90, %b1 ] %v57 = phi float [ %v26, %b0 ], [ %v88, %b1 ] %v58 = phi float [ %v25, %b0 ], [ %v86, %b1 ] %v59 = phi float [ %v24, %b0 ], [ %v84, %b1 ] %v60 = phi float [ %v23, %b0 ], [ %v82, %b1 ] %v61 = phi float [ %v22, %b0 ], [ %v80, %b1 ] %v62 = phi float [ %v21, %b0 ], [ %v78, %b1 ] %v63 = phi float [ %v20, %b0 ], [ %v76, %b1 ] %v64 = phi float [ %v19, %b0 ], [ %v74, %b1 ] %v65 = phi float [ %v18, %b0 ], [ %v72, %b1 ] %v66 = phi float [ %v17, %b0 ], [ %v69, %b1 ] %v67 = phi i32 [ 0, %b0 ], [ %v70, %b1 ] %v68 = fmul float %v49, %v49 %v69 = fadd float %v66, %v68 %v70 = add nsw i32 %v67, 1 %v71 = fmul float %v49, %v48 %v72 = fadd float %v65, %v71 %v73 = fmul float %v49, %v47 %v74 = fadd float %v64, %v73 %v75 = fmul float %v49, %v46 %v76 = fadd float %v63, %v75 %v77 = fmul float %v49, %v45 %v78 = fadd float %v62, %v77 %v79 = fmul float %v49, %v44 %v80 = fadd float %v61, %v79 %v81 = fmul float %v49, %v43 %v82 = fadd float %v60, %v81 %v83 = fmul float %v49, %v42 %v84 = fadd float %v59, %v83 %v85 = fmul float %v49, %v41 %v86 = fadd float %v58, %v85 %v87 = fmul float %v49, %v40 %v88 = fadd float %v57, %v87 %v89 = fmul float %v49, %v39 %v90 = fadd float %v56, %v89 %v91 = fmul float %v49, %v38 %v92 = fadd float %v55, %v91 %v93 = fmul float %v49, %v37 %v94 = fadd float %v54, %v93 %v95 = fmul float %v49, %v36 %v96 = fadd float %v53, %v95 %v97 = fmul float %v49, %v35 %v98 = fadd float %v52, %v97 %v99 = fmul float %v49, %v34 %v100 = fadd float %v51, %v99 %v101 = add nsw i32 %v67, 16 %v102 = getelementptr inbounds [400 x float], [400 x float]* %v0, i32 0, i32 %v101 %v103 = load float, float* %v102, align 4, !tbaa !0 %v104 = fmul float %v49, %v103 %v105 = fadd float %v50, %v104 %v106 = icmp eq i32 %v70, 384 br i1 %v106, label %b2, label %b1 b2: ; preds = %b1 store float %v69, float* %a1, align 4 store float %v72, float* %v1, align 4 store float %v74, float* %v2, align 4 store float %v76, float* %v3, align 4 store float %v78, float* %v4, align 4 store float %v80, float* %v5, align 4 store float %v82, float* %v6, align 4 store float %v84, float* %v7, align 4 store float %v86, float* %v8, align 4 store float %v88, float* %v9, align 4 store float %v90, float* %v10, align 4 store float %v92, float* %v11, align 4 store float %v94, float* %v12, align 4 store float %v96, float* %v13, align 4 store float %v98, float* %v14, align 4 store float %v100, float* %v15, align 4 store float %v105, float* %v16, align 4 %v107 = fcmp olt float %v69, 1.000000e+00 br i1 %v107, label %b3, label %b4 b3: ; preds = %b2 store float 1.000000e+00, float* %a1, align 4, !tbaa !0 br label %b4 b4: ; preds = %b3, %b2 ret void } attributes #0 = { nounwind "target-cpu"="hexagonv55" } !0 = !{!1, !1, i64 0} !1 = !{!"float", !2} !2 = !{!"omnipotent char", !3} !3 = !{!"Simple C/C++ TBAA"}