* ========== Copyright Header Begin ==========================================
* OpenSPARC T2 Processor File: isa3_window3_f13.s
* Copyright (C) 1995-2007 Sun Microsystems, Inc. All Rights Reserved
* 4150 Network Circle, Santa Clara, California 95054, U.S.A.
* DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
* This program is free software; you can redistribute it and/or modify
* it under the terms of the GNU General Public License as published by
* the Free Software Foundation; version 2 of the License.
* This program is distributed in the hope that it will be useful,
* but WITHOUT ANY WARRANTY; without even the implied warranty of
* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
* GNU General Public License for more details.
* You should have received a copy of the GNU General Public License
* along with this program; if not, write to the Free Software
* Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
* For the avoidance of doubt, and except that if any non-GPL license
* choice is available it will apply instead, Sun elects to use only
* the General Public License version 2 (GPLv2) at this time for any
* software where a choice of GPL license versions is made
* available with the language indicating that GPLv2 or any later version
* may be used, or where a choice of which version of the GPL is applied is
* Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
* CA 95054 USA or visit www.sun.com if you need additional information or
* ========== Copyright Header End ============================================
.ident "Using Instruction Hash for Focus :$Id: isa3_window3_f13.s,v 1.1 2007/05/11 17:22:36 drp Exp $"
/************************************************************************
************************************************************************/
setx DIAG_DATA_AREA, %g1, %g3
setx 0x10D4918400460311, %l0, %l6
!# Initialize registers ..
INIT_TH_FP_REG(%l7,%f0,0x790A33B4625019B5)
INIT_TH_FP_REG(%l7,%f2,0x2C88C7539B2A6701)
INIT_TH_FP_REG(%l7,%f4,0xD9BF884F2FA2611A)
INIT_TH_FP_REG(%l7,%f6,0x75D5EB06AAEA8148)
INIT_TH_FP_REG(%l7,%f8,0x6275D3D4DF2591C7)
INIT_TH_FP_REG(%l7,%f10,0xB22312C79825266F)
INIT_TH_FP_REG(%l7,%f12,0x9415A800E420A885)
INIT_TH_FP_REG(%l7,%f14,0xED2F05DD89CB04E4)
INIT_TH_FP_REG(%l7,%f16,0xAB28DE575DF06784)
INIT_TH_FP_REG(%l7,%f18,0x2F19BDD250E99844)
INIT_TH_FP_REG(%l7,%f20,0xC8DE67C0892709A0)
INIT_TH_FP_REG(%l7,%f22,0x377A8E00119344DB)
INIT_TH_FP_REG(%l7,%f24,0xC23DD092D2C92F68)
INIT_TH_FP_REG(%l7,%f26,0xC080A73615BF7E51)
INIT_TH_FP_REG(%l7,%f28,0x361465B4AD6D297B)
INIT_TH_FP_REG(%l7,%f30,0x601BC357ED94BF98)
wrhpr %l0, 0xE58, %hsys_tick_cmpr
fmovsneg %xcc, %f18, %f14
fmul8sux16 %f14, %f30, %f2
fmuld8ulx16 %f5, %f30, %f26
fmuld8sux16 %f20, %f27, %f8
fornot1s %f15, %f12, %f16
fmuld8ulx16 %f1, %f26, %f16
fandnot2 %f28, %f24, %f16
fmul8ulx16 %f18, %f14, %f30
fpadd16s %f29, %f28, %f16
fmovsneg %icc, %f13, %f26
fandnot1s %f19, %f15, %f26
fmovsleu %icc, %f17, %f20
fandnot1s %f29, %f22, %f19
loop_0: movvs %icc, %l0, %i2
fpadd16s %f27, %f11, %f14
loop_1: fcmple16 %f26, %f12, %l5
fmovrslez %i5, %f27, %f25
fmul8sux16 %f14, %f4, %f20
fandnot1 %f22, %f20, %f18
fmul8sux16 %f10, %f20, %f16
loop_2: mulx %g3, %g6, %i7
fpadd16s %f17, %f22, %f12
fmuld8sux16 %f28, %f27, %f6
fandnot2 %f14, %f30, %f12
fmul8sux16 %f22, %f30, %f14
fmuld8sux16 %f6, %f1, %f16
fmovdleu %xcc, %f17, %f22
fmul8x16al %f15, %f23, %f20
fmovdneg %icc, %f24, %f15
fmovdpos %xcc, %f18, %f15
loop_3: fmovrdlez %o4, %f26, %f20
fmovrsgez %l3, %f18, %f24
fandnot2s %f17, %f25, %f0
fornot1s %f19, %f29, %f15
fmul8sux16 %f18, %f6, %f30
loop_4: fcmped %fcc0, %f28, %f16
fmovdpos %xcc, %f22, %f10
fmul8sux16 %f4, %f6, %f26
faligndata %f28, %f26, %f12
faligndata %f28, %f14, %f18
fmovrslez %g7, %f24, %f12
fmovrdgez %o7, %f12, %f24
faligndata %f6, %f14, %f14
faligndata %f18, %f10, %f4
fmovspos %icc, %f28, %f31
fmovsleu %xcc, %f20, %f30
fandnot1s %f20, %f31, %f12
fmovrsgez %g7, %f24, %f29
loop_5: movrgz %l6, %o1, %i1
faligndata %f8, %f26, %f30
fmovsleu %xcc, %f22, %f20
loop_6: array16 %o0, %l5, %o2
fmul8ulx16 %f8, %f30, %f24
fmovdneg %xcc, %f21, %f16
fmovdpos %icc, %f24, %f30
fmovsleu %icc, %f31, %f12
loop_7: fmovdge %icc, %f3, %f12
fmuld8ulx16 %f3, %f7, %f12
fmovrdlez %o0, %f28, %f14
fmul8ulx16 %f10, %f22, %f0
fmul8x16 %f17, %f24, %f16
fpsub16s %f28, %f17, %f22
fmuld8ulx16 %f0, %f1, %f22
loop_8: movvs %icc, %g3, %o3
fmovsneg %xcc, %f19, %f18
fmovdleu %xcc, %f23, %f31
fmuld8sux16 %f27, %f24, %f0
fmovdneg %xcc, %f14, %f28
fmovspos %icc, %f25, %f12
fornot2s %f27, %f26, %f10
fmovrsgez %g7, %f14, %f11
fmuld8sux16 %f2, %f5, %f20
fmovdneg %icc, %f26, %f12
fmul8sux16 %f28, %f0, %f20
fmuld8ulx16 %f25, %f7, %f26
fmuld8ulx16 %f30, %f15, %f16
loop_9: movpos %icc, %l5, %g2
fmul8x16 %f22, %f24, %f26
fmuld8ulx16 %f9, %f15, %f24
fmul8x16al %f3, %f14, %f20
fmul8ulx16 %f0, %f0, %f16
fpsub32s %f14, %f26, %f15
loop_10: stb %g1, [%l7 + 0x2D]
faligndata %f24, %f12, %f24
faligndata %f28, %f0, %f10
fandnot2s %f17, %f23, %f6
fmovdpos %icc, %f22, %f15
fpsub16s %f16, %f13, %f17
fmul8sux16 %f30, %f0, %f12
fmuld8sux16 %f30, %f25, %f8
fmul8ulx16 %f24, %f12, %f14
fandnot2s %f27, %f25, %f15
loop_11: fand %f20, %f10, %f8
fmovspos %icc, %f22, %f17
fandnot2 %f12, %f14, %f20
loop_12: subc %o4, %i5, %l3
fmuld8sux16 %f3, %f23, %f18
fpadd32s %f10, %f14, %f29
fmul8ulx16 %f8, %f2, %f20
fornot1s %f28, %f30, %f23
loop_13: movrlez %l3, 0x117, %i3
fmovrdgez %g6, %f28, %f10
faligndata %f30, %f30, %f4
loop_14: fand %f26, %f6, %f12
fmul8sux16 %f16, %f18, %f22
fornot1s %f18, %f23, %f13
fmuld8ulx16 %f16, %f18, %f12
fmovrsgez %l1, %f10, %f29
fpadd16s %f24, %f14, %f27
fandnot2s %f13, %f0, %f20
fmovrdlez %g4, %f28, %f16
fpsub32s %f20, %f15, %f14
loop_15: sth %l4, [%l7 + 0x74]
fmuld8ulx16 %f24, %f30, %f20
fornot2s %f30, %f13, %f19
fmul8ulx16 %f28, %f14, %f18
fpadd16s %f22, %f27, %f30
fmovrdlez %i7, %f12, %f10
fmuld8sux16 %f9, %f8, %f24
fmuld8ulx16 %f21, %f6, %f30
fandnot2s %f28, %f12, %f21
fmovrslez %i0, %f13, %f31
faligndata %f24, %f12, %f10
fpadd32s %f22, %f12, %f10
fmul8x16au %f31, %f2, %f2
fmuld8ulx16 %f22, %f31, %f12
fmovrslez %g5, %f29, %f18
fmovspos %xcc, %f22, %f26
fmul8sux16 %f8, %f10, %f26
fpadd16s %f15, %f10, %f29
fandnot1s %f30, %f11, %f2
faligndata %f22, %f8, %f20
loop_16: smulcc %l6, 0x0958, %o4
fandnot1s %f16, %f24, %f22
fmovsneg %icc, %f24, %f19
fandnot1s %f1, %f29, %f19
fmul8x16al %f21, %f12, %f26
fmovrsgez %g4, %f22, %f11
fmovspos %xcc, %f16, %f19
fmovdleu %icc, %f26, %f19
fmovrdlez %i6, %f10, %f20
fmuld8ulx16 %f9, %f11, %f10
fmul8x16au %f11, %f10, %f10
fmul8x16al %f6, %f16, %f24
fmuld8ulx16 %f5, %f9, %f10
loop_17: fsrc2s %f28, %f11
fmul8ulx16 %f22, %f22, %f30
fmul8x16al %f12, %f21, %f28
fmovsneg %xcc, %f12, %f22
fornot1s %f14, %f14, %f15
fandnot1 %f16, %f28, %f10
fmovsleu %icc, %f30, %f17
fmuld8sux16 %f24, %f25, %f26
fmuld8sux16 %f29, %f12, %f10
loop_18: fmovde %icc, %f9, %f5
fmovrdlez %g3, %f16, %f26
fmuld8ulx16 %f5, %f17, %f0
fornot2s %f11, %f12, %f25
faligndata %f0, %f10, %f10
faligndata %f8, %f24, %f18
fandnot2s %f30, %f26, %f3
fmul8sux16 %f18, %f10, %f6
fmovdpos %xcc, %f19, %f14
fornot1s %f21, %f14, %f28
fmovsneg %icc, %f30, %f27
fmovrslez %o6, %f13, %f16
fmuld8ulx16 %f30, %f21, %f0
loop_19: andcc %l4, 0x1FC1, %g3
fmovdleu %icc, %f11, %f16
fmul8x16au %f5, %f0, %f30
fornot1s %f24, %f15, %f16
fmul8x16al %f9, %f27, %f14
loop_20: umul %i1, %l1, %g4
faligndata %f12, %f2, %f20
fmovdpos %xcc, %f18, %f28
fmovspos %icc, %f20, %f25
fmul8ulx16 %f26, %f8, %f28
fandnot1s %f15, %f3, %f22
fmul8x16au %f6, %f14, %f8
fornot1s %f21, %f12, %f31
fmul8sux16 %f12, %f28, %f12
fmovsleu %icc, %f29, %f18
fandnot2 %f18, %f10, %f10
fpsub32s %f15, %f26, %f31
loop_21: fsrc2s %f31, %f2
fpsub32s %f10, %f22, %f18
fpsub32s %f24, %f20, %f21
fmovdleu %icc, %f20, %f22
fandnot2s %f29, %f9, %f29
fmovdleu %xcc, %f12, %f31
fmovrdgez %i0, %f10, %f16
fmul8ulx16 %f24, %f8, %f24
fmul8x16al %f30, %f3, %f22
fmul8x16al %f10, %f3, %f30
fandnot2s %f18, %f23, %f6
fpadd32s %f26, %f25, %f11
fmuld8sux16 %f27, %f24, %f6
fmul8sux16 %f10, %f30, %f14
fmovrdgez %i3, %f28, %f22
loop_22: movvc %xcc, %o2, %g4
fmovsneg %xcc, %f12, %f10
loop_23: mulx %g4, 0x1AF1, %g1
fmul8x16au %f29, %f7, %f28
fmul8sux16 %f18, %f18, %f18
fmul8x16au %f16, %f3, %f24
fpadd16s %f26, %f24, %f21
fandnot2s %f11, %f12, %f30
fmul8ulx16 %f20, %f0, %f20
fmul8sux16 %f14, %f16, %f30
fmovdleu %icc, %f24, %f28
loop_24: ldsh [%l7 + 0x64], %i1
fpadd16s %f14, %f19, %f13
fmuld8ulx16 %f23, %f22, %f8
fmul8sux16 %f2, %f4, %f26
fmuld8sux16 %f27, %f18, %f6
fornot2s %f21, %f17, %f15
fmuld8ulx16 %f20, %f20, %f22
fmuld8sux16 %f29, %f21, %f30
fmul8x16au %f24, %f18, %f22
fmuld8sux16 %f4, %f6, %f22
fmuld8ulx16 %f28, %f24, %f4
loop_25: fmovsgu %icc, %f19, %f10
fmul8x16al %f26, %f23, %f2
fmuld8sux16 %f6, %f13, %f18
fmovsneg %icc, %f15, %f13
loop_26: edge8n %g3, %g7, %g5
fmul8x16au %f19, %f4, %f2
fmul8x16al %f5, %f31, %f22
fandnot1s %f19, %f4, %f23
fmuld8ulx16 %f15, %f3, %f16
fpadd16s %f24, %f25, %f25
loop_27: fxnors %f21, %f24, %f27
fmovrsgez %l5, %f16, %f22
fmul8sux16 %f26, %f8, %f28
fmovrdgez %g7, %f24, %f24
loop_28: xorcc %o5, 0x0172, %i7
fmul8x16au %f29, %f12, %f14
fmul8x16au %f14, %f16, %f14
loop_29: smulcc %o1, %l1, %i7
fmovrsgez %g3, %f15, %f13
fmovdleu %icc, %f15, %f24
fandnot1s %f28, %f14, %f8
faligndata %f0, %f4, %f22
fmuld8sux16 %f31, %f25, %f28
fpadd32s %f19, %f23, %f19
fpsub32s %f12, %f27, %f20
loop_30: edge8l %o2, %i5, %l3
fmuld8ulx16 %f21, %f15, %f20
fmuld8ulx16 %f31, %f24, %f2
fmuld8ulx16 %f31, %f26, %f16
bshuffle %f10, %f28, %f30
fmovdneg %xcc, %f31, %f19
loop_31: addccc %i7, 0x1FB1, %g4
fmul8x16au %f20, %f19, %f30
fandnot1s %f15, %f20, %f10
fmuld8ulx16 %f7, %f1, %f16
fandnot1s %f13, %f15, %f28
fandnot2s %f21, %f29, %f5
fmovrsgez %l3, %f13, %f16
fornot1s %f27, %f14, %f25
fmovspos %icc, %f11, %f13
fmovrdlez %g1, %f30, %f28
fmuld8ulx16 %f4, %f26, %f26
fornot1s %f14, %f28, %f31
fmuld8ulx16 %f14, %f0, %f20
faligndata %f28, %f10, %f12
loop_32: udivcc %g4, 0x1AB3, %o1
fpadd32s %f10, %f15, %f13
fpsub32s %f26, %f25, %f29
fmuld8sux16 %f11, %f24, %f8
fmul8x16al %f22, %f1, %f30
fmovrdgez %l4, %f10, %f28
fmovdleu %xcc, %f31, %f18
fmul8x16al %f23, %f13, %f28
bshuffle %f28, %f18, %f18
loop_33: fornot2 %f28, %f4, %f0
fmovrdlez %g6, %f12, %f20
fmul8ulx16 %f6, %f28, %f2
fmul8sux16 %f10, %f6, %f28
fandnot1s %f24, %f6, %f15
fmovsneg %icc, %f11, %f13
fmul8sux16 %f12, %f14, %f12
fmuld8sux16 %f8, %f16, %f24
faligndata %f14, %f14, %f0
fmovsleu %icc, %f10, %f15
fmuld8sux16 %f22, %f28, %f18
fmovrdlez %o4, %f22, %f22
fandnot1s %f4, %f20, %f26
fmuld8ulx16 %f0, %f3, %f30
loop_34: movrne %i3, 0x066, %l5
fmovsneg %xcc, %f30, %f10
fmovsneg %xcc, %f28, %f26
fmul8x16au %f23, %f11, %f24
fornot1s %f13, %f17, %f25
fmovrdgez %l3, %f22, %f12
fmuld8sux16 %f29, %f27, %f10
fpadd16s %f27, %f16, %f16
fmul8ulx16 %f28, %f26, %f26
fmuld8ulx16 %f23, %f30, %f22
fmuld8ulx16 %f31, %f1, %f18
loop_35: orcc %i1, 0x14AE, %g7
fandnot2 %f18, %f16, %f26
fmovsleu %icc, %f22, %f16
fmuld8sux16 %f15, %f3, %f4
fmuld8sux16 %f16, %f19, %f24
loop_36: subcc %i2, %l0, %g1
fmovrdlez %i2, %f28, %f16
fmuld8ulx16 %f31, %f16, %f16
fpsub16s %f29, %f22, %f30
fandnot2s %f27, %f2, %f19
fmovrdlez %g3, %f30, %f20
fmovsleu %icc, %f11, %f25
fandnot1 %f24, %f16, %f30
fmovspos %xcc, %f23, %f14
fornot2s %f20, %f15, %f11
fandnot2 %f30, %f26, %f24
fmul8x16au %f28, %f28, %f20
fmovsneg %icc, %f11, %f20
fmovdleu %icc, %f11, %f14
fmul8ulx16 %f12, %f8, %f30
fmul8ulx16 %f24, %f24, %f8
fandnot1s %f29, %f0, %f21
fmul8x16au %f26, %f15, %f18
loop_37: sth %g3, [%l7 + 0x2A]
fmovrsgez %i7, %f12, %f10
fmuld8ulx16 %f1, %f11, %f24
fmul8x16 %f12, %f22, %f28
faligndata %f12, %f30, %f22
fandnot2s %f4, %f17, %f28
fmuld8sux16 %f30, %f20, %f22
bshuffle %f30, %f14, %f26
fmovrslez %i0, %f28, %f23
fmul8x16au %f27, %f18, %f26
loop_38: movcs %xcc, %i7, %g1
fandnot2s %f7, %f15, %f14
fmuld8ulx16 %f16, %f21, %f18
fmuld8ulx16 %f27, %f2, %f18
fornot1s %f23, %f24, %f10
faligndata %f20, %f18, %f30
loop_39: umulcc %o7, %o1, %i6
fmul8ulx16 %f12, %f10, %f10
fmovdleu %icc, %f12, %f15
fmuld8ulx16 %f19, %f15, %f28
fpsub16s %f23, %f22, %f27
fandnot1 %f12, %f14, %f28
fandnot1s %f11, %f20, %f23
fmul8sux16 %f30, %f16, %f8
fmul8x16au %f7, %f22, %f20
fmovrslez %o2, %f24, %f22
fmovdleu %xcc, %f27, %f25
fmovrslez %i2, %f31, %f18
fmovrdgez %g3, %f22, %f12
fmovrslez %i7, %f20, %f13
fmovsneg %icc, %f19, %f22
loop_40: ldub [%l7 + 0x7E], %i7
bshuffle %f28, %f28, %f18
fmovsleu %icc, %f20, %f10
fmul8ulx16 %f12, %f14, %f18
fmul8sux16 %f6, %f2, %f22
bshuffle %f14, %f14, %f26
fandnot1s %f18, %f7, %f20
fmul8sux16 %f30, %f22, %f24
fmul8x16au %f14, %f30, %f24
fandnot1 %f22, %f28, %f14
fmul8sux16 %f20, %f16, %f2
fandnot1 %f30, %f30, %f16
faligndata %f22, %f0, %f16
fmovsleu %xcc, %f23, %f27
fmovdneg %xcc, %f24, %f25
fmul8x16al %f25, %f5, %f10
loop_41: udivx %l4, 0x1768, %i4
fandnot2s %f20, %f31, %f3
fmuld8ulx16 %f28, %f5, %f30
fmovsleu %icc, %f31, %f28
faligndata %f22, %f0, %f28
fandnot1 %f30, %f30, %f24
faligndata %f4, %f2, %f18
fmul8ulx16 %f24, %f12, %f2
fmovdneg %icc, %f28, %f23
fmovdleu %icc, %f31, %f15
fandnot2s %f6, %f10, %f14
fmul8x16al %f27, %f12, %f12
fmul8x16al %f0, %f5, %f28
fornot2s %f19, %f26, %f25
fandnot1s %f14, %f20, %f25
fmuld8sux16 %f0, %f28, %f12
fmuld8sux16 %f8, %f14, %f12
loop_43: fpadd32 %f24, %f26, %f4
fmul8x16au %f3, %f13, %f6
fmovdpos %icc, %f13, %f17
fpadd32s %f13, %f22, %f18
fandnot2 %f14, %f24, %f24
fmul8x16au %f6, %f29, %f8
fmovrdlez %l4, %f10, %f20
fmovdleu %icc, %f28, %f18
fmul8x16al %f23, %f27, %f28
fandnot2 %f10, %f28, %f22
fmul8x16au %f2, %f16, %f14
faligndata %f4, %f20, %f0
fpadd16s %f10, %f22, %f17
fmovdleu %icc, %f21, %f22
fornot2s %f16, %f12, %f10
fmovrdlez %l5, %f26, %f22
loop_44: umulcc %o0, %i4, %g2
fandnot2s %f5, %f14, %f24
fmuld8ulx16 %f2, %f9, %f18
fmovrdgez %o2, %f14, %f22
fmuld8ulx16 %f18, %f10, %f20
fandnot1 %f14, %f20, %f30
loop_45: udivcc %l2, 0x06FA, %l4
fmuld8sux16 %f23, %f22, %f20
fandnot2s %f3, %f15, %f27
faligndata %f6, %f24, %f12
fmul8sux16 %f26, %f22, %f30
fmovrdlez %i6, %f16, %f10
fmovrslez %i3, %f17, %f26
fpadd32s %f21, %f26, %f15
loop_46: and %l4, %i6, %g2
fmuld8sux16 %f14, %f20, %f8
fmovsneg %xcc, %f15, %f15
fmovrdgez %g6, %f16, %f24
fmovdneg %icc, %f10, %f11
fmul8ulx16 %f18, %f2, %f16
fmovdpos %icc, %f15, %f25
fmuld8sux16 %f29, %f22, %f30
loop_47: movn %xcc, %o3, %g1
loop_48: movleu %xcc, %o1, %l1
faligndata %f22, %f4, %f18
fmovrslez %g5, %f24, %f24
fmovspos %icc, %f16, %f12
fornot2s %f20, %f24, %f14
fmul8sux16 %f0, %f10, %f26
fmul8x16al %f14, %f23, %f12
fmovrdgez %g7, %f20, %f28
fornot2s %f11, %f18, %f18
fmovdleu %xcc, %f11, %f23
fmul8x16au %f14, %f5, %f14
loop_49: fornot1s %f30, %f24, %f24
fandnot2s %f17, %f13, %f23
loop_50: fmovrdlz %o6, %f30, %f28
fornot1s %f13, %f11, %f27
fmovrdgez %l3, %f28, %f26
fmul8x16al %f7, %f28, %f10
fpadd16s %f25, %f27, %f14
fmuld8ulx16 %f27, %f1, %f28
fmul8x16al %f11, %f0, %f4
fmuld8ulx16 %f1, %f0, %f4
fandnot1 %f18, %f10, %f30
fmovdneg %xcc, %f28, %f27
loop_51: movl %icc, %l3, %l0
fpsub16s %f15, %f26, %f13
fmovsneg %icc, %f21, %f12
bshuffle %f26, %f26, %f20
fpadd16s %f17, %f22, %f16
faligndata %f18, %f18, %f0
fandnot1s %f26, %f10, %f11
fmovsneg %icc, %f16, %f19
fmovrdgez %l4, %f10, %f22
fornot1s %f12, %f16, %f12
fpsub16s %f18, %f14, %f10
fornot1s %f24, %f15, %f14
fmovspos %xcc, %f19, %f15
fmuld8sux16 %f5, %f20, %f14
fpsub16s %f21, %f25, %f10
loop_52: sub %g3, 0x11DF, %g7
fmul8sux16 %f6, %f6, %f28
fmul8x16au %f2, %f18, %f4
fpadd32s %f12, %f21, %f30
fmovsneg %icc, %f22, %f19
fmovrsgez %g4, %f31, %f27
fmul8x16au %f31, %f21, %f0
fmovrslez %l4, %f17, %f23
fmul8x16al %f25, %f6, %f18
fmul8sux16 %f30, %f2, %f30
fandnot2s %f4, %f28, %f24
loop_53: udiv %g1, 0x084D, %o4
fornot2s %f10, %f27, %f17
fmuld8sux16 %f4, %f26, %f22
fmul8ulx16 %f30, %f28, %f22
fmul8sux16 %f18, %f18, %f8
fandnot2s %f11, %f1, %f22
loop_54: fmovdpos %xcc, %f31, %f22
fmovdpos %icc, %f14, %f26
fmovsneg %icc, %f21, %f30
bshuffle %f30, %f18, %f18
fmul8x16au %f12, %f25, %f22
faligndata %f30, %f4, %f24
fmul8sux16 %f10, %f8, %f12
fpadd32s %f18, %f25, %f16
fmul8x16al %f29, %f20, %f12
fornot1s %f30, %f27, %f14
fmul8x16au %f22, %f29, %f26
fmul8ulx16 %f26, %f18, %f24
fmuld8sux16 %f28, %f14, %f30
fmul8x16au %f10, %f12, %f18
loop_55: movrgez %g2, %i5, %i2
fmovdleu %xcc, %f27, %f22
fmovsneg %icc, %f18, %f26
fmovrslez %l5, %f27, %f10
fmul8x16 %f28, %f24, %f20
fmovdpos %xcc, %f19, %f31
fmovrdlez %l6, %f18, %f28
fpadd16s %f23, %f22, %f11
fmuld8ulx16 %f26, %f31, %f4
fpadd16s %f18, %f18, %f11
loop_56: addccc %g4, 0x1A0F, %l4
faligndata %f30, %f10, %f26
fmovdneg %xcc, %f27, %f17
fandnot2 %f20, %f26, %f26
fandnot1 %f14, %f10, %f12
fmuld8ulx16 %f16, %f26, %f12
fandnot1s %f30, %f24, %f1
loop_57: mulx %l3, %o2, %o6
fornot2s %f21, %f27, %f27
fpadd32s %f13, %f21, %f29
fmul8x16au %f30, %f25, %f16
fandnot1s %f3, %f19, %f26
fpsub16s %f26, %f11, %f29
fmovrdlez %i5, %f14, %f16
loop_58: orcc %l2, %g3, %i6
fmovrdgez %i5, %f22, %f16
fmul8x16au %f2, %f19, %f12
fpsub32s %f16, %f18, %f17
fmul8sux16 %f2, %f24, %f30
fmuld8sux16 %f26, %f1, %f8
fmovsleu %xcc, %f14, %f22
fmovrslez %l3, %f13, %f23
fmovspos %icc, %f13, %f13
loop_59: movpos %xcc, %o0, %l0
fpadd32s %f20, %f13, %f25
fmuld8sux16 %f29, %f22, %f22
fmul8x16au %f26, %f8, %f24
fornot2s %f15, %f22, %f31
fmovspos %xcc, %f13, %f29
fmovsneg %xcc, %f24, %f17
fornot1s %f12, %f22, %f27
loop_60: std %f26, [%l7 + 0x08]
fmovrdlez %o3, %f22, %f30
fmovdneg %xcc, %f18, %f16
fmovspos %xcc, %f11, %f29
fmul8x16al %f7, %f13, %f28
fpsub16s %f29, %f21, %f22
fandnot1 %f12, %f12, %f30
fmovdleu %icc, %f14, %f31
loop_61: movn %xcc, %i3, %o3
faligndata %f0, %f10, %f18
fmovdneg %icc, %f31, %f10
fmovsneg %xcc, %f22, %f17
fmovrslez %o6, %f14, %f13
fornot1s %f10, %f25, %f10
fmul8ulx16 %f24, %f28, %f6
loop_62: mova %icc, %l4, %g7
fmovrdgez %l6, %f26, %f12
fmuld8sux16 %f16, %f19, %f24
fmovdpos %icc, %f11, %f11
fmul8x16al %f17, %f7, %f12
fmuld8sux16 %f8, %f7, %f6
fmovdleu %xcc, %f23, %f16
fmul8x16au %f29, %f0, %f26
fandnot1s %f24, %f30, %f31
fmovsneg %icc, %f21, %f12
fpadd32s %f17, %f22, %f17
fpsub16s %f31, %f18, %f15
loop_63: move %xcc, %i0, %o7
fandnot2s %f22, %f29, %f1
fmul8ulx16 %f6, %f4, %f20
fpsub16s %f14, %f30, %f12
fpsub32s %f24, %f15, %f31
fmul8sux16 %f6, %f16, %f26
fmul8sux16 %f6, %f4, %f22
loop_64: subcc %o2, %o0, %i6
fpsub32s %f25, %f13, %f19
fmuld8ulx16 %f22, %f24, %f20
fandnot2s %f28, %f13, %f29
fmul8x16au %f10, %f26, %f26
fmul8x16al %f18, %f29, %f22
fmul8x16au %f28, %f15, %f20
fmovrsgez %o5, %f18, %f11
loop_65: movvc %xcc, %o2, %o3
fmuld8ulx16 %f10, %f2, %f28
fmul8sux16 %f22, %f12, %f24
fmul8x16al %f20, %f15, %f6
fmul8ulx16 %f20, %f16, %f2
fmul8x16 %f26, %f10, %f16
fandnot1s %f17, %f30, %f17
fmovsneg %icc, %f24, %f22
fmul8x16au %f14, %f26, %f2
fmul8x16au %f29, %f13, %f8
fmuld8sux16 %f16, %f0, %f16
fandnot1s %f24, %f27, %f25
fmul8x16al %f4, %f19, %f10
fmovdneg %icc, %f20, %f18
fmul8ulx16 %f12, %f30, %f26
fmovrslez %l2, %f26, %f10
fmul8x16al %f11, %f27, %f22
fmovsleu %xcc, %f22, %f16
fmuld8sux16 %f30, %f22, %f30
fpsub16s %f29, %f22, %f24
loop_66: ldx [%l7 + 0x18], %l2
fmul8x16au %f24, %f22, %f18
fmuld8sux16 %f25, %f28, %f14
fandnot1s %f12, %f17, %f10
fpadd16s %f31, %f31, %f31
fpadd32s %f13, %f22, %f23
fmovdneg %icc, %f21, %f24
fandnot2s %f21, %f18, %f12
fmul8sux16 %f30, %f10, %f6
loop_67: sdiv %g5, 0x1F08, %i5
fmul8sux16 %f16, %f22, %f10
fpadd16s %f18, %f10, %f30
bshuffle %f18, %f14, %f16
fmul8x16au %f24, %f23, %f26
fmuld8ulx16 %f26, %f27, %f20
fandnot2s %f5, %f29, %f29
loop_68: movgu %xcc, %i2, %l5
fmul8ulx16 %f10, %f4, %f14
fmovrdgez %g1, %f24, %f26
fmovrslez %i2, %f26, %f11
fandnot2s %f17, %f31, %f28
fmovspos %icc, %f21, %f11
fmovsleu %xcc, %f14, %f25
fandnot2s %f20, %f19, %f6
fpadd16s %f30, %f17, %f10
fornot2s %f30, %f25, %f22
fmuld8ulx16 %f9, %f25, %f24
fandnot1s %f17, %f14, %f0
fmovdleu %xcc, %f15, %f23
fmuld8sux16 %f12, %f0, %f8
fmovdneg %icc, %f18, %f30
fmul8sux16 %f0, %f20, %f22
fmul8x16au %f26, %f11, %f28
fandnot2s %f4, %f26, %f18
loop_69: movl %icc, %g6, %i2
fmul8ulx16 %f12, %f20, %f12
faligndata %f2, %f12, %f0
fmuld8sux16 %f29, %f1, %f2
fmovsneg %xcc, %f30, %f13
fmovdpos %xcc, %f31, %f29
bshuffle %f26, %f20, %f26
loop_70: udiv %i7, 0x087D, %g7
fmuld8sux16 %f7, %f16, %f28
fmovrdgez %l2, %f22, %f28
fandnot2s %f6, %f21, %f19
loop_71: fmovde %xcc, %f13, %f16
fandnot2s %f24, %f23, %f25
fmuld8ulx16 %f18, %f3, %f14
bshuffle %f22, %f12, %f28
bshuffle %f28, %f18, %f22
fmul8x16al %f31, %f10, %f4
fmovdleu %xcc, %f10, %f21
fandnot1s %f4, %f10, %f26
fpsub32s %f18, %f11, %f16
fmovsneg %icc, %f17, %f13
bshuffle %f26, %f22, %f12
fandnot2 %f14, %f16, %f28
fmul8ulx16 %f26, %f20, %f16
loop_72: stw %o6, [%l7 + 0x60]
fmul8x16au %f29, %f29, %f16
fmuld8ulx16 %f5, %f24, %f18
fmuld8ulx16 %f27, %f11, %f22
fmul8sux16 %f22, %f22, %f0
fpadd16s %f30, %f17, %f10
fmul8sux16 %f2, %f8, %f12
faligndata %f8, %f30, %f6
loop_73: orn %l1, %i4, %l5
fmul8x16al %f19, %f29, %f18
fmuld8ulx16 %f14, %f2, %f26
loop_74: edge8n %g1, %g6, %o7
fpadd16s %f28, %f27, %f20
fmuld8ulx16 %f27, %f6, %f8
fmuld8sux16 %f30, %f31, %f8
bshuffle %f22, %f24, %f14
fpadd16s %f29, %f13, %f21
fmul8x16 %f10, %f22, %f14
fmovrslez %i7, %f14, %f29
fmovsneg %icc, %f28, %f10
faligndata %f22, %f8, %f22
fornot2s %f13, %f17, %f31
fandnot1s %f8, %f18, %f22
fmovrdgez %i0, %f24, %f22
loop_75: udivx %l0, 0x1B5A, %i0
fmul8sux16 %f6, %f20, %f8
loop_76: array16 %l4, %o0, %l1
fmovrsgez %l5, %f15, %f31
fmul8ulx16 %f0, %f22, %f20
faligndata %f6, %f20, %f26
fandnot2s %f25, %f11, %f7
loop_77: sdivx %g3, 0x1FAD, %i6
fmovsleu %xcc, %f15, %f24
fmul8x16au %f20, %f10, %f4
fandnot1 %f10, %f18, %f12
fmul8x16 %f31, %f18, %f24
fmovdneg %xcc, %f16, %f11
fandnot1s %f30, %f10, %f22
fmul8sux16 %f14, %f26, %f4
fmovrdlez %g5, %f30, %f28
fmovdpos %icc, %f16, %f11
fmul8sux16 %f28, %f2, %f28
fmul8x16al %f10, %f12, %f14
fmul8x16al %f20, %f16, %f16
fmul8x16al %f28, %f0, %f8
loop_78: fornot2s %f7, %f13, %f11
fmul8x16 %f17, %f24, %f16
loop_79: fmul8x16al %f30, %f13, %f4
fmuld8sux16 %f5, %f30, %f14
fmul8ulx16 %f6, %f14, %f16
fmul8x16al %f20, %f27, %f20
fandnot1s %f28, %f11, %f24
fmul8x16al %f2, %f12, %f30
fpadd32s %f30, %f12, %f18
fmuld8ulx16 %f31, %f9, %f22
fmuld8sux16 %f23, %f15, %f6
fmul8sux16 %f2, %f8, %f18
fmovdpos %xcc, %f27, %f23
loop_80: edge8 %g2, %g7, %i0
fmovrslez %l2, %f16, %f12
fmul8x16au %f11, %f28, %f28
fpsub16s %f18, %f11, %f26
fandnot1s %f22, %f30, %f11
loop_81: fpadd32 %f26, %f6, %f6
fmuld8ulx16 %f15, %f18, %f28
fandnot2 %f22, %f22, %f28
fmovsleu %xcc, %f28, %f13
fmul8x16au %f25, %f2, %f14
fpsub32s %f16, %f22, %f24
fmul8x16al %f31, %f29, %f0
fmul8sux16 %f24, %f16, %f6
loop_82: popc 0x172C, %l4
faligndata %f16, %f0, %f14
fmovdneg %xcc, %f17, %f19
fmovrslez %o0, %f17, %f28
fmul8x16au %f12, %f27, %f0
fpsub16s %f15, %f25, %f10
fmuld8ulx16 %f13, %f26, %f8
fmuld8sux16 %f2, %f12, %f14
fmovdpos %icc, %f27, %f25
loop_83: edge16l %g4, %i2, %g6
fmul8x16au %f0, %f17, %f28
fandnot1s %f16, %f13, %f14
fmovdpos %xcc, %f23, %f14
loop_84: edge16 %i6, %i2, %g7
fandnot2s %f23, %f18, %f7
fandnot1s %f10, %f30, %f21
fpadd16s %f16, %f22, %f16
fmovrsgez %l6, %f21, %f21
fmovrslez %l5, %f19, %f11
fmovrdgez %o7, %f10, %f12
fmul8x16au %f13, %f13, %f18
fmovsneg %icc, %f30, %f16
fmovrdlez %l3, %f22, %f18
faligndata %f6, %f30, %f24
loop_85: addccc %i1, 0x003B, %g5
fpsub16s %f23, %f19, %f29
fpsub16s %f11, %f22, %f15
fandnot1 %f20, %f28, %f28
fmovdpos %xcc, %f19, %f13
fmul8x16au %f26, %f0, %f24
fmovrdlez %l0, %f14, %f12
fmul8ulx16 %f24, %f14, %f2
fmul8ulx16 %f4, %f18, %f30
fmul8ulx16 %f30, %f8, %f6
fmuld8sux16 %f11, %f20, %f4
fandnot1s %f19, %f19, %f3
fmul8ulx16 %f28, %f2, %f24
fmul8sux16 %f30, %f24, %f12
fpadd16s %f16, %f29, %f17
fmuld8sux16 %f7, %f4, %f20
fmuld8sux16 %f7, %f7, %f4
fmovdneg %xcc, %f10, %f31
fmuld8sux16 %f23, %f0, %f22
fmovdleu %icc, %f23, %f28
faligndata %f20, %f6, %f12
fmovspos %icc, %f21, %f24
fmuld8ulx16 %f29, %f22, %f2
fmul8sux16 %f18, %f0, %f6
fmul8x16au %f31, %f24, %f0
fandnot2 %f12, %f10, %f10
loop_86: movl %xcc, %i5, %g4
fandnot2s %f10, %f7, %f10
faligndata %f28, %f22, %f12
fmovrdlez %i2, %f16, %f14
fmovrdgez %i6, %f20, %f20
fmuld8ulx16 %f4, %f9, %f20
faligndata %f16, %f16, %f26
fandnot2s %f16, %f11, %f7
fmul8x16au %f22, %f3, %f10
faligndata %f24, %f26, %f26
fmovdpos %xcc, %f21, %f19
bshuffle %f10, %f30, %f24
fmovrslez %o3, %f25, %f31
fmuld8sux16 %f1, %f10, %f18
fmovsneg %xcc, %f21, %f27
loop_87: restore %i3, %o4, %o0
fpadd32s %f25, %f27, %f31
fmul8sux16 %f0, %f20, %f24
fpadd32s %f19, %f29, %f11
fmul8x16au %f2, %f10, %f20
fmul8x16au %f25, %f24, %f28
faligndata %f28, %f12, %f10
fmul8ulx16 %f20, %f24, %f18
fandnot2s %f24, %f20, %f11
faligndata %f6, %f28, %f8
loop_88: umulcc %i3, %i0, %o3
fmuld8ulx16 %f5, %f12, %f24
fmovsleu %icc, %f23, %f20
loop_89: andcc %i2, %g6, %g3
fmuld8ulx16 %f2, %f25, %f10
fmuld8sux16 %f2, %f5, %f2
fmovdleu %icc, %f31, %f25
bshuffle %f30, %f20, %f20
fmul8x16al %f2, %f10, %f6
fmul8x16al %f3, %f21, %f0
fmovdneg %icc, %f20, %f17
loop_90: movrne %l4, 0x3E8, %o7
fmuld8ulx16 %f25, %f22, %f22
fmul8sux16 %f8, %f28, %f0
fandnot1 %f12, %f22, %f20
fmovdpos %xcc, %f17, %f28
fmovsneg %xcc, %f26, %f25
fandnot2s %f3, %f15, %f31
fmuld8sux16 %f18, %f8, %f24
fpsub16s %f17, %f21, %f15
loop_91: xnor %o5, %o7, %g7
fmovsleu %xcc, %f30, %f20
fmul8sux16 %f6, %f30, %f4
fmul8x16al %f2, %f30, %f0
fmuld8sux16 %f31, %f18, %f10
fmul8ulx16 %f28, %f14, %f18
loop_92: fpadd32 %f2, %f24, %f6
loop_93: fmovrsgez %l1, %f12, %f8
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
EXIT_GOOD /* test finish */
/************************************************************************
************************************************************************/