* ========== Copyright Header Begin ==========================================
* OpenSPARC T2 Processor File: isa3_window3_f3.s
* Copyright (C) 1995-2007 Sun Microsystems, Inc. All Rights Reserved
* 4150 Network Circle, Santa Clara, California 95054, U.S.A.
* DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
* This program is free software; you can redistribute it and/or modify
* it under the terms of the GNU General Public License as published by
* the Free Software Foundation; version 2 of the License.
* This program is distributed in the hope that it will be useful,
* but WITHOUT ANY WARRANTY; without even the implied warranty of
* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
* GNU General Public License for more details.
* You should have received a copy of the GNU General Public License
* along with this program; if not, write to the Free Software
* Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
* For the avoidance of doubt, and except that if any non-GPL license
* choice is available it will apply instead, Sun elects to use only
* the General Public License version 2 (GPLv2) at this time for any
* software where a choice of GPL license versions is made
* available with the language indicating that GPLv2 or any later version
* may be used, or where a choice of which version of the GPL is applied is
* Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
* CA 95054 USA or visit www.sun.com if you need additional information or
* ========== Copyright Header End ============================================
.ident "Using Instruction Hash for Focus :$Id: isa3_window3_f3.s,v 1.1 2007/05/11 17:22:38 drp Exp $"
/************************************************************************
************************************************************************/
setx DIAG_DATA_AREA, %g1, %g3
setx 0x14CB2281A0511142, %l0, %l6
!# Initialize registers ..
INIT_TH_FP_REG(%l7,%f0,0xD224EBCA9A43DAB4)
INIT_TH_FP_REG(%l7,%f2,0xE83CD0CF1C865357)
INIT_TH_FP_REG(%l7,%f4,0xBE06F0B00EFF648F)
INIT_TH_FP_REG(%l7,%f6,0x534BF2A567AD0334)
INIT_TH_FP_REG(%l7,%f8,0xE1F09D4AEB42E898)
INIT_TH_FP_REG(%l7,%f10,0x549B3BB546CEBCCE)
INIT_TH_FP_REG(%l7,%f12,0x9B37B7A440958CCD)
INIT_TH_FP_REG(%l7,%f14,0x254F92F35D69632A)
INIT_TH_FP_REG(%l7,%f16,0xE1487CD1F3F25379)
INIT_TH_FP_REG(%l7,%f18,0xFA23E3D5D794903A)
INIT_TH_FP_REG(%l7,%f20,0x6BB49568B181535B)
INIT_TH_FP_REG(%l7,%f22,0xE6ABD83E9C2930F7)
INIT_TH_FP_REG(%l7,%f24,0x73772F3451153BEB)
INIT_TH_FP_REG(%l7,%f26,0xB224C62100D0D9B7)
INIT_TH_FP_REG(%l7,%f28,0xE3533200ABDF78A0)
INIT_TH_FP_REG(%l7,%f30,0xE2AFD1CB9FA25125)
wrhpr %l0, %g0, %hsys_tick_cmpr
fmovsleu %xcc, %f20, %f26
faligndata %f18, %f24, %f6
fmovsneg %xcc, %f28, %f29
fmul8ulx16 %f4, %f24, %f6
fmovrsgez %i5, %f14, %f29
fmovrsgez %g5, %f25, %f18
faligndata %f14, %f24, %f8
fandnot1s %f25, %f13, %f14
faligndata %f20, %f4, %f2
fmovsleu %icc, %f28, %f23
fmovsneg %xcc, %f31, %f16
loop_0: movrlz %o6, 0x18D, %i4
fandnot1 %f14, %f10, %f24
fmovrdlez %g1, %f16, %f12
fmovspos %icc, %f17, %f15
fmovrdgez %g4, %f28, %f10
fmuld8sux16 %f31, %f24, %f18
fmovdpos %icc, %f10, %f14
loop_1: edge16l %g2, %o3, %g7
fpsub16s %f21, %f21, %f11
fmovdpos %xcc, %f10, %f12
fmul8x16al %f1, %f1, %f24
fmul8x16au %f19, %f20, %f10
loop_2: fmovdg %xcc, %f24, %f17
fandnot1s %f29, %f5, %f10
fmovdpos %xcc, %f30, %f26
bshuffle %f14, %f26, %f16
fandnot1s %f20, %f2, %f10
fmul8x16au %f22, %f0, %f22
fmuld8ulx16 %f5, %f26, %f30
fmuld8ulx16 %f13, %f12, %f22
fmul8x16al %f5, %f20, %f0
fandnot1s %f0, %f26, %f25
loop_3: fxnor %f26, %f30, %f30
fmul8x16au %f14, %f9, %f10
fmovrdgez %l5, %f24, %f26
fornot1s %f21, %f10, %f25
fmul8sux16 %f24, %f6, %f10
fandnot1s %f16, %f8, %f29
loop_4: array8 %g1, %g2, %l1
fmovsneg %icc, %f27, %f30
fmuld8sux16 %f27, %f18, %f24
loop_5: srax %i5, %l5, %i3
fmovdneg %xcc, %f13, %f20
fmul8sux16 %f16, %f18, %f2
fmul8x16au %f30, %f29, %f10
loop_6: alignaddrl %g7, %g6, %g5
fmovdneg %icc, %f16, %f24
fandnot2s %f7, %f20, %f25
loop_7: subccc %o7, %o3, %l0
fmovdpos %icc, %f22, %f11
fmovsneg %xcc, %f11, %f27
fpsub16s %f28, %f24, %f27
fandnot1s %f10, %f7, %f29
fmovrdgez %i6, %f14, %f22
loop_8: umulcc %l6, %i0, %l4
fmovdpos %xcc, %f17, %f18
fandnot1s %f19, %f19, %f12
fmovspos %xcc, %f26, %f12
fmul8x16au %f3, %f22, %f30
fmovspos %icc, %f21, %f12
fmul8x16au %f27, %f6, %f14
fmul8sux16 %f18, %f20, %f20
fmul8x16al %f23, %f1, %f6
fpadd32s %f10, %f20, %f17
loop_9: sdivx %o6, 0x10FC, %o4
bshuffle %f28, %f18, %f16
fmul8sux16 %f8, %f6, %f10
fmovrdlez %o4, %f26, %f24
loop_10: movl %xcc, %g3, %i7
fmuld8ulx16 %f22, %f20, %f24
fmuld8ulx16 %f0, %f16, %f20
fmul8x16au %f14, %f23, %f4
fmul8sux16 %f2, %f6, %f28
fmul8ulx16 %f30, %f28, %f12
fmul8ulx16 %f6, %f10, %f28
fornot1s %f29, %f16, %f30
fmul8x16au %f9, %f27, %f26
loop_11: fcmpne32 %f24, %f20, %l2
fandnot1s %f1, %f15, %f11
fpsub16s %f13, %f19, %f22
fmul8x16au %f4, %f3, %f12
fmovrslez %g1, %f15, %f30
fmul8ulx16 %f14, %f28, %f16
fmul8ulx16 %f12, %f6, %f12
fmuld8sux16 %f22, %f20, %f24
fmul8ulx16 %f12, %f10, %f8
loop_12: fands %f15, %f12, %f3
fmovrdgez %l2, %f24, %f10
fornot1s %f13, %f15, %f14
fmovrdgez %g4, %f28, %f28
fmovrdgez %i6, %f18, %f18
fmul8sux16 %f28, %f20, %f18
loop_13: movrgez %g7, %o5, %o7
fmul8x16au %f12, %f16, %f28
fmul8x16 %f18, %f10, %f20
fmovsleu %icc, %f31, %f13
fpsub16s %f19, %f12, %f18
faligndata %f0, %f22, %f4
fmovrdgez %g1, %f24, %f20
fmovrdgez %o3, %f16, %f30
faligndata %f0, %f28, %f14
fmul8x16al %f22, %f20, %f18
loop_14: restore %o2, 0x0FEF, %g4
loop_15: fmovrdne %i1, %f6, %f16
faligndata %f12, %f2, %f28
fmuld8ulx16 %f24, %f27, %f2
fmovdneg %icc, %f14, %f24
fornot1s %f16, %f17, %f12
faligndata %f6, %f26, %f12
fmovrdgez %o4, %f14, %f12
fmul8x16al %f16, %f27, %f4
faligndata %f12, %f2, %f14
loop_16: sub %i0, %l2, %o6
fandnot2s %f0, %f28, %f15
loop_17: movrne %i5, %o6, %i1
fmovrdlez %g7, %f30, %f26
fandnot1s %f27, %f0, %f16
fmul8sux16 %f30, %f4, %f14
fornot2s %f14, %f28, %f24
fmul8x16al %f5, %f9, %f30
fmovdneg %icc, %f23, %f10
fmul8x16 %f25, %f24, %f28
fmovdneg %xcc, %f30, %f16
fmul8ulx16 %f4, %f22, %f8
faligndata %f20, %f20, %f20
loop_18: or %g4, %i2, %i3
fmuld8sux16 %f13, %f2, %f26
faligndata %f8, %f28, %f10
fornot2s %f25, %f22, %f14
loop_19: mulx %l3, 0x0E3B, %i7
fornot2s %f11, %f11, %f31
fmuld8sux16 %f9, %f17, %f0
loop_20: fmovrslez %g2, %f1, %f11
fmul8x16au %f5, %f20, %f18
fpadd32s %f13, %f22, %f18
fmovdleu %xcc, %f30, %f24
fmovrdgez %l3, %f28, %f18
fmovspos %icc, %f17, %f23
fmuld8sux16 %f6, %f18, %f4
fmovrslez %o5, %f21, %f24
fmovsleu %icc, %f22, %f29
fmovdleu %icc, %f30, %f15
fmuld8sux16 %f11, %f26, %f28
fmovrdlez %l0, %f24, %f18
fmovdneg %xcc, %f22, %f27
fmovrdlez %l1, %f28, %f28
fandnot1s %f31, %f24, %f21
fmovdpos %icc, %f24, %f24
loop_21: sub %l4, %l6, %l1
fmuld8ulx16 %f4, %f8, %f28
fpadd16s %f25, %f11, %f28
fmuld8ulx16 %f19, %f26, %f18
loop_22: mova %xcc, %l1, %g3
fpadd16s %f19, %f17, %f10
bshuffle %f26, %f14, %f30
fmovdleu %xcc, %f12, %f10
bshuffle %f22, %f12, %f30
fmul8sux16 %f2, %f8, %f20
fmul8x16au %f5, %f16, %f22
fmuld8sux16 %f17, %f13, %f4
loop_23: edge16ln %g4, %o6, %o5
fmul8sux16 %f2, %f24, %f4
fmul8sux16 %f4, %f14, %f0
fmul8sux16 %f24, %f6, %f22
fmuld8ulx16 %f16, %f15, %f24
fmul8sux16 %f30, %f2, %f24
fmovsneg %icc, %f29, %f14
fmul8x16 %f21, %f18, %f22
fmul8sux16 %f28, %f12, %f26
fmul8x16au %f14, %f24, %f10
fandnot2s %f13, %f15, %f25
fmul8x16au %f4, %f24, %f22
fandnot2s %f20, %f30, %f22
fmul8sux16 %f12, %f8, %f26
fandnot1s %f25, %f4, %f28
fmul8x16au %f5, %f26, %f16
fmovdpos %xcc, %f28, %f15
fmovdneg %icc, %f10, %f31
fandnot2s %f27, %f10, %f6
fmul8x16al %f28, %f10, %f0
faligndata %f6, %f28, %f16
fmul8x16al %f23, %f18, %f2
fpadd16s %f27, %f23, %f19
fandnot1 %f10, %f10, %f10
fmovrdgez %i1, %f16, %f28
fmovrsgez %g7, %f14, %f12
fmul8x16 %f14, %f18, %f28
fmovrslez %o5, %f19, %f30
fandnot1 %f16, %f24, %f16
fmuld8ulx16 %f5, %f10, %f2
fmuld8sux16 %f0, %f9, %f8
fmul8x16au %f7, %f17, %f4
fmuld8sux16 %f25, %f26, %f10
faligndata %f16, %f2, %f16
faligndata %f30, %f6, %f30
fpsub16s %f13, %f23, %f20
fandnot1s %f18, %f13, %f16
fmul8ulx16 %f18, %f10, %f16
loop_25: orn %i7, %i6, %l3
fmul8x16al %f0, %f14, %f24
fandnot2s %f21, %f17, %f29
fandnot1 %f20, %f22, %f20
fpsub16s %f17, %f13, %f29
fmul8sux16 %f20, %f18, %f2
loop_26: mulx %i6, %l5, %o1
fmuld8sux16 %f10, %f5, %f16
fandnot1s %f23, %f30, %f26
fmul8sux16 %f0, %f22, %f26
fmuld8sux16 %f23, %f26, %f18
fornot1s %f10, %f16, %f26
faligndata %f24, %f12, %f0
fmovrsgez %g4, %f26, %f11
fmuld8sux16 %f8, %f25, %f22
fmul8x16al %f15, %f0, %f24
fmul8x16au %f12, %f11, %f16
fmuld8ulx16 %f10, %f6, %f26
fandnot1 %f26, %f20, %f14
bshuffle %f12, %f12, %f12
loop_27: addccc %i0, 0x0E25, %l5
fandnot1s %f12, %f2, %f20
fmovrsgez %i6, %f10, %f28
fandnot1 %f20, %f12, %f28
faligndata %f22, %f0, %f0
loop_28: movcs %icc, %o1, %i3
fmul8sux16 %f8, %f18, %f20
fandnot2s %f21, %f24, %f3
fmovrdlez %o0, %f26, %f30
fpsub32s %f17, %f16, %f27
fmul8x16al %f14, %f18, %f14
fmovdneg %xcc, %f29, %f18
faligndata %f22, %f2, %f28
fmovspos %icc, %f11, %f23
fpsub16s %f13, %f24, %f14
loop_29: ldub [%l7 + 0x24], %g4
fandnot1 %f12, %f20, %f18
fmuld8ulx16 %f28, %f31, %f0
fmovspos %xcc, %f16, %f28
loop_30: fexpand %f27, %f14
fmuld8ulx16 %f20, %f31, %f22
fmuld8ulx16 %f0, %f10, %f8
fandnot1s %f15, %f30, %f22
fandnot2 %f20, %f22, %f30
fmul8x16al %f15, %f9, %f26
fmul8sux16 %f22, %f24, %f22
fmovrdlez %i5, %f28, %f14
fornot1s %f15, %f24, %f23
fmuld8ulx16 %f6, %f4, %f30
fandnot2s %f7, %f16, %f18
fpsub32s %f22, %f28, %f30
loop_31: fmovscc %icc, %f19, %f31
fandnot1s %f14, %f8, %f15
fmul8x16al %f12, %f19, %f6
fmovrslez %l0, %f15, %f15
fmul8x16al %f25, %f26, %f26
fandnot2s %f29, %f6, %f31
loop_32: movle %icc, %g5, %i4
fmovspos %icc, %f15, %f22
loop_33: sllx %g3, 0x1A, %i0
fmul8x16al %f9, %f3, %f10
fmul8x16al %f5, %f14, %f20
fandnot1 %f18, %f22, %f22
bshuffle %f22, %f26, %f26
fmul8ulx16 %f10, %f10, %f0
fandnot2s %f23, %f20, %f14
faligndata %f14, %f6, %f4
fmuld8ulx16 %f31, %f17, %f24
fmul8sux16 %f0, %f20, %f14
fpsub16s %f20, %f29, %f24
fmul8x16 %f26, %f26, %f24
fandnot2s %f30, %f3, %f22
fornot1s %f18, %f18, %f15
fmul8sux16 %f30, %f16, %f16
fmul8x16al %f17, %f3, %f20
fmul8x16au %f14, %f22, %f8
fornot1s %f26, %f17, %f16
fornot2s %f21, %f26, %f14
fmovdneg %xcc, %f11, %f15
fandnot2s %f16, %f25, %f17
loop_34: movneg %xcc, %i0, %g5
fmovrdlez %i0, %f12, %f16
bshuffle %f28, %f16, %f18
fmul8x16al %f13, %f17, %f28
loop_35: ldx [%l7 + 0x28], %g3
fandnot1s %f21, %f22, %f7
fmovdpos %icc, %f15, %f13
fornot2s %f25, %f15, %f12
fmovrdgez %l1, %f24, %f30
fmuld8sux16 %f31, %f13, %f12
fmovrdgez %l6, %f10, %f10
fmovdneg %xcc, %f13, %f23
loop_36: mova %icc, %i1, %g4
fpsub16s %f26, %f19, %f10
fmovsneg %xcc, %f22, %f15
fandnot2s %f11, %f0, %f24
fmuld8ulx16 %f8, %f24, %f6
loop_37: mulscc %o4, %g5, %i6
fmul8x16au %f22, %f20, %f8
fmul8x16au %f13, %f5, %f6
fpsub32s %f25, %f23, %f15
fmul8x16al %f28, %f30, %f22
fmul8x16 %f29, %f14, %f10
fmul8sux16 %f4, %f20, %f26
faligndata %f0, %f4, %f30
fmovrdgez %g2, %f20, %f10
loop_38: movre %o2, %l0, %g5
fmovsleu %xcc, %f18, %f19
fandnot1s %f27, %f15, %f1
loop_39: restore %g3, %i3, %o2
fmovdneg %xcc, %f24, %f22
loop_40: fpadd16s %f3, %f22, %f25
fmovrslez %l6, %f26, %f14
fmovrslez %i1, %f31, %f15
fmuld8sux16 %f10, %f16, %f16
fandnot1s %f2, %f13, %f29
fmuld8ulx16 %f18, %f3, %f14
fmul8sux16 %f24, %f24, %f22
fmul8ulx16 %f20, %f28, %f6
fmul8sux16 %f4, %f22, %f12
fmul8sux16 %f22, %f14, %f30
loop_41: ld [%l7 + 0x14], %f13
fmovsneg %icc, %f18, %f17
fpsub16s %f24, %f30, %f26
fmovrdlez %g6, %f26, %f10
fmul8x16al %f25, %f12, %f4
faligndata %f28, %f10, %f0
fmovrdlez %l3, %f18, %f12
fmovrdgez %i7, %f20, %f16
loop_42: edge32 %l5, %o4, %g7
faligndata %f12, %f14, %f10
fmul8ulx16 %f10, %f20, %f14
fandnot1s %f18, %f20, %f26
fmul8x16au %f16, %f27, %f16
fandnot2 %f20, %f20, %f10
fmuld8ulx16 %f31, %f29, %f10
faligndata %f30, %f26, %f2
fmovsleu %icc, %f16, %f17
fpadd16s %f12, %f15, %f14
fandnot2s %f31, %f11, %f2
fornot1s %f18, %f17, %f10
fmuld8ulx16 %f4, %f25, %f4
fandnot1s %f26, %f25, %f28
loop_43: udivcc %o4, 0x1F64, %l4
fmul8x16 %f10, %f28, %f28
fmuld8ulx16 %f5, %f19, %f14
fmovrdgez %o4, %f20, %f10
fpadd32s %f24, %f30, %f28
loop_44: smulcc %g7, 0x0AA3, %o1
fmovrsgez %l3, %f14, %f25
fpsub32s %f18, %f29, %f25
fmovdneg %icc, %f23, %f28
fmul8ulx16 %f8, %f4, %f12
fandnot2s %f0, %f15, %f31
fmul8sux16 %f6, %f18, %f24
fmul8sux16 %f28, %f26, %f30
loop_45: fmovrsgez %g5, %f28, %f10
fmovsneg %xcc, %f11, %f31
fmovrslez %l6, %f17, %f26
fmovsleu %xcc, %f12, %f13
fmovsleu %icc, %f19, %f26
fmovspos %xcc, %f16, %f17
fmul8x16au %f3, %f28, %f4
faligndata %f10, %f20, %f6
fandnot1s %f2, %f14, %f17
fmul8x16au %f9, %f21, %f28
fandnot1s %f28, %f11, %f14
loop_47: ldsw [%l7 + 0x38], %l3
fpadd32s %f10, %f27, %f31
loop_48: fmuld8ulx16 %f7, %f0, %f0
fmul8x16au %f19, %f26, %f10
fmovdneg %xcc, %f22, %f25
fmul8x16au %f24, %f14, %f12
fmovrdgez %i5, %f26, %f20
fmuld8sux16 %f8, %f30, %f20
fmuld8sux16 %f9, %f16, %f24
fandnot2s %f29, %f4, %f15
fandnot2s %f24, %f17, %f1
fandnot1s %f27, %f8, %f30
fmovrsgez %l0, %f19, %f11
loop_49: movvc %xcc, %o0, %i0
fmovrdgez %i6, %f30, %f20
fmul8ulx16 %f16, %f2, %f4
fandnot1 %f30, %f20, %f20
fmul8x16 %f12, %f24, %f26
fmovdneg %icc, %f29, %f16
fpadd32s %f13, %f29, %f25
fandnot1s %f4, %f18, %f17
loop_50: sll %l2, 0x04, %g3
fpadd16s %f18, %f27, %f22
loop_51: fsrc2s %f31, %f15
fandnot2s %f23, %f27, %f7
bshuffle %f26, %f14, %f14
fpsub32s %f19, %f24, %f19
fmovsleu %xcc, %f18, %f15
fmovspos %xcc, %f20, %f23
fmovdleu %icc, %f28, %f31
fmul8x16au %f18, %f31, %f28
fmovrslez %l0, %f15, %f30
fmul8x16al %f19, %f2, %f16
fmovdleu %xcc, %f12, %f12
fmul8sux16 %f16, %f24, %f16
bshuffle %f18, %f16, %f16
fpadd32s %f21, %f11, %f27
loop_52: udivx %l5, 0x1150, %l0
fpadd32s %f24, %f31, %f22
fmuld8ulx16 %f19, %f3, %f2
fornot1s %f23, %f20, %f30
fmuld8ulx16 %f9, %f17, %f14
fandnot2s %f26, %f31, %f3
fmul8sux16 %f28, %f10, %f22
fmul8sux16 %f10, %f30, %f16
fmul8x16al %f17, %f20, %f16
fmul8x16 %f30, %f14, %f28
fpadd16s %f27, %f28, %f23
fmul8x16al %f29, %f8, %f22
fmuld8ulx16 %f28, %f28, %f30
fmovdleu %xcc, %f10, %f26
bshuffle %f24, %f22, %f24
loop_53: fnand %f26, %f22, %f24
fpsub16s %f13, %f26, %f19
fmul8sux16 %f8, %f4, %f24
fmul8x16 %f29, %f14, %f30
fmovspos %icc, %f26, %f17
fmovdleu %xcc, %f21, %f22
fmul8x16 %f10, %f26, %f26
fandnot1s %f3, %f27, %f16
fornot2s %f20, %f19, %f10
fmul8sux16 %f18, %f28, %f28
bshuffle %f20, %f14, %f28
fmul8sux16 %f16, %f0, %f14
fornot1s %f22, %f26, %f17
fmul8sux16 %f22, %f10, %f24
fmul8x16au %f31, %f27, %f16
loop_54: fmovrdne %g7, %f12, %f30
fmuld8ulx16 %f6, %f16, %f14
fmul8x16al %f23, %f23, %f30
fornot2s %f18, %f21, %f29
fmul8ulx16 %f10, %f30, %f26
fmovrdgez %i1, %f30, %f30
loop_55: ld [%l7 + 0x64], %f26
fmul8ulx16 %f18, %f2, %f8
fmul8x16al %f0, %f19, %f8
fmovspos %xcc, %f19, %f11
fmuld8ulx16 %f31, %f2, %f10
fmul8ulx16 %f22, %f22, %f30
fornot2s %f20, %f10, %f22
fornot2s %f16, %f14, %f13
fandnot2s %f1, %f25, %f10
fmul8ulx16 %f12, %f18, %f22
fmovsneg %icc, %f28, %f25
fandnot1s %f30, %f21, %f28
fandnot2 %f10, %f20, %f16
fmovrdlez %i5, %f14, %f10
fornot2s %f22, %f11, %f29
fmuld8ulx16 %f6, %f30, %f4
fmovsneg %icc, %f16, %f16
loop_56: udiv %l6, 0x1BC7, %l3
faligndata %f14, %f20, %f0
fmovdleu %xcc, %f19, %f31
fmovrsgez %o0, %f29, %f12
faligndata %f12, %f30, %f22
loop_57: movrgez %l3, %o2, %g5
fandnot1 %f26, %f20, %f22
loop_58: movleu %icc, %i2, %g4
fmul8ulx16 %f8, %f14, %f24
fmuld8sux16 %f18, %f21, %f30
fpsub32s %f22, %f24, %f15
fandnot1s %f20, %f29, %f11
fandnot2s %f19, %f27, %f28
fmul8sux16 %f30, %f28, %f0
fandnot1s %f11, %f10, %f1
loop_59: move %icc, %o2, %g1
fornot2s %f17, %f20, %f20
fmovsleu %xcc, %f23, %f13
fmul8ulx16 %f18, %f12, %f20
fmul8sux16 %f16, %f12, %f2
loop_60: fpack32 %f6, %f12, %f26
fmovdneg %icc, %f12, %f16
fmul8sux16 %f26, %f14, %f10
fornot1s %f28, %f20, %f27
loop_61: edge32n %l3, %i2, %l0
fmovsleu %xcc, %f19, %f26
fmovrslez %i1, %f16, %f14
fmul8x16au %f8, %f29, %f6
fmovdneg %icc, %f29, %f12
fmul8x16 %f21, %f16, %f26
fpsub16s %f25, %f26, %f29
fmul8x16al %f12, %f22, %f30
fmul8ulx16 %f20, %f14, %f10
fmuld8ulx16 %f4, %f10, %f28
fpadd32s %f26, %f26, %f26
fmovrdgez %g4, %f28, %f20
loop_62: fmovscc %icc, %f11, %f7
fmovrsgez %o1, %f26, %f24
fmovdneg %icc, %f18, %f12
fmovdleu %icc, %f20, %f17
fornot2s %f13, %f18, %f27
fmul8x16al %f27, %f18, %f14
fmovrsgez %i6, %f22, %f15
fmovdpos %xcc, %f23, %f19
fornot1s %f29, %f20, %f14
fmul8ulx16 %f18, %f16, %f10
fmul8x16al %f10, %f1, %f18
fandnot1s %f28, %f2, %f16
fandnot1 %f16, %f12, %f14
fmovdleu %icc, %f13, %f25
fmovrsgez %g4, %f13, %f14
fmovdpos %xcc, %f24, %f26
fpadd32s %f31, %f14, %f26
fmovspos %xcc, %f18, %f21
fmul8ulx16 %f6, %f28, %f6
fandnot1s %f17, %f2, %f17
fmuld8ulx16 %f23, %f13, %f22
fmul8ulx16 %f4, %f2, %f22
fornot2s %f27, %f27, %f30
loop_63: mova %icc, %i3, %o0
fpadd16s %f15, %f11, %f24
fandnot2s %f28, %f14, %f23
fmovrdgez %i0, %f10, %f26
fandnot2s %f19, %f21, %f3
loop_64: movneg %icc, %l3, %o7
bshuffle %f20, %f18, %f16
fmul8x16au %f20, %f0, %f16
fandnot1s %f25, %f21, %f17
fmul8x16al %f25, %f0, %f16
loop_65: sub %i6, %g2, %l6
fpadd16s %f25, %f26, %f16
fmul8x16au %f17, %f16, %f30
faligndata %f30, %f10, %f2
fmul8ulx16 %f2, %f12, %f20
loop_66: ldsw [%l7 + 0x5C], %l1
fandnot1s %f18, %f2, %f18
fmul8x16al %f27, %f15, %f12
fmuld8sux16 %f18, %f16, %f14
fpadd16s %f19, %f30, %f16
fmovrsgez %l3, %f27, %f21
fpsub16s %f21, %f10, %f10
fmul8sux16 %f18, %f26, %f30
fmuld8ulx16 %f21, %f27, %f4
fmovrdlez %i4, %f20, %f12
loop_67: movre %g5, %l0, %l4
fmovspos %icc, %f11, %f17
fmul8x16al %f3, %f16, %f28
fmovrsgez %l5, %f13, %f11
fmovsleu %xcc, %f20, %f12
fmovrslez %i1, %f12, %f14
fmul8ulx16 %f22, %f0, %f24
fmuld8sux16 %f4, %f13, %f10
fpsub16s %f20, %f10, %f30
fmul8x16au %f2, %f20, %f0
fmovrsgez %o4, %f17, %f29
fmovdneg %xcc, %f22, %f10
fmul8x16au %f25, %f29, %f26
fmovdneg %icc, %f25, %f20
loop_68: restore %i4, %i1, %i3
fmul8x16al %f4, %f17, %f24
fmuld8sux16 %f6, %f19, %f16
faligndata %f10, %f16, %f8
fmul8sux16 %f28, %f2, %f2
loop_69: movn %xcc, %i5, %l5
fmul8ulx16 %f18, %f20, %f26
fmovrdlez %i1, %f16, %f28
fmul8x16au %f31, %f10, %f20
fmul8x16au %f14, %f18, %f14
fmuld8ulx16 %f20, %f19, %f16
fmuld8sux16 %f8, %f10, %f30
fmovsneg %icc, %f21, %f11
bshuffle %f18, %f16, %f28
bshuffle %f18, %f18, %f14
faligndata %f18, %f30, %f18
fmul8ulx16 %f16, %f28, %f24
fmul8x16 %f27, %f22, %f20
fmul8x16al %f1, %f0, %f26
loop_70: fmovsvs %icc, %f6, %f11
fmuld8sux16 %f7, %f5, %f26
fmovdneg %icc, %f25, %f27
faligndata %f10, %f2, %f18
fmovspos %xcc, %f29, %f14
fpadd32s %f16, %f18, %f28
fmovsleu %xcc, %f25, %f22
fmul8x16al %f4, %f7, %f10
fmovdpos %icc, %f20, %f29
loop_71: st %f25, [%l7 + 0x2C]
fmul8sux16 %f12, %f22, %f0
fmul8x16al %f22, %f31, %f30
fmuld8sux16 %f21, %f28, %f4
fmuld8ulx16 %f25, %f13, %f20
loop_72: ldsw [%l7 + 0x08], %o6
fmul8x16au %f9, %f2, %f10
fmovrdgez %g1, %f24, %f30
fpsub32s %f14, %f13, %f19
fornot2s %f23, %f27, %f15
fmovsleu %xcc, %f10, %f23
fmovspos %icc, %f27, %f22
fmovrdgez %i7, %f20, %f26
loop_73: stx %i3, [%l7 + 0x50]
fmul8x16al %f10, %f3, %f4
fmovsneg %icc, %f15, %f24
fmovsleu %icc, %f24, %f29
faligndata %f0, %f24, %f6
fmovdpos %xcc, %f20, %f19
fmovrdlez %i0, %f16, %f26
loop_74: sdiv %o2, 0x0DF2, %l4
fmul8x16au %f10, %f3, %f22
fandnot1s %f9, %f14, %f30
fmul8x16au %f6, %f11, %f2
fmul8sux16 %f6, %f20, %f2
fmul8sux16 %f20, %f30, %f2
fmuld8ulx16 %f23, %f20, %f12
fmovspos %xcc, %f25, %f21
fmovrdlez %i7, %f14, %f18
fmovdneg %icc, %f12, %f27
fmul8x16al %f27, %f28, %f6
fmovrdlez %g6, %f26, %f22
fmovrdlez %l1, %f14, %f18
fpadd32s %f15, %f24, %f15
fmul8x16au %f3, %f3, %f26
fmovrsgez %l4, %f16, %f27
fmuld8ulx16 %f27, %f29, %f12
fmul8sux16 %f18, %f14, %f12
fmul8x16al %f23, %f10, %f22
fmovrdlez %o0, %f24, %f10
fmovrdlez %g6, %f18, %f20
fandnot1s %f20, %f21, %f26
loop_75: srl %o7, 0x0E, %g4
fmuld8ulx16 %f11, %f9, %f30
fmuld8ulx16 %f28, %f26, %f12
loop_76: fnor %f6, %f14, %f26
fmovrdlez %g4, %f22, %f20
fpsub32s %f12, %f16, %f17
fmul8x16al %f23, %f28, %f12
bshuffle %f14, %f10, %f28
fmuld8ulx16 %f21, %f3, %f14
faligndata %f28, %f12, %f28
faligndata %f26, %f8, %f30
fmovrslez %o2, %f31, %f28
fmovrslez %o4, %f21, %f23
fmovspos %icc, %f28, %f17
fmul8ulx16 %f30, %f12, %f2
fandnot2s %f15, %f12, %f27
fmul8x16al %f8, %f31, %f16
fmul8x16al %f18, %f3, %f8
fandnot1 %f12, %f28, %f14
fandnot2 %f24, %f20, %f28
loop_78: udiv %g7, 0x1DBB, %g4
fmovrdgez %i2, %f20, %f30
fmovsneg %xcc, %f10, %f22
loop_79: addcc %o5, %i1, %o4
fmul8x16al %f23, %f19, %f22
fpsub32s %f11, %f21, %f12
fmul8x16au %f2, %f21, %f6
fornot1s %f18, %f19, %f26
fmovrsgez %o0, %f29, %f24
fmul8x16al %f4, %f22, %f0
fandnot1s %f31, %f17, %f4
fandnot1s %f10, %f30, %f15
fmovsneg %icc, %f14, %f14
fmuld8ulx16 %f14, %f3, %f18
fmul8x16al %f22, %f22, %f4
faligndata %f8, %f22, %f10
fmul8x16au %f8, %f14, %f24
fmovdneg %xcc, %f10, %f21
faligndata %f8, %f14, %f28
fornot1s %f11, %f20, %f13
fmovrdgez %i5, %f24, %f26
fmul8ulx16 %f10, %f14, %f14
loop_81: edge32ln %g1, %i7, %i5
fmuld8sux16 %f6, %f20, %f10
fmovdpos %icc, %f13, %f31
fmul8ulx16 %f16, %f2, %f0
fmovrdlez %i5, %f18, %f20
fmul8sux16 %f2, %f4, %f20
fmul8x16au %f27, %f2, %f12
fpsub16s %f31, %f18, %f11
fornot2s %f13, %f19, %f27
fmul8x16al %f7, %f18, %f26
fandnot1 %f20, %f22, %f12
faligndata %f22, %f30, %f28
fmovdpos %icc, %f16, %f24
fmul8x16au %f19, %f7, %f10
fpadd32s %f13, %f21, %f27
fmovdleu %xcc, %f15, %f27
fmul8sux16 %f6, %f0, %f24
fmuld8sux16 %f2, %f12, %f18
fmul8x16al %f11, %f13, %f10
fmuld8sux16 %f12, %f19, %f24
fandnot1s %f13, %f29, %f29
fmovrslez %o1, %f20, %f10
loop_82: edge8l %o7, %i2, %l6
fmuld8sux16 %f14, %f23, %f16
fandnot1s %f18, %f31, %f25
fmul8x16al %f11, %f5, %f28
loop_83: fexpand %f20, %f6
fmul8x16au %f6, %f3, %f24
fornot2s %f31, %f27, %f11
fornot1s %f22, %f13, %f14
fornot2s %f16, %f14, %f31
fmul8x16al %f28, %f28, %f18
fmovdleu %xcc, %f30, %f29
fmovsleu %icc, %f18, %f21
fmovdpos %xcc, %f18, %f23
fmul8x16au %f12, %f11, %f10
loop_84: fornot2 %f12, %f6, %f8
bshuffle %f22, %f14, %f20
fornot2s %f27, %f12, %f14
fmovdpos %icc, %f20, %f23
fandnot2s %f2, %f18, %f25
fmul8x16 %f21, %f20, %f16
fmul8sux16 %f30, %f6, %f6
fmul8sux16 %f16, %f2, %f4
fmul8x16 %f27, %f20, %f28
fmovdneg %icc, %f13, %f31
fmovdpos %xcc, %f23, %f27
fmovdleu %xcc, %f31, %f10
fmovrsgez %g6, %f17, %f10
fandnot1s %f2, %f24, %f31
fornot1s %f31, %f14, %f18
fmuld8sux16 %f31, %f20, %f26
fmul8x16au %f21, %f1, %f2
fmuld8ulx16 %f31, %f5, %f18
loop_85: addcc %g2, 0x172B, %i2
fmul8ulx16 %f24, %f10, %f18
fmovsneg %xcc, %f11, %f30
fmuld8ulx16 %f7, %f6, %f26
fmovrdgez %g2, %f18, %f28
fmul8x16 %f13, %f12, %f28
loop_86: add %g7, %o4, %l6
fandnot2s %f17, %f16, %f27
loop_87: movvs %icc, %l5, %l2
fornot2s %f28, %f17, %f19
fmovdpos %xcc, %f24, %f13
fmovrsgez %g2, %f13, %f15
fpsub16s %f18, %f17, %f19
fmul8x16au %f24, %f3, %f0
fmovrsgez %g7, %f10, %f16
fpadd16s %f20, %f17, %f26
fmovrdlez %l5, %f22, %f14
faligndata %f24, %f24, %f2
fandnot2 %f12, %f22, %f10
fmovsneg %icc, %f10, %f11
fmul8x16au %f20, %f18, %f14
fmovdpos %xcc, %f14, %f26
fpadd32s %f10, %f28, %f24
fmovrdgez %i7, %f16, %f24
fmovrdlez %l0, %f22, %f28
fmul8x16al %f21, %f14, %f22
fmovrslez %o5, %f28, %f26
loop_88: fmul8ulx16 %f30, %f20, %f18
fmovdpos %xcc, %f20, %f23
fmuld8sux16 %f0, %f30, %f0
loop_89: fcmped %fcc0, %f16, %f8
fmuld8sux16 %f17, %f14, %f28
fpsub16s %f17, %f29, %f18
fmovrdgez %l5, %f18, %f26
fmovspos %icc, %f26, %f13
fmovrdgez %i5, %f24, %f22
fmovrdlez %o3, %f14, %f26
faligndata %f26, %f4, %f22
fmul8x16au %f27, %f15, %f26
fandnot1s %f23, %f15, %f15
fpadd16s %f29, %f28, %f19
fpadd32s %f12, %f10, %f14
loop_90: edge16ln %g7, %l0, %o4
fmul8x16al %f25, %f21, %f12
fmovdneg %icc, %f16, %f25
fandnot2s %f23, %f30, %f22
loop_91: fmovdgu %icc, %f7, %f19
fandnot1s %f15, %f20, %f23
fandnot2s %f7, %f17, %f31
fmul8ulx16 %f12, %f8, %f20
fmul8ulx16 %f10, %f22, %f30
fmovsleu %icc, %f30, %f11
loop_92: fcmpeq32 %f16, %f14, %g6
fmovrslez %l3, %f23, %f25
fpadd16s %f13, %f22, %f19
fmuld8ulx16 %f1, %f7, %f12
fmuld8sux16 %f30, %f15, %f8
fmul8x16 %f22, %f24, %f10
fmul8sux16 %f18, %f20, %f24
fmul8x16al %f29, %f12, %f6
loop_93: orn %o0, 0x0A54, %g4
fmul8x16 %f28, %f18, %f18
fmovdneg %icc, %f25, %f30
fmovsleu %icc, %f29, %f28
fmovdpos %icc, %f31, %f16
fmuld8ulx16 %f29, %f18, %f8
fandnot1s %f28, %f0, %f13
fmovdleu %xcc, %f10, %f23
fandnot1 %f30, %f20, %f12
fmovdneg %icc, %f27, %f18
loop_94: udiv %i4, 0x0C51, %o5
fmul8sux16 %f30, %f28, %f12
fmovdleu %xcc, %f20, %f29
fmul8x16 %f22, %f22, %f20
fmul8sux16 %f20, %f28, %f2
fmovdpos %xcc, %f11, %f10
fandnot2 %f22, %f30, %f30
loop_95: orn %l4, %i3, %g7
fmovspos %icc, %f27, %f27
fmul8sux16 %f30, %f2, %f8
fmuld8ulx16 %f6, %f31, %f6
fandnot2s %f11, %f27, %f25
loop_96: stb %i7, [%l7 + 0x63]
fmovrdgez %g4, %f14, %f14
fmovrdgez %i0, %f24, %f18
fandnot2s %f27, %f26, %f11
fandnot2s %f8, %f12, %f30
fmul8sux16 %f26, %f22, %f26
fmovrsgez %o2, %f13, %f15
loop_97: movn %xcc, %i7, %l0
fmovsleu %icc, %f23, %f17
fmul8x16au %f21, %f2, %f26
fmovdleu %icc, %f27, %f19
fmovdleu %xcc, %f29, %f23
fandnot2s %f22, %f10, %f20
fmuld8ulx16 %f12, %f29, %f2
loop_98: fpackfix %f24, %f4
fmuld8ulx16 %f26, %f20, %f10
fmul8sux16 %f2, %f0, %f16
fornot2s %f19, %f14, %f24
fandnot2 %f26, %f20, %f16
fmul8x16al %f2, %f12, %f16
fmul8sux16 %f28, %f16, %f12
fmul8x16al %f7, %f25, %f0
fmovsneg %icc, %f16, %f22
fmul8x16al %f14, %f26, %f26
loop_99: edge32n %g4, %l4, %o5
fmul8sux16 %f30, %f4, %f12
fmovdpos %icc, %f14, %f31
fmovdleu %icc, %f28, %f19
fandnot2s %f24, %f29, %f7
fmul8ulx16 %f16, %f0, %f6
fmovspos %xcc, %f30, %f17
fandnot2s %f16, %f16, %f18
fmuld8sux16 %f18, %f28, %f30
loop_100: movl %icc, %g1, %o5
fpsub16s %f17, %f18, %f23
fandnot2 %f28, %f20, %f30
fmuld8ulx16 %f13, %f10, %f0
fandnot1 %f22, %f24, %f30
loop_101: fmovsne %icc, %f4, %f29
fmovrdgez %i4, %f22, %f30
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
EXIT_GOOD /* test finish */
/************************************************************************
************************************************************************/