* ========== Copyright Header Begin ==========================================
* OpenSPARC T2 Processor File: isa3_window3_f14.s
* Copyright (C) 1995-2007 Sun Microsystems, Inc. All Rights Reserved
* 4150 Network Circle, Santa Clara, California 95054, U.S.A.
* DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
* This program is free software; you can redistribute it and/or modify
* it under the terms of the GNU General Public License as published by
* the Free Software Foundation; version 2 of the License.
* This program is distributed in the hope that it will be useful,
* but WITHOUT ANY WARRANTY; without even the implied warranty of
* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
* GNU General Public License for more details.
* You should have received a copy of the GNU General Public License
* along with this program; if not, write to the Free Software
* Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
* For the avoidance of doubt, and except that if any non-GPL license
* choice is available it will apply instead, Sun elects to use only
* the General Public License version 2 (GPLv2) at this time for any
* software where a choice of GPL license versions is made
* available with the language indicating that GPLv2 or any later version
* may be used, or where a choice of which version of the GPL is applied is
* Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
* CA 95054 USA or visit www.sun.com if you need additional information or
* ========== Copyright Header End ============================================
.ident "Using Instruction Hash for Focus :$Id: isa3_window3_f14.s,v 1.1 2007/05/11 17:22:37 drp Exp $"
/************************************************************************
************************************************************************/
setx DIAG_DATA_AREA, %g1, %g3
setx 0x7610C7356068C24B, %l0, %l6
!# Initialize registers ..
INIT_TH_FP_REG(%l7,%f0,0x138D299A896AEE76)
INIT_TH_FP_REG(%l7,%f2,0xC11663D6AE09447C)
INIT_TH_FP_REG(%l7,%f4,0x178C21370205FF2C)
INIT_TH_FP_REG(%l7,%f6,0xCC7E9201BECE55D6)
INIT_TH_FP_REG(%l7,%f8,0x1F2BEC78EE1CD3EA)
INIT_TH_FP_REG(%l7,%f10,0x8F4C23DADDE4A255)
INIT_TH_FP_REG(%l7,%f12,0x56F3E579D74DBDBB)
INIT_TH_FP_REG(%l7,%f14,0x349C98DAD5B12163)
INIT_TH_FP_REG(%l7,%f16,0x290AA5104E522C85)
INIT_TH_FP_REG(%l7,%f18,0x6899B000841BDF1D)
INIT_TH_FP_REG(%l7,%f20,0xDB905F7A08D87B29)
INIT_TH_FP_REG(%l7,%f22,0x6A12EC9B1C46C937)
INIT_TH_FP_REG(%l7,%f24,0xE0465461EDEC1C67)
INIT_TH_FP_REG(%l7,%f26,0x47FB1B9AE0535422)
INIT_TH_FP_REG(%l7,%f28,0x70962B7F5F96E942)
INIT_TH_FP_REG(%l7,%f30,0x18CFF1868A4E3189)
wrhpr %l0, 0xA01, %hsys_tick_cmpr
faligndata %f20, %f6, %f30
faligndata %f18, %f6, %f20
loop_0: movcc %xcc, %g5, %l6
fmul8x16 %f23, %f10, %f30
fmovrdlez %i5, %f30, %f12
fpsub16s %f13, %f20, %f23
fpsub16s %f12, %f14, %f23
fmul8ulx16 %f20, %f10, %f26
fpsub32s %f19, %f10, %f17
fmul8ulx16 %f0, %f16, %f8
faligndata %f26, %f14, %f26
fandnot1s %f14, %f2, %f31
fandnot2s %f25, %f11, %f27
fandnot2s %f7, %f29, %f20
faligndata %f30, %f8, %f26
fmovrslez %i3, %f12, %f18
fmovsneg %xcc, %f13, %f13
fmovspos %icc, %f30, %f17
fandnot1s %f10, %f3, %f23
fmovrdlez %g7, %f14, %f14
fornot2s %f25, %f27, %f18
fmuld8ulx16 %f23, %f22, %f4
fmuld8sux16 %f18, %f17, %f30
loop_1: orn %g5, 0x06DC, %i2
bshuffle %f26, %f28, %f14
fandnot2 %f22, %f28, %f16
fmul8sux16 %f0, %f12, %f24
fmul8x16 %f15, %f14, %f10
fmovdneg %icc, %f19, %f12
fmul8sux16 %f18, %f8, %f28
loop_2: udiv %i2, 0x1F97, %g2
fmul8x16 %f22, %f12, %f20
loop_3: save %o1, 0x057E, %o3
faligndata %f20, %f16, %f18
faligndata %f0, %f8, %f16
fmul8x16al %f25, %f21, %f30
fmovrdlez %o7, %f22, %f26
loop_4: ld [%l7 + 0x78], %f11
bshuffle %f22, %f18, %f10
fmovdleu %xcc, %f16, %f22
fmul8x16al %f8, %f24, %f24
fmovsleu %xcc, %f23, %f20
fmovdneg %icc, %f28, %f29
fmul8ulx16 %f10, %f6, %f16
fmovrslez %g4, %f14, %f14
fmuld8ulx16 %f30, %f10, %f30
fmul8x16al %f14, %f22, %f24
fmovrdgez %i0, %f24, %f26
fmuld8ulx16 %f11, %f2, %f4
fmuld8ulx16 %f10, %f0, %f16
fandnot2 %f14, %f12, %f24
fandnot1s %f16, %f15, %f28
fmul8sux16 %f22, %f10, %f20
fandnot1s %f7, %f31, %f31
fmul8sux16 %f20, %f26, %f10
fmul8x16au %f7, %f0, %f24
fmovdleu %xcc, %f30, %f15
faligndata %f26, %f2, %f18
faligndata %f2, %f6, %f22
loop_6: movre %l6, %l2, %l4
fmul8x16al %f19, %f18, %f4
fmuld8sux16 %f25, %f18, %f10
fandnot1s %f18, %f1, %f29
fandnot1s %f29, %f17, %f14
fmul8x16al %f6, %f18, %f10
fmovdneg %icc, %f29, %f27
fornot1s %f13, %f22, %f15
fmul8sux16 %f26, %f8, %f26
fmovrsgez %l3, %f18, %f20
fandnot1 %f10, %f20, %f16
loop_8: ldub [%l7 + 0x32], %l1
fornot2s %f19, %f20, %f11
fmul8ulx16 %f14, %f16, %f24
loop_9: sdiv %g2, 0x1A8C, %i5
fmul8x16 %f17, %f12, %f20
fmovspos %xcc, %f21, %f27
loop_10: movleu %icc, %l0, %l5
fmuld8ulx16 %f23, %f29, %f10
fmul8x16au %f8, %f28, %f12
loop_11: array16 %i1, %o1, %i4
bshuffle %f28, %f12, %f28
fmul8x16al %f30, %f2, %f14
faligndata %f8, %f30, %f26
faligndata %f12, %f24, %f30
fmul8x16al %f15, %f11, %f0
faligndata %f26, %f20, %f28
loop_12: alignaddrl %o4, %l5, %o2
fmovrdlez %g2, %f12, %f22
fmuld8ulx16 %f20, %f18, %f22
fmovrslez %l0, %f21, %f12
fmovrslez %o1, %f20, %f22
loop_13: movl %icc, %g6, %i4
fmul8x16au %f23, %f30, %f10
fmovrdgez %g4, %f16, %f20
fmovspos %xcc, %f13, %f18
fmovspos %xcc, %f11, %f11
fmovspos %icc, %f21, %f22
fmovdneg %xcc, %f11, %f14
fandnot1s %f24, %f25, %f6
fornot1s %f26, %f16, %f16
fmuld8sux16 %f22, %f23, %f4
fmul8x16al %f23, %f31, %f18
fmovsleu %icc, %f25, %f11
fmul8x16al %f5, %f28, %f4
fmuld8sux16 %f11, %f0, %f18
fmul8ulx16 %f28, %f20, %f4
fmul8ulx16 %f8, %f28, %f26
loop_14: udiv %l5, 0x06FE, %g7
loop_15: fmovrdlz %g2, %f0, %f30
fmovsneg %icc, %f11, %f10
faligndata %f0, %f26, %f20
loop_16: movneg %icc, %g2, %l2
fandnot2s %f16, %f5, %f27
faligndata %f26, %f28, %f30
fmul8x16al %f19, %f11, %f6
fmul8ulx16 %f0, %f26, %f28
fmul8x16au %f18, %f9, %f12
fmul8sux16 %f12, %f10, %f14
loop_17: ldsh [%l7 + 0x5C], %l2
fmuld8sux16 %f31, %f11, %f14
fandnot2 %f14, %f10, %f20
fmul8x16al %f7, %f0, %f30
fmovrdlez %i3, %f16, %f24
fandnot2 %f18, %f12, %f24
fmuld8sux16 %f13, %f13, %f26
fpsub16s %f17, %f27, %f14
fandnot2 %f24, %f20, %f26
fmul8sux16 %f8, %f20, %f6
fmul8x16au %f10, %f0, %f18
loop_19: alignaddr %o6, %i2, %o7
fmovdneg %icc, %f26, %f23
fmuld8sux16 %f22, %f22, %f4
fpadd32s %f30, %f26, %f17
fmuld8sux16 %f22, %f26, %f28
fmul8x16al %f26, %f10, %f26
fmovspos %icc, %f29, %f19
fandnot1s %f31, %f19, %f9
fmovsleu %xcc, %f26, %f31
loop_20: smul %o3, 0x16AD, %o0
loop_21: edge16 %l2, %o6, %o0
fmuld8ulx16 %f1, %f27, %f10
fmul8ulx16 %f16, %f28, %f6
fmovsleu %icc, %f29, %f18
fmuld8sux16 %f10, %f20, %f18
fmul8sux16 %f16, %f0, %f2
fmuld8ulx16 %f30, %f13, %f24
fmovspos %icc, %f13, %f26
bshuffle %f26, %f20, %f22
fmovsleu %xcc, %f19, %f14
fmovdpos %xcc, %f10, %f15
fmuld8sux16 %f1, %f1, %f28
fmovrslez %o5, %f20, %f25
bshuffle %f14, %f10, %f22
fmul8x16au %f28, %f11, %f20
fmuld8ulx16 %f6, %f7, %f0
fmovsleu %icc, %f24, %f19
loop_22: edge16 %l5, %l0, %i7
fmul8x16al %f23, %f15, %f24
fpadd16s %f23, %f23, %f16
fmuld8ulx16 %f21, %f23, %f16
fmovrdlez %o4, %f22, %f14
fmul8ulx16 %f24, %f0, %f22
fmovrdgez %l5, %f20, %f26
fmul8x16au %f13, %f28, %f28
loop_23: movle %xcc, %l6, %l0
faligndata %f10, %f22, %f18
fmul8x16au %f26, %f30, %f30
fmuld8ulx16 %f27, %f7, %f30
fmuld8sux16 %f24, %f30, %f12
loop_24: save %i2, %g7, %l2
fmul8x16 %f29, %f28, %f16
fmul8x16al %f0, %f22, %f8
bshuffle %f10, %f12, %f20
fmovspos %icc, %f18, %f23
fmuld8ulx16 %f20, %f11, %f12
fmuld8sux16 %f11, %f31, %f18
fpadd16s %f15, %f26, %f19
faligndata %f18, %f20, %f2
fmul8sux16 %f20, %f16, %f26
fmovdneg %xcc, %f10, %f20
loop_26: xnorcc %g6, 0x1E88, %g3
bshuffle %f16, %f26, %f24
fmul8x16au %f28, %f24, %f0
fmuld8sux16 %f21, %f21, %f18
bshuffle %f10, %f10, %f28
fmuld8sux16 %f22, %f27, %f26
loop_28: edge32ln %g5, %l2, %o5
fmul8ulx16 %f6, %f10, %f24
fmuld8ulx16 %f30, %f28, %f26
faligndata %f22, %f4, %f8
loop_29: orcc %i2, 0x1B83, %i3
fmuld8sux16 %f1, %f13, %f22
fmul8x16al %f8, %f20, %f24
fandnot1s %f26, %f25, %f20
fpsub16s %f31, %f31, %f19
fmovdpos %icc, %f30, %f14
faligndata %f12, %f2, %f22
loop_31: srlx %g1, %i4, %l1
fmovrdlez %g4, %f28, %f30
fmul8x16au %f17, %f4, %f26
fmul8x16au %f0, %f27, %f8
fmovrsgez %i3, %f19, %f18
fpsub32s %f19, %f12, %f10
fmovsneg %icc, %f26, %f29
fmovrsgez %i1, %f25, %f21
fmovdleu %icc, %f17, %f23
fmovdneg %icc, %f21, %f29
faligndata %f6, %f26, %f10
faligndata %f8, %f16, %f0
fmul8x16au %f30, %f2, %f20
loop_32: ldx [%l7 + 0x68], %o6
fmovrdlez %l3, %f28, %f16
fpadd16s %f23, %f25, %f25
fmul8sux16 %f10, %f2, %f8
fmul8ulx16 %f30, %f16, %f24
fmuld8ulx16 %f0, %f13, %f14
fandnot2s %f22, %f31, %f6
fmul8x16au %f17, %f7, %f4
fmovspos %xcc, %f28, %f12
fmuld8sux16 %f28, %f9, %f16
fmul8x16 %f31, %f12, %f14
faligndata %f14, %f30, %f4
fmovdneg %xcc, %f20, %f14
fornot1s %f14, %f11, %f13
fmul8ulx16 %f0, %f0, %f22
loop_33: addccc %i7, 0x095D, %o7
fmovdneg %xcc, %f24, %f27
fandnot1s %f16, %f30, %f12
fmovrslez %i6, %f16, %f16
fmovdleu %icc, %f24, %f21
fmuld8sux16 %f25, %f13, %f16
fmuld8sux16 %f19, %f20, %f4
fmul8x16al %f11, %f3, %f28
fandnot1s %f26, %f29, %f6
fmovsleu %xcc, %f30, %f23
fmovrdgez %o7, %f10, %f20
faligndata %f8, %f26, %f2
loop_34: fxor %f30, %f28, %f16
fpsub32s %f18, %f11, %f14
fandnot1s %f19, %f0, %f15
loop_35: fornot2 %f16, %f0, %f6
fmovsleu %xcc, %f16, %f26
loop_36: fmovrsgz %o1, %f17, %f26
fmovrslez %i4, %f11, %f14
loop_37: lduh [%l7 + 0x0A], %g6
faligndata %f14, %f4, %f12
fornot2s %f15, %f20, %f14
fornot2s %f31, %f22, %f20
fornot2s %f29, %f29, %f27
fmul8x16al %f20, %f25, %f8
fmul8sux16 %f28, %f18, %f4
loop_38: ld [%l7 + 0x20], %f6
fmovdneg %xcc, %f20, %f23
fmovdleu %icc, %f27, %f23
fmovrsgez %g1, %f29, %f25
fmul8x16au %f20, %f1, %f6
fandnot1 %f20, %f26, %f30
loop_39: lduw [%l7 + 0x1C], %l1
fmul8x16 %f18, %f22, %f30
fmul8ulx16 %f6, %f28, %f20
fmovdleu %icc, %f18, %f15
fmul8ulx16 %f10, %f26, %f10
fpsub16s %f16, %f24, %f26
loop_40: stw %l1, [%l7 + 0x50]
fpsub32s %f11, %f21, %f29
fmul8sux16 %f4, %f16, %f8
fmovrsgez %g1, %f27, %f16
fandnot1s %f5, %f16, %f24
fmuld8ulx16 %f29, %f29, %f12
fmovsleu %icc, %f14, %f18
fmul8x16au %f31, %f1, %f2
fmul8x16au %f0, %f12, %f2
fpsub16s %f15, %f18, %f11
fmul8x16au %f28, %f6, %f16
fmovrdgez %o4, %f20, %f16
fpadd16s %f15, %f12, %f29
fmovrdgez %l6, %f20, %f14
fmul8sux16 %f14, %f18, %f22
fornot2s %f12, %f18, %f26
fmuld8ulx16 %f8, %f18, %f22
fandnot2s %f31, %f11, %f1
fandnot2 %f26, %f14, %f12
loop_41: umul %g7, 0x0BE4, %o0
fpadd32s %f31, %f29, %f19
fmul8ulx16 %f18, %f16, %f4
fandnot2s %f4, %f15, %f28
fmul8x16al %f28, %f12, %f8
fandnot1 %f26, %f14, %f20
fmovdpos %icc, %f25, %f17
fmuld8ulx16 %f6, %f8, %f8
fmul8ulx16 %f2, %f22, %f10
loop_42: edge16 %o3, %l1, %l5
fandnot2s %f26, %f3, %f10
fmuld8sux16 %f6, %f15, %f6
fpadd16s %f17, %f16, %f11
fmuld8ulx16 %f11, %f29, %f18
fmuld8sux16 %f22, %f25, %f0
fornot1s %f13, %f17, %f14
fmovdpos %icc, %f19, %f17
fmuld8sux16 %f4, %f12, %f10
fmovrdlez %i4, %f30, %f24
fandnot2 %f16, %f20, %f20
fmuld8ulx16 %f6, %f29, %f26
fmovrdlez %o1, %f14, %f16
fandnot2s %f11, %f25, %f13
fmovsneg %icc, %f27, %f16
fmovdneg %xcc, %f16, %f22
faligndata %f18, %f26, %f12
fmovrslez %l3, %f18, %f12
fandnot2s %f10, %f24, %f8
fmovsneg %xcc, %f18, %f15
fornot2s %f27, %f12, %f12
fmovsneg %icc, %f13, %f25
loop_43: movle %icc, %o1, %g7
fmuld8ulx16 %f2, %f4, %f22
fmul8x16al %f24, %f22, %f26
fmul8x16al %f27, %f6, %f4
fmul8x16au %f22, %f16, %f26
fmuld8ulx16 %f20, %f7, %f12
fmovsleu %icc, %f27, %f19
loop_44: fmovsvc %icc, %f15, %f27
fpadd16s %f20, %f14, %f15
fmovdneg %xcc, %f14, %f19
fmul8ulx16 %f20, %f12, %f8
fmovdneg %icc, %f16, %f11
fmul8x16au %f12, %f28, %f26
fpsub16s %f22, %f17, %f18
fandnot2s %f18, %f29, %f18
loop_45: movrgz %o1, %g4, %g2
fandnot2s %f18, %f22, %f21
fpsub16s %f13, %f24, %f15
fmul8x16al %f26, %f21, %f10
fandnot1 %f10, %f24, %f12
fmul8sux16 %f10, %f14, %f18
fmuld8sux16 %f21, %f4, %f24
fandnot1s %f17, %f15, %f7
fmul8ulx16 %f24, %f16, %f30
loop_46: andncc %o3, %i6, %l5
fmovrsgez %o0, %f30, %f17
fmovrsgez %o1, %f18, %f11
fpadd32s %f21, %f11, %f18
fornot1s %f23, %f23, %f26
fmul8sux16 %f30, %f0, %f6
fornot2s %f14, %f24, %f18
bshuffle %f14, %f14, %f24
fornot1s %f23, %f10, %f16
faligndata %f12, %f16, %f12
fandnot2s %f27, %f16, %f4
fmovdneg %xcc, %f31, %f17
loop_47: fpadd32 %f18, %f18, %f28
fornot1s %f10, %f31, %f26
fmuld8ulx16 %f9, %f23, %f8
fmovrsgez %o3, %f22, %f16
fpadd32s %f21, %f29, %f26
fandnot1s %f24, %f11, %f1
fmul8x16au %f0, %f1, %f20
fpsub16s %f29, %f23, %f13
fmul8x16al %f7, %f23, %f16
faligndata %f2, %f10, %f0
bshuffle %f10, %f30, %f30
fpadd32s %f28, %f10, %f26
fmovspos %xcc, %f27, %f17
fmul8ulx16 %f26, %f18, %f16
faligndata %f14, %f10, %f2
fmul8sux16 %f26, %f6, %f18
fmovdpos %xcc, %f25, %f12
fornot1s %f28, %f20, %f22
loop_48: fxors %f4, %f18, %f5
fmuld8ulx16 %f21, %f23, %f22
fmul8ulx16 %f14, %f2, %f2
fmul8x16al %f13, %f12, %f16
fpadd16s %f10, %f19, %f19
fornot2s %f19, %f24, %f13
fmuld8sux16 %f4, %f16, %f0
fornot2s %f10, %f30, %f12
loop_49: mulscc %g4, 0x1AC3, %i3
fmovrdlez %l2, %f22, %f14
fandnot2s %f8, %f18, %f18
faligndata %f30, %f6, %f16
fpsub32s %f18, %f28, %f21
faligndata %f16, %f28, %f18
fmovspos %icc, %f13, %f14
fmul8x16al %f24, %f11, %f28
fmovrdgez %o3, %f14, %f16
fandnot2s %f9, %f15, %f21
faligndata %f2, %f4, %f18
fmuld8ulx16 %f14, %f25, %f20
fmul8x16al %f26, %f4, %f18
fmovdleu %xcc, %f29, %f22
faligndata %f30, %f20, %f24
fmuld8ulx16 %f18, %f31, %f12
fmovsleu %xcc, %f18, %f27
loop_50: sllx %i1, 0x1A, %i6
fmovdpos %icc, %f30, %f12
fmuld8ulx16 %f23, %f2, %f2
fpadd32s %f31, %f11, %f28
fmul8x16 %f23, %f24, %f20
faligndata %f2, %f30, %f26
loop_51: fcmpgt32 %f2, %f6, %g5
fmovdneg %xcc, %f18, %f25
bshuffle %f18, %f24, %f28
fmovrslez %g3, %f25, %f10
fmovrslez %o4, %f18, %f11
fmovspos %xcc, %f20, %f23
fmul8x16au %f19, %f23, %f14
fandnot1 %f10, %f30, %f30
fmul8x16al %f17, %f5, %f18
fmuld8sux16 %f23, %f31, %f16
fmovsneg %xcc, %f14, %f18
fornot1s %f21, %f22, %f21
fmul8x16au %f9, %f4, %f10
fpadd32s %f14, %f21, %f20
fmovsleu %xcc, %f11, %f29
loop_53: andcc %o6, 0x0A7F, %l3
fandnot1 %f10, %f16, %f20
fmul8sux16 %f18, %f0, %f10
fpsub16s %f19, %f27, %f31
fmul8x16al %f6, %f15, %f10
fmuld8sux16 %f28, %f19, %f12
fmovdleu %icc, %f10, %f18
fandnot1s %f23, %f19, %f3
fmul8sux16 %f26, %f16, %f18
faligndata %f12, %f18, %f16
fmovsneg %icc, %f27, %f12
fandnot2s %f18, %f22, %f28
loop_54: andn %o5, 0x0A7C, %o3
fornot1s %f17, %f21, %f17
fpadd16s %f24, %f29, %f28
fmovdneg %icc, %f26, %f28
fmuld8ulx16 %f21, %f17, %f28
fmovdpos %icc, %f11, %f28
fmovrsgez %g6, %f17, %f26
fmul8sux16 %f6, %f12, %f2
loop_55: andn %i1, 0x1F33, %i2
faligndata %f26, %f8, %f6
fmul8sux16 %f12, %f18, %f8
faligndata %f30, %f28, %f14
loop_56: addc %i2, 0x1CA7, %o3
fmul8x16au %f23, %f20, %f14
faligndata %f10, %f0, %f12
loop_57: smul %g7, %o4, %o2
fmuld8ulx16 %f15, %f7, %f26
fpsub32s %f29, %f17, %f22
fmovspos %xcc, %f16, %f29
fmovrdlez %l2, %f16, %f16
fmovdneg %icc, %f29, %f20
fmul8ulx16 %f26, %f12, %f24
fmul8sux16 %f20, %f10, %f24
fmul8ulx16 %f26, %f0, %f12
fmovrdgez %i7, %f18, %f14
loop_58: edge32l %o4, %l6, %o2
fmul8x16 %f10, %f24, %f10
fmul8x16al %f23, %f22, %f20
fmovdpos %icc, %f17, %f17
fmul8x16au %f4, %f21, %f26
loop_59: fmovsge %xcc, %f27, %f18
fmul8x16 %f14, %f30, %f10
fmovspos %xcc, %f28, %f24
fmovsneg %xcc, %f18, %f29
fmovdleu %icc, %f23, %f26
fandnot2s %f31, %f24, %f12
fmuld8ulx16 %f17, %f7, %f12
fmovrdgez %i2, %f22, %f20
fmul8ulx16 %f2, %f10, %f0
fmovspos %xcc, %f22, %f31
faligndata %f18, %f30, %f0
fandnot1 %f12, %f22, %f18
loop_60: fmovdgu %icc, %f14, %f27
fmul8ulx16 %f8, %f18, %f28
fmul8sux16 %f20, %f18, %f26
fmul8x16au %f13, %f22, %f26
fmovspos %xcc, %f12, %f31
fmul8x16au %f9, %f25, %f6
fmuld8ulx16 %f15, %f22, %f20
fmovrslez %l0, %f13, %f11
fmul8ulx16 %f4, %f30, %f22
fmovsneg %icc, %f28, %f14
loop_61: fmovrdgz %i0, %f18, %f0
fandnot1s %f8, %f20, %f18
fmuld8sux16 %f28, %f27, %f4
loop_62: fpmerge %f2, %f22, %f20
fmuld8sux16 %f27, %f23, %f16
fmul8x16au %f19, %f31, %f28
fmovrslez %g7, %f12, %f22
fandnot1s %f26, %f16, %f8
fmul8x16au %f13, %f10, %f24
fmul8x16al %f26, %f19, %f28
faligndata %f22, %f10, %f16
loop_63: movg %xcc, %l6, %g6
fmuld8ulx16 %f26, %f16, %f4
fandnot2s %f13, %f24, %f4
fmovspos %xcc, %f18, %f11
fmovrdlez %i6, %f30, %f24
fandnot1s %f26, %f17, %f7
fmovrdgez %o5, %f12, %f18
fmovdleu %xcc, %f18, %f22
fmuld8sux16 %f31, %f2, %f10
fmul8ulx16 %f18, %f22, %f12
fandnot2s %f9, %f17, %f23
fmul8x16al %f9, %f6, %f24
fmovdpos %icc, %f25, %f21
loop_64: and %g1, 0x0F3A, %o7
fandnot2s %f28, %f8, %f28
fmul8ulx16 %f0, %f30, %f4
fornot2s %f25, %f15, %f10
fmul8sux16 %f14, %f0, %f20
fpsub16s %f14, %f22, %f16
loop_65: edge32n %l4, %g7, %l3
fpadd32s %f30, %f23, %f24
fornot2s %f23, %f12, %f23
bshuffle %f22, %f28, %f20
fmul8sux16 %f16, %f12, %f26
fmovdleu %xcc, %f11, %f23
fmovsleu %icc, %f21, %f28
fmul8x16al %f9, %f29, %f16
fmuld8ulx16 %f31, %f3, %f2
fmuld8sux16 %f25, %f22, %f20
loop_66: xor %g1, %l5, %i4
faligndata %f28, %f6, %f22
fmovdleu %xcc, %f11, %f18
loop_67: ldub [%l7 + 0x4B], %l5
faligndata %f22, %f14, %f18
fandnot2 %f28, %f24, %f26
fmovdneg %icc, %f30, %f25
fmul8x16al %f1, %f4, %f28
fmuld8ulx16 %f8, %f30, %f4
fandnot2s %f4, %f10, %f14
fandnot2 %f26, %f16, %f22
fmul8x16au %f1, %f10, %f24
fmovsleu %icc, %f30, %f11
fmovrslez %i7, %f27, %f20
faligndata %f16, %f6, %f18
loop_68: fmovdcc %icc, %f25, %f21
fmovdleu %icc, %f22, %f13
fandnot2s %f10, %f2, %f21
fmovsleu %icc, %f13, %f13
fmuld8sux16 %f17, %f7, %f12
loop_69: sdivx %o7, 0x072D, %l3
fmovsneg %xcc, %f21, %f14
fandnot2 %f16, %f20, %f16
fmovdleu %icc, %f10, %f30
fmovsleu %xcc, %f30, %f13
fmul8x16au %f9, %f9, %f22
fornot2s %f25, %f28, %f25
fmovrdgez %i7, %f28, %f18
fpadd16s %f24, %f14, %f13
fmovsleu %icc, %f13, %f20
loop_70: sdiv %o4, 0x0413, %o2
fmul8sux16 %f12, %f26, %f28
bshuffle %f24, %f26, %f20
fmul8sux16 %f12, %f2, %f20
fmovsleu %icc, %f29, %f11
loop_71: fmovsge %xcc, %f28, %f16
fmovrsgez %i0, %f14, %f26
fmul8ulx16 %f20, %f18, %f10
fmuld8ulx16 %f0, %f11, %f0
fmovdpos %icc, %f14, %f12
fmuld8sux16 %f22, %f30, %f6
fmul8x16al %f18, %f23, %f14
fmovrdgez %l2, %f30, %f26
fandnot2s %f17, %f11, %f8
fandnot1s %f30, %f30, %f22
fmul8x16au %f5, %f15, %f6
loop_72: orncc %i6, 0x1BDE, %l1
fmuld8ulx16 %f17, %f18, %f14
loop_73: and %i0, %o1, %l1
fmovrslez %o0, %f16, %f29
fmovrdgez %i1, %f20, %f24
fmul8ulx16 %f8, %f2, %f18
fmovdpos %xcc, %f17, %f10
fmul8sux16 %f22, %f20, %f8
fmovrdlez %l3, %f18, %f30
fmul8sux16 %f10, %f22, %f26
fmovdpos %xcc, %f28, %f11
fmovrdgez %l6, %f22, %f16
fmovspos %icc, %f15, %f26
fmovrdlez %i4, %f16, %f28
fmuld8ulx16 %f28, %f20, %f26
fmovrdlez %i6, %f22, %f26
fmovrsgez %o3, %f10, %f23
fmuld8ulx16 %f14, %f19, %f24
fmovspos %icc, %f20, %f25
fmul8sux16 %f0, %f30, %f2
loop_74: movvs %icc, %i4, %l2
fmovspos %xcc, %f29, %f26
fmovrdgez %g1, %f24, %f30
fpadd32s %f14, %f28, %f13
fmuld8sux16 %f5, %f2, %f2
faligndata %f10, %f4, %f28
fmul8ulx16 %f26, %f20, %f4
loop_75: addcc %l4, %o3, %o7
fandnot1s %f2, %f23, %f28
fmul8x16au %f9, %f19, %f14
fmovdneg %icc, %f31, %f23
fmul8ulx16 %f6, %f22, %f24
fmovdleu %icc, %f17, %f27
loop_76: fmovsge %icc, %f26, %f22
fpadd32s %f15, %f20, %f23
fmovspos %xcc, %f21, %f12
fornot2s %f23, %f14, %f16
fmovdpos %icc, %f28, %f27
fmovrslez %o6, %f11, %f23
fmovsneg %xcc, %f14, %f18
faligndata %f10, %f14, %f16
fpsub32s %f13, %f26, %f23
fandnot1 %f18, %f22, %f16
loop_77: movvs %icc, %l6, %i4
fmul8x16au %f0, %f25, %f2
loop_78: fnor %f20, %f30, %f8
fmovsleu %xcc, %f24, %f14
fmovrdgez %l3, %f26, %f28
fmul8x16 %f16, %f14, %f16
fmovdleu %xcc, %f16, %f29
loop_79: andncc %o0, %g5, %l5
fmul8ulx16 %f22, %f30, %f22
bshuffle %f12, %f20, %f26
fmuld8sux16 %f0, %f27, %f10
fpsub16s %f24, %f10, %f29
fmul8x16au %f3, %f12, %f16
fmuld8ulx16 %f21, %f0, %f4
fandnot2s %f3, %f16, %f30
fornot2s %f25, %f13, %f12
fmul8ulx16 %f10, %f20, %f26
loop_80: movl %xcc, %g4, %g3
fpsub16s %f18, %f24, %f27
fpsub16s %f28, %f27, %f13
fmul8x16al %f6, %f18, %f10
fpsub32s %f17, %f10, %f24
fmul8ulx16 %f22, %f28, %f30
fandnot2s %f27, %f16, %f13
fmovrslez %g3, %f13, %f12
fmovrdlez %o3, %f24, %f16
fmovdpos %icc, %f15, %f23
fmovdneg %icc, %f15, %f11
fmul8x16au %f3, %f19, %f12
fpadd16s %f29, %f22, %f31
fmovdneg %xcc, %f24, %f29
loop_81: stx %l4, [%l7 + 0x48]
fmovrdgez %l4, %f20, %f28
loop_82: ldd [%l7 + 0x10], %g2
fmovsneg %icc, %f10, %f23
fandnot2 %f18, %f16, %f20
fandnot2s %f28, %f22, %f10
fpadd32s %f28, %f17, %f23
fmovrdgez %o3, %f22, %f16
fmul8sux16 %f18, %f10, %f30
fmul8x16au %f20, %f2, %f24
fmovsleu %icc, %f31, %f10
fmovspos %xcc, %f19, %f29
fpadd32s %f24, %f11, %f28
faligndata %f6, %f16, %f24
faligndata %f14, %f14, %f20
fandnot1s %f22, %f21, %f11
fmuld8ulx16 %f30, %f8, %f26
fmul8sux16 %f12, %f8, %f24
fmovdpos %icc, %f21, %f21
fmovrslez %o1, %f20, %f15
fmovrdlez %g1, %f10, %f24
loop_83: array32 %i5, %l1, %o1
fmovrdlez %i2, %f28, %f18
loop_84: ldx [%l7 + 0x20], %o0
fandnot2s %f29, %f15, %f26
fmuld8sux16 %f16, %f4, %f0
fmuld8sux16 %f23, %f16, %f20
fmovsneg %xcc, %f24, %f19
fmul8x16al %f24, %f29, %f18
fpsub32s %f25, %f27, %f28
bshuffle %f14, %f22, %f22
loop_85: fmovrde %g4, %f6, %f2
fandnot1 %f24, %f28, %f10
faligndata %f14, %f0, %f20
fmovrdlez %i5, %f26, %f28
fandnot1s %f18, %f12, %f22
fandnot1s %f10, %f27, %f14
fpsub16s %f18, %f16, %f25
fmovrdgez %o7, %f10, %f20
loop_86: movg %xcc, %i3, %l1
fmovdleu %xcc, %f25, %f16
fmul8ulx16 %f30, %f12, %f6
fmovsneg %xcc, %f19, %f14
loop_87: and %g2, %g1, %l5
fmovsneg %xcc, %f19, %f21
fpsub32s %f20, %f28, %f22
fmul8sux16 %f6, %f30, %f2
fornot1s %f13, %f28, %f12
fmovsneg %icc, %f10, %f24
fmul8x16 %f11, %f12, %f16
fmovdneg %xcc, %f29, %f30
fmul8x16al %f27, %f19, %f8
loop_88: stw %o6, [%l7 + 0x48]
fmovdneg %xcc, %f24, %f30
fmul8sux16 %f30, %f22, %f20
fmul8x16 %f19, %f24, %f12
fmovdneg %icc, %f11, %f10
fmul8sux16 %f30, %f10, %f26
loop_89: st %f31, [%l7 + 0x3C]
fmul8sux16 %f14, %f28, %f14
fmul8x16au %f29, %f26, %f18
fmul8ulx16 %f18, %f4, %f2
loop_90: edge8n %o6, %g6, %i6
fandnot2s %f13, %f8, %f19
fmul8x16au %f9, %f13, %f2
fmovrdlez %g1, %f20, %f14
loop_91: srax %l6, 0x18, %l1
fmul8x16au %f3, %f5, %f12
faligndata %f14, %f8, %f6
fpsub16s %f10, %f17, %f25
fmul8x16 %f14, %f22, %f24
fmuld8sux16 %f25, %f31, %f18
fpsub16s %f25, %f24, %f20
fpsub32s %f12, %f30, %f28
fmul8sux16 %f14, %f10, %f20
fmovsneg %icc, %f24, %f30
fmovrdlez %i2, %f22, %f22
fmuld8sux16 %f0, %f15, %f14
loop_92: fand %f24, %f4, %f26
fmul8x16 %f23, %f14, %f16
fmovrslez %i2, %f25, %f21
fmovrdgez %i1, %f26, %f12
fmuld8sux16 %f2, %f22, %f22
fandnot2s %f30, %f27, %f11
fmovspos %icc, %f17, %f26
loop_93: fandnot2 %f30, %f20, %f18
fornot2s %f30, %f11, %f19
fmul8x16au %f29, %f31, %f18
fpsub16s %f11, %f15, %f23
fmovrdlez %o4, %f16, %f16
fmul8x16al %f13, %f15, %f26
fmul8x16au %f13, %f9, %f24
fmovdpos %xcc, %f19, %f15
fmovsneg %icc, %f30, %f29
faligndata %f2, %f0, %f18
loop_94: edge32ln %i2, %i6, %o1
faligndata %f14, %f26, %f24
fornot2s %f29, %f27, %f12
fmul8x16al %f6, %f11, %f14
fandnot2s %f25, %f14, %f25
fmovrslez %i2, %f29, %f31
fandnot1s %f15, %f16, %f12
faligndata %f4, %f26, %f24
fpadd16s %f31, %f26, %f24
bshuffle %f30, %f24, %f14
fpadd16s %f15, %f19, %f21
loop_95: fornot1s %f31, %f31, %f26
fmuld8ulx16 %f13, %f9, %f0
fmovdpos %xcc, %f24, %f12
loop_96: srax %g6, 0x1A, %i3
fornot1s %f28, %f24, %f29
fandnot2s %f29, %f26, %f27
fandnot2s %f26, %f16, %f29
fmovrslez %g7, %f15, %f12
fmovsleu %xcc, %f31, %f14
fpadd16s %f10, %f18, %f30
fmovdleu %icc, %f18, %f20
fmovdneg %xcc, %f12, %f12
fmuld8ulx16 %f17, %f25, %f8
fandnot2s %f21, %f10, %f20
fandnot1s %f22, %f26, %f27
fmuld8ulx16 %f17, %f9, %f28
fmul8ulx16 %f4, %f16, %f28
fmovrdgez %l0, %f24, %f24
loop_97: movcc %xcc, %i4, %g3
fmul8ulx16 %f2, %f14, %f16
fmul8x16al %f8, %f27, %f30
bshuffle %f24, %f20, %f16
faligndata %f18, %f8, %f4
faligndata %f0, %f28, %f4
fmovrslez %i3, %f22, %f20
loop_98: edge16 %o6, %g5, %l4
fmul8x16al %f7, %f30, %f16
fmovrdgez %l6, %f14, %f14
fmovdpos %icc, %f26, %f18
fmovdleu %icc, %f31, %f25
fandnot2s %f0, %f26, %f23
fmovrdlez %g7, %f30, %f18
fmovrdlez %l5, %f24, %f10
fmul8sux16 %f0, %f4, %f24
fmuld8sux16 %f7, %f28, %f26
fmuld8sux16 %f28, %f30, %f20
faligndata %f28, %f12, %f22
fpadd32s %f14, %f11, %f31
loop_99: umul %g4, 0x10D5, %l6
fmovrslez %o6, %f30, %f31
fpadd32s %f14, %f22, %f17
fmovdleu %icc, %f14, %f25
fmovspos %xcc, %f19, %f29
loop_100: udiv %i6, 0x035D, %o3
fmovrsgez %l0, %f22, %f26
fornot1s %f13, %f15, %f31
loop_101: sdivcc %o7, 0x10E6, %g7
fmuld8sux16 %f10, %f30, %f18
fpadd32s %f21, %f28, %f20
fmul8x16al %f12, %f28, %f28
fmul8sux16 %f8, %f10, %f24
faligndata %f16, %f26, %f26
fmovdleu %xcc, %f30, %f31
fmovrslez %o3, %f28, %f31
fandnot1s %f29, %f24, %f9
fandnot2s %f12, %f5, %f21
fmul8ulx16 %f10, %f8, %f8
loop_102: fmovrse %l0, %f1, %f21
fmul8x16al %f24, %f8, %f0
fmul8sux16 %f10, %f6, %f8
loop_103: xor %i3, %i1, %o6
fmul8ulx16 %f20, %f4, %f4
fmuld8ulx16 %f1, %f24, %f14
fandnot2s %f22, %f6, %f30
fandnot2s %f31, %f31, %f16
fmuld8ulx16 %f13, %f31, %f30
fpadd32s %f10, %f15, %f20
fmovrsgez %o5, %f22, %f16
fandnot1s %f23, %f14, %f12
fmovdleu %icc, %f11, %f22
fmul8sux16 %f30, %f24, %f16
fmovdpos %icc, %f31, %f19
fandnot1 %f18, %f16, %f16
fandnot2s %f25, %f6, %f25
fmovsleu %icc, %f31, %f10
fmovdleu %icc, %f13, %f27
loop_104: xnor %l0, 0x0784, %o3
fmovdleu %icc, %f14, %f13
fandnot1s %f10, %f23, %f31
faligndata %f22, %f16, %f8
fornot2s %f16, %f14, %f11
fmovsleu %icc, %f29, %f16
fmovrsgez %g5, %f12, %f23
fmovdneg %xcc, %f22, %f19
fmul8x16au %f23, %f13, %f26
loop_105: sll %g7, 0x12, %g2
fmuld8ulx16 %f21, %f10, %f6
fmovrsgez %l1, %f24, %f16
fmul8x16 %f14, %f26, %f18
fmovdpos %icc, %f22, %f29
loop_106: fmuld8sux16 %f5, %f18, %f2
fpsub32s %f15, %f22, %f22
fmovdpos %xcc, %f17, %f13
fmul8x16au %f10, %f30, %f8
fmul8x16al %f15, %f2, %f30
loop_107: st %f12, [%l7 + 0x6C]
fmul8ulx16 %f0, %f30, %f22
fmovspos %icc, %f25, %f16
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
EXIT_GOOD /* test finish */
/************************************************************************
************************************************************************/