* ========== Copyright Header Begin ==========================================
* OpenSPARC T2 Processor File: isa3_window3_f0.s
* Copyright (C) 1995-2007 Sun Microsystems, Inc. All Rights Reserved
* 4150 Network Circle, Santa Clara, California 95054, U.S.A.
* DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
* This program is free software; you can redistribute it and/or modify
* it under the terms of the GNU General Public License as published by
* the Free Software Foundation; version 2 of the License.
* This program is distributed in the hope that it will be useful,
* but WITHOUT ANY WARRANTY; without even the implied warranty of
* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
* GNU General Public License for more details.
* You should have received a copy of the GNU General Public License
* along with this program; if not, write to the Free Software
* Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
* For the avoidance of doubt, and except that if any non-GPL license
* choice is available it will apply instead, Sun elects to use only
* the General Public License version 2 (GPLv2) at this time for any
* software where a choice of GPL license versions is made
* available with the language indicating that GPLv2 or any later version
* may be used, or where a choice of which version of the GPL is applied is
* Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
* CA 95054 USA or visit www.sun.com if you need additional information or
* ========== Copyright Header End ============================================
.ident "Using Instruction Hash for Focus :$Id: isa3_window3_f0.s,v 1.1 2007/05/11 17:22:35 drp Exp $"
/************************************************************************
************************************************************************/
setx DIAG_DATA_AREA, %g1, %g3
setx 0x2A12341AC0776461, %l0, %l6
!# Initialize registers ..
INIT_TH_FP_REG(%l7,%f0,0xD3E4C4B4191974B4)
INIT_TH_FP_REG(%l7,%f2,0x0E04887388C30E83)
INIT_TH_FP_REG(%l7,%f4,0xFFA80C160D2B7223)
INIT_TH_FP_REG(%l7,%f6,0x304E3BFE37A4B444)
INIT_TH_FP_REG(%l7,%f8,0xFB0402E171D0E9F8)
INIT_TH_FP_REG(%l7,%f10,0x7FFB2FAD8E6CB707)
INIT_TH_FP_REG(%l7,%f12,0x7217B707894B6543)
INIT_TH_FP_REG(%l7,%f14,0xE559AB25B64E3D77)
INIT_TH_FP_REG(%l7,%f16,0xDDA0A23356404E33)
INIT_TH_FP_REG(%l7,%f18,0x9FE972D414CBA001)
INIT_TH_FP_REG(%l7,%f20,0x5652F42AC64AFB11)
INIT_TH_FP_REG(%l7,%f22,0xF32EE8138FFC85CC)
INIT_TH_FP_REG(%l7,%f24,0xE49D04CB3FFABE73)
INIT_TH_FP_REG(%l7,%f26,0x6DB90C422B227238)
INIT_TH_FP_REG(%l7,%f28,0x621CAB470B09C96F)
INIT_TH_FP_REG(%l7,%f30,0xAA4DD31BBBD8CF2D)
wrhpr %l0, 0xDCC, %hsys_tick_cmpr
fmovdleu %icc, %f24, %f12
fmovrslez %l4, %f19, %f17
fmovsneg %xcc, %f10, %f10
fmul8x16al %f17, %f2, %f6
fmul8x16au %f20, %f24, %f10
faligndata %f12, %f14, %f22
fmul8x16al %f24, %f8, %f10
fmovsneg %icc, %f20, %f16
fmovrdlez %l6, %f14, %f14
fmovrsgez %o5, %f17, %f29
fandnot2 %f16, %f26, %f30
fmul8sux16 %f12, %f12, %f14
fmul8ulx16 %f2, %f8, %f20
fandnot2s %f25, %f23, %f11
fmuld8sux16 %f19, %f13, %f16
loop_0: xnor %l1, %l6, %l4
fmul8x16al %f19, %f29, %f14
fandnot1s %f25, %f12, %f2
fmuld8sux16 %f9, %f7, %f26
fmovdpos %icc, %f28, %f20
fmul8x16al %f13, %f25, %f2
fmuld8ulx16 %f25, %f13, %f4
fmovrslez %g1, %f14, %f20
fmuld8ulx16 %f12, %f15, %f16
fmovdpos %xcc, %f24, %f10
fmuld8ulx16 %f12, %f20, %f22
fmovrdlez %o6, %f12, %f28
fmul8sux16 %f2, %f0, %f22
fornot2s %f25, %f31, %f31
fpadd32s %f24, %f25, %f14
fmul8ulx16 %f22, %f30, %f14
fandnot1s %f4, %f27, %f20
fpadd16s %f15, %f17, %f26
fandnot1 %f16, %f24, %f20
faligndata %f4, %f20, %f8
loop_1: lduh [%l7 + 0x40], %o3
fmul8x16al %f18, %f25, %f0
fmul8ulx16 %f16, %f0, %f16
fmuld8sux16 %f2, %f2, %f4
fmovrsgez %o2, %f21, %f15
fmuld8sux16 %f10, %f20, %f12
fandnot2s %f30, %f9, %f20
fandnot1s %f10, %f14, %f31
fmul8x16au %f5, %f25, %f8
fmul8ulx16 %f10, %f2, %f18
fmul8x16au %f7, %f15, %f30
fornot2s %f31, %f24, %f21
fmuld8sux16 %f31, %f10, %f4
fmul8sux16 %f26, %f18, %f10
fmul8ulx16 %f10, %f10, %f2
loop_2: fnands %f17, %f26, %f1
fmovrdlez %g2, %f16, %f28
fmovrdlez %i3, %f18, %f22
fandnot2s %f26, %f14, %f30
faligndata %f30, %f6, %f12
fmovdneg %icc, %f15, %f30
loop_3: ld [%l7 + 0x78], %f25
fornot2s %f10, %f15, %f30
fandnot2 %f22, %f28, %f18
fmul8x16al %f14, %f19, %f22
fmovrdlez %i2, %f12, %f28
fmul8x16au %f5, %f26, %f16
fmul8x16al %f19, %f17, %f2
fmul8sux16 %f24, %f28, %f10
fmul8sux16 %f30, %f6, %f20
fandnot2s %f9, %f12, %f23
fmul8sux16 %f26, %f20, %f18
fpadd32s %f30, %f21, %f23
fmul8x16au %f30, %f31, %f24
fmovsleu %xcc, %f17, %f24
fmuld8ulx16 %f18, %f14, %f16
fpsub32s %f13, %f23, %f15
fmuld8sux16 %f11, %f12, %f12
fmul8sux16 %f28, %f20, %f26
loop_4: fnors %f6, %f0, %f25
fmuld8ulx16 %f28, %f22, %f6
fandnot1s %f23, %f28, %f8
fpsub32s %f13, %f15, %f18
fmuld8ulx16 %f16, %f15, %f30
fmovsneg %xcc, %f24, %f30
loop_5: subcc %o5, 0x1C0A, %i1
fmuld8ulx16 %f23, %f22, %f14
fmuld8ulx16 %f5, %f6, %f22
fmuld8ulx16 %f2, %f12, %f12
fmuld8ulx16 %f31, %f11, %f26
fandnot2s %f29, %f11, %f3
fmuld8ulx16 %f7, %f22, %f20
fmovdleu %icc, %f16, %f18
fmul8x16au %f17, %f23, %f6
fpsub32s %f24, %f21, %f19
faligndata %f20, %f2, %f30
fmuld8ulx16 %f13, %f10, %f0
fmovrdgez %l1, %f30, %f20
loop_6: edge8 %l0, %o5, %l3
fmuld8ulx16 %f23, %f12, %f2
loop_7: udivcc %g7, 0x1484, %i2
fmuld8sux16 %f12, %f24, %f0
fandnot1 %f14, %f14, %f20
fmovsleu %xcc, %f14, %f20
loop_8: fornot1s %f30, %f20, %f8
fandnot2 %f30, %f24, %f18
fmuld8sux16 %f1, %f0, %f22
fmuld8sux16 %f0, %f25, %f8
fmuld8sux16 %f22, %f0, %f8
loop_9: edge8ln %i4, %i5, %g4
loop_10: subc %i1, 0x0DCC, %i7
fmuld8sux16 %f27, %f12, %f18
fmul8sux16 %f28, %f14, %f28
loop_11: addcc %i1, 0x1FFD, %o5
faligndata %f0, %f14, %f22
loop_12: fpsub16 %f16, %f28, %f24
fmovrsgez %o1, %f19, %f23
fmovspos %icc, %f25, %f30
fmovrsgez %o2, %f25, %f28
fandnot2 %f22, %f28, %f28
fmuld8ulx16 %f9, %f29, %f16
fmul8sux16 %f0, %f28, %f0
loop_13: movg %icc, %i2, %o5
fmul8x16au %f16, %f26, %f14
fandnot1s %f23, %f25, %f17
fmovdpos %icc, %f18, %f16
fandnot2 %f30, %f18, %f20
fmovrslez %o0, %f12, %f27
fmovrslez %g3, %f13, %f21
fandnot1s %f15, %f31, %f22
fmovsleu %icc, %f15, %f28
fmul8sux16 %f26, %f26, %f8
fandnot2s %f14, %f15, %f4
fmovspos %xcc, %f11, %f27
loop_14: lduh [%l7 + 0x1A], %g5
fmuld8ulx16 %f5, %f11, %f18
fmuld8ulx16 %f31, %f27, %f18
fmovspos %xcc, %f27, %f15
fmuld8sux16 %f24, %f0, %f10
fmovsleu %icc, %f13, %f12
fmuld8sux16 %f6, %f30, %f30
fandnot2s %f8, %f26, %f10
fmovrdgez %l0, %f24, %f16
fmovsleu %icc, %f16, %f10
fmovrsgez %o1, %f28, %f26
loop_15: fmovsleu %xcc, %f27, %f24
faligndata %f12, %f10, %f2
fandnot1 %f28, %f20, %f14
fmuld8sux16 %f13, %f18, %f12
loop_16: movle %icc, %o0, %o7
fmul8x16 %f21, %f20, %f30
fmul8ulx16 %f20, %f12, %f16
fmuld8ulx16 %f9, %f19, %f10
fandnot1 %f14, %f18, %f10
fmovrslez %g2, %f25, %f13
fpadd32s %f16, %f25, %f15
fmovdleu %icc, %f28, %f20
fpadd32s %f20, %f11, %f12
fandnot1 %f26, %f28, %f30
fandnot1s %f13, %f17, %f15
fpadd32s %f19, %f31, %f19
fmul8sux16 %f24, %f26, %f26
fornot1s %f21, %f22, %f20
loop_17: umulcc %o0, %l4, %o2
fpadd16s %f24, %f28, %f23
fandnot2s %f2, %f18, %f30
fmovsleu %xcc, %f31, %f11
fmovdleu %xcc, %f18, %f30
fmovdleu %icc, %f15, %f24
fmovdpos %xcc, %f11, %f14
fornot2s %f24, %f13, %f13
fmul8x16al %f9, %f28, %f22
fmuld8sux16 %f19, %f26, %f6
fmul8x16au %f6, %f26, %f10
fmovrdgez %i3, %f18, %f24
fmuld8ulx16 %f4, %f13, %f0
fandnot1s %f31, %f5, %f26
fandnot1s %f28, %f29, %f0
fmovdpos %icc, %f11, %f10
faligndata %f30, %f16, %f8
fmul8sux16 %f4, %f6, %f12
loop_18: umul %l6, %g7, %o0
fmuld8sux16 %f9, %f4, %f6
fmovsleu %xcc, %f12, %f25
fpadd16s %f18, %f10, %f29
fmovrdgez %g2, %f22, %f18
loop_19: addc %g5, %g3, %i2
faligndata %f18, %f0, %f2
fmovrdlez %i2, %f30, %f18
fmuld8ulx16 %f17, %f6, %f0
fandnot1s %f4, %f17, %f25
fmul8sux16 %f4, %f2, %f30
fandnot2s %f30, %f19, %f25
fmovrslez %o3, %f11, %f28
fandnot1s %f25, %f11, %f27
loop_20: add %i2, %o4, %g3
fmuld8ulx16 %f30, %f15, %f10
fmovrslez %g1, %f10, %f27
fmul8sux16 %f26, %f16, %f12
fmovrdlez %i1, %f24, %f16
loop_21: or %i6, %l3, %l1
fmuld8sux16 %f8, %f0, %f30
fmul8x16 %f12, %f20, %f16
fmuld8ulx16 %f20, %f21, %f0
fmovrsgez %o6, %f12, %f10
fandnot2s %f11, %f28, %f27
fandnot2s %f30, %f7, %f31
fandnot2 %f16, %f10, %f18
fmovrsgez %o3, %f25, %f20
fmul8ulx16 %f6, %f28, %f22
loop_22: sub %g1, %i4, %i5
bshuffle %f20, %f28, %f12
fandnot2s %f29, %f3, %f15
fmovsleu %icc, %f10, %f26
faligndata %f30, %f2, %f12
fpadd16s %f15, %f11, %f12
fmul8x16au %f22, %f6, %f26
faligndata %f22, %f6, %f12
fandnot1s %f18, %f3, %f19
fmul8ulx16 %f30, %f4, %f16
fornot1s %f30, %f10, %f25
fandnot2s %f17, %f21, %f7
fmul8sux16 %f20, %f20, %f6
fmul8ulx16 %f30, %f24, %f12
faligndata %f14, %f12, %f2
fmovrslez %l2, %f24, %f31
fmovspos %icc, %f24, %f29
fandnot2 %f28, %f18, %f22
fmovsneg %icc, %f29, %f23
fpsub32s %f12, %f20, %f20
fmovsneg %icc, %f30, %f26
fmovdpos %xcc, %f17, %f24
bshuffle %f14, %f10, %f24
fmovspos %icc, %f27, %f26
fmul8x16au %f28, %f31, %f18
faligndata %f0, %f28, %f8
fmovspos %xcc, %f24, %f19
fandnot1 %f16, %f26, %f14
loop_23: fmul8ulx16 %f26, %f30, %f10
fmul8ulx16 %f22, %f2, %f2
loop_24: srax %i7, %l1, %o3
fpadd32s %f23, %f19, %f16
fandnot2 %f10, %f10, %f10
fmul8ulx16 %f4, %f10, %f22
fmuld8sux16 %f21, %f10, %f12
fmul8ulx16 %f14, %f18, %f10
fmul8x16au %f11, %f29, %f8
fmovsleu %icc, %f26, %f19
fmovdneg %icc, %f19, %f25
fmuld8sux16 %f12, %f19, %f18
loop_25: movrlz %l1, 0x3D7, %l0
fmovrslez %i5, %f24, %f11
fornot1s %f24, %f30, %f31
fmovrdgez %l2, %f12, %f26
fmovsneg %icc, %f15, %f17
fmul8ulx16 %f16, %f10, %f24
fmovrslez %l1, %f19, %f20
fmovsleu %icc, %f26, %f20
fandnot1s %f23, %f25, %f16
fmovsneg %xcc, %f11, %f10
loop_26: fornot1 %f2, %f12, %f2
fmul8sux16 %f24, %f30, %f26
fpadd32s %f26, %f14, %f12
faligndata %f30, %f4, %f28
fmovrdlez %g3, %f30, %f24
fandnot2s %f15, %f30, %f29
faligndata %f10, %f0, %f26
fmul8sux16 %f0, %f28, %f22
fmul8x16au %f17, %f31, %f6
fmovsneg %xcc, %f21, %f16
fmul8x16al %f0, %f29, %f6
fpadd32s %f31, %f25, %f27
fpsub16s %f13, %f13, %f17
loop_27: srax %l1, 0x17, %g3
fpadd16s %f12, %f22, %f15
fmovrsgez %o0, %f15, %f27
fmul8sux16 %f20, %f26, %f4
fmovrslez %i2, %f28, %f21
fmovrdgez %g5, %f24, %f28
faligndata %f12, %f14, %f26
fpsub32s %f19, %f26, %f15
fandnot1s %f31, %f28, %f2
fmuld8sux16 %f24, %f26, %f10
fmovsneg %xcc, %f18, %f31
fornot2s %f28, %f27, %f31
fornot2s %f20, %f13, %f20
fmovrdlez %l4, %f28, %f10
fornot1s %f13, %f23, %f31
fmovdleu %xcc, %f10, %f23
loop_28: srax %g7, 0x0A, %o5
fandnot1s %f22, %f1, %f15
fmuld8ulx16 %f23, %f2, %f8
fmovsleu %icc, %f19, %f10
bshuffle %f12, %f16, %f30
fmul8ulx16 %f12, %f0, %f12
fmuld8sux16 %f22, %f28, %f26
fmuld8sux16 %f10, %f12, %f6
fmuld8ulx16 %f13, %f21, %f24
fmuld8sux16 %f1, %f4, %f8
fmul8x16al %f1, %f24, %f2
fandnot2s %f12, %f8, %f18
fmovsleu %icc, %f16, %f30
fmul8x16au %f0, %f25, %f28
fmul8sux16 %f10, %f26, %f30
fpadd16s %f31, %f31, %f10
loop_29: movrlz %i1, 0x197, %o7
fmovdpos %xcc, %f28, %f10
fandnot2s %f18, %f28, %f20
fornot2s %f31, %f14, %f11
faligndata %f18, %f14, %f24
fpsub16s %f15, %f21, %f21
loop_30: fxnors %f5, %f9, %f0
bshuffle %f18, %f30, %f20
fmovrdgez %g5, %f18, %f12
fmul8sux16 %f24, %f12, %f20
fmovrsgez %l2, %f25, %f26
fmul8sux16 %f20, %f24, %f0
loop_31: fxnor %f22, %f4, %f30
fandnot2 %f18, %f10, %f30
fmuld8ulx16 %f30, %f9, %f30
fpadd32s %f25, %f27, %f26
fmuld8ulx16 %f4, %f0, %f0
fandnot2s %f19, %f21, %f4
fmovrslez %o4, %f18, %f21
fmovspos %icc, %f29, %f30
fmovrdgez %l5, %f16, %f12
fmovdneg %icc, %f23, %f10
fmovsleu %icc, %f30, %f11
fmovsneg %icc, %f23, %f26
fandnot1s %f20, %f24, %f10
fpsub32s %f26, %f18, %f29
fmovspos %xcc, %f14, %f26
fmul8ulx16 %f22, %f12, %f22
fmul8sux16 %f8, %f16, %f10
fmovdpos %xcc, %f19, %f17
fandnot2s %f23, %f7, %f31
loop_32: movn %xcc, %l2, %o5
fmuld8sux16 %f9, %f26, %f2
fmovrsgez %i5, %f25, %f26
fmuld8sux16 %f26, %f1, %f14
fmuld8ulx16 %f23, %f0, %f28
faligndata %f12, %f12, %f2
fpadd32s %f22, %f21, %f20
fandnot2s %f11, %f30, %f27
fandnot1s %f18, %f2, %f18
fmuld8ulx16 %f21, %f28, %f10
loop_33: orn %g2, %o3, %i3
fmul8x16au %f25, %f28, %f26
fmul8x16al %f16, %f4, %f14
fmovsleu %xcc, %f16, %f23
fmovdpos %icc, %f14, %f22
fandnot1 %f22, %f18, %f24
fmovrsgez %g3, %f12, %f15
fmovrslez %i1, %f13, %f20
fandnot2s %f15, %f28, %f0
faligndata %f14, %f26, %f4
loop_34: fpadd32 %f4, %f8, %f14
fmul8x16au %f30, %f12, %f26
fmovrsgez %g6, %f16, %f28
fmul8x16au %f30, %f22, %f4
fornot2s %f31, %f31, %f20
fmovsneg %xcc, %f26, %f18
fmovrsgez %o4, %f15, %f29
fandnot2s %f24, %f16, %f6
fmovdneg %xcc, %f29, %f10
fandnot1s %f25, %f13, %f22
fandnot2 %f16, %f28, %f28
fmovsleu %icc, %f23, %f16
fmul8x16 %f27, %f16, %f10
bshuffle %f12, %f14, %f26
loop_35: edge8l %i6, %o7, %l3
fmul8x16al %f17, %f15, %f20
fmul8x16au %f30, %f26, %f16
fmul8x16au %f30, %f15, %f2
fpsub32s %f16, %f20, %f24
fornot1s %f19, %f14, %f15
fmul8x16al %f11, %f30, %f24
fmul8x16al %f25, %f10, %f20
faligndata %f12, %f22, %f14
fandnot1s %f9, %f29, %f13
fpadd32s %f20, %f13, %f13
fmuld8ulx16 %f29, %f16, %f6
fmul8x16 %f30, %f22, %f12
fornot2s %f25, %f24, %f27
fmovspos %icc, %f22, %f25
fmul8x16al %f17, %f26, %f8
fmul8x16al %f16, %f24, %f10
fmul8x16 %f10, %f22, %f16
loop_37: movrlez %i3, %i2, %l5
fmul8x16 %f21, %f20, %f18
fmovdleu %icc, %f29, %f10
fmovdneg %icc, %f18, %f13
fmovdneg %xcc, %f25, %f13
loop_38: fmovsneg %xcc, %f18, %f31
fandnot1s %f3, %f13, %f19
fmovdneg %xcc, %f10, %f31
fmovsleu %xcc, %f11, %f31
loop_39: movl %xcc, %l4, %l6
fmul8x16au %f11, %f28, %f14
fpsub32s %f21, %f15, %f12
fmul8ulx16 %f14, %f22, %f30
fpadd16s %f19, %f16, %f30
fmovdneg %icc, %f19, %f23
fpadd16s %f14, %f23, %f19
fmul8sux16 %f14, %f16, %f0
fmovdleu %xcc, %f28, %f14
loop_40: fmovsvc %icc, %f14, %f11
fandnot2s %f30, %f22, %f17
fmul8ulx16 %f20, %f24, %f8
loop_41: xor %i3, 0x00BD, %g1
fmul8x16al %f12, %f3, %f26
fmul8x16 %f29, %f16, %f28
fornot2s %f19, %f17, %f18
fmovdleu %xcc, %f11, %f13
faligndata %f18, %f16, %f8
fmuld8ulx16 %f10, %f11, %f2
fmovrslez %i6, %f28, %f11
fandnot1 %f16, %f26, %f26
fmul8ulx16 %f30, %f12, %f4
fmul8x16 %f23, %f26, %f14
faligndata %f0, %f20, %f10
fandnot1 %f16, %f16, %f30
fmul8ulx16 %f28, %f26, %f8
fmovrdgez %l0, %f26, %f16
fmul8x16au %f31, %f26, %f18
fpsub32s %f26, %f30, %f15
fmul8ulx16 %f28, %f20, %f24
fmul8x16au %f30, %f0, %f28
fmuld8ulx16 %f7, %f5, %f26
fmovspos %icc, %f13, %f11
fpsub16s %f31, %f29, %f21
fandnot2s %f24, %f1, %f30
fmuld8sux16 %f30, %f24, %f26
fmovsleu %xcc, %f30, %f14
fmul8x16al %f0, %f4, %f22
fmovdpos %icc, %f15, %f16
fmul8x16au %f20, %f0, %f6
fmul8sux16 %f20, %f22, %f10
fmuld8ulx16 %f3, %f30, %f2
loop_43: movleu %icc, %o3, %g7
fmovspos %icc, %f21, %f28
fmovrdgez %i0, %f20, %f10
fandnot2s %f5, %f23, %f10
fmul8x16au %f30, %f2, %f28
fmul8sux16 %f10, %f20, %f8
fmovrsgez %l3, %f20, %f20
fandnot1s %f9, %f25, %f22
fmuld8ulx16 %f2, %f3, %f10
fmovsleu %icc, %f21, %f23
fmul8x16 %f29, %f18, %f28
fmovdpos %icc, %f14, %f11
fmul8x16au %f8, %f31, %f28
fmuld8ulx16 %f29, %f2, %f22
loop_45: edge16l %l2, %o6, %i2
fmuld8sux16 %f25, %f28, %f6
fmul8ulx16 %f26, %f14, %f6
fmovsneg %icc, %f14, %f30
faligndata %f6, %f10, %f22
fmovspos %icc, %f27, %f24
fmovrsgez %i4, %f10, %f15
fpsub16s %f31, %f29, %f13
loop_46: edge32n %g4, %i1, %l5
fmul8x16 %f11, %f24, %f20
fmul8x16al %f4, %f20, %f16
fmovrdgez %i6, %f16, %f10
fmul8ulx16 %f22, %f12, %f2
fandnot2 %f30, %f22, %f28
fandnot2s %f1, %f13, %f28
fmovdpos %icc, %f14, %f23
fmul8ulx16 %f6, %f22, %f28
fmul8x16au %f26, %f10, %f22
fmovdneg %xcc, %f16, %f27
fandnot2 %f26, %f30, %f30
fmul8sux16 %f12, %f20, %f26
fmovrdgez %i1, %f24, %f24
fmovdneg %xcc, %f18, %f25
fmul8x16 %f26, %f22, %f10
loop_47: mulscc %i4, 0x0B38, %i2
fornot2s %f22, %f14, %f17
fmovdleu %xcc, %f29, %f24
fmovsneg %icc, %f18, %f11
fmul8sux16 %f2, %f2, %f12
fmovrsgez %g5, %f13, %f20
fmovspos %icc, %f29, %f12
fmovdpos %icc, %f23, %f17
fmul8x16au %f19, %f8, %f26
loop_48: fmuld8sux16 %f23, %f28, %f8
faligndata %f26, %f28, %f22
fmul8x16au %f2, %f4, %f12
fmuld8sux16 %f31, %f28, %f0
fmuld8sux16 %f3, %f4, %f4
loop_49: save %o4, %g4, %l1
fmovdneg %xcc, %f31, %f29
fandnot2s %f27, %f27, %f21
fmuld8sux16 %f13, %f7, %f22
fmul8x16al %f1, %f14, %f10
fmovrsgez %i3, %f17, %f25
fandnot2s %f17, %f24, %f26
fpadd16s %f13, %f20, %f27
fmuld8sux16 %f19, %f31, %f26
fmul8ulx16 %f20, %f0, %f2
fandnot1 %f14, %f28, %f24
fmovdneg %icc, %f15, %f16
fandnot1s %f18, %f14, %f19
fmul8x16 %f11, %f30, %f20
fandnot2 %f12, %f16, %f12
faligndata %f10, %f24, %f14
fmovrdlez %l2, %f22, %f14
loop_50: udiv %g6, 0x06A1, %g4
fmovdpos %xcc, %f29, %f16
loop_51: edge16n %l5, %g6, %o5
fornot2s %f18, %f11, %f11
fmuld8ulx16 %f16, %f31, %f28
fmul8x16al %f11, %f17, %f30
fmuld8sux16 %f0, %f15, %f0
loop_52: movvs %icc, %i6, %l3
fandnot2s %f23, %f18, %f25
fmovdneg %icc, %f27, %f29
fmovrslez %i7, %f14, %f29
fmuld8sux16 %f25, %f18, %f30
fmul8x16 %f13, %f16, %f16
fmul8x16 %f16, %f26, %f28
fmul8x16al %f3, %f16, %f12
loop_53: movrne %l2, 0x18E, %o1
fmovdneg %xcc, %f15, %f21
fmul8x16al %f7, %f18, %f30
fandnot1s %f16, %f7, %f10
fpsub16s %f15, %f15, %f23
fmul8sux16 %f16, %f24, %f20
fmul8ulx16 %f16, %f14, %f18
fandnot2 %f30, %f24, %f28
fandnot1 %f12, %f20, %f30
fmovspos %xcc, %f24, %f28
fmuld8ulx16 %f20, %f11, %f26
fornot2s %f17, %f16, %f26
bshuffle %f28, %f22, %f24
fmovspos %xcc, %f25, %f20
faligndata %f10, %f28, %f14
faligndata %f26, %f14, %f20
fmuld8sux16 %f31, %f10, %f14
fandnot2 %f10, %f20, %f28
loop_54: ldd [%l7 + 0x68], %g0
fmovdpos %icc, %f12, %f15
fmul8ulx16 %f2, %f22, %f22
loop_55: sth %i2, [%l7 + 0x42]
fmovrdgez %l0, %f26, %f30
fmovsneg %icc, %f24, %f14
fmovsneg %xcc, %f27, %f23
fornot2s %f29, %f12, %f15
fmovdneg %icc, %f14, %f24
loop_56: fmovscs %xcc, %f7, %f30
fmuld8ulx16 %f7, %f5, %f0
fmuld8ulx16 %f3, %f29, %f18
fmuld8ulx16 %f6, %f3, %f6
fmovsneg %icc, %f14, %f13
loop_57: array16 %o7, %l5, %o2
fmuld8ulx16 %f20, %f2, %f22
fpsub32s %f11, %f15, %f27
fmuld8sux16 %f17, %f11, %f2
fpadd16s %f21, %f14, %f15
fmovrslez %o6, %f22, %f31
fmovrsgez %g7, %f27, %f15
fmul8x16au %f14, %f0, %f4
fmul8x16au %f24, %f1, %f4
fandnot2s %f24, %f17, %f9
fandnot2s %f30, %f4, %f21
fmul8ulx16 %f2, %f16, %f12
fmovrdgez %i3, %f20, %f10
fmovdpos %icc, %f23, %f25
fmovrdlez %l0, %f22, %f30
fmul8x16 %f30, %f26, %f10
fmovspos %xcc, %f25, %f16
fmul8x16 %f11, %f14, %f30
fmovsleu %xcc, %f30, %f27
fmul8sux16 %f24, %f12, %f12
loop_58: ldsb [%l7 + 0x62], %i1
fmul8sux16 %f24, %f18, %f6
fmul8ulx16 %f6, %f26, %f14
fpsub32s %f10, %f31, %f23
fandnot1s %f15, %f29, %f15
loop_59: movgu %icc, %o2, %o4
fandnot1s %f19, %f30, %f20
fpadd32s %f23, %f31, %f15
fandnot2s %f13, %f3, %f12
loop_60: ldd [%l7 + 0x10], %f2
fmul8ulx16 %f18, %f28, %f2
fmovrsgez %l6, %f12, %f22
fandnot1s %f3, %f12, %f31
fornot2s %f30, %f30, %f22
fmovrsgez %g4, %f18, %f26
fmuld8sux16 %f11, %f14, %f30
faligndata %f30, %f0, %f0
fmovsneg %icc, %f27, %f19
fandnot1s %f31, %f29, %f0
loop_61: edge8 %l4, %o0, %l2
fpsub32s %f31, %f21, %f15
fandnot2s %f31, %f16, %f20
fmovdpos %icc, %f28, %f28
fmovrdgez %g1, %f20, %f14
fmuld8sux16 %f24, %f19, %f26
fmul8ulx16 %f30, %f8, %f10
fmovdleu %xcc, %f31, %f30
fandnot1s %f3, %f30, %f22
fmul8x16 %f25, %f10, %f10
fmul8x16al %f22, %f1, %f8
fmovsleu %xcc, %f20, %f28
fandnot2s %f15, %f12, %f20
fornot2s %f21, %f15, %f19
loop_62: sll %l5, 0x1E, %o4
fmul8ulx16 %f26, %f30, %f20
fmovrslez %l6, %f11, %f25
fmul8x16al %f16, %f12, %f30
fmovrdgez %o3, %f30, %f12
fmovrsgez %l1, %f22, %f17
fpadd32s %f20, %f18, %f25
fmul8x16au %f30, %f3, %f12
fmul8x16al %f9, %f10, %f26
fandnot1s %f14, %f14, %f11
fornot1s %f22, %f13, %f24
fmuld8ulx16 %f12, %f21, %f18
fandnot1s %f21, %f2, %f15
fmul8x16au %f2, %f0, %f28
fmovrdgez %g5, %f10, %f22
fmul8x16al %f8, %f3, %f10
fandnot1s %f31, %f0, %f25
fandnot1s %f10, %f31, %f20
fmul8x16au %f14, %f22, %f0
fmovspos %xcc, %f11, %f14
loop_63: or %l6, 0x060D, %i6
fmul8x16au %f1, %f20, %f26
bshuffle %f24, %f26, %f14
loop_64: fxor %f30, %f24, %f22
fmovdneg %icc, %f18, %f21
fmul8x16au %f8, %f24, %f6
loop_65: stb %o0, [%l7 + 0x47]
fmovdpos %icc, %f22, %f30
fpsub16s %f15, %f17, %f20
fornot2s %f20, %f12, %f23
faligndata %f0, %f26, %f28
faligndata %f10, %f0, %f18
loop_66: xorcc %g2, %o1, %g1
fmovrdlez %o0, %f14, %f10
fmovsleu %icc, %f27, %f10
fpadd32s %f23, %f11, %f29
fmul8x16 %f15, %f12, %f26
faligndata %f4, %f8, %f18
fmuld8sux16 %f2, %f15, %f22
loop_67: alignaddrl %l2, %g2, %g3
fmul8ulx16 %f18, %f0, %f16
fmovrdlez %g3, %f14, %f20
fmovspos %xcc, %f29, %f31
fmovdpos %xcc, %f19, %f29
fmul8sux16 %f28, %f10, %f22
fmul8x16au %f15, %f20, %f6
loop_69: sdivcc %g5, 0x16A2, %o5
fmuld8ulx16 %f9, %f26, %f16
fmul8sux16 %f20, %f20, %f12
fmovrdgez %o2, %f20, %f26
fandnot1s %f11, %f22, %f4
fmuld8sux16 %f21, %f30, %f8
fandnot1 %f30, %f28, %f18
fpsub16s %f20, %f26, %f12
fmul8ulx16 %f0, %f24, %f2
loop_70: and %l1, 0x0139, %i7
fmovrsgez %g4, %f12, %f23
fandnot1s %f23, %f17, %f20
fmovsleu %xcc, %f20, %f30
fmovrdlez %l1, %f20, %f10
faligndata %f30, %f10, %f14
fmul8x16al %f1, %f9, %f18
fmul8x16al %f15, %f16, %f10
fmuld8sux16 %f19, %f3, %f18
faligndata %f8, %f28, %f12
fmovdleu %icc, %f27, %f12
loop_71: fand %f10, %f22, %f16
fmul8sux16 %f10, %f14, %f12
fmul8x16al %f14, %f5, %f2
fmul8x16 %f23, %f30, %f10
faligndata %f20, %f6, %f20
loop_72: subccc %i0, 0x026D, %o4
fmuld8sux16 %f14, %f23, %f6
fmul8ulx16 %f0, %f26, %f24
fmul8x16al %f10, %f12, %f16
fornot1s %f22, %f20, %f14
fmul8x16al %f20, %f4, %f18
loop_73: array8 %g1, %l1, %g3
fmovrdgez %i6, %f18, %f26
fmovdneg %xcc, %f17, %f29
fmul8x16au %f31, %f11, %f20
fpadd32s %f25, %f30, %f19
fmuld8ulx16 %f6, %f19, %f24
fmovdleu %icc, %f11, %f28
loop_74: udivx %g7, 0x04C6, %o2
fpsub32s %f29, %f23, %f13
fpadd16s %f28, %f29, %f11
fmul8sux16 %f12, %f26, %f12
fmuld8ulx16 %f11, %f20, %f6
fpsub32s %f26, %f22, %f29
fpsub16s %f24, %f19, %f12
fmul8ulx16 %f18, %f12, %f30
fmuld8sux16 %f6, %f20, %f4
fmuld8ulx16 %f31, %f6, %f24
fpadd16s %f12, %f10, %f19
fmovdleu %icc, %f12, %f29
faligndata %f26, %f4, %f28
fmovrdgez %i6, %f12, %f18
fmovrdlez %i4, %f16, %f26
fmuld8sux16 %f8, %f31, %f2
loop_75: ldsb [%l7 + 0x10], %g3
fpadd16s %f23, %f16, %f11
fmul8ulx16 %f20, %f0, %f26
fmul8x16al %f20, %f3, %f22
fornot2s %f14, %f26, %f10
fmul8ulx16 %f10, %f16, %f30
fmul8x16au %f15, %f25, %f24
fmul8x16au %f1, %f19, %f18
fmovdpos %icc, %f14, %f10
fpsub16s %f31, %f11, %f26
fmul8sux16 %f8, %f0, %f24
fmul8x16au %f14, %f4, %f16
fandnot2s %f13, %f6, %f19
fmuld8ulx16 %f31, %f19, %f18
loop_77: ldd [%l7 + 0x60], %i6
fmul8x16al %f18, %f18, %f6
faligndata %f12, %f2, %f22
fmovrslez %g7, %f11, %f27
fmovdpos %icc, %f31, %f20
fmovrsgez %g4, %f16, %f18
faligndata %f6, %f22, %f14
fmuld8sux16 %f28, %f18, %f0
fandnot1s %f29, %f18, %f15
fmovrsgez %g6, %f20, %f19
fmovrdlez %o2, %f14, %f28
fmuld8sux16 %f5, %f5, %f22
fmovsleu %xcc, %f10, %f17
loop_78: udivx %l0, 0x06FD, %g3
fandnot2s %f29, %f4, %f15
fmovdneg %icc, %f13, %f23
fmul8x16au %f16, %f23, %f6
fmul8x16al %f29, %f20, %f30
fmuld8ulx16 %f17, %f13, %f28
fandnot2s %f24, %f3, %f25
fmul8x16al %f8, %f5, %f22
fmul8x16al %f15, %f15, %f22
fmuld8ulx16 %f11, %f24, %f14
fmovrdlez %i0, %f22, %f20
fmul8x16 %f12, %f10, %f26
fmuld8ulx16 %f12, %f10, %f6
bshuffle %f30, %f28, %f30
fmovspos %xcc, %f22, %f12
fmul8x16au %f24, %f0, %f24
fmul8sux16 %f28, %f16, %f20
fmuld8ulx16 %f24, %f2, %f30
fmul8sux16 %f6, %f28, %f14
fmul8ulx16 %f20, %f2, %f26
fandnot1s %f5, %f16, %f15
fpadd16s %f19, %f21, %f30
loop_80: udiv %o6, 0x1C85, %i2
fmul8x16al %f19, %f29, %f24
fornot2s %f20, %f21, %f30
fmul8sux16 %f4, %f22, %f16
fmul8x16au %f17, %f0, %f2
fpadd16s %f16, %f23, %f22
fmul8x16au %f7, %f14, %f28
fmul8x16al %f30, %f15, %f20
fpadd32s %f16, %f26, %f19
fmovsleu %icc, %f23, %f13
fmul8sux16 %f26, %f2, %f0
fmovrdgez %g4, %f22, %f12
fmovspos %icc, %f11, %f10
loop_81: movne %xcc, %g7, %o5
fmul8x16 %f30, %f30, %f18
fmovspos %icc, %f29, %f28
fmuld8sux16 %f29, %f27, %f24
faligndata %f20, %f30, %f4
fmul8sux16 %f8, %f26, %f4
loop_82: array32 %i7, %g1, %i4
fmovdleu %xcc, %f30, %f25
fandnot2 %f30, %f26, %f18
fmuld8sux16 %f19, %f24, %f22
fmovrdgez %o3, %f20, %f26
fpadd32s %f27, %f28, %f20
fmovrdgez %i2, %f30, %f26
fmovrdgez %i2, %f28, %f26
loop_83: edge16 %i6, %i3, %g1
fmovrsgez %l5, %f31, %f22
fmuld8ulx16 %f23, %f24, %f30
fmovsneg %xcc, %f24, %f13
fmul8sux16 %f16, %f2, %f10
fpadd16s %f10, %f27, %f27
fmul8ulx16 %f30, %f16, %f16
fpsub16s %f29, %f10, %f17
fmuld8sux16 %f10, %f4, %f22
fmul8x16al %f30, %f21, %f22
fmuld8ulx16 %f19, %f18, %f12
loop_84: fmovsg %icc, %f10, %f31
fandnot2s %f31, %f22, %f4
fmovsneg %xcc, %f25, %f10
fmovdpos %xcc, %f12, %f27
fmul8sux16 %f6, %f12, %f20
fandnot2s %f17, %f13, %f8
fandnot2s %f17, %f18, %f5
fmul8ulx16 %f28, %f20, %f8
fmul8x16au %f31, %f14, %f26
fmuld8sux16 %f7, %f5, %f12
fmovrslez %i4, %f14, %f22
fornot1s %f15, %f15, %f22
fandnot1 %f22, %f20, %f10
fmul8x16 %f28, %f14, %f12
fmul8ulx16 %f24, %f26, %f28
fandnot2s %f24, %f16, %f29
fmovspos %xcc, %f22, %f19
fpadd16s %f15, %f23, %f24
loop_86: movge %icc, %i5, %o4
fmuld8sux16 %f9, %f31, %f0
fmul8sux16 %f14, %f28, %f4
fmuld8ulx16 %f14, %f12, %f6
fmovrsgez %l5, %f12, %f21
fmovrdlez %o2, %f18, %f18
fmuld8sux16 %f20, %f11, %f2
fmuld8sux16 %f4, %f21, %f4
fandnot1 %f12, %f26, %f12
loop_87: mulx %i5, 0x0A0C, %g7
fmovrdlez %l5, %f28, %f12
fmuld8ulx16 %f30, %f1, %f18
faligndata %f2, %f0, %f26
fpsub32s %f13, %f31, %f29
fandnot1s %f23, %f12, %f26
fornot2s %f11, %f23, %f21
fmul8x16al %f8, %f26, %f0
fmul8x16al %f29, %f3, %f26
fmul8x16al %f10, %f5, %f10
fmovrslez %l4, %f25, %f19
fmul8sux16 %f26, %f4, %f2
fmul8x16al %f13, %f31, %f18
fandnot2s %f19, %f18, %f11
fmuld8ulx16 %f3, %f16, %f10
faligndata %f16, %f26, %f18
fmovsneg %icc, %f31, %f13
loop_88: movrgz %o2, %i5, %g3
fmuld8sux16 %f13, %f22, %f6
fpsub32s %f18, %f14, %f23
loop_89: movrne %o2, %o3, %o0
fmuld8sux16 %f16, %f0, %f20
loop_90: udivx %l4, 0x1A16, %o5
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
EXIT_GOOD /* test finish */
/************************************************************************
************************************************************************/