Skip to content

Instantly share code, notes, and snippets.

@KristofferC
Created November 19, 2021 13:47
Show Gist options
  • Star 0 You must be signed in to star a gist
  • Fork 0 You must be signed in to fork a gist
  • Save KristofferC/a3915eec407491b7a4fc8a7d81c16fbe to your computer and use it in GitHub Desktop.
Save KristofferC/a3915eec407491b7a4fc8a7d81c16fbe to your computer and use it in GitHub Desktop.
pushq %r15
pushq %r14
pushq %r13
pushq %r12
pushq %rbx
subq $2320, %rsp # imm = 0x910
movq (%rsi), %rdx
vmovupd 80(%rdx), %ymm12
vmovupd 112(%rdx), %ymm9
vmovupd 224(%rdx), %ymm3
vmovupd %ymm3, 320(%rsp)
vmovupd 256(%rdx), %ymm4
vmovupd %ymm4, 32(%rsp)
vbroadcastsd 72(%rdx), %ymm13
movabsq $139907445577752, %rax # imm = 0x7F3EBD985818
vmulsd (%rax), %xmm13, %xmm2
vmovapd %xmm2, -112(%rsp)
vbroadcastsd (%rax), %ymm0
vmulpd %ymm0, %ymm12, %ymm1
vmulpd %ymm0, %ymm9, %ymm0
vbroadcastsd 216(%rdx), %ymm8
vmulpd %ymm1, %ymm8, %ymm1
vbroadcastsd %xmm2, %ymm2
vmulpd %ymm3, %ymm2, %ymm3
vaddpd %ymm3, %ymm1, %ymm1
vmovupd %ymm1, 576(%rsp)
vmulpd %ymm0, %ymm8, %ymm0
vmulpd %ymm4, %ymm2, %ymm1
vaddpd %ymm1, %ymm0, %ymm0
vmovupd %ymm0, 608(%rsp)
vmovsd 288(%rdx), %xmm0 # xmm0 = mem[0],zero
movabsq $139907445577760, %rax # imm = 0x7F3EBD985820
vmulsd (%rax), %xmm0, %xmm2
vmovapd %xmm2, 64(%rsp)
vbroadcastsd (%rax), %ymm0
vmulpd 296(%rdx), %ymm0, %ymm1
vmulpd 328(%rdx), %ymm0, %ymm0
vmulpd %ymm1, %ymm13, %ymm1
vbroadcastsd %xmm2, %ymm2
vmulpd %ymm2, %ymm12, %ymm3
vaddpd %ymm3, %ymm1, %ymm1
vmovupd %ymm1, 512(%rsp)
vmulpd %ymm0, %ymm13, %ymm0
vmulpd %ymm2, %ymm9, %ymm1
vaddpd %ymm1, %ymm0, %ymm0
vmovupd %ymm0, 544(%rsp)
vmovsd 432(%rdx), %xmm2 # xmm2 = mem[0],zero
vmovupd 440(%rdx), %ymm0
vpermpd $144, %ymm0, %ymm1 # ymm1 = ymm0[0,0,1,2]
vblendpd $1, %ymm2, %ymm1, %ymm1 # ymm1 = ymm2[0],ymm1[1,2,3]
vmovapd %ymm2, %ymm4
vmovupd %ymm2, 640(%rsp)
movabsq $139907445577776, %r8 # imm = 0x7F3EBD985830
vbroadcastsd (%r8), %ymm2
vmulpd %ymm2, %ymm1, %ymm1
vmovupd %ymm1, 2240(%rsp)
vmovupd 472(%rdx), %ymm1
vperm2f128 $33, %ymm1, %ymm0, %ymm3 # ymm3 = ymm0[2,3],ymm1[0,1]
vshufpd $5, %ymm1, %ymm3, %ymm3 # ymm3 = ymm3[1],ymm1[0],ymm3[3],ymm1[2]
vmulpd %ymm2, %ymm3, %ymm2
vmovupd %ymm2, 2272(%rsp)
movabsq $139907445577768, %r9 # imm = 0x7F3EBD985828
vbroadcastsd (%r9), %ymm2
vmulpd %ymm2, %ymm0, %ymm3
vmovupd %ymm3, 384(%rsp)
vmulpd %ymm2, %ymm1, %ymm2
vmovupd %ymm2, 2208(%rsp)
movabsq $139907445577784, %rax # imm = 0x7F3EBD985838
vbroadcastsd (%rax), %ymm2
vmulpd %ymm2, %ymm0, %ymm0
vmulpd %ymm2, %ymm1, %ymm1
vbroadcastsd 360(%rdx), %ymm6
vmulpd %ymm6, %ymm0, %ymm0
vmovupd 368(%rdx), %ymm5
vmulsd (%rax), %xmm4, %xmm2
vmovapd %xmm2, 96(%rsp)
vbroadcastsd %xmm2, %ymm2
vmulpd %ymm5, %ymm2, %ymm3
vmovupd %ymm5, 352(%rsp)
vaddpd %ymm3, %ymm0, %ymm0
vmovupd %ymm0, 672(%rsp)
vmulpd %ymm6, %ymm1, %ymm0
vmovupd 400(%rdx), %ymm11
vmulpd %ymm2, %ymm11, %ymm1
vaddpd %ymm1, %ymm0, %ymm0
vmovupd %ymm0, 704(%rsp)
movabsq $139907445577800, %rax # imm = 0x7F3EBD985848
vmovsd (%rax), %xmm0 # xmm0 = mem[0],zero
vmulsd 592(%rdx), %xmm0, %xmm1
vmulsd 600(%rdx), %xmm0, %xmm2
vunpcklpd %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0]
movabsq $139907445577792, %r10 # imm = 0x7F3EBD985840
vmovupd 584(%rdx), %ymm2
vmovupd 616(%rdx), %ymm3
vbroadcastsd (%r10), %ymm14
vmulpd %ymm2, %ymm14, %ymm4
vmovupd %ymm4, 1536(%rsp)
vmulpd %ymm3, %ymm14, %ymm4
vmovupd %ymm4, 1568(%rsp)
vperm2f128 $33, %ymm3, %ymm2, %ymm2 # ymm2 = ymm2[2,3],ymm3[0,1]
vshufpd $5, %ymm3, %ymm2, %ymm14 # ymm14 = ymm2[1],ymm3[0],ymm2[3],ymm3[2]
vmovsd 576(%rdx), %xmm2 # xmm2 = mem[0],zero
vmovapd %xmm2, -64(%rsp)
vmulsd 584(%rdx), %xmm0, %xmm3
vunpcklpd %xmm3, %xmm2, %xmm3 # xmm3 = xmm2[0],xmm3[0]
vinsertf128 $1, %xmm1, %ymm3, %ymm1
movabsq $.rodata.cst32, %rcx
vmovapd (%rcx), %xmm3
vunpcklpd %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm6[0]
vpermpd $84, %ymm3, %ymm3 # ymm3 = ymm3[0,1,1,1]
vmulpd %ymm3, %ymm1, %ymm1
vbroadcastsd (%rax), %ymm3
vmulsd 376(%rdx), %xmm1, %xmm4
vmulsd 384(%rdx), %xmm1, %xmm2
vmulpd %ymm3, %ymm14, %ymm3
vunpcklpd %xmm2, %xmm4, %xmm2 # xmm2 = xmm4[0],xmm2[0]
vmulsd 368(%rdx), %xmm1, %xmm4
vunpcklpd %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0]
vinsertf128 $1, %xmm2, %ymm4, %ymm2
vperm2f128 $33, %ymm11, %ymm5, %ymm4 # ymm4 = ymm5[2,3],ymm11[0,1]
vshufpd $5, %ymm11, %ymm4, %ymm4 # ymm4 = ymm4[1],ymm11[0],ymm4[3],ymm11[2]
vbroadcastsd %xmm1, %ymm14
vmulpd %ymm4, %ymm14, %ymm4
vmulpd %ymm6, %ymm3, %ymm3
vaddpd %ymm4, %ymm3, %ymm3
vmovupd %ymm3, 1504(%rsp)
vmulsd 640(%rdx), %xmm0, %xmm0
vmulpd %ymm2, %ymm1, %ymm3
vmovupd %ymm3, 1472(%rsp)
vaddpd %ymm2, %ymm1, %ymm2
vmovupd %ymm2, 1440(%rsp)
vmulsd 424(%rdx), %xmm1, %xmm1
vmulsd %xmm6, %xmm0, %xmm0
vaddsd %xmm1, %xmm0, %xmm0
vmovapd %xmm0, 144(%rsp)
movabsq $139907445577808, %rax # imm = 0x7F3EBD985850
vmovupd 728(%rdx), %ymm0
vbroadcastsd (%rax), %ymm1
vmulpd %ymm1, %ymm0, %ymm2
vmulpd %ymm2, %ymm13, %ymm2
vmovsd 720(%rdx), %xmm4 # xmm4 = mem[0],zero
vmulsd (%rax), %xmm4, %xmm3
vbroadcastsd %xmm3, %ymm14
vmulpd %ymm12, %ymm14, %ymm10
vaddpd %ymm2, %ymm10, %ymm2
vmovupd %ymm2, 1088(%rsp)
vmovupd 760(%rdx), %ymm10
vmulpd %ymm1, %ymm10, %ymm1
vmulpd %ymm1, %ymm13, %ymm1
vmulpd %ymm9, %ymm14, %ymm2
vaddpd %ymm2, %ymm1, %ymm1
vmovupd %ymm1, 1120(%rsp)
movabsq $139907445577816, %rax # imm = 0x7F3EBD985858
vmovsd (%rax), %xmm2 # xmm2 = mem[0],zero
vmulsd 736(%rdx), %xmm2, %xmm1
vmulsd 744(%rdx), %xmm2, %xmm7
vunpcklpd %xmm7, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm7[0]
vperm2f128 $33, %ymm10, %ymm0, %ymm0 # ymm0 = ymm0[2,3],ymm10[0,1]
vshufpd $5, %ymm10, %ymm0, %ymm10 # ymm10 = ymm0[1],ymm10[0],ymm0[3],ymm10[2]
vmulsd 728(%rdx), %xmm2, %xmm7
vunpcklpd %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm7[0]
vinsertf128 $1, %xmm1, %ymm4, %ymm1
movabsq $139907445577984, %rcx # imm = 0x7F3EBD985900
vbroadcastsd (%rdx), %ymm14
vmovapd (%rcx), %xmm4
vunpcklpd %xmm14, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm14[0]
vpermpd $84, %ymm4, %ymm4 # ymm4 = ymm4[0,1,1,1]
vmulpd %ymm4, %ymm1, %ymm4
vbroadcastsd (%rax), %ymm1
vmulsd 16(%rdx), %xmm4, %xmm7
vmulsd 24(%rdx), %xmm4, %xmm0
vmulpd %ymm1, %ymm10, %ymm10
vunpcklpd %xmm0, %xmm7, %xmm0 # xmm0 = xmm7[0],xmm0[0]
vmovupd 8(%rdx), %xmm1
vmulsd %xmm1, %xmm4, %xmm7
vunpcklpd %xmm7, %xmm14, %xmm7 # xmm7 = xmm14[0],xmm7[0]
vinsertf128 $1, %xmm0, %ymm7, %ymm7
vinsertf128 $1, %xmm1, %ymm14, %ymm1
vmovupd 8(%rdx), %ymm5
vshufpd $4, %ymm5, %ymm1, %ymm1 # ymm1 = ymm1[0],ymm5[0],ymm1[3],ymm5[2]
movabsq $.rodata.cst8, %rcx
vbroadcastsd (%rcx), %ymm0
vmulpd %ymm0, %ymm1, %ymm1
vmovupd %ymm1, 160(%rsp)
vmovupd 40(%rdx), %ymm1
vperm2f128 $33, %ymm1, %ymm5, %ymm15 # ymm15 = ymm5[2,3],ymm1[0,1]
vshufpd $5, %ymm1, %ymm15, %ymm15 # ymm15 = ymm15[1],ymm1[0],ymm15[3],ymm1[2]
vmulpd %ymm0, %ymm15, %ymm0
vmovupd %ymm0, 192(%rsp)
vbroadcastsd %xmm4, %ymm0
vmulpd %ymm0, %ymm15, %ymm0
vmulpd %ymm14, %ymm10, %ymm10
vaddpd %ymm0, %ymm10, %ymm15
vmulsd 784(%rdx), %xmm2, %xmm0
vmulpd %ymm7, %ymm4, %ymm2
vmovupd %ymm2, 1248(%rsp)
vaddpd %ymm7, %ymm4, %ymm2
vmovupd %ymm2, 992(%rsp)
vmulsd %xmm0, %xmm14, %xmm0
vmovsd 64(%rdx), %xmm2 # xmm2 = mem[0],zero
vmulsd %xmm2, %xmm4, %xmm4
vaddsd %xmm4, %xmm0, %xmm0
vmovapd %xmm0, 128(%rsp)
movabsq $139907445577832, %rax # imm = 0x7F3EBD985868
vmovsd 648(%rdx), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rax), %xmm0, %xmm0
vbroadcastsd (%rax), %ymm4
vmulpd 656(%rdx), %ymm4, %ymm7
vmulpd %ymm7, %ymm13, %ymm7
vbroadcastsd %xmm0, %ymm10
vmulpd %ymm12, %ymm10, %ymm12
vaddpd %ymm7, %ymm12, %ymm7
vmovupd %ymm7, 896(%rsp)
vmulsd 64(%rsp), %xmm13, %xmm7
vmovupd %ymm7, 1792(%rsp)
vmulpd 688(%rdx), %ymm4, %ymm4
vmulsd %xmm3, %xmm13, %xmm3
vmovupd %ymm3, 960(%rsp)
vmulsd %xmm0, %xmm13, %xmm0
vmovupd %ymm0, 928(%rsp)
vmulpd %ymm4, %ymm13, %ymm0
vmulpd %ymm9, %ymm10, %ymm3
vaddpd %ymm3, %ymm0, %ymm0
vmovupd %ymm0, 736(%rsp)
movabsq $139907445577848, %rax # imm = 0x7F3EBD985878
vbroadcastsd (%rax), %ymm0
vmulpd %ymm0, %ymm5, %ymm3
vmulpd %ymm6, %ymm3, %ymm4
vmulsd (%rax), %xmm14, %xmm3
vbroadcastsd %xmm3, %ymm7
vmovupd 352(%rsp), %ymm10
vmulpd %ymm7, %ymm10, %ymm9
vaddpd %ymm4, %ymm9, %ymm4
vmovupd %ymm4, 768(%rsp)
vmulpd %ymm0, %ymm1, %ymm0
vmulpd %ymm6, %ymm0, %ymm0
vmulpd %ymm7, %ymm11, %ymm4
vaddpd %ymm4, %ymm0, %ymm0
vmovupd %ymm0, 64(%rsp)
vinsertf128 $1, 224(%rdx), %ymm8, %ymm0
vmovupd 320(%rsp), %ymm13
vshufpd $4, %ymm13, %ymm0, %ymm0 # ymm0 = ymm0[0],ymm13[0],ymm0[3],ymm13[2]
movabsq $139907445577864, %r14 # imm = 0x7F3EBD985888
vmovupd 32(%rsp), %ymm12
vperm2f128 $33, %ymm12, %ymm13, %ymm4 # ymm4 = ymm13[2,3],ymm12[0,1]
vshufpd $5, %ymm12, %ymm4, %ymm4 # ymm4 = ymm4[1],ymm12[0],ymm4[3],ymm12[2]
vbroadcastsd (%r14), %ymm7
vmulpd %ymm7, %ymm0, %ymm9
vmovupd %ymm9, 1376(%rsp)
vmulpd %ymm7, %ymm4, %ymm7
vmovupd %ymm7, 1408(%rsp)
movabsq $139907445577872, %r15 # imm = 0x7F3EBD985890
vbroadcastsd (%r15), %ymm7
vmulpd %ymm7, %ymm0, %ymm0
vmovupd %ymm0, 448(%rsp)
vmulpd %ymm7, %ymm4, %ymm0
vmovupd %ymm0, 480(%rsp)
movabsq $139907445577880, %r11 # imm = 0x7F3EBD985898
vmovupd 1080(%rdx), %ymm0
vmovupd 1112(%rdx), %ymm4
vbroadcastsd (%r11), %ymm7
vmulpd %ymm7, %ymm0, %ymm9
vmovupd %ymm9, 1152(%rsp)
vmulpd %ymm7, %ymm4, %ymm7
vmovupd %ymm7, 1184(%rsp)
movabsq $139907445577888, %r12 # imm = 0x7F3EBD9858A0
vbroadcastsd (%r12), %ymm7
vmulpd %ymm7, %ymm0, %ymm0
vmovupd %ymm0, 1344(%rsp)
vmulpd %ymm7, %ymm4, %ymm0
vmovupd %ymm0, 1312(%rsp)
movabsq $139907445577896, %rax # imm = 0x7F3EBD9858A8
vmovsd 1152(%rdx), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rax), %xmm0, %xmm0
vbroadcastsd (%rax), %ymm4
vmulpd 1160(%rdx), %ymm4, %ymm7
vmulpd %ymm6, %ymm7, %ymm7
vbroadcastsd %xmm0, %ymm9
vmulpd %ymm10, %ymm9, %ymm10
vaddpd %ymm7, %ymm10, %ymm7
vmovupd %ymm7, 1056(%rsp)
vmulsd 96(%rsp), %xmm6, %xmm7
vmovupd %ymm7, 1856(%rsp)
vmulsd %xmm6, %xmm3, %xmm3
vmovupd %ymm3, 96(%rsp)
vmulpd 1192(%rdx), %ymm4, %ymm3
vmulsd %xmm6, %xmm0, %xmm0
vmovupd %ymm0, 1024(%rsp)
vmulpd %ymm6, %ymm3, %ymm0
vmovupd %ymm0, 1920(%rsp)
vmulpd %ymm11, %ymm9, %ymm0
vmovupd %ymm0, 1888(%rsp)
vmovsd 1296(%rdx), %xmm11 # xmm11 = mem[0],zero
vmovupd 1304(%rdx), %ymm6
vpermpd $144, %ymm6, %ymm0 # ymm0 = ymm6[0,0,1,2]
vblendpd $1, %ymm11, %ymm0, %ymm0 # ymm0 = ymm11[0],ymm0[1,2,3]
movabsq $139907445577904, %r13 # imm = 0x7F3EBD9858B0
vbroadcastsd (%r13), %ymm3
vmulpd %ymm3, %ymm0, %ymm0
vmovupd %ymm0, 352(%rsp)
vmovupd 1336(%rdx), %ymm0
vperm2f128 $33, %ymm0, %ymm6, %ymm4 # ymm4 = ymm6[2,3],ymm0[0,1]
vshufpd $5, %ymm0, %ymm4, %ymm4 # ymm4 = ymm4[1],ymm0[0],ymm4[3],ymm0[2]
vmulpd %ymm3, %ymm4, %ymm3
vmovupd %ymm3, 1280(%rsp)
movabsq $139907445577920, %rax # imm = 0x7F3EBD9858C0
vbroadcastsd (%rax), %ymm4
vmulpd %ymm4, %ymm5, %ymm3
vmulpd %ymm3, %ymm8, %ymm3
vmulsd (%rax), %xmm14, %xmm7
vbroadcastsd %xmm7, %ymm9
vmulpd %ymm13, %ymm9, %ymm10
vaddpd %ymm3, %ymm10, %ymm3
vmovupd %ymm3, (%rsp)
vmulsd -112(%rsp), %xmm8, %xmm3
vmovupd %ymm3, 416(%rsp)
vmulpd %ymm4, %ymm1, %ymm4
vmulsd %xmm7, %xmm8, %xmm13
vmovupd %ymm13, 1728(%rsp)
vmulpd %ymm4, %ymm8, %ymm4
vmulpd %ymm12, %ymm9, %ymm7
vaddpd %ymm7, %ymm4, %ymm3
vmovupd %ymm3, 288(%rsp)
movabsq $139907445577912, %rbx # imm = 0x7F3EBD9858B8
vbroadcastsd (%rbx), %ymm4
vmulpd %ymm4, %ymm6, %ymm3
vmovupd %ymm3, 224(%rsp)
vmulpd %ymm4, %ymm0, %ymm3
vmovupd %ymm3, 256(%rsp)
movabsq $139907445577928, %rax # imm = 0x7F3EBD9858C8
vbroadcastsd (%rax), %ymm4
vmulpd %ymm4, %ymm6, %ymm6
vmulpd %ymm4, %ymm0, %ymm0
vmulpd %ymm6, %ymm14, %ymm4
vmulsd (%rax), %xmm11, %xmm6
vbroadcastsd %xmm6, %ymm8
vmulpd %ymm5, %ymm8, %ymm5
vaddpd %ymm5, %ymm4, %ymm3
vmovupd %ymm3, 320(%rsp)
vmulsd %xmm6, %xmm14, %xmm10
vmovupd %ymm10, 2176(%rsp)
vmulpd %ymm0, %ymm14, %ymm0
vmulpd %ymm1, %ymm8, %ymm1
vaddpd %ymm1, %ymm0, %ymm0
vmovupd %ymm0, 1216(%rsp)
movabsq $.rodata.cst16, %rax
vmovapd (%rax), %xmm7
vmovupd 160(%rsp), %ymm0
vpermilpd $1, %xmm0, %xmm1 # xmm1 = xmm0[1,0]
vxorpd %xmm7, %xmm1, %xmm1
vextractf128 $1, %ymm0, %xmm4
vmovapd %ymm0, %ymm8
vxorpd %xmm7, %xmm4, %xmm5
vunpcklpd %xmm5, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm5[0]
vpermilpd $1, %xmm4, %xmm4 # xmm4 = xmm4[1,0]
vxorpd %xmm7, %xmm4, %xmm4
vmovupd 192(%rsp), %ymm0
vxorpd %xmm7, %xmm0, %xmm5
vunpcklpd %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0]
vmulsd (%rcx), %xmm2, %xmm3
vmovapd %xmm3, -80(%rsp)
vpermilpd $1, %xmm0, %xmm2 # xmm2 = xmm0[1,0]
vxorpd %xmm7, %xmm2, %xmm2
vextractf128 $1, %ymm0, %xmm5
vxorpd %xmm7, %xmm5, %xmm6
vunpcklpd %xmm6, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm6[0]
vpermilpd $1, %xmm5, %xmm5 # xmm5 = xmm5[1,0]
vxorpd %xmm7, %xmm5, %xmm5
vxorpd %xmm7, %xmm3, %xmm6
vmovapd %xmm7, -112(%rsp)
vunpcklpd %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0]
vinsertf128 $1, %xmm4, %ymm1, %ymm1
vmovupd %ymm15, 2048(%rsp)
vmovupd 992(%rsp), %ymm0
vperm2f128 $33, %ymm15, %ymm0, %ymm4 # ymm4 = ymm0[2,3],ymm15[0,1]
vshufpd $5, %ymm4, %ymm0, %ymm4 # ymm4 = ymm0[1],ymm4[0],ymm0[3],ymm4[2]
vsubpd %ymm4, %ymm1, %ymm1
vinsertf128 $1, %xmm5, %ymm2, %ymm2
vextractf128 $1, %ymm15, %xmm4
vshufpd $1, 128(%rsp), %xmm4, %xmm5 # xmm5 = xmm4[1],mem[0]
vshufpd $1, %xmm4, %xmm15, %xmm4 # xmm4 = xmm15[1],xmm4[0]
vinsertf128 $1, %xmm5, %ymm4, %ymm4
movabsq $139907445577824, %rax # imm = 0x7F3EBD985860
vmovsd 864(%rdx), %xmm5 # xmm5 = mem[0],zero
vmulsd (%rax), %xmm5, %xmm5
vmovupd %ymm5, 2016(%rsp)
vsubpd %ymm4, %ymm2, %ymm9
vbroadcastsd (%rax), %ymm4
vmulpd 872(%rdx), %ymm4, %ymm2
vmovupd %ymm2, 1952(%rsp)
vmulpd 904(%rdx), %ymm4, %ymm3
vmovupd %ymm3, 1984(%rsp)
movabsq $139907445577840, %rsi # imm = 0x7F3EBD985870
vbroadcastsd (%rsi), %ymm4
vmulpd 944(%rdx), %ymm4, %ymm0
vmovupd %ymm0, 832(%rsp)
vmulpd 976(%rdx), %ymm4, %ymm0
vmovupd %ymm0, 864(%rsp)
movabsq $139907445577856, %rax # imm = 0x7F3EBD985880
vbroadcastsd (%rax), %ymm4
vmulpd 144(%rdx), %ymm4, %ymm0
vmovupd %ymm0, 1632(%rsp)
vmulpd 176(%rdx), %ymm4, %ymm0
vmovupd %ymm0, 1664(%rsp)
vmulsd (%rbx), %xmm11, %xmm6
vmovupd %ymm6, 1600(%rsp)
movabsq $139907445577936, %rcx # imm = 0x7F3EBD9858D0
vmovsd 1368(%rdx), %xmm4 # xmm4 = mem[0],zero
vmulsd (%rcx), %xmm4, %xmm0
vmovupd %ymm0, 2144(%rsp)
vbroadcastsd (%rcx), %ymm4
vmulpd 1376(%rdx), %ymm4, %ymm15
vmovupd %ymm15, 2112(%rsp)
vmulpd 1408(%rdx), %ymm4, %ymm14
vmovupd %ymm14, 2080(%rsp)
vxorpd %xmm7, %xmm8, %xmm4
vsubsd 1248(%rsp), %xmm4, %xmm4
vsubsd 96(%rsp), %xmm4, %xmm4
vsubsd %xmm13, %xmm4, %xmm4
vsubsd %xmm10, %xmm4, %xmm4
vmovupd 416(%rsp), %ymm7
vaddsd %xmm4, %xmm7, %xmm4
vmovupd 1792(%rsp), %ymm13
vaddsd %xmm4, %xmm13, %xmm4
vmovupd 960(%rsp), %ymm10
vaddsd %xmm4, %xmm10, %xmm4
vaddsd %xmm4, %xmm5, %xmm4
vmovupd 928(%rsp), %ymm12
vaddsd %xmm4, %xmm12, %xmm4
vaddsd %xmm4, %xmm6, %xmm4
vaddsd %xmm0, %xmm4, %xmm4
movq (%rdi), %rcx
vmovsd 496(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, -8(%rsp)
vmovsd 936(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, -16(%rsp)
vmovsd 208(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, -32(%rsp)
vmovsd 280(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, -24(%rsp)
vmovsd 1144(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, -96(%rsp)
vmovsd 1360(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, -40(%rsp)
vmovsd %xmm4, (%rcx)
vsubpd 768(%rsp), %ymm1, %ymm1
vsubpd (%rsp), %ymm1, %ymm1
vsubpd 320(%rsp), %ymm1, %ymm1
vmovupd 576(%rsp), %ymm8
vaddpd %ymm1, %ymm8, %ymm1
vmovupd 512(%rsp), %ymm5
vaddpd %ymm1, %ymm5, %ymm1
vmovupd 1088(%rsp), %ymm0
vaddpd %ymm1, %ymm0, %ymm1
vaddpd %ymm1, %ymm2, %ymm1
vmovupd 896(%rsp), %ymm4
vaddpd %ymm1, %ymm4, %ymm1
vaddpd 224(%rsp), %ymm1, %ymm1
vaddpd %ymm1, %ymm15, %ymm1
vmovupd %ymm1, 8(%rcx)
vsubpd 64(%rsp), %ymm9, %ymm1
vsubpd 288(%rsp), %ymm1, %ymm1
vsubpd 1216(%rsp), %ymm1, %ymm1
vmovupd 608(%rsp), %ymm15
vaddpd %ymm1, %ymm15, %ymm1
vmovupd 544(%rsp), %ymm9
vaddpd %ymm1, %ymm9, %ymm1
vmovupd 1120(%rsp), %ymm11
vaddpd %ymm1, %ymm11, %ymm1
vaddpd %ymm1, %ymm3, %ymm1
vaddpd 736(%rsp), %ymm1, %ymm1
vaddpd 256(%rsp), %ymm1, %ymm1
vaddpd %ymm1, %ymm14, %ymm1
vmovupd %ymm1, 40(%rcx)
vpermpd $144, %ymm8, %ymm1 # ymm1 = ymm8[0,0,1,2]
vmovapd %ymm8, %ymm14
vblendpd $1, %ymm7, %ymm1, %ymm2 # ymm2 = ymm7[0],ymm1[1,2,3]
movabsq $139907445577944, %rdx # imm = 0x7F3EBD9858D8
vbroadcastsd (%rdx), %ymm7
vxorpd %ymm7, %ymm2, %ymm8
vmovupd %ymm7, 32(%rsp)
vpermpd $144, %ymm5, %ymm2 # ymm2 = ymm5[0,0,1,2]
vblendpd $1, %ymm13, %ymm2, %ymm1 # ymm1 = ymm13[0],ymm2[1,2,3]
vmovupd %ymm1, 1760(%rsp)
vpermpd $144, %ymm0, %ymm2 # ymm2 = ymm0[0,0,1,2]
vmovapd %ymm0, %ymm6
vblendpd $1, %ymm10, %ymm2, %ymm0 # ymm0 = ymm10[0],ymm2[1,2,3]
vmovupd %ymm0, 416(%rsp)
vsubpd %ymm1, %ymm8, %ymm2
vsubpd %ymm0, %ymm2, %ymm2
vpermpd $144, %ymm4, %ymm3 # ymm3 = ymm4[0,0,1,2]
vblendpd $1, %ymm12, %ymm3, %ymm3 # ymm3 = ymm12[0],ymm3[1,2,3]
vsubpd %ymm3, %ymm2, %ymm1
vperm2f128 $33, %ymm15, %ymm14, %ymm2 # ymm2 = ymm14[2,3],ymm15[0,1]
vshufpd $5, %ymm15, %ymm2, %ymm2 # ymm2 = ymm2[1],ymm15[0],ymm2[3],ymm15[2]
vxorpd %ymm7, %ymm2, %ymm3
vperm2f128 $33, %ymm9, %ymm5, %ymm2 # ymm2 = ymm5[2,3],ymm9[0,1]
vmovapd %ymm5, %ymm12
vshufpd $5, %ymm9, %ymm2, %ymm14 # ymm14 = ymm2[1],ymm9[0],ymm2[3],ymm9[2]
vmovupd %ymm14, 1696(%rsp)
vmovapd %ymm9, %ymm10
vperm2f128 $33, %ymm11, %ymm6, %ymm2 # ymm2 = ymm6[2,3],ymm11[0,1]
vshufpd $5, %ymm11, %ymm2, %ymm6 # ymm6 = ymm2[1],ymm11[0],ymm2[3],ymm11[2]
vmovupd %ymm6, 1824(%rsp)
vmovapd %ymm11, %ymm7
vsubpd %ymm14, %ymm3, %ymm2
vsubpd %ymm6, %ymm2, %ymm2
vmovupd 736(%rsp), %ymm0
vperm2f128 $33, %ymm0, %ymm4, %ymm14 # ymm14 = ymm4[2,3],ymm0[0,1]
vshufpd $5, %ymm0, %ymm14, %ymm14 # ymm14 = ymm14[1],ymm0[0],ymm14[3],ymm0[2]
vmovapd %ymm0, %ymm4
vsubpd %ymm14, %ymm2, %ymm0
vextractf128 $1, %ymm15, %xmm2
vpermilpd $1, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vxorpd -112(%rsp), %xmm2, %xmm11
vextractf128 $1, %ymm9, %xmm6
vpermilpd $1, %xmm6, %xmm2 # xmm2 = xmm6[1,0]
vmovapd %xmm2, 800(%rsp)
vextractf128 $1, %ymm7, %xmm6
vpermilpd $1, %xmm6, %xmm5 # xmm5 = xmm6[1,0]
vmovapd %xmm5, 816(%rsp)
vsubsd %xmm2, %xmm11, %xmm6
vsubsd %xmm5, %xmm6, %xmm6
vextractf128 $1, %ymm4, %xmm15
vpermilpd $1, %xmm15, %xmm5 # xmm5 = xmm15[1,0]
vsubsd %xmm5, %xmm6, %xmm5
vmovupd 160(%rsp), %ymm4
vaddpd %ymm1, %ymm4, %ymm1
vaddpd 352(%rsp), %ymm1, %ymm1
vmovupd %ymm1, 72(%rcx)
vmovupd 192(%rsp), %ymm6
vaddpd %ymm0, %ymm6, %ymm0
vaddpd 1280(%rsp), %ymm0, %ymm0
vmovupd %ymm0, 104(%rcx)
vmovsd -40(%rsp), %xmm0 # xmm0 = mem[0],zero
vmulsd (%r13), %xmm0, %xmm1
vmovapd %xmm1, 608(%rsp)
vmovapd -80(%rsp), %xmm2
vaddsd %xmm5, %xmm2, %xmm0
vaddsd %xmm1, %xmm0, %xmm0
vmovsd %xmm0, 136(%rcx)
vmovupd 224(%rsp), %ymm5
vpermpd $144, %ymm5, %ymm0 # ymm0 = ymm5[0,0,1,2]
vblendpd $1, 1600(%rsp), %ymm0, %ymm1 # ymm1 = mem[0],ymm0[1,2,3]
vmovupd %ymm1, 576(%rsp)
vmovupd 1632(%rsp), %ymm15
vsubpd %ymm15, %ymm4, %ymm0
vmovupd 448(%rsp), %ymm7
vaddpd %ymm7, %ymm0, %ymm0
vaddpd 1344(%rsp), %ymm0, %ymm0
vaddpd %ymm1, %ymm0, %ymm0
vmovupd %ymm0, 144(%rcx)
vmovupd 1664(%rsp), %ymm14
vsubpd %ymm14, %ymm6, %ymm0
vmovupd 480(%rsp), %ymm9
vaddpd %ymm0, %ymm9, %ymm0
vaddpd 1312(%rsp), %ymm0, %ymm0
vmovupd 256(%rsp), %ymm4
vperm2f128 $33, %ymm4, %ymm5, %ymm1 # ymm1 = ymm5[2,3],ymm4[0,1]
vshufpd $5, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[1],ymm4[0],ymm1[3],ymm4[2]
vmovapd %ymm4, %ymm6
vmovupd %ymm1, 224(%rsp)
vaddpd %ymm1, %ymm0, %ymm0
vmovupd %ymm0, 176(%rcx)
vmovsd -32(%rsp), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rax), %xmm0, %xmm0
vsubsd %xmm0, %xmm2, %xmm1
vmovsd -24(%rsp), %xmm2 # xmm2 = mem[0],zero
vmulsd (%r15), %xmm2, %xmm5
vaddsd %xmm5, %xmm1, %xmm1
vmovsd -96(%rsp), %xmm4 # xmm4 = mem[0],zero
vmulsd (%r12), %xmm4, %xmm4
vmovsd %xmm4, -80(%rsp)
vaddsd %xmm4, %xmm1, %xmm1
vextractf128 $1, %ymm6, %xmm6
vpermilpd $1, %xmm6, %xmm4 # xmm4 = xmm6[1,0]
vmovapd %xmm4, 192(%rsp)
vaddsd %xmm4, %xmm1, %xmm1
vmovsd %xmm1, 208(%rcx)
vsubpd 1376(%rsp), %ymm8, %ymm1
vsubpd %ymm7, %ymm1, %ymm1
vsubpd 1408(%rsp), %ymm3, %ymm3
vsubpd %ymm9, %ymm3, %ymm3
vmulsd (%r14), %xmm2, %xmm4
vmovsd %xmm4, 480(%rsp)
vsubsd %xmm4, %xmm11, %xmm2
vsubsd %xmm5, %xmm2, %xmm2
vmovupd (%rsp), %ymm6
vpermpd $144, %ymm6, %ymm5 # ymm5 = ymm6[0,0,1,2]
vblendpd $1, 1728(%rsp), %ymm5, %ymm4 # ymm4 = mem[0],ymm5[1,2,3]
vmovupd %ymm4, 256(%rsp)
vsubpd %ymm4, %ymm1, %ymm1
vaddpd %ymm1, %ymm15, %ymm1
vmovupd 288(%rsp), %ymm7
vperm2f128 $33, %ymm7, %ymm6, %ymm5 # ymm5 = ymm6[2,3],ymm7[0,1]
vshufpd $5, %ymm7, %ymm5, %ymm4 # ymm4 = ymm5[1],ymm7[0],ymm5[3],ymm7[2]
vmovupd %ymm4, 160(%rsp)
vsubpd %ymm4, %ymm3, %ymm3
vaddpd %ymm3, %ymm14, %ymm3
vextractf128 $1, %ymm7, %xmm5
vpermilpd $1, %xmm5, %xmm4 # xmm4 = xmm5[1,0]
vmovapd %xmm4, 288(%rsp)
vsubsd %xmm4, %xmm2, %xmm2
vaddsd %xmm2, %xmm0, %xmm0
vmovupd %ymm1, 216(%rcx)
vmovupd %ymm3, 248(%rcx)
vmovsd %xmm0, 280(%rcx)
vmovupd 640(%rsp), %ymm0
vmulsd (%r9), %xmm0, %xmm11
vmovapd -64(%rsp), %xmm0
vmulsd (%r10), %xmm0, %xmm2
vmovupd %ymm2, 448(%rsp)
vmovsd -16(%rsp), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rsi), %xmm0, %xmm1
vmovupd %ymm1, (%rsp)
vsubsd %xmm13, %xmm11, %xmm0
vaddsd %xmm0, %xmm11, %xmm0
vmovupd 1856(%rsp), %ymm3
vaddsd %xmm3, %xmm0, %xmm0
vaddsd %xmm2, %xmm0, %xmm0
vaddsd %xmm1, %xmm0, %xmm0
vmovupd 1024(%rsp), %ymm15
vaddsd %xmm0, %xmm15, %xmm0
vmovsd %xmm0, 288(%rcx)
vmovupd 384(%rsp), %ymm1
vsubpd %ymm12, %ymm1, %ymm0
vaddpd %ymm0, %ymm1, %ymm0
vmovupd 672(%rsp), %ymm1
vaddpd %ymm1, %ymm0, %ymm0
vaddpd 1536(%rsp), %ymm0, %ymm0
vmovupd 832(%rsp), %ymm14
vaddpd %ymm0, %ymm14, %ymm0
vmovupd 1056(%rsp), %ymm9
vaddpd %ymm0, %ymm9, %ymm0
vmovupd %ymm0, 296(%rcx)
vmovupd 1888(%rsp), %ymm0
vaddpd 1920(%rsp), %ymm0, %ymm7
vmovupd 2208(%rsp), %ymm2
vsubpd %ymm10, %ymm2, %ymm0
vaddpd %ymm0, %ymm2, %ymm0
vmovupd 704(%rsp), %ymm5
vaddpd %ymm5, %ymm0, %ymm0
vaddpd 1568(%rsp), %ymm0, %ymm0
vmovupd 864(%rsp), %ymm8
vaddpd %ymm0, %ymm8, %ymm0
vaddpd %ymm7, %ymm0, %ymm0
vmovupd %ymm0, 328(%rcx)
vpermpd $144, %ymm1, %ymm0 # ymm0 = ymm1[0,0,1,2]
vmovapd %ymm1, %ymm4
vblendpd $1, %ymm3, %ymm0, %ymm3 # ymm3 = ymm3[0],ymm0[1,2,3]
vmovupd %ymm3, 512(%rsp)
vmovupd 1440(%rsp), %ymm0
vblendpd $1, 1472(%rsp), %ymm0, %ymm1 # ymm1 = mem[0],ymm0[1,2,3]
vmovupd %ymm1, 544(%rsp)
vmovupd 32(%rsp), %ymm12
vxorpd %ymm3, %ymm12, %ymm0
vsubpd %ymm1, %ymm0, %ymm0
vmovupd 768(%rsp), %ymm3
vpermpd $144, %ymm3, %ymm1 # ymm1 = ymm3[0,0,1,2]
vblendpd $1, 96(%rsp), %ymm1, %ymm1 # ymm1 = mem[0],ymm1[1,2,3]
vsubpd %ymm1, %ymm0, %ymm0
vperm2f128 $33, %ymm5, %ymm4, %ymm1 # ymm1 = ymm4[2,3],ymm5[0,1]
vshufpd $5, %ymm5, %ymm1, %ymm13 # ymm13 = ymm1[1],ymm5[0],ymm1[3],ymm5[2]
vmovapd %ymm5, %ymm6
vxorpd %ymm12, %ymm13, %ymm1
vsubpd 1504(%rsp), %ymm1, %ymm1
vmovupd 64(%rsp), %ymm4
vperm2f128 $33, %ymm4, %ymm3, %ymm5 # ymm5 = ymm3[2,3],ymm4[0,1]
vshufpd $5, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[1],ymm4[0],ymm5[3],ymm4[2]
vsubpd %ymm5, %ymm1, %ymm5
vextractf128 $1, %ymm6, %xmm1
vpermilpd $1, %xmm1, %xmm10 # xmm10 = xmm1[1,0]
vxorpd -112(%rsp), %xmm10, %xmm3
vsubsd 144(%rsp), %xmm3, %xmm3
vextractf128 $1, %ymm4, %xmm6
vpermilpd $1, %xmm6, %xmm6 # xmm6 = xmm6[1,0]
vsubsd %xmm6, %xmm3, %xmm6
vpermpd $144, %ymm9, %ymm3 # ymm3 = ymm9[0,0,1,2]
vblendpd $1, %ymm15, %ymm3, %ymm3 # ymm3 = ymm15[0],ymm3[1,2,3]
vmovupd %ymm3, 704(%rsp)
vsubpd %ymm3, %ymm0, %ymm0
vaddpd 1760(%rsp), %ymm0, %ymm0
vmovupd %ymm7, 640(%rsp)
vperm2f128 $33, %ymm7, %ymm9, %ymm3 # ymm3 = ymm9[2,3],ymm7[0,1]
vshufpd $5, %ymm7, %ymm3, %ymm1 # ymm1 = ymm3[1],ymm7[0],ymm3[3],ymm7[2]
vmovupd %ymm1, 672(%rsp)
vsubpd %ymm1, %ymm5, %ymm5
vaddpd 1696(%rsp), %ymm5, %ymm5
vextractf128 $1, %ymm7, %xmm3
vpermilpd $1, %xmm3, %xmm1 # xmm1 = xmm3[1,0]
vmovapd %xmm1, -64(%rsp)
vsubsd %xmm1, %xmm6, %xmm3
vaddsd 800(%rsp), %xmm3, %xmm3
vmovupd 1152(%rsp), %ymm1
vaddpd %ymm0, %ymm1, %ymm0
vaddpd %ymm0, %ymm1, %ymm0
vmovupd %ymm0, 360(%rcx)
vmovupd 1184(%rsp), %ymm1
vaddpd %ymm5, %ymm1, %ymm0
vaddpd %ymm0, %ymm1, %ymm0
vmovupd %ymm0, 392(%rcx)
vmovsd -96(%rsp), %xmm0 # xmm0 = mem[0],zero
vmulsd (%r11), %xmm0, %xmm1
vmovapd %xmm1, -96(%rsp)
vaddsd %xmm3, %xmm1, %xmm0
vaddsd %xmm0, %xmm1, %xmm0
vmovsd %xmm0, 424(%rcx)
vmovupd 384(%rsp), %ymm5
vpermpd $144, %ymm5, %ymm0 # ymm0 = ymm5[0,0,1,2]
vblendpd $1, %ymm11, %ymm0, %ymm4 # ymm4 = ymm11[0],ymm0[1,2,3]
vxorpd %ymm4, %ymm12, %ymm0
vmovupd 2240(%rsp), %ymm1
vsubpd %ymm1, %ymm0, %ymm0
vmovupd 512(%rsp), %ymm9
vsubpd %ymm9, %ymm0, %ymm0
vpermpd $144, %ymm14, %ymm6 # ymm6 = ymm14[0,0,1,2]
vblendpd $1, (%rsp), %ymm6, %ymm6 # ymm6 = mem[0],ymm6[1,2,3]
vaddpd %ymm6, %ymm0, %ymm3
vperm2f128 $33, %ymm2, %ymm5, %ymm6 # ymm6 = ymm5[2,3],ymm2[0,1]
vshufpd $5, %ymm2, %ymm6, %ymm6 # ymm6 = ymm6[1],ymm2[0],ymm6[3],ymm2[2]
vxorpd %ymm6, %ymm12, %ymm11
vmovupd 2272(%rsp), %ymm0
vsubpd %ymm0, %ymm11, %ymm11
vsubpd %ymm13, %ymm11, %ymm11
vperm2f128 $33, %ymm8, %ymm14, %ymm14 # ymm14 = ymm14[2,3],ymm8[0,1]
vshufpd $5, %ymm8, %ymm14, %ymm14 # ymm14 = ymm14[1],ymm8[0],ymm14[3],ymm8[2]
vmovapd %ymm8, %ymm7
vaddpd %ymm14, %ymm11, %ymm11
vmovsd -8(%rsp), %xmm5 # xmm5 = mem[0],zero
vmulsd (%r8), %xmm5, %xmm14
vextractf128 $1, %ymm2, %xmm8
vpermilpd $1, %xmm8, %xmm8 # xmm8 = xmm8[1,0]
vmovapd -112(%rsp), %xmm12
vxorpd %xmm12, %xmm8, %xmm15
vsubsd %xmm14, %xmm15, %xmm5
vsubsd %xmm10, %xmm5, %xmm5
vextractf128 $1, %ymm7, %xmm2
vpermilpd $1, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vaddsd %xmm2, %xmm5, %xmm2
movq (%rdi), %rax
vmovupd %ymm3, 432(%rax)
vmovupd %ymm11, 464(%rax)
vmovsd %xmm2, 496(%rax)
vmovups 992(%rsp), %ymm2
vblendps $3, 1248(%rsp), %ymm2, %ymm2 # ymm2 = mem[0,1],ymm2[2,3,4,5,6,7]
vmovups %ymm2, 384(%rsp)
vaddpd %ymm1, %ymm4, %ymm2
vaddpd %ymm0, %ymm6, %ymm3
vaddsd %xmm14, %xmm8, %xmm5
vaddpd %ymm2, %ymm9, %ymm2
vaddpd %ymm3, %ymm13, %ymm3
vaddsd %xmm5, %xmm10, %xmm1
vmovupd 1536(%rsp), %ymm8
vpermpd $144, %ymm8, %ymm5 # ymm5 = ymm8[0,0,1,2]
vmovupd 448(%rsp), %ymm0
vblendpd $1, %ymm0, %ymm5, %ymm5 # ymm5 = ymm0[0],ymm5[1,2,3]
vaddpd %ymm5, %ymm2, %ymm2
vmovupd 1568(%rsp), %ymm10
vperm2f128 $33, %ymm10, %ymm8, %ymm5 # ymm5 = ymm8[2,3],ymm10[0,1]
vshufpd $5, %ymm10, %ymm5, %ymm6 # ymm6 = ymm5[1],ymm10[0],ymm5[3],ymm10[2]
vmovapd %ymm10, %ymm7
vaddpd %ymm6, %ymm3, %ymm3
vmovupd %ymm2, 504(%rax)
vmovupd %ymm3, 536(%rax)
vpermilpd $1, %xmm8, %xmm2 # xmm2 = xmm8[1,0]
vxorpd %xmm2, %xmm12, %xmm2
vxorpd %xmm12, %xmm8, %xmm3
vmovapd %ymm8, %ymm11
vunpcklpd %xmm2, %xmm3, %xmm2 # xmm2 = xmm3[0],xmm2[0]
vxorpd %xmm0, %xmm12, %xmm3
vmovapd %ymm0, %ymm9
vmovddup %xmm3, %xmm3 # xmm3 = xmm3[0,0]
vinsertf128 $1, %xmm2, %ymm3, %ymm2
vextractf128 $1, %ymm10, %xmm3
vpermilpd $1, %xmm3, %xmm6 # xmm6 = xmm3[1,0]
vaddpd %xmm6, %xmm1, %xmm1
vmovupd 1440(%rsp), %ymm0
vunpcklpd 1472(%rsp), %ymm0, %ymm6 # ymm6 = ymm0[0],mem[0],ymm0[2],mem[2]
vinsertf128 $1, %xmm0, %ymm0, %ymm8
vmovapd %ymm0, %ymm4
vshufpd $6, %ymm6, %ymm8, %ymm6 # ymm6 = ymm8[0],ymm6[1],ymm8[3],ymm6[2]
vsubpd %ymm6, %ymm2, %ymm2
vblendpd $1, %ymm1, %ymm2, %ymm1 # ymm1 = ymm1[0],ymm2[1,2,3]
vmovupd 32(%rsp), %ymm8
vxorpd %ymm5, %ymm8, %ymm2
vmovupd 1504(%rsp), %ymm0
vperm2f128 $33, %ymm0, %ymm4, %ymm5 # ymm5 = ymm4[2,3],ymm0[0,1]
vshufpd $5, %ymm0, %ymm5, %ymm5 # ymm5 = ymm5[1],ymm0[0],ymm5[3],ymm0[2]
vsubpd %ymm5, %ymm2, %ymm2
vxorpd %xmm3, %xmm12, %xmm3
vextractf128 $1, %ymm0, %xmm5
vmovapd 144(%rsp), %xmm4
vshufpd $1, %xmm4, %xmm5, %xmm5 # xmm5 = xmm5[1],xmm4[0]
vsubpd %xmm5, %xmm3, %xmm3
vmovupd %ymm1, 568(%rax)
vmovupd %ymm2, 600(%rax)
vmovupd %xmm3, 632(%rax)
vmovupd 928(%rsp), %ymm15
vsubsd %xmm15, %xmm9, %xmm1
vmovupd 960(%rsp), %ymm10
vaddsd %xmm1, %xmm10, %xmm1
vmovsd %xmm1, 648(%rax)
vmovupd 896(%rsp), %ymm14
vsubpd %ymm14, %ymm11, %ymm1
vmovupd 1088(%rsp), %ymm11
vaddpd %ymm1, %ymm11, %ymm1
vmovupd %ymm1, 656(%rax)
vmovupd 736(%rsp), %ymm13
vsubpd %ymm13, %ymm7, %ymm1
vmovupd 1120(%rsp), %ymm9
vaddpd %ymm1, %ymm9, %ymm1
vmovupd %ymm1, 688(%rax)
vxorpd 416(%rsp), %ymm8, %ymm1
vmovupd 384(%rsp), %ymm6
vsubpd %ymm6, %ymm1, %ymm1
vaddpd 544(%rsp), %ymm1, %ymm1
vxorpd 1824(%rsp), %ymm8, %ymm2
vmovupd 2048(%rsp), %ymm7
vsubpd %ymm7, %ymm2, %ymm2
vaddpd %ymm2, %ymm0, %ymm2
vxorpd 816(%rsp), %xmm12, %xmm3
vmovapd 128(%rsp), %xmm8
vsubsd %xmm8, %xmm3, %xmm3
vaddsd %xmm3, %xmm4, %xmm3
vmovupd 1952(%rsp), %ymm4
vpermpd $144, %ymm4, %ymm5 # ymm5 = ymm4[0,0,1,2]
vblendpd $1, 2016(%rsp), %ymm5, %ymm5 # ymm5 = mem[0],ymm5[1,2,3]
vaddpd %ymm5, %ymm1, %ymm1
vmovupd %ymm1, 720(%rax)
vmovupd 1984(%rsp), %ymm0
vperm2f128 $33, %ymm0, %ymm4, %ymm1 # ymm1 = ymm4[2,3],ymm0[0,1]
vshufpd $5, %ymm0, %ymm1, %ymm1 # ymm1 = ymm1[1],ymm0[0],ymm1[3],ymm0[2]
vaddpd %ymm1, %ymm2, %ymm2
vmovupd %ymm2, 752(%rax)
vextractf128 $1, %ymm0, %xmm2
vpermilpd $1, %xmm2, %xmm2 # xmm2 = xmm2[1,0]
vaddsd %xmm2, %xmm3, %xmm3
vmovsd %xmm3, 784(%rax)
vmovsd %xmm10, 792(%rax)
vmovupd %ymm11, 800(%rax)
vmovupd %ymm9, 832(%rax)
vsubpd %ymm5, %ymm6, %ymm0
vsubpd %ymm1, %ymm7, %ymm1
movq (%rdi), %rax
vmovupd %ymm0, 864(%rax)
vmovupd %ymm1, 896(%rax)
vsubsd %xmm2, %xmm8, %xmm0
vmovsd %xmm0, 928(%rax)
vsubsd (%rsp), %xmm15, %xmm0
vsubpd 832(%rsp), %ymm14, %ymm1
vsubpd 864(%rsp), %ymm13, %ymm2
vmovsd %xmm0, 936(%rax)
vmovupd %ymm1, 944(%rax)
vmovupd %ymm2, 976(%rax)
vmovups 96(%rsp), %ymm0
vmovsd %xmm0, 1008(%rax)
vmovups 768(%rsp), %ymm0
vmovups %ymm0, 1016(%rax)
vmovups 64(%rsp), %ymm0
vmovups %ymm0, 1048(%rax)
vmovupd 32(%rsp), %ymm3
vxorpd 1152(%rsp), %ymm3, %ymm0
vsubpd 1344(%rsp), %ymm0, %ymm0
vxorpd 1184(%rsp), %ymm3, %ymm1
vsubpd 1312(%rsp), %ymm1, %ymm1
vxorpd -96(%rsp), %xmm12, %xmm2
vsubsd -80(%rsp), %xmm2, %xmm2
vaddpd 1376(%rsp), %ymm0, %ymm0
vaddpd 1408(%rsp), %ymm1, %ymm1
vmovupd %ymm0, 1080(%rax)
vmovupd %ymm1, 1112(%rax)
vaddsd 480(%rsp), %xmm2, %xmm0
vmovsd %xmm0, 1144(%rax)
vxorpd 704(%rsp), %ymm3, %ymm0
vmovupd %ymm0, 1152(%rax)
vxorpd 672(%rsp), %ymm3, %ymm0
vmovupd %ymm0, 1184(%rax)
vxorpd -64(%rsp), %xmm12, %xmm0
vmovlpd %xmm0, 1216(%rax)
vmovups 1024(%rsp), %ymm0
vmovsd %xmm0, 1224(%rax)
vmovups 1056(%rsp), %ymm0
vmovups %ymm0, 1232(%rax)
vmovups 640(%rsp), %ymm0
vmovups %ymm0, 1264(%rax)
vxorpd 352(%rsp), %ymm3, %ymm0
vxorpd 1280(%rsp), %ymm3, %ymm1
vxorpd 608(%rsp), %xmm12, %xmm2
vsubpd 576(%rsp), %ymm0, %ymm0
vsubpd 224(%rsp), %ymm1, %ymm1
vsubsd 192(%rsp), %xmm2, %xmm2
vmovupd 320(%rsp), %ymm4
vpermpd $144, %ymm4, %ymm3 # ymm3 = ymm4[0,0,1,2]
vmovupd 2176(%rsp), %ymm5
vblendpd $1, %ymm5, %ymm3, %ymm3 # ymm3 = ymm5[0],ymm3[1,2,3]
vsubpd %ymm3, %ymm0, %ymm0
vmovupd 1216(%rsp), %ymm6
vperm2f128 $33, %ymm6, %ymm4, %ymm3 # ymm3 = ymm4[2,3],ymm6[0,1]
vshufpd $5, %ymm6, %ymm3, %ymm3 # ymm3 = ymm3[1],ymm6[0],ymm3[3],ymm6[2]
vsubpd %ymm3, %ymm1, %ymm1
vextractf128 $1, %ymm6, %xmm3
vpermilpd $1, %xmm3, %xmm3 # xmm3 = xmm3[1,0]
vsubsd %xmm3, %xmm2, %xmm2
vaddpd 256(%rsp), %ymm0, %ymm0
vaddpd 160(%rsp), %ymm1, %ymm1
vaddsd 288(%rsp), %xmm2, %xmm2
vmovupd 2112(%rsp), %ymm9
vpermpd $144, %ymm9, %ymm3 # ymm3 = ymm9[0,0,1,2]
vmovupd 2144(%rsp), %ymm8
vblendpd $1, %ymm8, %ymm3, %ymm3 # ymm3 = ymm8[0],ymm3[1,2,3]
vaddpd %ymm3, %ymm0, %ymm0
vmovupd 2080(%rsp), %ymm7
vperm2f128 $33, %ymm7, %ymm9, %ymm3 # ymm3 = ymm9[2,3],ymm7[0,1]
vshufpd $5, %ymm7, %ymm3, %ymm3 # ymm3 = ymm3[1],ymm7[0],ymm3[3],ymm7[2]
vaddpd %ymm3, %ymm1, %ymm1
vmovupd %ymm0, 1296(%rax)
vmovupd %ymm1, 1328(%rax)
vextractf128 $1, %ymm7, %xmm0
vpermilpd $1, %xmm0, %xmm0 # xmm0 = xmm0[1,0]
vaddsd %xmm0, %xmm2, %xmm0
vmovsd %xmm0, 1360(%rax)
vsubsd %xmm8, %xmm5, %xmm0
vsubpd %ymm9, %ymm4, %ymm1
vsubpd %ymm7, %ymm6, %ymm2
vmovsd %xmm0, 1368(%rax)
vmovupd %ymm1, 1376(%rax)
vmovupd %ymm2, 1408(%rax)
addq $2320, %rsp # imm = 0x910
popq %rbx
popq %r12
popq %r13
popq %r14
popq %r15
vzeroupper
retq
nopw %cs:(%rax,%rax)
pushq %r15
pushq %r14
pushq %rbx
subq $1728, %rsp # imm = 0x6C0
movq (%rsi), %rdx
vmovupd 80(%rdx), %ymm12
vmovupd 112(%rdx), %ymm7
vmovupd 256(%rdx), %ymm5
vmovupd %ymm5, 160(%rsp)
vmovupd 224(%rdx), %ymm15
vbroadcastsd 72(%rdx), %ymm4
movabsq $140283456689248, %rax # imm = 0x7F96499A9460
vmulsd (%rax), %xmm4, %xmm2
vmovapd %xmm2, 256(%rsp)
vbroadcastsd (%rax), %ymm0
vmulpd %ymm0, %ymm12, %ymm1
vmulpd %ymm0, %ymm7, %ymm0
vbroadcastsd 216(%rdx), %ymm6
vmovupd %ymm6, 128(%rsp)
vbroadcastsd %xmm2, %ymm2
vmulpd %ymm2, %ymm15, %ymm3
vmulpd %ymm5, %ymm2, %ymm2
vfmadd231pd %ymm0, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm0) + ymm2
vmovupd %ymm2, 288(%rsp)
vmovsd 288(%rdx), %xmm0 # xmm0 = mem[0],zero
movabsq $140283456689256, %rax # imm = 0x7F96499A9468
vmulsd (%rax), %xmm0, %xmm5
vfmadd231pd %ymm1, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm1) + ymm3
vmovupd %ymm3, 320(%rsp)
vbroadcastsd (%rax), %ymm0
vmulpd 328(%rdx), %ymm0, %ymm1
vmulpd 296(%rdx), %ymm0, %ymm0
vbroadcastsd %xmm5, %ymm2
vmulpd %ymm7, %ymm2, %ymm3
vmulpd %ymm2, %ymm12, %ymm2
vfmadd231pd %ymm0, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm0) + ymm2
vmovupd %ymm2, 960(%rsp)
vfmadd231pd %ymm1, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm1) + ymm3
vmovupd %ymm3, 864(%rsp)
vmovupd 472(%rdx), %ymm0
vmovupd 440(%rdx), %ymm1
movabsq $140283456689264, %r9 # imm = 0x7F96499A9470
vbroadcastsd (%r9), %ymm2
vmulpd %ymm2, %ymm1, %ymm3
vmovupd %ymm3, 1152(%rsp)
vmulpd %ymm2, %ymm0, %ymm2
vmovupd %ymm2, 1120(%rsp)
movabsq $140283456689272, %r8 # imm = 0x7F96499A9478
vbroadcastsd (%r8), %ymm2
vmulpd %ymm2, %ymm0, %ymm3
vmovupd %ymm3, 1664(%rsp)
vmulpd %ymm2, %ymm1, %ymm2
vmovupd %ymm2, 1696(%rsp)
movabsq $140283456689280, %rax # imm = 0x7F96499A9480
vbroadcastsd (%rax), %ymm2
vmulpd %ymm2, %ymm0, %ymm0
vmulpd %ymm2, %ymm1, %ymm1
vmovsd 432(%rdx), %xmm2 # xmm2 = mem[0],zero
vmovsd %xmm2, -88(%rsp)
vmovupd 368(%rdx), %ymm3
vmulsd (%rax), %xmm2, %xmm2
vmovapd %xmm2, (%rsp)
vbroadcastsd 360(%rdx), %ymm8
vbroadcastsd %xmm2, %ymm6
vmulpd %ymm3, %ymm6, %ymm2
vfmadd231pd %ymm1, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm1) + ymm2
vmovupd %ymm2, 1632(%rsp)
vmovupd 400(%rdx), %ymm13
vmulpd %ymm6, %ymm13, %ymm1
vfmadd231pd %ymm0, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm0) + ymm1
vmovupd %ymm1, 1600(%rsp)
movabsq $140283456689288, %r10 # imm = 0x7F96499A9488
vmovupd 584(%rdx), %ymm0
vmovupd 616(%rdx), %ymm1
vbroadcastsd (%r10), %ymm6
vmulpd %ymm6, %ymm1, %ymm2
vmovupd %ymm2, 1280(%rsp)
vmulpd %ymm6, %ymm0, %ymm2
vmovupd %ymm2, 1088(%rsp)
movabsq $140283456689296, %rax # imm = 0x7F96499A9490
vbroadcastsd (%rax), %ymm6
vmulpd %ymm6, %ymm1, %ymm9
vmovsd 576(%rdx), %xmm1 # xmm1 = mem[0],zero
vmovsd %xmm1, -32(%rsp)
vmulsd (%rax), %xmm1, %xmm2
vmovapd %xmm2, -16(%rsp)
vmulpd %ymm6, %ymm0, %ymm0
vbroadcastsd %xmm2, %ymm6
vmulpd %ymm3, %ymm6, %ymm2
vfmadd231pd %ymm0, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm0) + ymm2
vmovupd %ymm2, 1248(%rsp)
vmulpd %ymm6, %ymm13, %ymm0
vfmadd231pd %ymm9, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm9) + ymm0
vmovupd %ymm0, 1056(%rsp)
movabsq $140283456689304, %rax # imm = 0x7F96499A9498
vmovsd 720(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovupd 760(%rdx), %ymm6
vmulsd (%rax), %xmm0, %xmm1
vbroadcastsd (%rax), %ymm9
vmulpd %ymm6, %ymm9, %ymm10
vbroadcastsd %xmm1, %ymm11
vmulpd %ymm7, %ymm11, %ymm2
vfmadd231pd %ymm10, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm10) + ymm2
vmovupd %ymm2, 800(%rsp)
vmovupd 728(%rdx), %ymm10
vmulpd %ymm9, %ymm10, %ymm9
vmulpd %ymm12, %ymm11, %ymm2
vfmadd231pd %ymm9, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm9) + ymm2
vmovupd %ymm2, 832(%rsp)
movabsq $140283456689312, %rax # imm = 0x7F96499A94A0
vbroadcastsd (%rax), %ymm9
vmulpd %ymm9, %ymm10, %ymm10
vmulpd %ymm6, %ymm9, %ymm6
vmulsd (%rax), %xmm0, %xmm2
vmovapd %xmm2, -80(%rsp)
vbroadcastsd (%rdx), %ymm0
vmovupd 40(%rdx), %ymm9
vbroadcastsd %xmm2, %ymm14
vmulpd %ymm9, %ymm14, %ymm2
vfmadd231pd %ymm6, %ymm0, %ymm2 # ymm2 = (ymm0 * ymm6) + ymm2
vmovupd %ymm2, 1184(%rsp)
vmovupd 8(%rdx), %ymm11
vmulpd %ymm11, %ymm14, %ymm2
vfmadd231pd %ymm10, %ymm0, %ymm2 # ymm2 = (ymm0 * ymm10) + ymm2
vmovupd %ymm2, 1216(%rsp)
movabsq $140283456689328, %rax # imm = 0x7F96499A94B0
vmovsd 648(%rdx), %xmm6 # xmm6 = mem[0],zero
vmulsd (%rax), %xmm6, %xmm6
vbroadcastsd %xmm6, %ymm10
vmulpd %ymm12, %ymm10, %ymm12
vmulpd %ymm7, %ymm10, %ymm2
vbroadcastsd (%rax), %ymm7
vmulpd 688(%rdx), %ymm7, %ymm10
vfmadd231pd %ymm10, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm10) + ymm2
vmovupd %ymm2, 640(%rsp)
vmulpd 656(%rdx), %ymm7, %ymm7
vfmadd231pd %ymm7, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm7) + ymm12
vmovupd %ymm12, 704(%rsp)
vmulsd %xmm4, %xmm5, %xmm2
vmovsd %xmm2, -120(%rsp)
vmulsd %xmm4, %xmm1, %xmm1
vmovapd %xmm1, 208(%rsp)
vmulsd %xmm4, %xmm6, %xmm1
vmovsd %xmm1, -112(%rsp)
movabsq $140283456689344, %rax # imm = 0x7F96499A94C0
vmulsd (%rax), %xmm0, %xmm7
vbroadcastsd (%rax), %ymm1
vmulpd %ymm1, %ymm11, %ymm4
vbroadcastsd %xmm7, %ymm5
vmulpd %ymm3, %ymm5, %ymm2
vfmadd231pd %ymm4, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm4) + ymm2
vmovupd %ymm2, 352(%rsp)
vmulpd %ymm1, %ymm9, %ymm1
vmulpd %ymm5, %ymm13, %ymm2
vfmadd231pd %ymm1, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm1) + ymm2
vmovupd %ymm2, 416(%rsp)
movabsq $140283456689392, %rax # imm = 0x7F96499A94F0
vmovsd 1152(%rdx), %xmm1 # xmm1 = mem[0],zero
vmulsd (%rax), %xmm1, %xmm1
vmovapd %xmm1, 480(%rsp)
vbroadcastsd %xmm1, %ymm1
vmulpd %ymm3, %ymm1, %ymm4
vmulpd %ymm1, %ymm13, %ymm2
vbroadcastsd (%rax), %ymm1
vmulpd 1192(%rdx), %ymm1, %ymm3
vfmadd231pd %ymm3, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm3) + ymm2
vmovupd %ymm2, 736(%rsp)
vmulpd 1160(%rdx), %ymm1, %ymm1
vfmadd231pd %ymm1, %ymm8, %ymm4 # ymm4 = (ymm8 * ymm1) + ymm4
vmovupd %ymm4, 768(%rsp)
vmovupd %ymm8, 1376(%rsp)
movabsq $140283456689360, %r11 # imm = 0x7F96499A94D0
vbroadcastsd (%r11), %ymm1
vmulpd %ymm1, %ymm15, %ymm2
vmovupd %ymm2, 992(%rsp)
vmovupd 160(%rsp), %ymm2
vmulpd %ymm1, %ymm2, %ymm1
vmovupd %ymm1, 1024(%rsp)
movabsq $140283456689368, %r14 # imm = 0x7F96499A94D8
vbroadcastsd (%r14), %ymm1
vmulpd %ymm1, %ymm2, %ymm3
vmovupd %ymm3, 1408(%rsp)
vmovapd %ymm2, %ymm3
vmulpd %ymm1, %ymm15, %ymm1
vmovupd %ymm1, 1440(%rsp)
movabsq $140283456689416, %rax # imm = 0x7F96499A9508
vmulsd (%rax), %xmm0, %xmm12
vbroadcastsd %xmm12, %ymm1
vmulpd %ymm1, %ymm15, %ymm2
vmulpd %ymm3, %ymm1, %ymm4
vbroadcastsd (%rax), %ymm1
vmulpd %ymm1, %ymm9, %ymm3
vmovupd 128(%rsp), %ymm10
vfmadd231pd %ymm3, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm3) + ymm4
vmovupd %ymm4, 160(%rsp)
vmulpd %ymm1, %ymm11, %ymm1
vfmadd231pd %ymm1, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm1) + ymm2
vmovupd %ymm2, 384(%rsp)
movabsq $140283456689400, %rbx # imm = 0x7F96499A94F8
vmovupd 1304(%rdx), %ymm1
vmovupd 1336(%rdx), %ymm3
vbroadcastsd (%rbx), %ymm4
vmulpd %ymm4, %ymm3, %ymm2
vmovupd %ymm2, 928(%rsp)
vmulpd %ymm4, %ymm1, %ymm2
vmovupd %ymm2, 896(%rsp)
movabsq $140283456689408, %rsi # imm = 0x7F96499A9500
vbroadcastsd (%rsi), %ymm4
vmulpd %ymm4, %ymm1, %ymm2
vmovupd %ymm2, 672(%rsp)
vmulpd %ymm4, %ymm3, %ymm2
vmovupd %ymm2, 448(%rsp)
movabsq $140283456689424, %rax # imm = 0x7F96499A9510
vbroadcastsd (%rax), %ymm4
vmulpd %ymm4, %ymm3, %ymm3
vmulpd %ymm4, %ymm1, %ymm4
movabsq $.rodata.cst8, %rcx
vbroadcastsd (%rcx), %ymm1
vmulpd %ymm1, %ymm11, %ymm2
vmovupd %ymm2, 96(%rsp)
vmulpd %ymm1, %ymm9, %ymm1
vmovupd %ymm1, 224(%rsp)
vmovsd 1296(%rdx), %xmm2 # xmm2 = mem[0],zero
vmulsd (%rax), %xmm2, %xmm6
vbroadcastsd %xmm6, %ymm15
vmulpd %ymm9, %ymm15, %ymm1
vmulpd %ymm11, %ymm15, %ymm9
vfmadd231pd %ymm4, %ymm0, %ymm9 # ymm9 = (ymm0 * ymm4) + ymm9
vmovupd %ymm9, 1504(%rsp)
vfmadd231pd %ymm3, %ymm0, %ymm1 # ymm1 = (ymm0 * ymm3) + ymm1
vmovapd %ymm1, %ymm11
vmovupd %ymm1, 1568(%rsp)
vmulsd -80(%rsp), %xmm0, %xmm3
vmovsd %xmm3, 40(%rsp)
vmulsd %xmm0, %xmm6, %xmm1
vmovsd %xmm1, 56(%rsp)
vmulsd (%rcx), %xmm0, %xmm6
vmovapd %xmm6, -48(%rsp)
movabsq $140283456689320, %rax # imm = 0x7F96499A94A8
vmovsd 864(%rdx), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rax), %xmm0, %xmm13
vmovsd %xmm13, 32(%rsp)
vbroadcastsd (%rax), %ymm0
vmulpd 872(%rdx), %ymm0, %ymm4
vmovupd %ymm4, 608(%rsp)
vmulpd 904(%rdx), %ymm0, %ymm5
vmovupd %ymm5, 1472(%rsp)
movabsq $140283456689336, %r15 # imm = 0x7F96499A94B8
vbroadcastsd (%r15), %ymm0
vmulpd 944(%rdx), %ymm0, %ymm4
vmovupd %ymm4, 576(%rsp)
vmulsd 256(%rsp), %xmm10, %xmm15
vmovapd %xmm15, -64(%rsp)
vmulpd 976(%rdx), %ymm0, %ymm0
vmovupd %ymm0, 544(%rsp)
vmulsd %xmm7, %xmm8, %xmm7
vmovsd %xmm7, -104(%rsp)
movabsq $140283456689352, %rcx # imm = 0x7F96499A94C8
vbroadcastsd (%rcx), %ymm0
vmulpd 152(%rdx), %ymm0, %ymm4
vmovupd %ymm4, 1312(%rsp)
vmulpd 184(%rdx), %ymm0, %ymm0
vmovupd %ymm0, 1344(%rsp)
vmulsd %xmm10, %xmm12, %xmm4
vmovsd %xmm4, -80(%rsp)
movabsq $140283456689432, %rax # imm = 0x7F96499A9518
vmovsd 1368(%rdx), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rax), %xmm0, %xmm12
vmovsd %xmm12, 48(%rsp)
vbroadcastsd (%rax), %ymm0
vmulpd 1408(%rdx), %ymm0, %ymm10
vmovupd %ymm10, 1536(%rsp)
vmulpd 1376(%rdx), %ymm0, %ymm0
vmovupd %ymm0, 256(%rsp)
movabsq $140283456689440, %rax # imm = 0x7F96499A9520
vbroadcastsd (%rax), %ymm8
vxorpd %xmm6, %xmm8, %xmm6
vsubsd %xmm3, %xmm6, %xmm6
vsubsd %xmm7, %xmm6, %xmm6
vsubsd %xmm4, %xmm6, %xmm6
vsubsd %xmm1, %xmm6, %xmm6
vaddsd %xmm6, %xmm15, %xmm6
vmovsd -120(%rsp), %xmm15 # xmm15 = mem[0],zero
vaddsd %xmm6, %xmm15, %xmm6
vmovapd 208(%rsp), %xmm7
vaddsd %xmm6, %xmm7, %xmm6
vaddsd %xmm6, %xmm13, %xmm6
vmovsd -112(%rsp), %xmm4 # xmm4 = mem[0],zero
vaddsd %xmm6, %xmm4, %xmm6
vmulsd (%rsi), %xmm2, %xmm1
vmovsd %xmm1, -96(%rsp)
vaddsd %xmm6, %xmm1, %xmm6
vaddsd %xmm6, %xmm12, %xmm1
movq (%rdi), %rsi
vmovsd 936(%rdx), %xmm3 # xmm3 = mem[0],zero
vmovsd %xmm3, 24(%rsp)
vmovsd 144(%rdx), %xmm0 # xmm0 = mem[0],zero
vmovsd %xmm0, 16(%rsp)
vmovsd 1080(%rdx), %xmm3 # xmm3 = mem[0],zero
vmovsd %xmm3, -128(%rsp)
vmovups 1120(%rdx), %ymm3
vmovups %ymm3, 512(%rsp)
vmovups 1088(%rdx), %ymm3
vmovups %ymm3, 64(%rsp)
vmovsd %xmm1, (%rsi)
vxorpd 224(%rsp), %ymm8, %ymm1
vsubpd 1184(%rsp), %ymm1, %ymm1
vsubpd 416(%rsp), %ymm1, %ymm1
vsubpd 160(%rsp), %ymm1, %ymm1
vsubpd %ymm11, %ymm1, %ymm1
vmovupd 288(%rsp), %ymm14
vaddpd %ymm1, %ymm14, %ymm1
vmovupd 864(%rsp), %ymm12
vaddpd %ymm1, %ymm12, %ymm1
vmovupd 800(%rsp), %ymm13
vaddpd %ymm1, %ymm13, %ymm1
vaddpd %ymm1, %ymm5, %ymm1
vmovupd 640(%rsp), %ymm6
vaddpd %ymm1, %ymm6, %ymm1
vaddpd 448(%rsp), %ymm1, %ymm1
vaddpd %ymm1, %ymm10, %ymm1
vmovupd %ymm1, 40(%rsi)
vxorpd 96(%rsp), %ymm8, %ymm1
vsubpd 1216(%rsp), %ymm1, %ymm1
vsubpd 352(%rsp), %ymm1, %ymm1
vsubpd 384(%rsp), %ymm1, %ymm1
vsubpd %ymm9, %ymm1, %ymm1
vmovupd 320(%rsp), %ymm10
vaddpd %ymm1, %ymm10, %ymm1
vmovupd 960(%rsp), %ymm9
vaddpd %ymm1, %ymm9, %ymm1
vmovupd 832(%rsp), %ymm5
vaddpd %ymm1, %ymm5, %ymm1
vaddpd 608(%rsp), %ymm1, %ymm1
vmovupd 704(%rsp), %ymm3
vaddpd %ymm1, %ymm3, %ymm1
vmovupd 672(%rsp), %ymm11
vaddpd %ymm1, %ymm11, %ymm1
vaddpd 256(%rsp), %ymm1, %ymm1
vmovupd %ymm1, 8(%rsi)
vmulsd (%rbx), %xmm2, %xmm1
vmovapd %xmm1, 496(%rsp)
vxorpd -64(%rsp), %xmm8, %xmm0
vmovapd %xmm0, -64(%rsp)
vsubsd %xmm15, %xmm0, %xmm2
vsubsd %xmm7, %xmm2, %xmm2
vsubsd %xmm4, %xmm2, %xmm2
vmovapd -48(%rsp), %xmm15
vaddsd %xmm2, %xmm15, %xmm2
vaddsd %xmm1, %xmm2, %xmm2
vmovsd %xmm2, 72(%rsi)
vxorpd %ymm8, %ymm14, %ymm2
vsubpd %ymm12, %ymm2, %ymm4
vsubpd %ymm13, %ymm4, %ymm4
vsubpd %ymm6, %ymm4, %ymm4
vmovupd 224(%rsp), %ymm7
vaddpd %ymm4, %ymm7, %ymm4
vaddpd 928(%rsp), %ymm4, %ymm4
vmovupd %ymm4, 112(%rsi)
vxorpd %ymm8, %ymm10, %ymm4
vsubpd %ymm9, %ymm4, %ymm13
vsubpd %ymm5, %ymm13, %ymm13
vsubpd %ymm3, %ymm13, %ymm13
vmovupd 96(%rsp), %ymm9
vaddpd %ymm13, %ymm9, %ymm13
vaddpd 896(%rsp), %ymm13, %ymm13
vmovupd %ymm13, 80(%rsi)
vmovsd 16(%rsp), %xmm0 # xmm0 = mem[0],zero
vmulsd (%rcx), %xmm0, %xmm13
movabsq $140283456689384, %rax # imm = 0x7F96499A94E8
vsubsd %xmm13, %xmm15, %xmm3
vmovupd 128(%rsp), %ymm0
vmulsd (%r14), %xmm0, %xmm5
vaddsd %xmm5, %xmm3, %xmm3
vmovsd -128(%rsp), %xmm1 # xmm1 = mem[0],zero
vmulsd (%rax), %xmm1, %xmm1
vmovsd %xmm1, 320(%rsp)
vaddsd %xmm1, %xmm3, %xmm3
vaddsd -96(%rsp), %xmm3, %xmm3
vmovsd %xmm3, 144(%rsi)
vmovupd 1344(%rsp), %ymm10
vsubpd %ymm10, %ymm7, %ymm3
vmovupd 1408(%rsp), %ymm6
vaddpd %ymm6, %ymm3, %ymm3
vbroadcastsd (%rax), %ymm7
vmulpd 512(%rsp), %ymm7, %ymm1
vmovupd %ymm1, 224(%rsp)
vaddpd %ymm1, %ymm3, %ymm3
vaddpd 448(%rsp), %ymm3, %ymm3
vmovupd %ymm3, 184(%rsi)
vmulpd 64(%rsp), %ymm7, %ymm1
vmovupd %ymm1, 288(%rsp)
vmovupd 1312(%rsp), %ymm15
vsubpd %ymm15, %ymm9, %ymm3
vmovupd 1440(%rsp), %ymm7
vaddpd %ymm7, %ymm3, %ymm3
vaddpd %ymm1, %ymm3, %ymm3
vaddpd %ymm3, %ymm11, %ymm3
vmovupd %ymm3, 152(%rsi)
vmulsd (%r11), %xmm0, %xmm1
vmovsd %xmm1, -48(%rsp)
vmovapd -64(%rsp), %xmm0
vsubsd %xmm1, %xmm0, %xmm1
vsubsd %xmm5, %xmm1, %xmm1
vsubpd 992(%rsp), %ymm4, %ymm3
vsubpd %ymm7, %ymm3, %ymm3
vsubpd 1024(%rsp), %ymm2, %ymm2
vsubpd %ymm6, %ymm2, %ymm2
vsubsd -80(%rsp), %xmm1, %xmm1
vaddsd %xmm1, %xmm13, %xmm1
vsubpd 384(%rsp), %ymm3, %ymm3
vaddpd %ymm3, %ymm15, %ymm3
vsubpd 160(%rsp), %ymm2, %ymm2
vaddpd %ymm2, %ymm10, %ymm2
vmovsd %xmm1, 216(%rsi)
vmovupd %ymm2, 256(%rsi)
vmovupd %ymm3, 224(%rsi)
vmovsd -32(%rsp), %xmm1 # xmm1 = mem[0],zero
vmulsd (%r10), %xmm1, %xmm6
vmovapd %xmm6, -32(%rsp)
vmovsd 24(%rsp), %xmm1 # xmm1 = mem[0],zero
vmulsd (%r15), %xmm1, %xmm5
vmovsd %xmm5, 128(%rsp)
vmovupd 1376(%rsp), %ymm1
vmulsd (%rsp), %xmm1, %xmm13
vmulsd 480(%rsp), %xmm1, %xmm9
vmovapd %ymm1, %ymm3
vmovsd -88(%rsp), %xmm1 # xmm1 = mem[0],zero
vmulsd (%r9), %xmm1, %xmm10
vmovsd -120(%rsp), %xmm12 # xmm12 = mem[0],zero
vsubsd %xmm12, %xmm10, %xmm2
vaddsd %xmm2, %xmm10, %xmm2
vaddsd %xmm2, %xmm13, %xmm2
vaddsd %xmm6, %xmm2, %xmm2
vaddsd %xmm5, %xmm2, %xmm2
vaddsd %xmm2, %xmm9, %xmm2
vmovapd %xmm9, (%rsp)
vmovsd %xmm2, 288(%rsi)
vmulsd -16(%rsp), %xmm3, %xmm0
vmovsd %xmm0, -16(%rsp)
vmovupd 1120(%rsp), %ymm1
vmovupd 864(%rsp), %ymm15
vsubpd %ymm15, %ymm1, %ymm2
vaddpd %ymm2, %ymm1, %ymm2
vmovupd 1600(%rsp), %ymm1
vaddpd %ymm1, %ymm2, %ymm2
vaddpd 1280(%rsp), %ymm2, %ymm2
vmovupd 544(%rsp), %ymm11
vaddpd %ymm2, %ymm11, %ymm2
vmovupd 736(%rsp), %ymm4
vaddpd %ymm4, %ymm2, %ymm2
vmovupd %ymm2, 328(%rsi)
movabsq $140283456689376, %rax # imm = 0x7F96499A94E0
vbroadcastsd (%rax), %ymm3
vmulpd 64(%rsp), %ymm3, %ymm2
vmovupd %ymm2, 64(%rsp)
vmulpd 512(%rsp), %ymm3, %ymm2
vmovupd %ymm2, 96(%rsp)
vmovupd 1152(%rsp), %ymm5
vmovupd 960(%rsp), %ymm2
vsubpd %ymm2, %ymm5, %ymm3
vaddpd %ymm3, %ymm5, %ymm3
vmovupd 1632(%rsp), %ymm14
vaddpd %ymm3, %ymm14, %ymm3
vaddpd 1088(%rsp), %ymm3, %ymm3
vmovupd 576(%rsp), %ymm7
vaddpd %ymm7, %ymm3, %ymm3
vmovupd 768(%rsp), %ymm5
vaddpd %ymm5, %ymm3, %ymm3
vmovupd %ymm3, 296(%rsi)
vxorpd %xmm8, %xmm13, %xmm3
vsubsd %xmm0, %xmm3, %xmm3
vsubsd -104(%rsp), %xmm3, %xmm3
vsubsd %xmm9, %xmm3, %xmm3
vaddsd %xmm3, %xmm12, %xmm0
vxorpd %ymm8, %ymm14, %ymm3
vsubpd 1248(%rsp), %ymm3, %ymm3
vsubpd 352(%rsp), %ymm3, %ymm3
vsubpd %ymm5, %ymm3, %ymm3
vaddpd %ymm3, %ymm2, %ymm9
vxorpd %ymm1, %ymm8, %ymm3
vmovapd %ymm1, %ymm5
vsubpd 1056(%rsp), %ymm3, %ymm3
vsubpd 416(%rsp), %ymm3, %ymm3
vsubpd %ymm4, %ymm3, %ymm3
vaddpd %ymm3, %ymm15, %ymm12
vmovsd -128(%rsp), %xmm1 # xmm1 = mem[0],zero
vmulsd (%rax), %xmm1, %xmm3
vaddsd %xmm0, %xmm3, %xmm2
vaddsd %xmm2, %xmm3, %xmm2
vmovsd %xmm2, 360(%rsi)
vmovupd 96(%rsp), %ymm1
vaddpd %ymm1, %ymm12, %ymm2
vaddpd %ymm2, %ymm1, %ymm2
vmovupd %ymm2, 400(%rsi)
vmovupd 64(%rsp), %ymm1
vaddpd %ymm1, %ymm9, %ymm2
vaddpd %ymm2, %ymm1, %ymm2
vmovupd %ymm2, 368(%rsi)
vmovsd -88(%rsp), %xmm1 # xmm1 = mem[0],zero
vmulsd (%r8), %xmm1, %xmm2
vxorpd %xmm8, %xmm10, %xmm6
vsubsd %xmm2, %xmm6, %xmm6
vsubsd %xmm13, %xmm6, %xmm6
vaddsd 128(%rsp), %xmm6, %xmm6
vmovsd %xmm6, 432(%rsi)
vmovupd 1120(%rsp), %ymm4
vxorpd %ymm4, %ymm8, %ymm6
vmovupd 1664(%rsp), %ymm9
vsubpd %ymm9, %ymm6, %ymm6
vsubpd %ymm5, %ymm6, %ymm6
vaddpd %ymm6, %ymm11, %ymm6
vmovupd %ymm6, 472(%rsi)
vmovupd 1152(%rsp), %ymm0
vxorpd %ymm0, %ymm8, %ymm6
vmovupd 1696(%rsp), %ymm12
vsubpd %ymm12, %ymm6, %ymm6
vsubpd %ymm14, %ymm6, %ymm6
vaddpd %ymm7, %ymm6, %ymm6
vmovupd %ymm6, 440(%rsi)
vaddsd %xmm2, %xmm10, %xmm1
vaddpd %ymm0, %ymm12, %ymm2
vaddpd %ymm4, %ymm9, %ymm6
vaddsd %xmm1, %xmm13, %xmm1
vaddpd %ymm5, %ymm6, %ymm5
vaddpd %ymm2, %ymm14, %ymm2
vmovapd -32(%rsp), %xmm4
vaddsd %xmm4, %xmm1, %xmm1
movq (%rdi), %rax
vmovsd %xmm1, 504(%rax)
vmovupd 1280(%rsp), %ymm6
vaddpd %ymm6, %ymm5, %ymm1
vmovupd %ymm1, 544(%rax)
vmovupd 1088(%rsp), %ymm5
vaddpd %ymm5, %ymm2, %ymm1
vmovupd %ymm1, 512(%rax)
vxorpd %xmm4, %xmm8, %xmm1
vmovsd -16(%rsp), %xmm0 # xmm0 = mem[0],zero
vsubsd %xmm0, %xmm1, %xmm1
vmovsd %xmm1, 576(%rax)
vxorpd %ymm6, %ymm8, %ymm1
vmovupd 1056(%rsp), %ymm9
vsubpd %ymm9, %ymm1, %ymm1
vmovupd %ymm1, 616(%rax)
vxorpd %ymm5, %ymm8, %ymm1
vmovupd 1248(%rsp), %ymm7
vsubpd %ymm7, %ymm1, %ymm1
vmovupd %ymm1, 584(%rax)
vmovsd -112(%rsp), %xmm11 # xmm11 = mem[0],zero
vsubsd %xmm11, %xmm4, %xmm1
vmovapd 208(%rsp), %xmm2
vaddsd %xmm1, %xmm2, %xmm1
vmovsd %xmm1, 648(%rax)
vmovupd 640(%rsp), %ymm14
vsubpd %ymm14, %ymm6, %ymm1
vmovupd 800(%rsp), %ymm4
vaddpd %ymm1, %ymm4, %ymm1
vmovupd %ymm1, 688(%rax)
vmovupd 704(%rsp), %ymm15
vsubpd %ymm15, %ymm5, %ymm1
vmovupd 832(%rsp), %ymm6
vaddpd %ymm1, %ymm6, %ymm1
vmovupd %ymm1, 656(%rax)
vxorpd %xmm2, %xmm8, %xmm1
vmovapd %xmm2, %xmm10
vmovsd 40(%rsp), %xmm5 # xmm5 = mem[0],zero
vsubsd %xmm5, %xmm1, %xmm1
vaddsd %xmm1, %xmm0, %xmm1
vxorpd %ymm4, %ymm8, %ymm2
vmovapd %ymm4, %ymm12
vmovupd 1184(%rsp), %ymm0
vsubpd %ymm0, %ymm2, %ymm2
vaddpd %ymm2, %ymm9, %ymm13
vxorpd %ymm6, %ymm8, %ymm4
vmovupd 1216(%rsp), %ymm9
vsubpd %ymm9, %ymm4, %ymm4
vaddpd %ymm4, %ymm7, %ymm4
vmovsd 32(%rsp), %xmm2 # xmm2 = mem[0],zero
vaddsd %xmm2, %xmm1, %xmm1
vmovsd %xmm1, 720(%rax)
vmovupd 1472(%rsp), %ymm7
vaddpd %ymm7, %ymm13, %ymm1
vmovupd %ymm1, 760(%rax)
vmovupd 608(%rsp), %ymm13
vaddpd %ymm4, %ymm13, %ymm1
vmovupd %ymm1, 728(%rax)
vmovsd %xmm10, 792(%rax)
vmovupd %ymm12, 832(%rax)
vmovupd %ymm6, 800(%rax)
vsubsd %xmm2, %xmm5, %xmm1
vsubpd %ymm13, %ymm9, %ymm2
vmovsd %xmm1, 864(%rax)
vsubpd %ymm7, %ymm0, %ymm1
vmovupd %ymm1, 904(%rax)
vmovupd %ymm2, 872(%rax)
vsubsd 128(%rsp), %xmm11, %xmm1
vsubpd 576(%rsp), %ymm15, %ymm2
vsubpd 544(%rsp), %ymm14, %ymm4
vmovsd %xmm1, 936(%rax)
vmovupd %ymm4, 976(%rax)
vmovupd %ymm2, 944(%rax)
vmovsd -104(%rsp), %xmm1 # xmm1 = mem[0],zero
vmovsd %xmm1, 1008(%rax)
vmovups 416(%rsp), %ymm1
vmovups %ymm1, 1048(%rax)
vmovups 352(%rsp), %ymm1
vmovups %ymm1, 1016(%rax)
vxorpd %xmm3, %xmm8, %xmm1
vsubsd 320(%rsp), %xmm1, %xmm1
vxorpd 96(%rsp), %ymm8, %ymm2
vsubpd 224(%rsp), %ymm2, %ymm2
vxorpd 64(%rsp), %ymm8, %ymm3
vsubpd 288(%rsp), %ymm3, %ymm3
vaddsd -48(%rsp), %xmm1, %xmm1
vaddpd 992(%rsp), %ymm3, %ymm3
vaddpd 1024(%rsp), %ymm2, %ymm2
vmovsd %xmm1, 1080(%rax)
vmovupd %ymm2, 1120(%rax)
vmovupd %ymm3, 1088(%rax)
vmovapd (%rsp), %xmm3
vxorpd %xmm3, %xmm8, %xmm1
vmovlpd %xmm1, 1152(%rax)
vmovupd 736(%rsp), %ymm2
vxorpd %ymm2, %ymm8, %ymm1
vmovupd %ymm1, 1192(%rax)
vmovupd 768(%rsp), %ymm4
vxorpd %ymm4, %ymm8, %ymm1
vmovupd %ymm1, 1160(%rax)
vmovsd %xmm3, 1224(%rax)
vmovupd %ymm2, 1264(%rax)
vmovupd %ymm4, 1232(%rax)
vxorpd 496(%rsp), %xmm8, %xmm1
vxorpd 896(%rsp), %ymm8, %ymm2
vxorpd 928(%rsp), %ymm8, %ymm0
vsubsd -96(%rsp), %xmm1, %xmm1
vsubpd 448(%rsp), %ymm0, %ymm0
vsubpd 672(%rsp), %ymm2, %ymm2
vmovsd 56(%rsp), %xmm5 # xmm5 = mem[0],zero
vsubsd %xmm5, %xmm1, %xmm1
vaddsd -80(%rsp), %xmm1, %xmm1
vmovupd 1568(%rsp), %ymm3
vsubpd %ymm3, %ymm0, %ymm0
vaddpd 160(%rsp), %ymm0, %ymm0
vmovupd 1504(%rsp), %ymm4
vsubpd %ymm4, %ymm2, %ymm2
vaddpd 384(%rsp), %ymm2, %ymm2
vmovsd 48(%rsp), %xmm7 # xmm7 = mem[0],zero
vaddsd %xmm7, %xmm1, %xmm1
vmovsd %xmm1, 1296(%rax)
vmovupd 1536(%rsp), %ymm6
vaddpd %ymm6, %ymm0, %ymm0
vmovupd %ymm0, 1336(%rax)
vmovupd 256(%rsp), %ymm1
vaddpd %ymm1, %ymm2, %ymm0
vmovupd %ymm0, 1304(%rax)
vsubsd %xmm7, %xmm5, %xmm0
vsubpd %ymm1, %ymm4, %ymm1
vsubpd %ymm6, %ymm3, %ymm2
movq (%rdi), %rax
vmovsd %xmm0, 1368(%rax)
vmovupd %ymm2, 1408(%rax)
vmovupd %ymm1, 1376(%rax)
addq $1728, %rsp # imm = 0x6C0
popq %rbx
popq %r14
popq %r15
vzeroupper
retq
nopw %cs:(%rax,%rax)
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment