/src/botan/src/lib/hash/sha1/sha1_x86/sha1_x86.cpp
Line | Count | Source (jump to first uncovered line) |
1 | | /* |
2 | | * SHA-1 using Intel SHA intrinsic |
3 | | * |
4 | | * Based on public domain code by Sean Gulley |
5 | | * (https://github.com/mitls/hacl-star/tree/master/experimental/hash) |
6 | | * Adapted to Botan by Jeffrey Walton. |
7 | | * |
8 | | * Further changes |
9 | | * |
10 | | * (C) 2017 Jack Lloyd |
11 | | * |
12 | | * Botan is released under the Simplified BSD License (see license.txt) |
13 | | */ |
14 | | |
15 | | #include <botan/internal/sha1.h> |
16 | | #include <immintrin.h> |
17 | | |
18 | | namespace Botan { |
19 | | |
20 | | BOTAN_FUNC_ISA("sha,ssse3,sse4.1") |
21 | | void SHA_1::sha1_compress_x86(secure_vector<uint32_t>& digest, |
22 | | const uint8_t input[], |
23 | | size_t blocks) |
24 | 0 | { |
25 | 0 | const __m128i MASK = _mm_set_epi64x(0x0001020304050607, 0x08090a0b0c0d0e0f); |
26 | 0 | const __m128i* input_mm = reinterpret_cast<const __m128i*>(input); |
27 | |
|
28 | 0 | uint32_t* state = digest.data(); |
29 | | |
30 | | // Load initial values |
31 | 0 | __m128i ABCD = _mm_loadu_si128(reinterpret_cast<__m128i*>(state)); |
32 | 0 | __m128i E0 = _mm_set_epi32(state[4], 0, 0, 0); |
33 | 0 | ABCD = _mm_shuffle_epi32(ABCD, 0x1B); |
34 | |
|
35 | 0 | while (blocks) |
36 | 0 | { |
37 | | // Save current hash |
38 | 0 | const __m128i ABCD_SAVE = ABCD; |
39 | 0 | const __m128i E0_SAVE = E0; |
40 | |
|
41 | 0 | __m128i MSG0, MSG1, MSG2, MSG3; |
42 | 0 | __m128i E1; |
43 | | |
44 | | // Rounds 0-3 |
45 | 0 | MSG0 = _mm_loadu_si128(input_mm+0); |
46 | 0 | MSG0 = _mm_shuffle_epi8(MSG0, MASK); |
47 | 0 | E0 = _mm_add_epi32(E0, MSG0); |
48 | 0 | E1 = ABCD; |
49 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 0); |
50 | | |
51 | | // Rounds 4-7 |
52 | 0 | MSG1 = _mm_loadu_si128(input_mm+1); |
53 | 0 | MSG1 = _mm_shuffle_epi8(MSG1, MASK); |
54 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG1); |
55 | 0 | E0 = ABCD; |
56 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 0); |
57 | 0 | MSG0 = _mm_sha1msg1_epu32(MSG0, MSG1); |
58 | | |
59 | | // Rounds 8-11 |
60 | 0 | MSG2 = _mm_loadu_si128(input_mm+2); |
61 | 0 | MSG2 = _mm_shuffle_epi8(MSG2, MASK); |
62 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG2); |
63 | 0 | E1 = ABCD; |
64 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 0); |
65 | 0 | MSG1 = _mm_sha1msg1_epu32(MSG1, MSG2); |
66 | 0 | MSG0 = _mm_xor_si128(MSG0, MSG2); |
67 | | |
68 | | // Rounds 12-15 |
69 | 0 | MSG3 = _mm_loadu_si128(input_mm+3); |
70 | 0 | MSG3 = _mm_shuffle_epi8(MSG3, MASK); |
71 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG3); |
72 | 0 | E0 = ABCD; |
73 | 0 | MSG0 = _mm_sha1msg2_epu32(MSG0, MSG3); |
74 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 0); |
75 | 0 | MSG2 = _mm_sha1msg1_epu32(MSG2, MSG3); |
76 | 0 | MSG1 = _mm_xor_si128(MSG1, MSG3); |
77 | | |
78 | | // Rounds 16-19 |
79 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG0); |
80 | 0 | E1 = ABCD; |
81 | 0 | MSG1 = _mm_sha1msg2_epu32(MSG1, MSG0); |
82 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 0); |
83 | 0 | MSG3 = _mm_sha1msg1_epu32(MSG3, MSG0); |
84 | 0 | MSG2 = _mm_xor_si128(MSG2, MSG0); |
85 | | |
86 | | // Rounds 20-23 |
87 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG1); |
88 | 0 | E0 = ABCD; |
89 | 0 | MSG2 = _mm_sha1msg2_epu32(MSG2, MSG1); |
90 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 1); |
91 | 0 | MSG0 = _mm_sha1msg1_epu32(MSG0, MSG1); |
92 | 0 | MSG3 = _mm_xor_si128(MSG3, MSG1); |
93 | | |
94 | | // Rounds 24-27 |
95 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG2); |
96 | 0 | E1 = ABCD; |
97 | 0 | MSG3 = _mm_sha1msg2_epu32(MSG3, MSG2); |
98 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 1); |
99 | 0 | MSG1 = _mm_sha1msg1_epu32(MSG1, MSG2); |
100 | 0 | MSG0 = _mm_xor_si128(MSG0, MSG2); |
101 | | |
102 | | // Rounds 28-31 |
103 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG3); |
104 | 0 | E0 = ABCD; |
105 | 0 | MSG0 = _mm_sha1msg2_epu32(MSG0, MSG3); |
106 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 1); |
107 | 0 | MSG2 = _mm_sha1msg1_epu32(MSG2, MSG3); |
108 | 0 | MSG1 = _mm_xor_si128(MSG1, MSG3); |
109 | | |
110 | | // Rounds 32-35 |
111 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG0); |
112 | 0 | E1 = ABCD; |
113 | 0 | MSG1 = _mm_sha1msg2_epu32(MSG1, MSG0); |
114 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 1); |
115 | 0 | MSG3 = _mm_sha1msg1_epu32(MSG3, MSG0); |
116 | 0 | MSG2 = _mm_xor_si128(MSG2, MSG0); |
117 | | |
118 | | // Rounds 36-39 |
119 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG1); |
120 | 0 | E0 = ABCD; |
121 | 0 | MSG2 = _mm_sha1msg2_epu32(MSG2, MSG1); |
122 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 1); |
123 | 0 | MSG0 = _mm_sha1msg1_epu32(MSG0, MSG1); |
124 | 0 | MSG3 = _mm_xor_si128(MSG3, MSG1); |
125 | | |
126 | | // Rounds 40-43 |
127 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG2); |
128 | 0 | E1 = ABCD; |
129 | 0 | MSG3 = _mm_sha1msg2_epu32(MSG3, MSG2); |
130 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 2); |
131 | 0 | MSG1 = _mm_sha1msg1_epu32(MSG1, MSG2); |
132 | 0 | MSG0 = _mm_xor_si128(MSG0, MSG2); |
133 | | |
134 | | // Rounds 44-47 |
135 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG3); |
136 | 0 | E0 = ABCD; |
137 | 0 | MSG0 = _mm_sha1msg2_epu32(MSG0, MSG3); |
138 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 2); |
139 | 0 | MSG2 = _mm_sha1msg1_epu32(MSG2, MSG3); |
140 | 0 | MSG1 = _mm_xor_si128(MSG1, MSG3); |
141 | | |
142 | | // Rounds 48-51 |
143 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG0); |
144 | 0 | E1 = ABCD; |
145 | 0 | MSG1 = _mm_sha1msg2_epu32(MSG1, MSG0); |
146 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 2); |
147 | 0 | MSG3 = _mm_sha1msg1_epu32(MSG3, MSG0); |
148 | 0 | MSG2 = _mm_xor_si128(MSG2, MSG0); |
149 | | |
150 | | // Rounds 52-55 |
151 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG1); |
152 | 0 | E0 = ABCD; |
153 | 0 | MSG2 = _mm_sha1msg2_epu32(MSG2, MSG1); |
154 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 2); |
155 | 0 | MSG0 = _mm_sha1msg1_epu32(MSG0, MSG1); |
156 | 0 | MSG3 = _mm_xor_si128(MSG3, MSG1); |
157 | | |
158 | | // Rounds 56-59 |
159 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG2); |
160 | 0 | E1 = ABCD; |
161 | 0 | MSG3 = _mm_sha1msg2_epu32(MSG3, MSG2); |
162 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 2); |
163 | 0 | MSG1 = _mm_sha1msg1_epu32(MSG1, MSG2); |
164 | 0 | MSG0 = _mm_xor_si128(MSG0, MSG2); |
165 | | |
166 | | // Rounds 60-63 |
167 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG3); |
168 | 0 | E0 = ABCD; |
169 | 0 | MSG0 = _mm_sha1msg2_epu32(MSG0, MSG3); |
170 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 3); |
171 | 0 | MSG2 = _mm_sha1msg1_epu32(MSG2, MSG3); |
172 | 0 | MSG1 = _mm_xor_si128(MSG1, MSG3); |
173 | | |
174 | | // Rounds 64-67 |
175 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG0); |
176 | 0 | E1 = ABCD; |
177 | 0 | MSG1 = _mm_sha1msg2_epu32(MSG1, MSG0); |
178 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 3); |
179 | 0 | MSG3 = _mm_sha1msg1_epu32(MSG3, MSG0); |
180 | 0 | MSG2 = _mm_xor_si128(MSG2, MSG0); |
181 | | |
182 | | // Rounds 68-71 |
183 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG1); |
184 | 0 | E0 = ABCD; |
185 | 0 | MSG2 = _mm_sha1msg2_epu32(MSG2, MSG1); |
186 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 3); |
187 | 0 | MSG3 = _mm_xor_si128(MSG3, MSG1); |
188 | | |
189 | | // Rounds 72-75 |
190 | 0 | E0 = _mm_sha1nexte_epu32(E0, MSG2); |
191 | 0 | E1 = ABCD; |
192 | 0 | MSG3 = _mm_sha1msg2_epu32(MSG3, MSG2); |
193 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E0, 3); |
194 | | |
195 | | // Rounds 76-79 |
196 | 0 | E1 = _mm_sha1nexte_epu32(E1, MSG3); |
197 | 0 | E0 = ABCD; |
198 | 0 | ABCD = _mm_sha1rnds4_epu32(ABCD, E1, 3); |
199 | | |
200 | | // Add values back to state |
201 | 0 | E0 = _mm_sha1nexte_epu32(E0, E0_SAVE); |
202 | 0 | ABCD = _mm_add_epi32(ABCD, ABCD_SAVE); |
203 | |
|
204 | 0 | input_mm += 4; |
205 | 0 | blocks--; |
206 | 0 | } |
207 | | |
208 | | // Save state |
209 | 0 | ABCD = _mm_shuffle_epi32(ABCD, 0x1B); |
210 | 0 | _mm_storeu_si128(reinterpret_cast<__m128i*>(state), ABCD); |
211 | 0 | state[4] = _mm_extract_epi32(E0, 3); |
212 | 0 | } |
213 | | |
214 | | } |