27 #if defined(ARM_COMPUTE_ENABLE_SVE)
31 void sve_transpose_interleave_4VL_1x4(uint8_t *out,
const uint8_t *in,
size_t width,
size_t in_stride,
size_t height)
33 uint8_t *pad_row =
reinterpret_cast<uint8_t *
>(alloca(width *
sizeof(uint8_t)));
36 memset(pad_row, 0, width *
sizeof(uint8_t));
39 size_t out_stride = 4 * roundup<size_t>(height, 4) * get_vector_length<uint32_t>();
42 "cmp %x[height], #0x8\n"
47 "add x9, x10, %x[in_stride]\n"
48 "add x28, x9, %x[in_stride]\n"
49 "add x27, x28, %x[in_stride]\n"
50 "add x26, x27, %x[in_stride]\n"
51 "mov x25, %x[width]\n"
52 "cntb x24, ALL, MUL #2\n"
53 "add x23, x26, %x[in_stride]\n"
54 "add x21, x23, %x[in_stride]\n"
55 "add x20, x21, %x[in_stride]\n"
57 "add %x[in], x20, %x[in_stride]\n"
59 "sub %x[height], %x[height], #0x8\n"
62 "ld1b { z21.b }, p1/Z, [x10]\n"
63 "ld1b { z20.b }, p1/Z, [x9]\n"
66 "ld1b { z17.b }, p1/Z, [x28]\n"
67 "ld1b { z16.b }, p1/Z, [x27]\n"
68 "zip1 z4.b, z21.b, z17.b\n"
69 "zip1 z3.b, z20.b, z16.b\n"
70 "ld1b { z19.b }, p1/Z, [x26]\n"
71 "ld1b { z18.b }, p1/Z, [x23]\n"
72 "zip2 z2.b, z21.b, z17.b\n"
73 "zip2 z1.b, z20.b, z16.b\n"
74 "ld1b { z17.b }, p1/Z, [x21]\n"
75 "ld1b { z16.b }, p1/Z, [x20]\n"
76 "zip1 z0.b, z19.b, z17.b\n"
77 "zip1 z31.b, z18.b, z16.b\n"
78 "ld1b { z24.b }, p1/Z, [x10, #1, MUL VL]\n"
79 "ld1b { z20.b }, p1/Z, [x9, #1, MUL VL]\n"
80 "zip2 z30.b, z19.b, z17.b\n"
81 "zip2 z23.b, z18.b, z16.b\n"
82 "ld1b { z17.b }, p1/Z, [x28, #1, MUL VL]\n"
83 "ld1b { z16.b }, p1/Z, [x27, #1, MUL VL]\n"
84 "zip1 z22.b, z24.b, z17.b\n"
85 "zip1 z21.b, z20.b, z16.b\n"
86 "ld1b { z19.b }, p1/Z, [x26, #1, MUL VL]\n"
87 "ld1b { z18.b }, p1/Z, [x23, #1, MUL VL]\n"
88 "zip2 z29.b, z24.b, z17.b\n"
89 "zip2 z28.b, z20.b, z16.b\n"
90 "ld1b { z17.b }, p1/Z, [x21, #1, MUL VL]\n"
91 "ld1b { z16.b }, p1/Z, [x20, #1, MUL VL]\n"
92 "zip1 z27.b, z19.b, z17.b\n"
93 "zip1 z26.b, z18.b, z16.b\n"
94 "zip2 z25.b, z19.b, z17.b\n"
95 "zip2 z24.b, z18.b, z16.b\n"
96 "addvl x10, x10, #2\n"
98 "zip1 z16.b, z4.b, z3.b\n"
99 "zip2 z17.b, z4.b, z3.b\n"
100 "st1b { z16.b }, p1, [x22]\n"
101 "addvl x28, x28, #2\n"
102 "zip1 z16.b, z2.b, z1.b\n"
103 "zip2 z20.b, z2.b, z1.b\n"
104 "st1b { z17.b }, p1, [x22, #1, MUL VL]\n"
105 "addvl x27, x27, #2\n"
106 "zip1 z19.b, z0.b, z31.b\n"
107 "zip2 z18.b, z0.b, z31.b\n"
108 "st1b { z16.b }, p1, [x22, #2, MUL VL]\n"
109 "addvl x26, x26, #2\n"
110 "zip1 z17.b, z30.b, z23.b\n"
111 "zip2 z16.b, z30.b, z23.b\n"
112 "st1b { z20.b }, p1, [x22, #3, MUL VL]\n"
113 "addvl x23, x23, #2\n"
114 "st1b { z19.b }, p1, [x22, #4, MUL VL]\n"
115 "addvl x21, x21, #2\n"
116 "addvl x20, x20, #2\n"
117 "zip1 z23.b, z22.b, z21.b\n"
118 "st1b { z18.b }, p1, [x22, #5, MUL VL]\n"
119 "zip2 z22.b, z22.b, z21.b\n"
120 "zip1 z21.b, z29.b, z28.b\n"
121 "st1b { z17.b }, p1, [x22, #6, MUL VL]\n"
122 "zip2 z20.b, z29.b, z28.b\n"
123 "zip1 z19.b, z27.b, z26.b\n"
124 "st1b { z16.b }, p1, [x22, #7, MUL VL]\n"
125 "add x22, x22, %x[out_stride]\n"
126 "zip2 z18.b, z27.b, z26.b\n"
127 "zip1 z17.b, z25.b, z24.b\n"
128 "zip2 z16.b, z25.b, z24.b\n"
129 "st1b { z23.b }, p1, [x22]\n"
130 "st1b { z22.b }, p1, [x22, #1, MUL VL]\n"
131 "st1b { z21.b }, p1, [x22, #2, MUL VL]\n"
132 "st1b { z20.b }, p1, [x22, #3, MUL VL]\n"
133 "st1b { z19.b }, p1, [x22, #4, MUL VL]\n"
134 "st1b { z18.b }, p1, [x22, #5, MUL VL]\n"
135 "st1b { z17.b }, p1, [x22, #6, MUL VL]\n"
136 "st1b { z16.b }, p1, [x22, #7, MUL VL]\n"
137 "add x22, x22, %x[out_stride]\n"
142 "whilelt p0.b, XZR, x25\n"
143 "ld1b { z19.b }, p0/Z, [x10]\n"
144 "ld1b { z18.b }, p0/Z, [x9]\n"
145 "decw x25, ALL, MUL #4\n"
146 "ld1b { z17.b }, p0/Z, [x28]\n"
147 "ld1b { z16.b }, p0/Z, [x27]\n"
148 "zip1 z27.b, z19.b, z17.b\n"
149 "zip1 z26.b, z18.b, z16.b\n"
150 "ld1b { z22.b }, p0/Z, [x26]\n"
151 "ld1b { z21.b }, p0/Z, [x23]\n"
152 "zip2 z25.b, z19.b, z17.b\n"
153 "zip2 z20.b, z18.b, z16.b\n"
154 "ld1b { z19.b }, p0/Z, [x21]\n"
155 "ld1b { z16.b }, p0/Z, [x20]\n"
156 "zip1 z18.b, z22.b, z19.b\n"
157 "zip1 z17.b, z21.b, z16.b\n"
158 "zip2 z24.b, z22.b, z19.b\n"
159 "zip2 z16.b, z21.b, z16.b\n"
161 "addvl x10, x10, #1\n"
163 "addvl x28, x28, #1\n"
164 "zip1 z23.b, z27.b, z26.b\n"
165 "zip2 z22.b, z27.b, z26.b\n"
166 "addvl x27, x27, #1\n"
167 "addvl x26, x26, #1\n"
168 "zip1 z21.b, z25.b, z20.b\n"
169 "zip2 z20.b, z25.b, z20.b\n"
170 "addvl x23, x23, #1\n"
171 "addvl x21, x21, #1\n"
172 "zip1 z19.b, z18.b, z17.b\n"
173 "zip2 z18.b, z18.b, z17.b\n"
174 "addvl x20, x20, #1\n"
175 "zip1 z17.b, z24.b, z16.b\n"
176 "zip2 z16.b, z24.b, z16.b\n"
177 "st1b { z23.b }, p1, [x22]\n"
178 "st1b { z22.b }, p1, [x22, #1, MUL VL]\n"
179 "st1b { z21.b }, p1, [x22, #2, MUL VL]\n"
180 "st1b { z20.b }, p1, [x22, #3, MUL VL]\n"
181 "st1b { z19.b }, p1, [x22, #4, MUL VL]\n"
182 "st1b { z18.b }, p1, [x22, #5, MUL VL]\n"
183 "st1b { z17.b }, p1, [x22, #6, MUL VL]\n"
184 "st1b { z16.b }, p1, [x22, #7, MUL VL]\n"
185 "add x22, x22, %x[out_stride]\n"
188 "cmp %x[height], #0x8\n"
189 "addvl %x[out], %x[out], #8\n"
191 "cbz %x[height], 12f\n"
195 "add x9, x10, %x[in_stride]\n"
196 "add x28, x9, %x[in_stride]\n"
197 "mov x21, %x[width]\n"
198 "cntb x20, ALL, MUL #2\n"
199 "add x27, x28, %x[in_stride]\n"
200 "cmp %x[height], #0x3\n"
201 "add %x[in], x27, %x[in_stride]\n"
202 "csel x27, x27, %x[pad_row], GT\n"
203 "csel x28, x28, %x[pad_row], GE\n"
204 "cmp %x[height], #0x1\n"
205 "csel x9, x9, %x[pad_row], GT\n"
208 "sub %x[height], %x[height], #0x4\n"
211 "ld1b { z21.b }, p1/Z, [x10]\n"
212 "ld1b { z19.b }, p1/Z, [x9]\n"
213 "sub x21, x21, x20\n"
215 "ld1b { z17.b }, p1/Z, [x28]\n"
216 "ld1b { z16.b }, p1/Z, [x27]\n"
217 "zip1 z26.b, z21.b, z17.b\n"
218 "zip1 z25.b, z19.b, z16.b\n"
219 "ld1b { z20.b }, p1/Z, [x10, #1, MUL VL]\n"
220 "ld1b { z18.b }, p1/Z, [x9, #1, MUL VL]\n"
221 "zip2 z24.b, z21.b, z17.b\n"
222 "zip2 z19.b, z19.b, z16.b\n"
223 "ld1b { z17.b }, p1/Z, [x28, #1, MUL VL]\n"
224 "ld1b { z16.b }, p1/Z, [x27, #1, MUL VL]\n"
225 "zip1 z23.b, z20.b, z17.b\n"
226 "zip1 z22.b, z18.b, z16.b\n"
227 "zip2 z21.b, z20.b, z17.b\n"
228 "zip2 z20.b, z18.b, z16.b\n"
229 "addvl x10, x10, #2\n"
231 "zip1 z16.b, z26.b, z25.b\n"
232 "zip2 z18.b, z26.b, z25.b\n"
233 "st1b { z16.b }, p1, [x22]\n"
234 "addvl x28, x28, #2\n"
235 "zip1 z17.b, z24.b, z19.b\n"
236 "zip2 z16.b, z24.b, z19.b\n"
237 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
238 "addvl x27, x27, #2\n"
239 "st1b { z17.b }, p1, [x22, #2, MUL VL]\n"
240 "zip1 z19.b, z23.b, z22.b\n"
241 "zip2 z18.b, z23.b, z22.b\n"
242 "st1b { z16.b }, p1, [x22, #3, MUL VL]\n"
243 "add x22, x22, %x[out_stride]\n"
244 "zip1 z17.b, z21.b, z20.b\n"
245 "zip2 z16.b, z21.b, z20.b\n"
246 "st1b { z19.b }, p1, [x22]\n"
247 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
248 "st1b { z17.b }, p1, [x22, #2, MUL VL]\n"
249 "st1b { z16.b }, p1, [x22, #3, MUL VL]\n"
250 "add x22, x22, %x[out_stride]\n"
255 "whilelt p0.b, XZR, x21\n"
256 "ld1b { z20.b }, p0/Z, [x10]\n"
257 "ld1b { z21.b }, p0/Z, [x9]\n"
258 "decw x21, ALL, MUL #4\n"
259 "ld1b { z19.b }, p0/Z, [x28]\n"
260 "ld1b { z16.b }, p0/Z, [x27]\n"
261 "zip1 z18.b, z20.b, z19.b\n"
262 "zip1 z17.b, z21.b, z16.b\n"
263 "zip2 z20.b, z20.b, z19.b\n"
264 "zip2 z16.b, z21.b, z16.b\n"
266 "addvl x10, x10, #1\n"
268 "addvl x28, x28, #1\n"
269 "zip1 z19.b, z18.b, z17.b\n"
270 "zip2 z18.b, z18.b, z17.b\n"
271 "addvl x27, x27, #1\n"
272 "zip1 z17.b, z20.b, z16.b\n"
273 "zip2 z16.b, z20.b, z16.b\n"
274 "st1b { z19.b }, p1, [x22]\n"
275 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
276 "st1b { z17.b }, p1, [x22, #2, MUL VL]\n"
277 "st1b { z16.b }, p1, [x22, #3, MUL VL]\n"
278 "add x22, x22, %x[out_stride]\n"
281 "cmp %x[height], #0x1\n"
282 "addvl %x[out], %x[out], #4\n"
285 : [height]
"+&r" (height), [in]
"+&r" (in), [out]
"+&r" (out)
286 : [in_stride]
"r" (in_stride), [out_stride]
"r" (out_stride), [pad_row]
"r" (pad_row), [width]
"r" (width)
287 :
"cc",
"memory",
"p0",
"p1",
"x9",
"x10",
"x20",
"x21",
"x22",
"x23",
"x24",
"x25",
"x26",
"x27",
"x28",
"z0",
"z1",
"z2",
"z3",
"z4",
"z16",
"z17",
"z18",
"z19",
"z20",
"z21",
"z22",
"z23",
"z24",
"z25",
"z26",
"z27",
"z28",
"z29",
"z30",
"z31"
294 void Transform<4, 4, true, VLType::SVE>(
295 uint8_t *out,
const uint8_t *in,
int stride,
int x0,
int xmax,
int k0,
int kmax)
297 sve_transpose_interleave_4VL_1x4(
298 reinterpret_cast<uint8_t *
>(out),
299 reinterpret_cast<const uint8_t *
>(in + k0 * stride + x0),
300 (xmax-x0) *
sizeof(uint8_t) / 1,
301 stride *
sizeof(uint8_t),
307 void Transform<4, 4, true, VLType::SVE>(
308 int8_t *out,
const int8_t *in,
int stride,
int x0,
int xmax,
int k0,
int kmax)
310 sve_transpose_interleave_4VL_1x4(
311 reinterpret_cast<uint8_t *
>(out),
312 reinterpret_cast<const uint8_t *
>(in + k0 * stride + x0),
313 (xmax-x0) *
sizeof(int8_t) / 1,
314 stride *
sizeof(int8_t),
320 #endif // defined(ARM_COMPUTE_ENABLE_SVE)