27 #if defined(ARM_COMPUTE_ENABLE_SVE)
31 void sve_transpose_interleave_1VL_1x4(uint8_t *out,
const uint8_t *in,
size_t width,
size_t in_stride,
size_t height)
33 uint8_t *pad_row =
reinterpret_cast<uint8_t *
>(alloca(width *
sizeof(uint8_t)));
36 memset(pad_row, 0, width *
sizeof(uint8_t));
39 size_t out_stride = 1 * roundup<size_t>(height, 4) * get_vector_length<uint32_t>();
42 "cmp %x[height], #0x8\n"
47 "add x9, x10, %x[in_stride]\n"
48 "add x28, x9, %x[in_stride]\n"
49 "add x27, x28, %x[in_stride]\n"
50 "add x26, x27, %x[in_stride]\n"
51 "mov x25, %x[width]\n"
52 "cntb x24, ALL, MUL #2\n"
53 "add x23, x26, %x[in_stride]\n"
54 "add x21, x23, %x[in_stride]\n"
55 "add x20, x21, %x[in_stride]\n"
57 "add %x[in], x20, %x[in_stride]\n"
59 "sub %x[height], %x[height], #0x8\n"
62 "ld1b { z20.b }, p1/Z, [x10]\n"
63 "ld1b { z18.b }, p1/Z, [x9]\n"
66 "ld1b { z17.b }, p1/Z, [x28]\n"
67 "ld1b { z16.b }, p1/Z, [x27]\n"
68 "zip1 z25.b, z20.b, z17.b\n"
69 "zip1 z24.b, z18.b, z16.b\n"
70 "ld1b { z21.b }, p1/Z, [x26]\n"
71 "ld1b { z19.b }, p1/Z, [x23]\n"
72 "zip2 z2.b, z20.b, z17.b\n"
73 "zip2 z1.b, z18.b, z16.b\n"
74 "ld1b { z18.b }, p1/Z, [x21]\n"
75 "ld1b { z17.b }, p1/Z, [x20]\n"
76 "zip1 z20.b, z21.b, z18.b\n"
77 "zip1 z16.b, z19.b, z17.b\n"
78 "ld1b { z0.b }, p1/Z, [x10, #1, MUL VL]\n"
79 "ld1b { z31.b }, p1/Z, [x9, #1, MUL VL]\n"
80 "zip2 z30.b, z21.b, z18.b\n"
81 "zip2 z29.b, z19.b, z17.b\n"
82 "ld1b { z23.b }, p1/Z, [x28, #1, MUL VL]\n"
83 "ld1b { z22.b }, p1/Z, [x27, #1, MUL VL]\n"
84 "zip1 z19.b, z25.b, z24.b\n"
85 "zip1 z18.b, z20.b, z16.b\n"
86 "ld1b { z28.b }, p1/Z, [x26, #1, MUL VL]\n"
87 "ld1b { z27.b }, p1/Z, [x23, #1, MUL VL]\n"
88 "zip2 z17.b, z25.b, z24.b\n"
89 "zip2 z16.b, z20.b, z16.b\n"
90 "ld1b { z21.b }, p1/Z, [x21, #1, MUL VL]\n"
91 "ld1b { z20.b }, p1/Z, [x20, #1, MUL VL]\n"
92 "st1b { z19.b }, p1, [x22]\n"
93 "zip1 z26.b, z0.b, z23.b\n"
94 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
95 "add x22, x22, %x[out_stride]\n"
96 "zip1 z25.b, z31.b, z22.b\n"
97 "zip1 z24.b, z28.b, z21.b\n"
98 "st1b { z17.b }, p1, [x22]\n"
99 "zip1 z19.b, z27.b, z20.b\n"
100 "zip1 z17.b, z2.b, z1.b\n"
101 "addvl x10, x10, #2\n"
102 "st1b { z16.b }, p1, [x22, #1, MUL VL]\n"
103 "add x22, x22, %x[out_stride]\n"
104 "zip1 z18.b, z30.b, z29.b\n"
105 "zip2 z16.b, z2.b, z1.b\n"
106 "st1b { z17.b }, p1, [x22]\n"
107 "zip2 z17.b, z30.b, z29.b\n"
108 "zip2 z23.b, z0.b, z23.b\n"
110 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
111 "add x22, x22, %x[out_stride]\n"
112 "zip2 z22.b, z31.b, z22.b\n"
113 "zip2 z21.b, z28.b, z21.b\n"
114 "st1b { z16.b }, p1, [x22]\n"
115 "zip2 z20.b, z27.b, z20.b\n"
116 "zip1 z16.b, z26.b, z25.b\n"
117 "addvl x28, x28, #2\n"
118 "st1b { z17.b }, p1, [x22, #1, MUL VL]\n"
119 "add x22, x22, %x[out_stride]\n"
120 "zip1 z18.b, z24.b, z19.b\n"
121 "zip2 z17.b, z26.b, z25.b\n"
122 "st1b { z16.b }, p1, [x22]\n"
123 "zip2 z16.b, z24.b, z19.b\n"
124 "zip1 z19.b, z23.b, z22.b\n"
125 "addvl x27, x27, #2\n"
126 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
127 "add x22, x22, %x[out_stride]\n"
128 "zip1 z18.b, z21.b, z20.b\n"
129 "addvl x26, x26, #2\n"
130 "st1b { z17.b }, p1, [x22]\n"
131 "addvl x23, x23, #2\n"
132 "addvl x21, x21, #2\n"
133 "zip2 z17.b, z23.b, z22.b\n"
134 "st1b { z16.b }, p1, [x22, #1, MUL VL]\n"
135 "add x22, x22, %x[out_stride]\n"
136 "addvl x20, x20, #2\n"
137 "zip2 z16.b, z21.b, z20.b\n"
138 "st1b { z19.b }, p1, [x22]\n"
139 "st1b { z18.b }, p1, [x22, #1, MUL VL]\n"
140 "add x22, x22, %x[out_stride]\n"
141 "st1b { z17.b }, p1, [x22]\n"
142 "st1b { z16.b }, p1, [x22, #1, MUL VL]\n"
143 "add x22, x22, %x[out_stride]\n"
148 "whilelt p0.b, XZR, x25\n"
149 "ld1b { z19.b }, p0/Z, [x10]\n"
150 "ld1b { z18.b }, p0/Z, [x9]\n"
152 "ld1b { z17.b }, p0/Z, [x28]\n"
153 "ld1b { z16.b }, p0/Z, [x27]\n"
154 "zip1 z21.b, z19.b, z17.b\n"
155 "zip1 z20.b, z18.b, z16.b\n"
156 "ld1b { z18.b }, p0/Z, [x26]\n"
157 "ld1b { z19.b }, p0/Z, [x23]\n"
159 "incd x10, ALL, MUL #2\n"
160 "ld1b { z17.b }, p0/Z, [x21]\n"
161 "ld1b { z16.b }, p0/Z, [x20]\n"
162 "zip1 z18.b, z18.b, z17.b\n"
163 "zip1 z16.b, z19.b, z16.b\n"
164 "incd x9, ALL, MUL #2\n"
165 "incd x28, ALL, MUL #2\n"
166 "zip1 z17.b, z21.b, z20.b\n"
167 "zip1 z16.b, z18.b, z16.b\n"
168 "incd x27, ALL, MUL #2\n"
169 "incd x26, ALL, MUL #2\n"
170 "st1b { z17.b }, p1, [x22]\n"
171 "incd x23, ALL, MUL #2\n"
172 "incd x21, ALL, MUL #2\n"
173 "st1b { z16.b }, p1, [x22, #1, MUL VL]\n"
174 "incd x20, ALL, MUL #2\n"
175 "add x22, x22, %x[out_stride]\n"
178 "cmp %x[height], #0x8\n"
179 "addvl %x[out], %x[out], #2\n"
181 "cbz %x[height], 12f\n"
185 "add x9, x10, %x[in_stride]\n"
186 "add x28, x9, %x[in_stride]\n"
187 "mov x21, %x[width]\n"
188 "cntb x20, ALL, MUL #2\n"
189 "add x27, x28, %x[in_stride]\n"
190 "cmp %x[height], #0x3\n"
191 "add %x[in], x27, %x[in_stride]\n"
192 "csel x27, x27, %x[pad_row], GT\n"
193 "csel x28, x28, %x[pad_row], GE\n"
194 "cmp %x[height], #0x1\n"
195 "csel x9, x9, %x[pad_row], GT\n"
198 "sub %x[height], %x[height], #0x4\n"
201 "ld1b { z21.b }, p1/Z, [x10]\n"
202 "ld1b { z18.b }, p1/Z, [x9]\n"
203 "sub x21, x21, x20\n"
205 "ld1b { z17.b }, p1/Z, [x28]\n"
206 "ld1b { z16.b }, p1/Z, [x27]\n"
207 "zip1 z20.b, z21.b, z17.b\n"
208 "zip1 z19.b, z18.b, z16.b\n"
209 "ld1b { z24.b }, p1/Z, [x10, #1, MUL VL]\n"
210 "ld1b { z23.b }, p1/Z, [x9, #1, MUL VL]\n"
211 "zip2 z22.b, z21.b, z17.b\n"
212 "zip2 z21.b, z18.b, z16.b\n"
213 "ld1b { z18.b }, p1/Z, [x28, #1, MUL VL]\n"
214 "ld1b { z17.b }, p1/Z, [x27, #1, MUL VL]\n"
215 "zip1 z16.b, z20.b, z19.b\n"
216 "st1b { z16.b }, p1, [x22]\n"
217 "add x22, x22, %x[out_stride]\n"
218 "zip2 z16.b, z20.b, z19.b\n"
219 "st1b { z16.b }, p1, [x22]\n"
220 "add x22, x22, %x[out_stride]\n"
221 "zip1 z20.b, z24.b, z18.b\n"
222 "zip1 z19.b, z23.b, z17.b\n"
223 "addvl x10, x10, #2\n"
225 "zip1 z16.b, z22.b, z21.b\n"
226 "st1b { z16.b }, p1, [x22]\n"
227 "add x22, x22, %x[out_stride]\n"
228 "zip2 z16.b, z22.b, z21.b\n"
229 "st1b { z16.b }, p1, [x22]\n"
230 "add x22, x22, %x[out_stride]\n"
231 "zip2 z18.b, z24.b, z18.b\n"
232 "zip2 z17.b, z23.b, z17.b\n"
233 "zip1 z16.b, z20.b, z19.b\n"
234 "st1b { z16.b }, p1, [x22]\n"
235 "add x22, x22, %x[out_stride]\n"
236 "zip2 z16.b, z20.b, z19.b\n"
237 "st1b { z16.b }, p1, [x22]\n"
238 "add x22, x22, %x[out_stride]\n"
239 "zip1 z16.b, z18.b, z17.b\n"
240 "addvl x28, x28, #2\n"
241 "st1b { z16.b }, p1, [x22]\n"
242 "add x22, x22, %x[out_stride]\n"
243 "addvl x27, x27, #2\n"
244 "zip2 z16.b, z18.b, z17.b\n"
245 "st1b { z16.b }, p1, [x22]\n"
246 "add x22, x22, %x[out_stride]\n"
251 "whilelt p0.b, XZR, x21\n"
252 "ld1b { z19.b }, p0/Z, [x10]\n"
253 "ld1b { z18.b }, p0/Z, [x9]\n"
255 "ld1b { z17.b }, p0/Z, [x28]\n"
256 "ld1b { z16.b }, p0/Z, [x27]\n"
257 "zip1 z17.b, z19.b, z17.b\n"
258 "zip1 z16.b, z18.b, z16.b\n"
260 "incd x10, ALL, MUL #2\n"
261 "zip1 z16.b, z17.b, z16.b\n"
262 "st1b { z16.b }, p1, [x22]\n"
263 "incd x9, ALL, MUL #2\n"
264 "incd x28, ALL, MUL #2\n"
265 "incd x27, ALL, MUL #2\n"
266 "add x22, x22, %x[out_stride]\n"
269 "cmp %x[height], #0x1\n"
270 "addvl %x[out], %x[out], #1\n"
273 : [height]
"+&r" (height), [in]
"+&r" (in), [out]
"+&r" (out)
274 : [in_stride]
"r" (in_stride), [out_stride]
"r" (out_stride), [pad_row]
"r" (pad_row), [width]
"r" (width)
275 :
"cc",
"memory",
"p0",
"p1",
"x9",
"x10",
"x20",
"x21",
"x22",
"x23",
"x24",
"x25",
"x26",
"x27",
"x28",
"z0",
"z1",
"z2",
"z16",
"z17",
"z18",
"z19",
"z20",
"z21",
"z22",
"z23",
"z24",
"z25",
"z26",
"z27",
"z28",
"z29",
"z30",
"z31"
282 void Transform<1, 4, true, VLType::SVE>(
283 uint8_t *out,
const uint8_t *in,
int stride,
int x0,
int xmax,
int k0,
int kmax)
285 sve_transpose_interleave_1VL_1x4(
286 reinterpret_cast<uint8_t *
>(out),
287 reinterpret_cast<const uint8_t *
>(in + k0 * stride + x0),
288 (xmax-x0) *
sizeof(uint8_t) / 1,
289 stride *
sizeof(uint8_t),
295 void Transform<1, 4, true, VLType::SVE>(
296 int8_t *out,
const int8_t *in,
int stride,
int x0,
int xmax,
int k0,
int kmax)
298 sve_transpose_interleave_1VL_1x4(
299 reinterpret_cast<uint8_t *
>(out),
300 reinterpret_cast<const uint8_t *
>(in + k0 * stride + x0),
301 (xmax-x0) *
sizeof(int8_t) / 1,
302 stride *
sizeof(int8_t),
308 #endif // defined(ARM_COMPUTE_ENABLE_SVE)