Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright 2016 6WIND S.A.
3 : : * Copyright 2016 Mellanox Technologies, Ltd
4 : : */
5 : :
6 : : #include <stdalign.h>
7 : : #include <errno.h>
8 : : #include <stddef.h>
9 : : #include <stdint.h>
10 : : #include <pthread.h>
11 : :
12 : : #include <eal_export.h>
13 : : #include <rte_common.h>
14 : : #include <rte_errno.h>
15 : : #include <rte_branch_prediction.h>
16 : : #include <rte_string_fns.h>
17 : : #include <rte_mbuf_dyn.h>
18 : : #include "rte_flow_driver.h"
19 : : #include "rte_flow.h"
20 : :
21 : : #include "ethdev_trace.h"
22 : :
23 : : #define FLOW_LOG RTE_ETHDEV_LOG_LINE
24 : :
25 : : /* Mbuf dynamic field name for metadata. */
26 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dynf_metadata_offs, 19.11)
27 : : int32_t rte_flow_dynf_metadata_offs = -1;
28 : :
29 : : /* Mbuf dynamic field flag bit number for metadata. */
30 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dynf_metadata_mask, 19.11)
31 : : uint64_t rte_flow_dynf_metadata_mask;
32 : :
33 : : /**
34 : : * Flow elements description tables.
35 : : */
36 : : struct rte_flow_desc_data {
37 : : const char *name;
38 : : size_t size;
39 : : size_t (*desc_fn)(void *dst, const void *src);
40 : : };
41 : :
42 : : /**
43 : : *
44 : : * @param buf
45 : : * Destination memory.
46 : : * @param data
47 : : * Source memory
48 : : * @param size
49 : : * Requested copy size
50 : : * @param desc
51 : : * rte_flow_desc_item - for flow item conversion.
52 : : * rte_flow_desc_action - for flow action conversion.
53 : : * @param type
54 : : * Offset into the desc param or negative value for private flow elements.
55 : : */
56 : : static inline size_t
57 : 0 : rte_flow_conv_copy(void *buf, const void *data, const size_t size,
58 : : const struct rte_flow_desc_data *desc, int type)
59 : : {
60 : : /**
61 : : * Allow PMD private flow item
62 : : */
63 : : bool rte_type = type >= 0;
64 : :
65 [ # # ]: 0 : size_t sz = rte_type ? desc[type].size : sizeof(void *);
66 [ # # ]: 0 : if (data == NULL)
67 : : return 0;
68 [ # # ]: 0 : if (buf != NULL)
69 [ # # ]: 0 : rte_memcpy(buf, data, (size > sz ? sz : size));
70 [ # # # # ]: 0 : if (rte_type && desc[type].desc_fn)
71 [ # # ]: 0 : sz += desc[type].desc_fn(size > 0 ? buf : NULL, data);
72 : : return sz;
73 : : }
74 : :
75 : : static size_t
76 : 0 : rte_flow_item_flex_conv(void *buf, const void *data)
77 : : {
78 : : struct rte_flow_item_flex *dst = buf;
79 : : const struct rte_flow_item_flex *src = data;
80 [ # # ]: 0 : if (buf) {
81 : 0 : dst->pattern = rte_memcpy
82 : 0 : ((void *)((uintptr_t)(dst + 1)), src->pattern,
83 [ # # ]: 0 : src->length);
84 : : }
85 : 0 : return src->length;
86 : : }
87 : :
88 : : /** Generate flow_item[] entry. */
89 : : #define MK_FLOW_ITEM(t, s) \
90 : : [RTE_FLOW_ITEM_TYPE_ ## t] = { \
91 : : .name = # t, \
92 : : .size = s, \
93 : : .desc_fn = NULL,\
94 : : }
95 : :
96 : : #define MK_FLOW_ITEM_FN(t, s, fn) \
97 : : [RTE_FLOW_ITEM_TYPE_ ## t] = {\
98 : : .name = # t, \
99 : : .size = s, \
100 : : .desc_fn = fn, \
101 : : }
102 : :
103 : : /** Information about known flow pattern items. */
104 : : static const struct rte_flow_desc_data rte_flow_desc_item[] = {
105 : : MK_FLOW_ITEM(END, 0),
106 : : MK_FLOW_ITEM(VOID, 0),
107 : : MK_FLOW_ITEM(INVERT, 0),
108 : : MK_FLOW_ITEM(ANY, sizeof(struct rte_flow_item_any)),
109 : : MK_FLOW_ITEM(PORT_ID, sizeof(struct rte_flow_item_port_id)),
110 : : MK_FLOW_ITEM(RAW, sizeof(struct rte_flow_item_raw)),
111 : : MK_FLOW_ITEM(ETH, sizeof(struct rte_flow_item_eth)),
112 : : MK_FLOW_ITEM(VLAN, sizeof(struct rte_flow_item_vlan)),
113 : : MK_FLOW_ITEM(IPV4, sizeof(struct rte_flow_item_ipv4)),
114 : : MK_FLOW_ITEM(IPV6, sizeof(struct rte_flow_item_ipv6)),
115 : : MK_FLOW_ITEM(ICMP, sizeof(struct rte_flow_item_icmp)),
116 : : MK_FLOW_ITEM(UDP, sizeof(struct rte_flow_item_udp)),
117 : : MK_FLOW_ITEM(TCP, sizeof(struct rte_flow_item_tcp)),
118 : : MK_FLOW_ITEM(SCTP, sizeof(struct rte_flow_item_sctp)),
119 : : MK_FLOW_ITEM(VXLAN, sizeof(struct rte_flow_item_vxlan)),
120 : : MK_FLOW_ITEM(E_TAG, sizeof(struct rte_flow_item_e_tag)),
121 : : MK_FLOW_ITEM(NVGRE, sizeof(struct rte_flow_item_nvgre)),
122 : : MK_FLOW_ITEM(MPLS, sizeof(struct rte_flow_item_mpls)),
123 : : MK_FLOW_ITEM(GRE, sizeof(struct rte_flow_item_gre)),
124 : : MK_FLOW_ITEM(FUZZY, sizeof(struct rte_flow_item_fuzzy)),
125 : : MK_FLOW_ITEM(GTP, sizeof(struct rte_flow_item_gtp)),
126 : : MK_FLOW_ITEM(GTPC, sizeof(struct rte_flow_item_gtp)),
127 : : MK_FLOW_ITEM(GTPU, sizeof(struct rte_flow_item_gtp)),
128 : : MK_FLOW_ITEM(ESP, sizeof(struct rte_flow_item_esp)),
129 : : MK_FLOW_ITEM(GENEVE, sizeof(struct rte_flow_item_geneve)),
130 : : MK_FLOW_ITEM(VXLAN_GPE, sizeof(struct rte_flow_item_vxlan_gpe)),
131 : : MK_FLOW_ITEM(ARP_ETH_IPV4, sizeof(struct rte_flow_item_arp_eth_ipv4)),
132 : : MK_FLOW_ITEM(IPV6_EXT, sizeof(struct rte_flow_item_ipv6_ext)),
133 : : MK_FLOW_ITEM(IPV6_FRAG_EXT, sizeof(struct rte_flow_item_ipv6_frag_ext)),
134 : : MK_FLOW_ITEM(ICMP6, sizeof(struct rte_flow_item_icmp6)),
135 : : MK_FLOW_ITEM(ICMP6_ECHO_REQUEST, sizeof(struct rte_flow_item_icmp6_echo)),
136 : : MK_FLOW_ITEM(ICMP6_ECHO_REPLY, sizeof(struct rte_flow_item_icmp6_echo)),
137 : : MK_FLOW_ITEM(ICMP6_ND_NS, sizeof(struct rte_flow_item_icmp6_nd_ns)),
138 : : MK_FLOW_ITEM(ICMP6_ND_NA, sizeof(struct rte_flow_item_icmp6_nd_na)),
139 : : MK_FLOW_ITEM(ICMP6_ND_OPT, sizeof(struct rte_flow_item_icmp6_nd_opt)),
140 : : MK_FLOW_ITEM(ICMP6_ND_OPT_SLA_ETH,
141 : : sizeof(struct rte_flow_item_icmp6_nd_opt_sla_eth)),
142 : : MK_FLOW_ITEM(ICMP6_ND_OPT_TLA_ETH,
143 : : sizeof(struct rte_flow_item_icmp6_nd_opt_tla_eth)),
144 : : MK_FLOW_ITEM(MARK, sizeof(struct rte_flow_item_mark)),
145 : : MK_FLOW_ITEM(META, sizeof(struct rte_flow_item_meta)),
146 : : MK_FLOW_ITEM(RANDOM, sizeof(struct rte_flow_item_random)),
147 : : MK_FLOW_ITEM(TAG, sizeof(struct rte_flow_item_tag)),
148 : : MK_FLOW_ITEM(GRE_KEY, sizeof(rte_be32_t)),
149 : : MK_FLOW_ITEM(GRE_OPTION, sizeof(struct rte_flow_item_gre_opt)),
150 : : MK_FLOW_ITEM(GTP_PSC, sizeof(struct rte_flow_item_gtp_psc)),
151 : : MK_FLOW_ITEM(PPPOES, sizeof(struct rte_flow_item_pppoe)),
152 : : MK_FLOW_ITEM(PPPOED, sizeof(struct rte_flow_item_pppoe)),
153 : : MK_FLOW_ITEM(PPPOE_PROTO_ID,
154 : : sizeof(struct rte_flow_item_pppoe_proto_id)),
155 : : MK_FLOW_ITEM(NSH, sizeof(struct rte_flow_item_nsh)),
156 : : MK_FLOW_ITEM(IGMP, sizeof(struct rte_flow_item_igmp)),
157 : : MK_FLOW_ITEM(AH, sizeof(struct rte_flow_item_ah)),
158 : : MK_FLOW_ITEM(HIGIG2, sizeof(struct rte_flow_item_higig2_hdr)),
159 : : MK_FLOW_ITEM(L2TPV3OIP, sizeof(struct rte_flow_item_l2tpv3oip)),
160 : : MK_FLOW_ITEM(PFCP, sizeof(struct rte_flow_item_pfcp)),
161 : : MK_FLOW_ITEM(ECPRI, sizeof(struct rte_flow_item_ecpri)),
162 : : MK_FLOW_ITEM(GENEVE_OPT, sizeof(struct rte_flow_item_geneve_opt)),
163 : : MK_FLOW_ITEM(INTEGRITY, sizeof(struct rte_flow_item_integrity)),
164 : : MK_FLOW_ITEM(CONNTRACK, sizeof(uint32_t)),
165 : : MK_FLOW_ITEM(PORT_REPRESENTOR, sizeof(struct rte_flow_item_ethdev)),
166 : : MK_FLOW_ITEM(REPRESENTED_PORT, sizeof(struct rte_flow_item_ethdev)),
167 : : MK_FLOW_ITEM_FN(FLEX, sizeof(struct rte_flow_item_flex),
168 : : rte_flow_item_flex_conv),
169 : : MK_FLOW_ITEM(L2TPV2, sizeof(struct rte_flow_item_l2tpv2)),
170 : : MK_FLOW_ITEM(PPP, sizeof(struct rte_flow_item_ppp)),
171 : : MK_FLOW_ITEM(METER_COLOR, sizeof(struct rte_flow_item_meter_color)),
172 : : MK_FLOW_ITEM(IPV6_ROUTING_EXT, sizeof(struct rte_flow_item_ipv6_routing_ext)),
173 : : MK_FLOW_ITEM(QUOTA, sizeof(struct rte_flow_item_quota)),
174 : : MK_FLOW_ITEM(AGGR_AFFINITY, sizeof(struct rte_flow_item_aggr_affinity)),
175 : : MK_FLOW_ITEM(TX_QUEUE, sizeof(struct rte_flow_item_tx_queue)),
176 : : MK_FLOW_ITEM(IB_BTH, sizeof(struct rte_flow_item_ib_bth)),
177 : : MK_FLOW_ITEM(PTYPE, sizeof(struct rte_flow_item_ptype)),
178 : : MK_FLOW_ITEM(COMPARE, sizeof(struct rte_flow_item_compare)),
179 : : };
180 : :
181 : : /** Generate flow_action[] entry. */
182 : : #define MK_FLOW_ACTION(t, s) \
183 : : [RTE_FLOW_ACTION_TYPE_ ## t] = { \
184 : : .name = # t, \
185 : : .size = s, \
186 : : .desc_fn = NULL,\
187 : : }
188 : :
189 : : #define MK_FLOW_ACTION_FN(t, fn) \
190 : : [RTE_FLOW_ACTION_TYPE_ ## t] = { \
191 : : .name = # t, \
192 : : .size = 0, \
193 : : .desc_fn = fn,\
194 : : }
195 : :
196 : :
197 : : /** Information about known flow actions. */
198 : : static const struct rte_flow_desc_data rte_flow_desc_action[] = {
199 : : MK_FLOW_ACTION(END, 0),
200 : : MK_FLOW_ACTION(VOID, 0),
201 : : MK_FLOW_ACTION(PASSTHRU, 0),
202 : : MK_FLOW_ACTION(JUMP, sizeof(struct rte_flow_action_jump)),
203 : : MK_FLOW_ACTION(MARK, sizeof(struct rte_flow_action_mark)),
204 : : MK_FLOW_ACTION(FLAG, 0),
205 : : MK_FLOW_ACTION(QUEUE, sizeof(struct rte_flow_action_queue)),
206 : : MK_FLOW_ACTION(DROP, 0),
207 : : MK_FLOW_ACTION(COUNT, sizeof(struct rte_flow_action_count)),
208 : : MK_FLOW_ACTION(RSS, sizeof(struct rte_flow_action_rss)),
209 : : MK_FLOW_ACTION(PF, 0),
210 : : MK_FLOW_ACTION(VF, sizeof(struct rte_flow_action_vf)),
211 : : MK_FLOW_ACTION(PORT_ID, sizeof(struct rte_flow_action_port_id)),
212 : : MK_FLOW_ACTION(METER, sizeof(struct rte_flow_action_meter)),
213 : : MK_FLOW_ACTION(SECURITY, sizeof(struct rte_flow_action_security)),
214 : : MK_FLOW_ACTION(OF_DEC_NW_TTL, 0),
215 : : MK_FLOW_ACTION(OF_POP_VLAN, 0),
216 : : MK_FLOW_ACTION(OF_PUSH_VLAN,
217 : : sizeof(struct rte_flow_action_of_push_vlan)),
218 : : MK_FLOW_ACTION(OF_SET_VLAN_VID,
219 : : sizeof(struct rte_flow_action_of_set_vlan_vid)),
220 : : MK_FLOW_ACTION(OF_SET_VLAN_PCP,
221 : : sizeof(struct rte_flow_action_of_set_vlan_pcp)),
222 : : MK_FLOW_ACTION(OF_POP_MPLS,
223 : : sizeof(struct rte_flow_action_of_pop_mpls)),
224 : : MK_FLOW_ACTION(OF_PUSH_MPLS,
225 : : sizeof(struct rte_flow_action_of_push_mpls)),
226 : : MK_FLOW_ACTION(VXLAN_ENCAP, sizeof(struct rte_flow_action_vxlan_encap)),
227 : : MK_FLOW_ACTION(VXLAN_DECAP, 0),
228 : : MK_FLOW_ACTION(NVGRE_ENCAP, sizeof(struct rte_flow_action_nvgre_encap)),
229 : : MK_FLOW_ACTION(NVGRE_DECAP, 0),
230 : : MK_FLOW_ACTION(RAW_ENCAP, sizeof(struct rte_flow_action_raw_encap)),
231 : : MK_FLOW_ACTION(RAW_DECAP, sizeof(struct rte_flow_action_raw_decap)),
232 : : MK_FLOW_ACTION(SET_IPV4_SRC,
233 : : sizeof(struct rte_flow_action_set_ipv4)),
234 : : MK_FLOW_ACTION(SET_IPV4_DST,
235 : : sizeof(struct rte_flow_action_set_ipv4)),
236 : : MK_FLOW_ACTION(SET_IPV6_SRC,
237 : : sizeof(struct rte_flow_action_set_ipv6)),
238 : : MK_FLOW_ACTION(SET_IPV6_DST,
239 : : sizeof(struct rte_flow_action_set_ipv6)),
240 : : MK_FLOW_ACTION(SET_TP_SRC,
241 : : sizeof(struct rte_flow_action_set_tp)),
242 : : MK_FLOW_ACTION(SET_TP_DST,
243 : : sizeof(struct rte_flow_action_set_tp)),
244 : : MK_FLOW_ACTION(MAC_SWAP, 0),
245 : : MK_FLOW_ACTION(DEC_TTL, 0),
246 : : MK_FLOW_ACTION(SET_TTL, sizeof(struct rte_flow_action_set_ttl)),
247 : : MK_FLOW_ACTION(SET_MAC_SRC, sizeof(struct rte_flow_action_set_mac)),
248 : : MK_FLOW_ACTION(SET_MAC_DST, sizeof(struct rte_flow_action_set_mac)),
249 : : MK_FLOW_ACTION(INC_TCP_SEQ, sizeof(rte_be32_t)),
250 : : MK_FLOW_ACTION(DEC_TCP_SEQ, sizeof(rte_be32_t)),
251 : : MK_FLOW_ACTION(INC_TCP_ACK, sizeof(rte_be32_t)),
252 : : MK_FLOW_ACTION(DEC_TCP_ACK, sizeof(rte_be32_t)),
253 : : MK_FLOW_ACTION(SET_TAG, sizeof(struct rte_flow_action_set_tag)),
254 : : MK_FLOW_ACTION(SET_META, sizeof(struct rte_flow_action_set_meta)),
255 : : MK_FLOW_ACTION(SET_IPV4_DSCP, sizeof(struct rte_flow_action_set_dscp)),
256 : : MK_FLOW_ACTION(SET_IPV6_DSCP, sizeof(struct rte_flow_action_set_dscp)),
257 : : MK_FLOW_ACTION(AGE, sizeof(struct rte_flow_action_age)),
258 : : MK_FLOW_ACTION(SAMPLE, sizeof(struct rte_flow_action_sample)),
259 : : MK_FLOW_ACTION(MODIFY_FIELD,
260 : : sizeof(struct rte_flow_action_modify_field)),
261 : : /**
262 : : * Indirect action represented as handle of type
263 : : * (struct rte_flow_action_handle *) stored in conf field (see
264 : : * struct rte_flow_action); no need for additional structure to * store
265 : : * indirect action handle.
266 : : */
267 : : MK_FLOW_ACTION(INDIRECT, 0),
268 : : MK_FLOW_ACTION(CONNTRACK, sizeof(struct rte_flow_action_conntrack)),
269 : : MK_FLOW_ACTION(PORT_REPRESENTOR, sizeof(struct rte_flow_action_ethdev)),
270 : : MK_FLOW_ACTION(REPRESENTED_PORT, sizeof(struct rte_flow_action_ethdev)),
271 : : MK_FLOW_ACTION(METER_MARK, sizeof(struct rte_flow_action_meter_mark)),
272 : : MK_FLOW_ACTION(SEND_TO_KERNEL, 0),
273 : : MK_FLOW_ACTION(QUOTA, sizeof(struct rte_flow_action_quota)),
274 : : MK_FLOW_ACTION(IPV6_EXT_PUSH, sizeof(struct rte_flow_action_ipv6_ext_push)),
275 : : MK_FLOW_ACTION(IPV6_EXT_REMOVE, sizeof(struct rte_flow_action_ipv6_ext_remove)),
276 : : MK_FLOW_ACTION(INDIRECT_LIST,
277 : : sizeof(struct rte_flow_action_indirect_list)),
278 : : MK_FLOW_ACTION(PROG,
279 : : sizeof(struct rte_flow_action_prog)),
280 : : MK_FLOW_ACTION(NAT64, sizeof(struct rte_flow_action_nat64)),
281 : : MK_FLOW_ACTION(JUMP_TO_TABLE_INDEX, sizeof(struct rte_flow_action_jump_to_table_index)),
282 : : };
283 : :
284 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dynf_metadata_register, 19.11)
285 : : int
286 : 0 : rte_flow_dynf_metadata_register(void)
287 : : {
288 : : int offset;
289 : : int flag;
290 : :
291 : : static const struct rte_mbuf_dynfield desc_offs = {
292 : : .name = RTE_MBUF_DYNFIELD_METADATA_NAME,
293 : : .size = sizeof(uint32_t),
294 : : .align = alignof(uint32_t),
295 : : };
296 : : static const struct rte_mbuf_dynflag desc_flag = {
297 : : .name = RTE_MBUF_DYNFLAG_METADATA_NAME,
298 : : };
299 : :
300 : 0 : offset = rte_mbuf_dynfield_register(&desc_offs);
301 [ # # ]: 0 : if (offset < 0)
302 : 0 : goto error;
303 : 0 : flag = rte_mbuf_dynflag_register(&desc_flag);
304 [ # # ]: 0 : if (flag < 0)
305 : 0 : goto error;
306 : 0 : rte_flow_dynf_metadata_offs = offset;
307 [ # # ]: 0 : rte_flow_dynf_metadata_mask = RTE_BIT64(flag);
308 : :
309 : 0 : rte_flow_trace_dynf_metadata_register(offset, RTE_BIT64(flag));
310 : :
311 : 0 : return 0;
312 : :
313 : 0 : error:
314 : 0 : rte_flow_dynf_metadata_offs = -1;
315 : 0 : rte_flow_dynf_metadata_mask = UINT64_C(0);
316 : 0 : return -rte_errno;
317 : : }
318 : :
319 : : static inline void
320 : : fts_enter(struct rte_eth_dev *dev)
321 : : {
322 [ # # # # : 0 : if (!(dev->data->dev_flags & RTE_ETH_DEV_FLOW_OPS_THREAD_SAFE))
# # # # #
# # # # #
# # # # #
# ]
323 : 0 : pthread_mutex_lock(&dev->data->flow_ops_mutex);
324 : : }
325 : :
326 : : static inline void
327 : : fts_exit(struct rte_eth_dev *dev)
328 : : {
329 [ # # # # : 0 : if (!(dev->data->dev_flags & RTE_ETH_DEV_FLOW_OPS_THREAD_SAFE))
# # # # #
# # # # #
# # # # #
# ]
330 : 0 : pthread_mutex_unlock(&dev->data->flow_ops_mutex);
331 : : }
332 : :
333 : : static int
334 : 0 : flow_err(uint16_t port_id, int ret, struct rte_flow_error *error)
335 : : {
336 [ # # ]: 0 : if (ret == 0)
337 : : return 0;
338 [ # # ]: 0 : if (rte_eth_dev_is_removed(port_id))
339 : 0 : return rte_flow_error_set(error, EIO,
340 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
341 : : NULL, rte_strerror(EIO));
342 : : return ret;
343 : : }
344 : :
345 : : /* Get generic flow operations structure from a port. */
346 : : const struct rte_flow_ops *
347 : 0 : rte_flow_ops_get(uint16_t port_id, struct rte_flow_error *error)
348 : : {
349 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
350 : : const struct rte_flow_ops *ops;
351 : : int code;
352 : :
353 [ # # ]: 0 : if (unlikely(!rte_eth_dev_is_valid_port(port_id)))
354 : : code = ENODEV;
355 [ # # ]: 0 : else if (unlikely(dev->dev_ops->flow_ops_get == NULL))
356 : : /* flow API not supported with this driver dev_ops */
357 : : code = ENOSYS;
358 : : else
359 : 0 : code = dev->dev_ops->flow_ops_get(dev, &ops);
360 [ # # # # ]: 0 : if (code == 0 && ops == NULL)
361 : : /* flow API not supported with this device */
362 : : code = ENOSYS;
363 : :
364 [ # # ]: 0 : if (code != 0) {
365 : 0 : rte_flow_error_set(error, code, RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
366 : : NULL, rte_strerror(code));
367 : 0 : return NULL;
368 : : }
369 : 0 : return ops;
370 : : }
371 : :
372 : : /* Check whether a flow rule can be created on a given port. */
373 : : RTE_EXPORT_SYMBOL(rte_flow_validate)
374 : : int
375 : 0 : rte_flow_validate(uint16_t port_id,
376 : : const struct rte_flow_attr *attr,
377 : : const struct rte_flow_item pattern[],
378 : : const struct rte_flow_action actions[],
379 : : struct rte_flow_error *error)
380 : : {
381 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
382 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
383 : : int ret;
384 : :
385 [ # # # # ]: 0 : if (likely(!!attr) && attr->transfer &&
386 [ # # ]: 0 : (attr->ingress || attr->egress)) {
387 : 0 : return rte_flow_error_set(error, EINVAL,
388 : : RTE_FLOW_ERROR_TYPE_ATTR,
389 : : attr, "cannot use attr ingress/egress with attr transfer");
390 : : }
391 : :
392 [ # # ]: 0 : if (unlikely(!ops))
393 : 0 : return -rte_errno;
394 [ # # ]: 0 : if (likely(!!ops->validate)) {
395 : : fts_enter(dev);
396 : 0 : ret = ops->validate(dev, attr, pattern, actions, error);
397 : : fts_exit(dev);
398 : 0 : ret = flow_err(port_id, ret, error);
399 : :
400 : 0 : rte_flow_trace_validate(port_id, attr, pattern, actions, ret);
401 : :
402 : 0 : return ret;
403 : : }
404 : 0 : return rte_flow_error_set(error, ENOSYS,
405 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
406 : : NULL, rte_strerror(ENOSYS));
407 : : }
408 : :
409 : : /* Create a flow rule on a given port. */
410 : : RTE_EXPORT_SYMBOL(rte_flow_create)
411 : : struct rte_flow *
412 : 0 : rte_flow_create(uint16_t port_id,
413 : : const struct rte_flow_attr *attr,
414 : : const struct rte_flow_item pattern[],
415 : : const struct rte_flow_action actions[],
416 : : struct rte_flow_error *error)
417 : : {
418 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
419 : : struct rte_flow *flow;
420 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
421 : :
422 [ # # ]: 0 : if (unlikely(!ops))
423 : : return NULL;
424 [ # # ]: 0 : if (likely(!!ops->create)) {
425 : : fts_enter(dev);
426 : 0 : flow = ops->create(dev, attr, pattern, actions, error);
427 : : fts_exit(dev);
428 [ # # ]: 0 : if (flow == NULL)
429 : 0 : flow_err(port_id, -rte_errno, error);
430 : :
431 : : rte_flow_trace_create(port_id, attr, pattern, actions, flow);
432 : :
433 : 0 : return flow;
434 : : }
435 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
436 : : NULL, rte_strerror(ENOSYS));
437 : 0 : return NULL;
438 : : }
439 : :
440 : : /* Destroy a flow rule on a given port. */
441 : : RTE_EXPORT_SYMBOL(rte_flow_destroy)
442 : : int
443 : 0 : rte_flow_destroy(uint16_t port_id,
444 : : struct rte_flow *flow,
445 : : struct rte_flow_error *error)
446 : : {
447 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
448 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
449 : : int ret;
450 : :
451 [ # # ]: 0 : if (unlikely(!ops))
452 : 0 : return -rte_errno;
453 [ # # ]: 0 : if (likely(!!ops->destroy)) {
454 : : fts_enter(dev);
455 : 0 : ret = ops->destroy(dev, flow, error);
456 : : fts_exit(dev);
457 : 0 : ret = flow_err(port_id, ret, error);
458 : :
459 : : rte_flow_trace_destroy(port_id, flow, ret);
460 : :
461 : 0 : return ret;
462 : : }
463 : 0 : return rte_flow_error_set(error, ENOSYS,
464 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
465 : : NULL, rte_strerror(ENOSYS));
466 : : }
467 : :
468 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_actions_update, 23.07)
469 : : int
470 : 0 : rte_flow_actions_update(uint16_t port_id,
471 : : struct rte_flow *flow,
472 : : const struct rte_flow_action actions[],
473 : : struct rte_flow_error *error)
474 : : {
475 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
476 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
477 : : int ret;
478 : :
479 [ # # ]: 0 : if (unlikely(!ops))
480 : 0 : return -rte_errno;
481 [ # # ]: 0 : if (likely(!!ops->actions_update)) {
482 : : fts_enter(dev);
483 : 0 : ret = ops->actions_update(dev, flow, actions, error);
484 : : fts_exit(dev);
485 : :
486 : : rte_flow_trace_actions_update(port_id, flow, actions, ret);
487 : :
488 : 0 : return flow_err(port_id, ret, error);
489 : : }
490 : 0 : return rte_flow_error_set(error, ENOSYS,
491 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
492 : : NULL, rte_strerror(ENOSYS));
493 : : }
494 : :
495 : : /* Destroy all flow rules associated with a port. */
496 : : RTE_EXPORT_SYMBOL(rte_flow_flush)
497 : : int
498 : 0 : rte_flow_flush(uint16_t port_id,
499 : : struct rte_flow_error *error)
500 : : {
501 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
502 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
503 : : int ret;
504 : :
505 [ # # ]: 0 : if (unlikely(!ops))
506 : 0 : return -rte_errno;
507 [ # # ]: 0 : if (likely(!!ops->flush)) {
508 : : fts_enter(dev);
509 : 0 : ret = ops->flush(dev, error);
510 : : fts_exit(dev);
511 : 0 : ret = flow_err(port_id, ret, error);
512 : :
513 : 0 : rte_flow_trace_flush(port_id, ret);
514 : :
515 : 0 : return ret;
516 : : }
517 : 0 : return rte_flow_error_set(error, ENOSYS,
518 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
519 : : NULL, rte_strerror(ENOSYS));
520 : : }
521 : :
522 : : /* Query an existing flow rule. */
523 : : RTE_EXPORT_SYMBOL(rte_flow_query)
524 : : int
525 : 0 : rte_flow_query(uint16_t port_id,
526 : : struct rte_flow *flow,
527 : : const struct rte_flow_action *action,
528 : : void *data,
529 : : struct rte_flow_error *error)
530 : : {
531 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
532 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
533 : : int ret;
534 : :
535 [ # # ]: 0 : if (!ops)
536 : 0 : return -rte_errno;
537 [ # # ]: 0 : if (likely(!!ops->query)) {
538 : : fts_enter(dev);
539 : 0 : ret = ops->query(dev, flow, action, data, error);
540 : : fts_exit(dev);
541 : 0 : ret = flow_err(port_id, ret, error);
542 : :
543 : : rte_flow_trace_query(port_id, flow, action, data, ret);
544 : :
545 : 0 : return ret;
546 : : }
547 : 0 : return rte_flow_error_set(error, ENOSYS,
548 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
549 : : NULL, rte_strerror(ENOSYS));
550 : : }
551 : :
552 : : /* Restrict ingress traffic to the defined flow rules. */
553 : : RTE_EXPORT_SYMBOL(rte_flow_isolate)
554 : : int
555 : 0 : rte_flow_isolate(uint16_t port_id,
556 : : int set,
557 : : struct rte_flow_error *error)
558 : : {
559 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
560 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
561 : : int ret;
562 : :
563 [ # # ]: 0 : if (!ops)
564 : 0 : return -rte_errno;
565 [ # # ]: 0 : if (likely(!!ops->isolate)) {
566 : : fts_enter(dev);
567 : 0 : ret = ops->isolate(dev, set, error);
568 : : fts_exit(dev);
569 : 0 : ret = flow_err(port_id, ret, error);
570 : :
571 : : rte_flow_trace_isolate(port_id, set, ret);
572 : :
573 : 0 : return ret;
574 : : }
575 : 0 : return rte_flow_error_set(error, ENOSYS,
576 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
577 : : NULL, rte_strerror(ENOSYS));
578 : : }
579 : :
580 : : /* Initialize flow error structure. */
581 : : RTE_EXPORT_SYMBOL(rte_flow_error_set)
582 : : int
583 : 0 : rte_flow_error_set(struct rte_flow_error *error,
584 : : int code,
585 : : enum rte_flow_error_type type,
586 : : const void *cause,
587 : : const char *message)
588 : : {
589 [ # # ]: 0 : if (error) {
590 : 0 : *error = (struct rte_flow_error){
591 : : .type = type,
592 : : .cause = cause,
593 : : .message = message,
594 : : };
595 : : }
596 : 0 : rte_errno = code;
597 : 0 : return -code;
598 : : }
599 : :
600 : : /** Pattern item specification types. */
601 : : enum rte_flow_conv_item_spec_type {
602 : : RTE_FLOW_CONV_ITEM_SPEC,
603 : : RTE_FLOW_CONV_ITEM_LAST,
604 : : RTE_FLOW_CONV_ITEM_MASK,
605 : : };
606 : :
607 : : /**
608 : : * Copy pattern item specification.
609 : : *
610 : : * @param[out] buf
611 : : * Output buffer. Can be NULL if @p size is zero.
612 : : * @param size
613 : : * Size of @p buf in bytes.
614 : : * @param[in] item
615 : : * Pattern item to copy specification from.
616 : : * @param type
617 : : * Specification selector for either @p spec, @p last or @p mask.
618 : : *
619 : : * @return
620 : : * Number of bytes needed to store pattern item specification regardless
621 : : * of @p size. @p buf contents are truncated to @p size if not large
622 : : * enough.
623 : : */
624 : : static size_t
625 : 0 : rte_flow_conv_item_spec(void *buf, const size_t size,
626 : : const struct rte_flow_item *item,
627 : : enum rte_flow_conv_item_spec_type type)
628 : : {
629 : : size_t off;
630 : : const void *data =
631 [ # # ]: 0 : type == RTE_FLOW_CONV_ITEM_SPEC ? item->spec :
632 [ # # ]: 0 : type == RTE_FLOW_CONV_ITEM_LAST ? item->last :
633 [ # # ]: 0 : type == RTE_FLOW_CONV_ITEM_MASK ? item->mask :
634 : : NULL;
635 : :
636 [ # # # ]: 0 : switch (item->type) {
637 : : union {
638 : : const struct rte_flow_item_raw *raw;
639 : : const struct rte_flow_item_geneve_opt *geneve_opt;
640 : : } spec;
641 : : union {
642 : : const struct rte_flow_item_raw *raw;
643 : : } last;
644 : : union {
645 : : const struct rte_flow_item_raw *raw;
646 : : } mask;
647 : : union {
648 : : const struct rte_flow_item_raw *raw;
649 : : const struct rte_flow_item_geneve_opt *geneve_opt;
650 : : } src;
651 : : union {
652 : : struct rte_flow_item_raw *raw;
653 : : struct rte_flow_item_geneve_opt *geneve_opt;
654 : : } dst;
655 : : void *deep_src;
656 : : size_t tmp;
657 : :
658 : 0 : case RTE_FLOW_ITEM_TYPE_RAW:
659 : 0 : spec.raw = item->spec;
660 [ # # ]: 0 : last.raw = item->last ? item->last : item->spec;
661 [ # # ]: 0 : mask.raw = item->mask ? item->mask : &rte_flow_item_raw_mask;
662 : : src.raw = data;
663 : : dst.raw = buf;
664 : : rte_memcpy(dst.raw,
665 : 0 : (&(struct rte_flow_item_raw){
666 : 0 : .relative = src.raw->relative,
667 : 0 : .search = src.raw->search,
668 : 0 : .reserved = src.raw->reserved,
669 : 0 : .offset = src.raw->offset,
670 : 0 : .limit = src.raw->limit,
671 : 0 : .length = src.raw->length,
672 : : }),
673 [ # # ]: 0 : size > sizeof(*dst.raw) ? sizeof(*dst.raw) : size);
674 : : off = sizeof(*dst.raw);
675 [ # # # # ]: 0 : if (type == RTE_FLOW_CONV_ITEM_SPEC ||
676 : 0 : (type == RTE_FLOW_CONV_ITEM_MASK &&
677 : 0 : ((spec.raw->length & mask.raw->length) >=
678 [ # # ]: 0 : (last.raw->length & mask.raw->length))))
679 : 0 : tmp = spec.raw->length & mask.raw->length;
680 : : else
681 : 0 : tmp = last.raw->length & mask.raw->length;
682 [ # # ]: 0 : if (tmp) {
683 : : off = RTE_ALIGN_CEIL(off, sizeof(*dst.raw->pattern));
684 [ # # ]: 0 : if (size >= off + tmp) {
685 : 0 : deep_src = (void *)((uintptr_t)dst.raw + off);
686 : 0 : dst.raw->pattern = rte_memcpy(deep_src,
687 [ # # ]: 0 : src.raw->pattern,
688 : : tmp);
689 : : }
690 : : off += tmp;
691 : : }
692 : : break;
693 : 0 : case RTE_FLOW_ITEM_TYPE_GENEVE_OPT:
694 : 0 : off = rte_flow_conv_copy(buf, data, size,
695 : : rte_flow_desc_item, item->type);
696 : 0 : spec.geneve_opt = item->spec;
697 : : src.geneve_opt = data;
698 : : dst.geneve_opt = buf;
699 : 0 : tmp = spec.geneve_opt->option_len << 2;
700 [ # # # # ]: 0 : if (size > 0 && src.geneve_opt->data) {
701 [ # # ]: 0 : deep_src = (void *)((uintptr_t)(dst.geneve_opt + 1));
702 : 0 : dst.geneve_opt->data = rte_memcpy(deep_src,
703 : : src.geneve_opt->data,
704 : : tmp);
705 : : }
706 : 0 : off += tmp;
707 : 0 : break;
708 : 0 : default:
709 : 0 : off = rte_flow_conv_copy(buf, data, size,
710 : : rte_flow_desc_item, item->type);
711 : 0 : break;
712 : : }
713 : 0 : return off;
714 : : }
715 : :
716 : : /**
717 : : * Copy action configuration.
718 : : *
719 : : * @param[out] buf
720 : : * Output buffer. Can be NULL if @p size is zero.
721 : : * @param size
722 : : * Size of @p buf in bytes.
723 : : * @param[in] action
724 : : * Action to copy configuration from.
725 : : *
726 : : * @return
727 : : * Number of bytes needed to store pattern item specification regardless
728 : : * of @p size. @p buf contents are truncated to @p size if not large
729 : : * enough.
730 : : */
731 : : static size_t
732 : 0 : rte_flow_conv_action_conf(void *buf, const size_t size,
733 : : const struct rte_flow_action *action)
734 : : {
735 : : size_t off;
736 : :
737 [ # # # ]: 0 : switch (action->type) {
738 : : union {
739 : : const struct rte_flow_action_rss *rss;
740 : : const struct rte_flow_action_vxlan_encap *vxlan_encap;
741 : : const struct rte_flow_action_nvgre_encap *nvgre_encap;
742 : : } src;
743 : : union {
744 : : struct rte_flow_action_rss *rss;
745 : : struct rte_flow_action_vxlan_encap *vxlan_encap;
746 : : struct rte_flow_action_nvgre_encap *nvgre_encap;
747 : : } dst;
748 : : size_t tmp;
749 : : int ret;
750 : :
751 : 0 : case RTE_FLOW_ACTION_TYPE_RSS:
752 : 0 : src.rss = action->conf;
753 : : dst.rss = buf;
754 : : rte_memcpy(dst.rss,
755 : 0 : (&(struct rte_flow_action_rss){
756 : 0 : .func = src.rss->func,
757 : 0 : .level = src.rss->level,
758 : 0 : .types = src.rss->types,
759 : 0 : .key_len = src.rss->key_len,
760 : 0 : .queue_num = src.rss->queue_num,
761 : : }),
762 [ # # ]: 0 : size > sizeof(*dst.rss) ? sizeof(*dst.rss) : size);
763 : : off = sizeof(*dst.rss);
764 [ # # # # ]: 0 : if (src.rss->key_len && src.rss->key) {
765 : : off = RTE_ALIGN_CEIL(off, sizeof(*dst.rss->key));
766 : 0 : tmp = sizeof(*src.rss->key) * src.rss->key_len;
767 [ # # ]: 0 : if (size >= (uint64_t)off + (uint64_t)tmp)
768 : 0 : dst.rss->key = rte_memcpy
769 [ # # ]: 0 : ((void *)((uintptr_t)dst.rss + off),
770 : : src.rss->key, tmp);
771 : : off += tmp;
772 : : }
773 [ # # ]: 0 : if (src.rss->queue_num) {
774 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(*dst.rss->queue));
775 : 0 : tmp = sizeof(*src.rss->queue) * src.rss->queue_num;
776 [ # # ]: 0 : if (size >= (uint64_t)off + (uint64_t)tmp)
777 : 0 : dst.rss->queue = rte_memcpy
778 : 0 : ((void *)((uintptr_t)dst.rss + off),
779 [ # # ]: 0 : src.rss->queue, tmp);
780 : : off += tmp;
781 : : }
782 : 0 : break;
783 : 0 : case RTE_FLOW_ACTION_TYPE_VXLAN_ENCAP:
784 : : case RTE_FLOW_ACTION_TYPE_NVGRE_ENCAP:
785 : 0 : src.vxlan_encap = action->conf;
786 : : dst.vxlan_encap = buf;
787 : : RTE_BUILD_BUG_ON(sizeof(*src.vxlan_encap) !=
788 : : sizeof(*src.nvgre_encap) ||
789 : : offsetof(struct rte_flow_action_vxlan_encap,
790 : : definition) !=
791 : : offsetof(struct rte_flow_action_nvgre_encap,
792 : : definition));
793 : : off = sizeof(*dst.vxlan_encap);
794 [ # # ]: 0 : if (src.vxlan_encap->definition) {
795 : : off = RTE_ALIGN_CEIL
796 : : (off, sizeof(*dst.vxlan_encap->definition));
797 [ # # ]: 0 : ret = rte_flow_conv
798 : : (RTE_FLOW_CONV_OP_PATTERN,
799 : 0 : (void *)((uintptr_t)dst.vxlan_encap + off),
800 : : size > off ? size - off : 0,
801 : : src.vxlan_encap->definition, NULL);
802 [ # # ]: 0 : if (ret < 0)
803 : 0 : return 0;
804 [ # # ]: 0 : if (size >= off + ret)
805 : 0 : dst.vxlan_encap->definition =
806 : : (void *)((uintptr_t)dst.vxlan_encap +
807 : : off);
808 : : off += ret;
809 : : }
810 : : break;
811 : 0 : default:
812 : 0 : off = rte_flow_conv_copy(buf, action->conf, size,
813 : : rte_flow_desc_action, action->type);
814 : 0 : break;
815 : : }
816 : 0 : return off;
817 : : }
818 : :
819 : : /**
820 : : * Copy a list of pattern items.
821 : : *
822 : : * @param[out] dst
823 : : * Destination buffer. Can be NULL if @p size is zero.
824 : : * @param size
825 : : * Size of @p dst in bytes.
826 : : * @param[in] src
827 : : * Source pattern items.
828 : : * @param num
829 : : * Maximum number of pattern items to process from @p src or 0 to process
830 : : * the entire list. In both cases, processing stops after
831 : : * RTE_FLOW_ITEM_TYPE_END is encountered.
832 : : * @param[out] error
833 : : * Perform verbose error reporting if not NULL.
834 : : *
835 : : * @return
836 : : * A positive value representing the number of bytes needed to store
837 : : * pattern items regardless of @p size on success (@p buf contents are
838 : : * truncated to @p size if not large enough), a negative errno value
839 : : * otherwise and rte_errno is set.
840 : : */
841 : : static int
842 : 0 : rte_flow_conv_pattern(struct rte_flow_item *dst,
843 : : const size_t size,
844 : : const struct rte_flow_item *src,
845 : : unsigned int num,
846 : : struct rte_flow_error *error)
847 : : {
848 : 0 : uintptr_t data = (uintptr_t)dst;
849 : : size_t off;
850 : : size_t ret;
851 : : unsigned int i;
852 : :
853 [ # # ]: 0 : for (i = 0, off = 0; !num || i != num; ++i, ++src, ++dst) {
854 : : /**
855 : : * allow PMD private flow item
856 : : */
857 [ # # # # ]: 0 : if (((int)src->type >= 0) &&
858 : 0 : ((size_t)src->type >= RTE_DIM(rte_flow_desc_item) ||
859 [ # # ]: 0 : !rte_flow_desc_item[src->type].name))
860 : 0 : return rte_flow_error_set
861 : : (error, ENOTSUP, RTE_FLOW_ERROR_TYPE_ITEM, src,
862 : : "cannot convert unknown item type");
863 [ # # ]: 0 : if (size >= off + sizeof(*dst))
864 : 0 : *dst = (struct rte_flow_item){
865 : : .type = src->type,
866 : : };
867 : : off += sizeof(*dst);
868 [ # # ]: 0 : if (!src->type)
869 : 0 : num = i + 1;
870 : : }
871 : : num = i;
872 : 0 : src -= num;
873 : 0 : dst -= num;
874 : : do {
875 [ # # ]: 0 : if (src->spec) {
876 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
877 [ # # ]: 0 : ret = rte_flow_conv_item_spec
878 : 0 : ((void *)(data + off),
879 : : size > off ? size - off : 0, src,
880 : : RTE_FLOW_CONV_ITEM_SPEC);
881 [ # # # # ]: 0 : if (size && size >= off + ret)
882 : 0 : dst->spec = (void *)(data + off);
883 : 0 : off += ret;
884 : :
885 : : }
886 [ # # ]: 0 : if (src->last) {
887 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
888 [ # # ]: 0 : ret = rte_flow_conv_item_spec
889 : 0 : ((void *)(data + off),
890 : : size > off ? size - off : 0, src,
891 : : RTE_FLOW_CONV_ITEM_LAST);
892 [ # # # # ]: 0 : if (size && size >= off + ret)
893 : 0 : dst->last = (void *)(data + off);
894 : 0 : off += ret;
895 : : }
896 [ # # ]: 0 : if (src->mask) {
897 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
898 [ # # ]: 0 : ret = rte_flow_conv_item_spec
899 : 0 : ((void *)(data + off),
900 : : size > off ? size - off : 0, src,
901 : : RTE_FLOW_CONV_ITEM_MASK);
902 [ # # # # ]: 0 : if (size && size >= off + ret)
903 : 0 : dst->mask = (void *)(data + off);
904 : 0 : off += ret;
905 : : }
906 : 0 : ++src;
907 : 0 : ++dst;
908 [ # # ]: 0 : } while (--num);
909 : 0 : return off;
910 : : }
911 : :
912 : : /**
913 : : * Copy a list of actions.
914 : : *
915 : : * @param[out] dst
916 : : * Destination buffer. Can be NULL if @p size is zero.
917 : : * @param size
918 : : * Size of @p dst in bytes.
919 : : * @param[in] src
920 : : * Source actions.
921 : : * @param num
922 : : * Maximum number of actions to process from @p src or 0 to process the
923 : : * entire list. In both cases, processing stops after
924 : : * RTE_FLOW_ACTION_TYPE_END is encountered.
925 : : * @param[out] error
926 : : * Perform verbose error reporting if not NULL.
927 : : *
928 : : * @return
929 : : * A positive value representing the number of bytes needed to store
930 : : * actions regardless of @p size on success (@p buf contents are truncated
931 : : * to @p size if not large enough), a negative errno value otherwise and
932 : : * rte_errno is set.
933 : : */
934 : : static int
935 : 0 : rte_flow_conv_actions(struct rte_flow_action *dst,
936 : : const size_t size,
937 : : const struct rte_flow_action *src,
938 : : unsigned int num,
939 : : struct rte_flow_error *error)
940 : : {
941 : 0 : uintptr_t data = (uintptr_t)dst;
942 : : size_t off;
943 : : size_t ret;
944 : : unsigned int i;
945 : :
946 [ # # ]: 0 : for (i = 0, off = 0; !num || i != num; ++i, ++src, ++dst) {
947 : : /**
948 : : * allow PMD private flow action
949 : : */
950 [ # # # # ]: 0 : if (((int)src->type >= 0) &&
951 : 0 : ((size_t)src->type >= RTE_DIM(rte_flow_desc_action) ||
952 [ # # ]: 0 : !rte_flow_desc_action[src->type].name))
953 : 0 : return rte_flow_error_set
954 : : (error, ENOTSUP, RTE_FLOW_ERROR_TYPE_ACTION,
955 : : src, "cannot convert unknown action type");
956 [ # # ]: 0 : if (size >= off + sizeof(*dst))
957 : 0 : *dst = (struct rte_flow_action){
958 : : .type = src->type,
959 : : };
960 : : off += sizeof(*dst);
961 [ # # ]: 0 : if (!src->type)
962 : 0 : num = i + 1;
963 : : }
964 : : num = i;
965 : 0 : src -= num;
966 : 0 : dst -= num;
967 : : do {
968 [ # # ]: 0 : if (src->type == RTE_FLOW_ACTION_TYPE_INDIRECT) {
969 : : /*
970 : : * Indirect action conf fills the indirect action
971 : : * handler. Copy the action handle directly instead
972 : : * of duplicating the pointer memory.
973 : : */
974 [ # # ]: 0 : if (size)
975 : 0 : dst->conf = src->conf;
976 [ # # ]: 0 : } else if (src->conf) {
977 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
978 [ # # ]: 0 : ret = rte_flow_conv_action_conf
979 : 0 : ((void *)(data + off),
980 : : size > off ? size - off : 0, src);
981 [ # # # # ]: 0 : if (size && size >= off + ret)
982 : 0 : dst->conf = (void *)(data + off);
983 : 0 : off += ret;
984 : : }
985 : 0 : ++src;
986 : 0 : ++dst;
987 [ # # ]: 0 : } while (--num);
988 : 0 : return off;
989 : : }
990 : :
991 : : /**
992 : : * Copy flow rule components.
993 : : *
994 : : * This comprises the flow rule descriptor itself, attributes, pattern and
995 : : * actions list. NULL components in @p src are skipped.
996 : : *
997 : : * @param[out] dst
998 : : * Destination buffer. Can be NULL if @p size is zero.
999 : : * @param size
1000 : : * Size of @p dst in bytes.
1001 : : * @param[in] src
1002 : : * Source flow rule descriptor.
1003 : : * @param[out] error
1004 : : * Perform verbose error reporting if not NULL.
1005 : : *
1006 : : * @return
1007 : : * A positive value representing the number of bytes needed to store all
1008 : : * components including the descriptor regardless of @p size on success
1009 : : * (@p buf contents are truncated to @p size if not large enough), a
1010 : : * negative errno value otherwise and rte_errno is set.
1011 : : */
1012 : : static int
1013 : 0 : rte_flow_conv_rule(struct rte_flow_conv_rule *dst,
1014 : : const size_t size,
1015 : : const struct rte_flow_conv_rule *src,
1016 : : struct rte_flow_error *error)
1017 : : {
1018 : : size_t off;
1019 : : int ret;
1020 : :
1021 : : rte_memcpy(dst,
1022 : 0 : (&(struct rte_flow_conv_rule){
1023 : : .attr = NULL,
1024 : : .pattern = NULL,
1025 : : .actions = NULL,
1026 : : }),
1027 [ # # ]: 0 : size > sizeof(*dst) ? sizeof(*dst) : size);
1028 : : off = sizeof(*dst);
1029 [ # # ]: 0 : if (src->attr_ro) {
1030 : : off = RTE_ALIGN_CEIL(off, sizeof(double));
1031 [ # # # # ]: 0 : if (size && size >= off + sizeof(*dst->attr))
1032 : 0 : dst->attr = rte_memcpy
1033 [ # # ]: 0 : ((void *)((uintptr_t)dst + off),
1034 : : src->attr_ro, sizeof(*dst->attr));
1035 : : off += sizeof(*dst->attr);
1036 : : }
1037 [ # # ]: 0 : if (src->pattern_ro) {
1038 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
1039 [ # # ]: 0 : ret = rte_flow_conv_pattern((void *)((uintptr_t)dst + off),
1040 : : size > off ? size - off : 0,
1041 : : src->pattern_ro, 0, error);
1042 [ # # ]: 0 : if (ret < 0)
1043 : : return ret;
1044 [ # # # # ]: 0 : if (size && size >= off + (size_t)ret)
1045 : 0 : dst->pattern = (void *)((uintptr_t)dst + off);
1046 : 0 : off += ret;
1047 : : }
1048 [ # # ]: 0 : if (src->actions_ro) {
1049 : 0 : off = RTE_ALIGN_CEIL(off, sizeof(double));
1050 [ # # ]: 0 : ret = rte_flow_conv_actions((void *)((uintptr_t)dst + off),
1051 : : size > off ? size - off : 0,
1052 : : src->actions_ro, 0, error);
1053 [ # # ]: 0 : if (ret < 0)
1054 : : return ret;
1055 [ # # ]: 0 : if (size >= off + (size_t)ret)
1056 : 0 : dst->actions = (void *)((uintptr_t)dst + off);
1057 : : off += ret;
1058 : : }
1059 : 0 : return off;
1060 : : }
1061 : :
1062 : : /**
1063 : : * Retrieve the name of a pattern item/action type.
1064 : : *
1065 : : * @param is_action
1066 : : * Nonzero when @p src represents an action type instead of a pattern item
1067 : : * type.
1068 : : * @param is_ptr
1069 : : * Nonzero to write string address instead of contents into @p dst.
1070 : : * @param[out] dst
1071 : : * Destination buffer. Can be NULL if @p size is zero.
1072 : : * @param size
1073 : : * Size of @p dst in bytes.
1074 : : * @param[in] src
1075 : : * Depending on @p is_action, source pattern item or action type cast as a
1076 : : * pointer.
1077 : : * @param[out] error
1078 : : * Perform verbose error reporting if not NULL.
1079 : : *
1080 : : * @return
1081 : : * A positive value representing the number of bytes needed to store the
1082 : : * name or its address regardless of @p size on success (@p buf contents
1083 : : * are truncated to @p size if not large enough), a negative errno value
1084 : : * otherwise and rte_errno is set.
1085 : : */
1086 : : static int
1087 : 0 : rte_flow_conv_name(int is_action,
1088 : : int is_ptr,
1089 : : char *dst,
1090 : : const size_t size,
1091 : : const void *src,
1092 : : struct rte_flow_error *error)
1093 : : {
1094 : : struct desc_info {
1095 : : const struct rte_flow_desc_data *data;
1096 : : size_t num;
1097 : : };
1098 : : static const struct desc_info info_rep[2] = {
1099 : : { rte_flow_desc_item, RTE_DIM(rte_flow_desc_item), },
1100 : : { rte_flow_desc_action, RTE_DIM(rte_flow_desc_action), },
1101 : : };
1102 : 0 : const struct desc_info *const info = &info_rep[!!is_action];
1103 : 0 : unsigned int type = (uintptr_t)src;
1104 : :
1105 [ # # ]: 0 : if (type >= info->num)
1106 : 0 : return rte_flow_error_set
1107 : : (error, EINVAL, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
1108 : : "unknown object type to retrieve the name of");
1109 [ # # ]: 0 : if (!is_ptr)
1110 : 0 : return strlcpy(dst, info->data[type].name, size);
1111 [ # # ]: 0 : if (size >= sizeof(const char **))
1112 : 0 : *((const char **)dst) = info->data[type].name;
1113 : : return sizeof(const char **);
1114 : : }
1115 : :
1116 : : /** Helper function to convert flow API objects. */
1117 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_conv, 18.11)
1118 : : int
1119 : 0 : rte_flow_conv(enum rte_flow_conv_op op,
1120 : : void *dst,
1121 : : size_t size,
1122 : : const void *src,
1123 : : struct rte_flow_error *error)
1124 : : {
1125 : : int ret;
1126 : :
1127 [ # # # # : 0 : switch (op) {
# # # # #
# # # # ]
1128 : : const struct rte_flow_attr *attr;
1129 : : const struct rte_flow_item *item;
1130 : :
1131 : : case RTE_FLOW_CONV_OP_NONE:
1132 : : ret = 0;
1133 : : break;
1134 [ # # ]: 0 : case RTE_FLOW_CONV_OP_ATTR:
1135 : : attr = src;
1136 : : if (size > sizeof(*attr))
1137 : : size = sizeof(*attr);
1138 : : rte_memcpy(dst, attr, size);
1139 : : ret = sizeof(*attr);
1140 : : break;
1141 : 0 : case RTE_FLOW_CONV_OP_ITEM:
1142 : 0 : ret = rte_flow_conv_pattern(dst, size, src, 1, error);
1143 : 0 : break;
1144 : 0 : case RTE_FLOW_CONV_OP_ITEM_MASK:
1145 : : item = src;
1146 [ # # ]: 0 : if (item->mask == NULL) {
1147 : 0 : ret = rte_flow_error_set(error, EINVAL, RTE_FLOW_ERROR_TYPE_ITEM_MASK,
1148 : : item, "Mask not provided");
1149 : 0 : break;
1150 : : }
1151 : 0 : ret = rte_flow_conv_item_spec(dst, size, src, RTE_FLOW_CONV_ITEM_MASK);
1152 : 0 : break;
1153 : 0 : case RTE_FLOW_CONV_OP_ACTION:
1154 : 0 : ret = rte_flow_conv_actions(dst, size, src, 1, error);
1155 : 0 : break;
1156 : 0 : case RTE_FLOW_CONV_OP_PATTERN:
1157 : 0 : ret = rte_flow_conv_pattern(dst, size, src, 0, error);
1158 : 0 : break;
1159 : 0 : case RTE_FLOW_CONV_OP_ACTIONS:
1160 : 0 : ret = rte_flow_conv_actions(dst, size, src, 0, error);
1161 : 0 : break;
1162 : 0 : case RTE_FLOW_CONV_OP_RULE:
1163 : 0 : ret = rte_flow_conv_rule(dst, size, src, error);
1164 : 0 : break;
1165 : 0 : case RTE_FLOW_CONV_OP_ITEM_NAME:
1166 : 0 : ret = rte_flow_conv_name(0, 0, dst, size, src, error);
1167 : 0 : break;
1168 : 0 : case RTE_FLOW_CONV_OP_ACTION_NAME:
1169 : 0 : ret = rte_flow_conv_name(1, 0, dst, size, src, error);
1170 : 0 : break;
1171 : 0 : case RTE_FLOW_CONV_OP_ITEM_NAME_PTR:
1172 : 0 : ret = rte_flow_conv_name(0, 1, dst, size, src, error);
1173 : 0 : break;
1174 : 0 : case RTE_FLOW_CONV_OP_ACTION_NAME_PTR:
1175 : 0 : ret = rte_flow_conv_name(1, 1, dst, size, src, error);
1176 : 0 : break;
1177 : 0 : default:
1178 : 0 : ret = rte_flow_error_set
1179 : : (error, ENOTSUP, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
1180 : : "unknown object conversion operation");
1181 : : }
1182 : :
1183 : 0 : rte_flow_trace_conv(op, dst, size, src, ret);
1184 : :
1185 : 0 : return ret;
1186 : : }
1187 : :
1188 : : /** Store a full rte_flow description. */
1189 : : RTE_EXPORT_SYMBOL(rte_flow_copy)
1190 : : size_t
1191 : 0 : rte_flow_copy(struct rte_flow_desc *desc, size_t len,
1192 : : const struct rte_flow_attr *attr,
1193 : : const struct rte_flow_item *items,
1194 : : const struct rte_flow_action *actions)
1195 : : {
1196 : : /*
1197 : : * Overlap struct rte_flow_conv with struct rte_flow_desc in order
1198 : : * to convert the former to the latter without wasting space.
1199 : : */
1200 : : struct rte_flow_conv_rule *dst =
1201 : : len ?
1202 : 0 : (void *)((uintptr_t)desc +
1203 : : (offsetof(struct rte_flow_desc, actions) -
1204 [ # # ]: 0 : offsetof(struct rte_flow_conv_rule, actions))) :
1205 : : NULL;
1206 : 0 : size_t dst_size =
1207 : : len > sizeof(*desc) - sizeof(*dst) ?
1208 : 0 : len - (sizeof(*desc) - sizeof(*dst)) :
1209 : : 0;
1210 : 0 : struct rte_flow_conv_rule src = {
1211 : : .attr_ro = NULL,
1212 : : .pattern_ro = items,
1213 : : .actions_ro = actions,
1214 : : };
1215 : : int ret;
1216 : :
1217 : : RTE_BUILD_BUG_ON(sizeof(struct rte_flow_desc) <
1218 : : sizeof(struct rte_flow_conv_rule));
1219 [ # # ]: 0 : if (dst_size &&
1220 [ # # ]: 0 : (&dst->pattern != &desc->items ||
1221 [ # # ]: 0 : &dst->actions != &desc->actions ||
1222 [ # # ]: 0 : (uintptr_t)(dst + 1) != (uintptr_t)(desc + 1))) {
1223 : 0 : rte_errno = EINVAL;
1224 : 0 : return 0;
1225 : : }
1226 : 0 : ret = rte_flow_conv(RTE_FLOW_CONV_OP_RULE, dst, dst_size, &src, NULL);
1227 [ # # ]: 0 : if (ret < 0)
1228 : : return 0;
1229 : 0 : ret += sizeof(*desc) - sizeof(*dst);
1230 : : rte_memcpy(desc,
1231 [ # # ]: 0 : (&(struct rte_flow_desc){
1232 : : .size = ret,
1233 : : .attr = *attr,
1234 : 0 : .items = dst_size ? dst->pattern : NULL,
1235 [ # # ]: 0 : .actions = dst_size ? dst->actions : NULL,
1236 : : }),
1237 [ # # ]: 0 : len > sizeof(*desc) ? sizeof(*desc) : len);
1238 : :
1239 : 0 : rte_flow_trace_copy(desc, len, attr, items, actions, ret);
1240 : :
1241 : 0 : return ret;
1242 : : }
1243 : :
1244 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_dev_dump, 20.02)
1245 : : int
1246 : 0 : rte_flow_dev_dump(uint16_t port_id, struct rte_flow *flow,
1247 : : FILE *file, struct rte_flow_error *error)
1248 : : {
1249 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1250 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1251 : : int ret;
1252 : :
1253 [ # # ]: 0 : if (unlikely(!ops))
1254 : 0 : return -rte_errno;
1255 [ # # ]: 0 : if (likely(!!ops->dev_dump)) {
1256 : : fts_enter(dev);
1257 : 0 : ret = ops->dev_dump(dev, flow, file, error);
1258 : : fts_exit(dev);
1259 : 0 : return flow_err(port_id, ret, error);
1260 : : }
1261 : 0 : return rte_flow_error_set(error, ENOSYS,
1262 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1263 : : NULL, rte_strerror(ENOSYS));
1264 : : }
1265 : :
1266 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_get_aged_flows, 20.05)
1267 : : int
1268 : 0 : rte_flow_get_aged_flows(uint16_t port_id, void **contexts,
1269 : : uint32_t nb_contexts, struct rte_flow_error *error)
1270 : : {
1271 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1272 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1273 : : int ret;
1274 : :
1275 [ # # ]: 0 : if (unlikely(!ops))
1276 : 0 : return -rte_errno;
1277 [ # # ]: 0 : if (likely(!!ops->get_aged_flows)) {
1278 : : fts_enter(dev);
1279 : 0 : ret = ops->get_aged_flows(dev, contexts, nb_contexts, error);
1280 : : fts_exit(dev);
1281 : 0 : ret = flow_err(port_id, ret, error);
1282 : :
1283 : : rte_flow_trace_get_aged_flows(port_id, contexts, nb_contexts, ret);
1284 : :
1285 : 0 : return ret;
1286 : : }
1287 : 0 : return rte_flow_error_set(error, ENOTSUP,
1288 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1289 : : NULL, rte_strerror(ENOTSUP));
1290 : : }
1291 : :
1292 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_get_q_aged_flows, 22.11)
1293 : : int
1294 : 0 : rte_flow_get_q_aged_flows(uint16_t port_id, uint32_t queue_id, void **contexts,
1295 : : uint32_t nb_contexts, struct rte_flow_error *error)
1296 : : {
1297 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1298 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1299 : : int ret;
1300 : :
1301 [ # # ]: 0 : if (unlikely(!ops))
1302 : 0 : return -rte_errno;
1303 [ # # ]: 0 : if (likely(!!ops->get_q_aged_flows)) {
1304 : : fts_enter(dev);
1305 : 0 : ret = ops->get_q_aged_flows(dev, queue_id, contexts,
1306 : : nb_contexts, error);
1307 : : fts_exit(dev);
1308 : 0 : ret = flow_err(port_id, ret, error);
1309 : :
1310 : : rte_flow_trace_get_q_aged_flows(port_id, queue_id, contexts,
1311 : : nb_contexts, ret);
1312 : :
1313 : 0 : return ret;
1314 : : }
1315 : 0 : return rte_flow_error_set(error, ENOTSUP,
1316 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1317 : : NULL, rte_strerror(ENOTSUP));
1318 : : }
1319 : :
1320 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_create, 21.05)
1321 : : struct rte_flow_action_handle *
1322 : 0 : rte_flow_action_handle_create(uint16_t port_id,
1323 : : const struct rte_flow_indir_action_conf *conf,
1324 : : const struct rte_flow_action *action,
1325 : : struct rte_flow_error *error)
1326 : : {
1327 : : struct rte_flow_action_handle *handle;
1328 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1329 : :
1330 [ # # ]: 0 : if (unlikely(!ops))
1331 : : return NULL;
1332 [ # # ]: 0 : if (unlikely(!ops->action_handle_create)) {
1333 : 0 : rte_flow_error_set(error, ENOSYS,
1334 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
1335 : : rte_strerror(ENOSYS));
1336 : 0 : return NULL;
1337 : : }
1338 : 0 : handle = ops->action_handle_create(&rte_eth_devices[port_id],
1339 : : conf, action, error);
1340 [ # # ]: 0 : if (handle == NULL)
1341 : 0 : flow_err(port_id, -rte_errno, error);
1342 : :
1343 : : rte_flow_trace_action_handle_create(port_id, conf, action, handle);
1344 : :
1345 : : return handle;
1346 : : }
1347 : :
1348 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_destroy, 21.05)
1349 : : int
1350 : 0 : rte_flow_action_handle_destroy(uint16_t port_id,
1351 : : struct rte_flow_action_handle *handle,
1352 : : struct rte_flow_error *error)
1353 : : {
1354 : : int ret;
1355 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1356 : :
1357 [ # # ]: 0 : if (unlikely(!ops))
1358 : 0 : return -rte_errno;
1359 [ # # ]: 0 : if (unlikely(!ops->action_handle_destroy))
1360 : 0 : return rte_flow_error_set(error, ENOSYS,
1361 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1362 : : NULL, rte_strerror(ENOSYS));
1363 : 0 : ret = ops->action_handle_destroy(&rte_eth_devices[port_id],
1364 : : handle, error);
1365 : 0 : ret = flow_err(port_id, ret, error);
1366 : :
1367 : : rte_flow_trace_action_handle_destroy(port_id, handle, ret);
1368 : :
1369 : 0 : return ret;
1370 : : }
1371 : :
1372 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_update, 21.05)
1373 : : int
1374 : 0 : rte_flow_action_handle_update(uint16_t port_id,
1375 : : struct rte_flow_action_handle *handle,
1376 : : const void *update,
1377 : : struct rte_flow_error *error)
1378 : : {
1379 : : int ret;
1380 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1381 : :
1382 [ # # ]: 0 : if (unlikely(!ops))
1383 : 0 : return -rte_errno;
1384 [ # # ]: 0 : if (unlikely(!ops->action_handle_update))
1385 : 0 : return rte_flow_error_set(error, ENOSYS,
1386 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1387 : : NULL, rte_strerror(ENOSYS));
1388 : 0 : ret = ops->action_handle_update(&rte_eth_devices[port_id], handle,
1389 : : update, error);
1390 : 0 : ret = flow_err(port_id, ret, error);
1391 : :
1392 : : rte_flow_trace_action_handle_update(port_id, handle, update, ret);
1393 : :
1394 : 0 : return ret;
1395 : : }
1396 : :
1397 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_query, 21.05)
1398 : : int
1399 : 0 : rte_flow_action_handle_query(uint16_t port_id,
1400 : : const struct rte_flow_action_handle *handle,
1401 : : void *data,
1402 : : struct rte_flow_error *error)
1403 : : {
1404 : : int ret;
1405 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1406 : :
1407 [ # # ]: 0 : if (unlikely(!ops))
1408 : 0 : return -rte_errno;
1409 [ # # ]: 0 : if (unlikely(!ops->action_handle_query))
1410 : 0 : return rte_flow_error_set(error, ENOSYS,
1411 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1412 : : NULL, rte_strerror(ENOSYS));
1413 : 0 : ret = ops->action_handle_query(&rte_eth_devices[port_id], handle,
1414 : : data, error);
1415 : 0 : ret = flow_err(port_id, ret, error);
1416 : :
1417 : : rte_flow_trace_action_handle_query(port_id, handle, data, ret);
1418 : :
1419 : 0 : return ret;
1420 : : }
1421 : :
1422 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_decap_set, 20.11)
1423 : : int
1424 : 0 : rte_flow_tunnel_decap_set(uint16_t port_id,
1425 : : struct rte_flow_tunnel *tunnel,
1426 : : struct rte_flow_action **actions,
1427 : : uint32_t *num_of_actions,
1428 : : struct rte_flow_error *error)
1429 : : {
1430 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1431 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1432 : : int ret;
1433 : :
1434 [ # # ]: 0 : if (unlikely(!ops))
1435 : 0 : return -rte_errno;
1436 [ # # ]: 0 : if (likely(!!ops->tunnel_decap_set)) {
1437 : 0 : ret = flow_err(port_id,
1438 : : ops->tunnel_decap_set(dev, tunnel, actions,
1439 : : num_of_actions, error),
1440 : : error);
1441 : :
1442 : 0 : rte_flow_trace_tunnel_decap_set(port_id, tunnel, actions,
1443 : : num_of_actions, ret);
1444 : :
1445 : 0 : return ret;
1446 : : }
1447 : 0 : return rte_flow_error_set(error, ENOTSUP,
1448 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1449 : : NULL, rte_strerror(ENOTSUP));
1450 : : }
1451 : :
1452 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_match, 20.11)
1453 : : int
1454 : 0 : rte_flow_tunnel_match(uint16_t port_id,
1455 : : struct rte_flow_tunnel *tunnel,
1456 : : struct rte_flow_item **items,
1457 : : uint32_t *num_of_items,
1458 : : struct rte_flow_error *error)
1459 : : {
1460 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1461 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1462 : : int ret;
1463 : :
1464 [ # # ]: 0 : if (unlikely(!ops))
1465 : 0 : return -rte_errno;
1466 [ # # ]: 0 : if (likely(!!ops->tunnel_match)) {
1467 : 0 : ret = flow_err(port_id,
1468 : : ops->tunnel_match(dev, tunnel, items,
1469 : : num_of_items, error),
1470 : : error);
1471 : :
1472 : 0 : rte_flow_trace_tunnel_match(port_id, tunnel, items, num_of_items,
1473 : : ret);
1474 : :
1475 : 0 : return ret;
1476 : : }
1477 : 0 : return rte_flow_error_set(error, ENOTSUP,
1478 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1479 : : NULL, rte_strerror(ENOTSUP));
1480 : : }
1481 : :
1482 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_get_restore_info, 20.11)
1483 : : int
1484 : 0 : rte_flow_get_restore_info(uint16_t port_id,
1485 : : struct rte_mbuf *m,
1486 : : struct rte_flow_restore_info *restore_info,
1487 : : struct rte_flow_error *error)
1488 : : {
1489 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1490 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1491 : : int ret;
1492 : :
1493 [ # # ]: 0 : if (unlikely(!ops))
1494 : 0 : return -rte_errno;
1495 [ # # ]: 0 : if (likely(!!ops->get_restore_info)) {
1496 : 0 : ret = flow_err(port_id,
1497 : : ops->get_restore_info(dev, m, restore_info,
1498 : : error),
1499 : : error);
1500 : :
1501 : : rte_flow_trace_get_restore_info(port_id, m, restore_info, ret);
1502 : :
1503 : 0 : return ret;
1504 : : }
1505 : 0 : return rte_flow_error_set(error, ENOTSUP,
1506 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1507 : : NULL, rte_strerror(ENOTSUP));
1508 : : }
1509 : :
1510 : : static struct {
1511 : : const struct rte_mbuf_dynflag desc;
1512 : : uint64_t value;
1513 : : } flow_restore_info_dynflag = {
1514 : : .desc = { .name = "RTE_MBUF_F_RX_RESTORE_INFO", },
1515 : : };
1516 : :
1517 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_restore_info_dynflag, 23.07)
1518 : : uint64_t
1519 : 0 : rte_flow_restore_info_dynflag(void)
1520 : : {
1521 : 0 : return flow_restore_info_dynflag.value;
1522 : : }
1523 : :
1524 : : int
1525 : 0 : rte_flow_restore_info_dynflag_register(void)
1526 : : {
1527 [ # # ]: 0 : if (flow_restore_info_dynflag.value == 0) {
1528 : 0 : int offset = rte_mbuf_dynflag_register(&flow_restore_info_dynflag.desc);
1529 : :
1530 [ # # ]: 0 : if (offset < 0)
1531 : : return -1;
1532 : 0 : flow_restore_info_dynflag.value = RTE_BIT64(offset);
1533 : : }
1534 : :
1535 : : return 0;
1536 : : }
1537 : :
1538 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_action_decap_release, 20.11)
1539 : : int
1540 : 0 : rte_flow_tunnel_action_decap_release(uint16_t port_id,
1541 : : struct rte_flow_action *actions,
1542 : : uint32_t num_of_actions,
1543 : : struct rte_flow_error *error)
1544 : : {
1545 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1546 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1547 : : int ret;
1548 : :
1549 [ # # ]: 0 : if (unlikely(!ops))
1550 : 0 : return -rte_errno;
1551 [ # # ]: 0 : if (likely(!!ops->tunnel_action_decap_release)) {
1552 : 0 : ret = flow_err(port_id,
1553 : : ops->tunnel_action_decap_release(dev, actions,
1554 : : num_of_actions,
1555 : : error),
1556 : : error);
1557 : :
1558 : 0 : rte_flow_trace_tunnel_action_decap_release(port_id, actions,
1559 : : num_of_actions, ret);
1560 : :
1561 : 0 : return ret;
1562 : : }
1563 : 0 : return rte_flow_error_set(error, ENOTSUP,
1564 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1565 : : NULL, rte_strerror(ENOTSUP));
1566 : : }
1567 : :
1568 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_tunnel_item_release, 20.11)
1569 : : int
1570 : 0 : rte_flow_tunnel_item_release(uint16_t port_id,
1571 : : struct rte_flow_item *items,
1572 : : uint32_t num_of_items,
1573 : : struct rte_flow_error *error)
1574 : : {
1575 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1576 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1577 : : int ret;
1578 : :
1579 [ # # ]: 0 : if (unlikely(!ops))
1580 : 0 : return -rte_errno;
1581 [ # # ]: 0 : if (likely(!!ops->tunnel_item_release)) {
1582 : 0 : ret = flow_err(port_id,
1583 : : ops->tunnel_item_release(dev, items,
1584 : : num_of_items, error),
1585 : : error);
1586 : :
1587 : 0 : rte_flow_trace_tunnel_item_release(port_id, items, num_of_items, ret);
1588 : :
1589 : 0 : return ret;
1590 : : }
1591 : 0 : return rte_flow_error_set(error, ENOTSUP,
1592 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1593 : : NULL, rte_strerror(ENOTSUP));
1594 : : }
1595 : :
1596 : : RTE_EXPORT_SYMBOL(rte_flow_pick_transfer_proxy)
1597 : : int
1598 : 0 : rte_flow_pick_transfer_proxy(uint16_t port_id, uint16_t *proxy_port_id,
1599 : : struct rte_flow_error *error)
1600 : : {
1601 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1602 : : struct rte_eth_dev *dev;
1603 : : int ret;
1604 : :
1605 [ # # ]: 0 : if (unlikely(ops == NULL))
1606 : 0 : return -rte_errno;
1607 : :
1608 [ # # ]: 0 : if (ops->pick_transfer_proxy == NULL) {
1609 : 0 : *proxy_port_id = port_id;
1610 : 0 : return 0;
1611 : : }
1612 : :
1613 : 0 : dev = &rte_eth_devices[port_id];
1614 : :
1615 : 0 : ret = flow_err(port_id,
1616 : : ops->pick_transfer_proxy(dev, proxy_port_id, error),
1617 : : error);
1618 : :
1619 : : rte_flow_trace_pick_transfer_proxy(port_id, proxy_port_id, ret);
1620 : :
1621 : 0 : return ret;
1622 : : }
1623 : :
1624 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_flex_item_create, 21.11)
1625 : : struct rte_flow_item_flex_handle *
1626 : 0 : rte_flow_flex_item_create(uint16_t port_id,
1627 : : const struct rte_flow_item_flex_conf *conf,
1628 : : struct rte_flow_error *error)
1629 : : {
1630 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1631 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1632 : : struct rte_flow_item_flex_handle *handle;
1633 : :
1634 [ # # ]: 0 : if (unlikely(!ops))
1635 : : return NULL;
1636 [ # # ]: 0 : if (unlikely(!ops->flex_item_create)) {
1637 : 0 : rte_flow_error_set(error, ENOTSUP,
1638 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1639 : : NULL, rte_strerror(ENOTSUP));
1640 : 0 : return NULL;
1641 : : }
1642 : 0 : handle = ops->flex_item_create(dev, conf, error);
1643 [ # # ]: 0 : if (handle == NULL)
1644 : 0 : flow_err(port_id, -rte_errno, error);
1645 : :
1646 : 0 : rte_flow_trace_flex_item_create(port_id, conf, handle);
1647 : :
1648 : 0 : return handle;
1649 : : }
1650 : :
1651 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_flex_item_release, 21.11)
1652 : : int
1653 : 0 : rte_flow_flex_item_release(uint16_t port_id,
1654 : : const struct rte_flow_item_flex_handle *handle,
1655 : : struct rte_flow_error *error)
1656 : : {
1657 : : int ret;
1658 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1659 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1660 : :
1661 [ # # # # ]: 0 : if (unlikely(!ops || !ops->flex_item_release))
1662 : 0 : return rte_flow_error_set(error, ENOTSUP,
1663 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1664 : : NULL, rte_strerror(ENOTSUP));
1665 : 0 : ret = ops->flex_item_release(dev, handle, error);
1666 : 0 : ret = flow_err(port_id, ret, error);
1667 : :
1668 : 0 : rte_flow_trace_flex_item_release(port_id, handle, ret);
1669 : :
1670 : 0 : return ret;
1671 : : }
1672 : :
1673 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_info_get, 22.03)
1674 : : int
1675 : 0 : rte_flow_info_get(uint16_t port_id,
1676 : : struct rte_flow_port_info *port_info,
1677 : : struct rte_flow_queue_info *queue_info,
1678 : : struct rte_flow_error *error)
1679 : : {
1680 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1681 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1682 : : int ret;
1683 : :
1684 [ # # ]: 0 : if (unlikely(!ops))
1685 : 0 : return -rte_errno;
1686 [ # # ]: 0 : if (dev->data->dev_configured == 0) {
1687 : 0 : FLOW_LOG(INFO,
1688 : : "Device with port_id=%"PRIu16" is not configured.",
1689 : : port_id);
1690 : 0 : return -EINVAL;
1691 : : }
1692 [ # # ]: 0 : if (port_info == NULL) {
1693 : 0 : FLOW_LOG(ERR, "Port %"PRIu16" info is NULL.", port_id);
1694 : 0 : return -EINVAL;
1695 : : }
1696 [ # # ]: 0 : if (likely(!!ops->info_get)) {
1697 : 0 : ret = flow_err(port_id,
1698 : : ops->info_get(dev, port_info, queue_info, error),
1699 : : error);
1700 : :
1701 : 0 : rte_flow_trace_info_get(port_id, port_info, queue_info, ret);
1702 : :
1703 : 0 : return ret;
1704 : : }
1705 : 0 : return rte_flow_error_set(error, ENOTSUP,
1706 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1707 : : NULL, rte_strerror(ENOTSUP));
1708 : : }
1709 : :
1710 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_configure, 22.03)
1711 : : int
1712 : 0 : rte_flow_configure(uint16_t port_id,
1713 : : const struct rte_flow_port_attr *port_attr,
1714 : : uint16_t nb_queue,
1715 : : const struct rte_flow_queue_attr *queue_attr[],
1716 : : struct rte_flow_error *error)
1717 : : {
1718 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1719 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1720 : : int ret;
1721 : :
1722 [ # # ]: 0 : if (unlikely(!ops))
1723 : 0 : return -rte_errno;
1724 [ # # ]: 0 : if (dev->data->dev_configured == 0) {
1725 : 0 : FLOW_LOG(INFO,
1726 : : "Device with port_id=%"PRIu16" is not configured.",
1727 : : port_id);
1728 : 0 : return -EINVAL;
1729 : : }
1730 [ # # ]: 0 : if (dev->data->dev_started != 0) {
1731 : 0 : FLOW_LOG(INFO,
1732 : : "Device with port_id=%"PRIu16" already started.",
1733 : : port_id);
1734 : 0 : return -EINVAL;
1735 : : }
1736 [ # # ]: 0 : if (port_attr == NULL) {
1737 : 0 : FLOW_LOG(ERR, "Port %"PRIu16" info is NULL.", port_id);
1738 : 0 : return -EINVAL;
1739 : : }
1740 [ # # ]: 0 : if (queue_attr == NULL) {
1741 : 0 : FLOW_LOG(ERR, "Port %"PRIu16" queue info is NULL.", port_id);
1742 : 0 : return -EINVAL;
1743 : : }
1744 [ # # # # ]: 0 : if ((port_attr->flags & RTE_FLOW_PORT_FLAG_SHARE_INDIRECT) &&
1745 : 0 : !rte_eth_dev_is_valid_port(port_attr->host_port_id)) {
1746 : 0 : return rte_flow_error_set(error, ENODEV,
1747 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1748 : : NULL, rte_strerror(ENODEV));
1749 : : }
1750 [ # # ]: 0 : if (likely(!!ops->configure)) {
1751 : 0 : ret = ops->configure(dev, port_attr, nb_queue, queue_attr, error);
1752 [ # # ]: 0 : if (ret == 0)
1753 : 0 : dev->data->flow_configured = 1;
1754 : 0 : ret = flow_err(port_id, ret, error);
1755 : :
1756 : 0 : rte_flow_trace_configure(port_id, port_attr, nb_queue, queue_attr, ret);
1757 : :
1758 : 0 : return ret;
1759 : : }
1760 : 0 : return rte_flow_error_set(error, ENOTSUP,
1761 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1762 : : NULL, rte_strerror(ENOTSUP));
1763 : : }
1764 : :
1765 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_pattern_template_create, 22.03)
1766 : : struct rte_flow_pattern_template *
1767 : 0 : rte_flow_pattern_template_create(uint16_t port_id,
1768 : : const struct rte_flow_pattern_template_attr *template_attr,
1769 : : const struct rte_flow_item pattern[],
1770 : : struct rte_flow_error *error)
1771 : : {
1772 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1773 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1774 : : struct rte_flow_pattern_template *template;
1775 : :
1776 [ # # ]: 0 : if (unlikely(!ops))
1777 : : return NULL;
1778 [ # # ]: 0 : if (dev->data->flow_configured == 0) {
1779 : 0 : FLOW_LOG(INFO,
1780 : : "Flow engine on port_id=%"PRIu16" is not configured.",
1781 : : port_id);
1782 : 0 : rte_flow_error_set(error, EINVAL,
1783 : : RTE_FLOW_ERROR_TYPE_STATE,
1784 : : NULL, rte_strerror(EINVAL));
1785 : 0 : return NULL;
1786 : : }
1787 [ # # ]: 0 : if (template_attr == NULL) {
1788 : 0 : FLOW_LOG(ERR,
1789 : : "Port %"PRIu16" template attr is NULL.",
1790 : : port_id);
1791 : 0 : rte_flow_error_set(error, EINVAL,
1792 : : RTE_FLOW_ERROR_TYPE_ATTR,
1793 : : NULL, rte_strerror(EINVAL));
1794 : 0 : return NULL;
1795 : : }
1796 [ # # ]: 0 : if (pattern == NULL) {
1797 : 0 : FLOW_LOG(ERR,
1798 : : "Port %"PRIu16" pattern is NULL.",
1799 : : port_id);
1800 : 0 : rte_flow_error_set(error, EINVAL,
1801 : : RTE_FLOW_ERROR_TYPE_ATTR,
1802 : : NULL, rte_strerror(EINVAL));
1803 : 0 : return NULL;
1804 : : }
1805 [ # # ]: 0 : if (likely(!!ops->pattern_template_create)) {
1806 : 0 : template = ops->pattern_template_create(dev, template_attr,
1807 : : pattern, error);
1808 [ # # ]: 0 : if (template == NULL)
1809 : 0 : flow_err(port_id, -rte_errno, error);
1810 : :
1811 : 0 : rte_flow_trace_pattern_template_create(port_id, template_attr,
1812 : : pattern, template);
1813 : :
1814 : 0 : return template;
1815 : : }
1816 : 0 : rte_flow_error_set(error, ENOTSUP,
1817 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1818 : : NULL, rte_strerror(ENOTSUP));
1819 : 0 : return NULL;
1820 : : }
1821 : :
1822 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_pattern_template_destroy, 22.03)
1823 : : int
1824 : 0 : rte_flow_pattern_template_destroy(uint16_t port_id,
1825 : : struct rte_flow_pattern_template *pattern_template,
1826 : : struct rte_flow_error *error)
1827 : : {
1828 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1829 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1830 : : int ret;
1831 : :
1832 [ # # ]: 0 : if (unlikely(!ops))
1833 : 0 : return -rte_errno;
1834 [ # # ]: 0 : if (unlikely(pattern_template == NULL))
1835 : : return 0;
1836 [ # # ]: 0 : if (likely(!!ops->pattern_template_destroy)) {
1837 : 0 : ret = flow_err(port_id,
1838 : : ops->pattern_template_destroy(dev,
1839 : : pattern_template,
1840 : : error),
1841 : : error);
1842 : :
1843 : 0 : rte_flow_trace_pattern_template_destroy(port_id, pattern_template,
1844 : : ret);
1845 : :
1846 : 0 : return ret;
1847 : : }
1848 : 0 : return rte_flow_error_set(error, ENOTSUP,
1849 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1850 : : NULL, rte_strerror(ENOTSUP));
1851 : : }
1852 : :
1853 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_actions_template_create, 22.03)
1854 : : struct rte_flow_actions_template *
1855 : 0 : rte_flow_actions_template_create(uint16_t port_id,
1856 : : const struct rte_flow_actions_template_attr *template_attr,
1857 : : const struct rte_flow_action actions[],
1858 : : const struct rte_flow_action masks[],
1859 : : struct rte_flow_error *error)
1860 : : {
1861 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1862 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1863 : : struct rte_flow_actions_template *template;
1864 : :
1865 [ # # ]: 0 : if (unlikely(!ops))
1866 : : return NULL;
1867 [ # # ]: 0 : if (dev->data->flow_configured == 0) {
1868 : 0 : FLOW_LOG(INFO,
1869 : : "Flow engine on port_id=%"PRIu16" is not configured.",
1870 : : port_id);
1871 : 0 : rte_flow_error_set(error, EINVAL,
1872 : : RTE_FLOW_ERROR_TYPE_STATE,
1873 : : NULL, rte_strerror(EINVAL));
1874 : 0 : return NULL;
1875 : : }
1876 [ # # ]: 0 : if (template_attr == NULL) {
1877 : 0 : FLOW_LOG(ERR,
1878 : : "Port %"PRIu16" template attr is NULL.",
1879 : : port_id);
1880 : 0 : rte_flow_error_set(error, EINVAL,
1881 : : RTE_FLOW_ERROR_TYPE_ATTR,
1882 : : NULL, rte_strerror(EINVAL));
1883 : 0 : return NULL;
1884 : : }
1885 [ # # ]: 0 : if (actions == NULL) {
1886 : 0 : FLOW_LOG(ERR,
1887 : : "Port %"PRIu16" actions is NULL.",
1888 : : port_id);
1889 : 0 : rte_flow_error_set(error, EINVAL,
1890 : : RTE_FLOW_ERROR_TYPE_ATTR,
1891 : : NULL, rte_strerror(EINVAL));
1892 : 0 : return NULL;
1893 : : }
1894 [ # # ]: 0 : if (masks == NULL) {
1895 : 0 : FLOW_LOG(ERR,
1896 : : "Port %"PRIu16" masks is NULL.",
1897 : : port_id);
1898 : 0 : rte_flow_error_set(error, EINVAL,
1899 : : RTE_FLOW_ERROR_TYPE_ATTR,
1900 : : NULL, rte_strerror(EINVAL));
1901 : :
1902 : : }
1903 [ # # ]: 0 : if (likely(!!ops->actions_template_create)) {
1904 : 0 : template = ops->actions_template_create(dev, template_attr,
1905 : : actions, masks, error);
1906 [ # # ]: 0 : if (template == NULL)
1907 : 0 : flow_err(port_id, -rte_errno, error);
1908 : :
1909 : 0 : rte_flow_trace_actions_template_create(port_id, template_attr, actions,
1910 : : masks, template);
1911 : :
1912 : 0 : return template;
1913 : : }
1914 : 0 : rte_flow_error_set(error, ENOTSUP,
1915 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1916 : : NULL, rte_strerror(ENOTSUP));
1917 : 0 : return NULL;
1918 : : }
1919 : :
1920 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_actions_template_destroy, 22.03)
1921 : : int
1922 : 0 : rte_flow_actions_template_destroy(uint16_t port_id,
1923 : : struct rte_flow_actions_template *actions_template,
1924 : : struct rte_flow_error *error)
1925 : : {
1926 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1927 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1928 : : int ret;
1929 : :
1930 [ # # ]: 0 : if (unlikely(!ops))
1931 : 0 : return -rte_errno;
1932 [ # # ]: 0 : if (unlikely(actions_template == NULL))
1933 : : return 0;
1934 [ # # ]: 0 : if (likely(!!ops->actions_template_destroy)) {
1935 : 0 : ret = flow_err(port_id,
1936 : : ops->actions_template_destroy(dev,
1937 : : actions_template,
1938 : : error),
1939 : : error);
1940 : :
1941 : 0 : rte_flow_trace_actions_template_destroy(port_id, actions_template,
1942 : : ret);
1943 : :
1944 : 0 : return ret;
1945 : : }
1946 : 0 : return rte_flow_error_set(error, ENOTSUP,
1947 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
1948 : : NULL, rte_strerror(ENOTSUP));
1949 : : }
1950 : :
1951 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_create, 22.03)
1952 : : struct rte_flow_template_table *
1953 : 0 : rte_flow_template_table_create(uint16_t port_id,
1954 : : const struct rte_flow_template_table_attr *table_attr,
1955 : : struct rte_flow_pattern_template *pattern_templates[],
1956 : : uint8_t nb_pattern_templates,
1957 : : struct rte_flow_actions_template *actions_templates[],
1958 : : uint8_t nb_actions_templates,
1959 : : struct rte_flow_error *error)
1960 : : {
1961 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
1962 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
1963 : : struct rte_flow_template_table *table;
1964 : :
1965 [ # # ]: 0 : if (unlikely(!ops))
1966 : : return NULL;
1967 [ # # ]: 0 : if (dev->data->flow_configured == 0) {
1968 : 0 : FLOW_LOG(INFO,
1969 : : "Flow engine on port_id=%"PRIu16" is not configured.",
1970 : : port_id);
1971 : 0 : rte_flow_error_set(error, EINVAL,
1972 : : RTE_FLOW_ERROR_TYPE_STATE,
1973 : : NULL, rte_strerror(EINVAL));
1974 : 0 : return NULL;
1975 : : }
1976 [ # # ]: 0 : if (table_attr == NULL) {
1977 : 0 : FLOW_LOG(ERR,
1978 : : "Port %"PRIu16" table attr is NULL.",
1979 : : port_id);
1980 : 0 : rte_flow_error_set(error, EINVAL,
1981 : : RTE_FLOW_ERROR_TYPE_ATTR,
1982 : : NULL, rte_strerror(EINVAL));
1983 : 0 : return NULL;
1984 : : }
1985 [ # # ]: 0 : if (pattern_templates == NULL) {
1986 : 0 : FLOW_LOG(ERR,
1987 : : "Port %"PRIu16" pattern templates is NULL.",
1988 : : port_id);
1989 : 0 : rte_flow_error_set(error, EINVAL,
1990 : : RTE_FLOW_ERROR_TYPE_ATTR,
1991 : : NULL, rte_strerror(EINVAL));
1992 : 0 : return NULL;
1993 : : }
1994 [ # # ]: 0 : if (actions_templates == NULL) {
1995 : 0 : FLOW_LOG(ERR,
1996 : : "Port %"PRIu16" actions templates is NULL.",
1997 : : port_id);
1998 : 0 : rte_flow_error_set(error, EINVAL,
1999 : : RTE_FLOW_ERROR_TYPE_ATTR,
2000 : : NULL, rte_strerror(EINVAL));
2001 : 0 : return NULL;
2002 : : }
2003 [ # # ]: 0 : if (likely(!!ops->template_table_create)) {
2004 : 0 : table = ops->template_table_create(dev, table_attr,
2005 : : pattern_templates, nb_pattern_templates,
2006 : : actions_templates, nb_actions_templates,
2007 : : error);
2008 [ # # ]: 0 : if (table == NULL)
2009 : 0 : flow_err(port_id, -rte_errno, error);
2010 : :
2011 : 0 : rte_flow_trace_template_table_create(port_id, table_attr,
2012 : : pattern_templates,
2013 : : nb_pattern_templates,
2014 : : actions_templates,
2015 : : nb_actions_templates, table);
2016 : :
2017 : 0 : return table;
2018 : : }
2019 : 0 : rte_flow_error_set(error, ENOTSUP,
2020 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
2021 : : NULL, rte_strerror(ENOTSUP));
2022 : 0 : return NULL;
2023 : : }
2024 : :
2025 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_destroy, 22.03)
2026 : : int
2027 : 0 : rte_flow_template_table_destroy(uint16_t port_id,
2028 : : struct rte_flow_template_table *template_table,
2029 : : struct rte_flow_error *error)
2030 : : {
2031 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2032 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
2033 : : int ret;
2034 : :
2035 [ # # ]: 0 : if (unlikely(!ops))
2036 : 0 : return -rte_errno;
2037 [ # # ]: 0 : if (unlikely(template_table == NULL))
2038 : : return 0;
2039 [ # # ]: 0 : if (likely(!!ops->template_table_destroy)) {
2040 : 0 : ret = flow_err(port_id,
2041 : : ops->template_table_destroy(dev,
2042 : : template_table,
2043 : : error),
2044 : : error);
2045 : :
2046 : 0 : rte_flow_trace_template_table_destroy(port_id, template_table,
2047 : : ret);
2048 : :
2049 : 0 : return ret;
2050 : : }
2051 : 0 : return rte_flow_error_set(error, ENOTSUP,
2052 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
2053 : : NULL, rte_strerror(ENOTSUP));
2054 : : }
2055 : :
2056 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_group_set_miss_actions, 23.11)
2057 : : int
2058 : 0 : rte_flow_group_set_miss_actions(uint16_t port_id,
2059 : : uint32_t group_id,
2060 : : const struct rte_flow_group_attr *attr,
2061 : : const struct rte_flow_action actions[],
2062 : : struct rte_flow_error *error)
2063 : : {
2064 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2065 : 0 : const struct rte_flow_ops *ops = rte_flow_ops_get(port_id, error);
2066 : :
2067 [ # # ]: 0 : if (unlikely(!ops))
2068 : 0 : return -rte_errno;
2069 [ # # ]: 0 : if (likely(!!ops->group_set_miss_actions)) {
2070 : 0 : return flow_err(port_id,
2071 : : ops->group_set_miss_actions(dev, group_id, attr, actions, error),
2072 : : error);
2073 : : }
2074 : 0 : return rte_flow_error_set(error, ENOTSUP,
2075 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED,
2076 : : NULL, rte_strerror(ENOTSUP));
2077 : : }
2078 : :
2079 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_create, 22.03)
2080 : : struct rte_flow *
2081 : 0 : rte_flow_async_create(uint16_t port_id,
2082 : : uint32_t queue_id,
2083 : : const struct rte_flow_op_attr *op_attr,
2084 : : struct rte_flow_template_table *template_table,
2085 : : const struct rte_flow_item pattern[],
2086 : : uint8_t pattern_template_index,
2087 : : const struct rte_flow_action actions[],
2088 : : uint8_t actions_template_index,
2089 : : void *user_data,
2090 : : struct rte_flow_error *error)
2091 : : {
2092 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2093 : : struct rte_flow *flow;
2094 : :
2095 : : #ifdef RTE_FLOW_DEBUG
2096 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2097 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2098 : : rte_strerror(ENODEV));
2099 : : return NULL;
2100 : : }
2101 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_create == NULL) {
2102 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2103 : : rte_strerror(ENOSYS));
2104 : : return NULL;
2105 : : }
2106 : : #endif
2107 : :
2108 : 0 : flow = dev->flow_fp_ops->async_create(dev, queue_id,
2109 : : op_attr, template_table,
2110 : : pattern, pattern_template_index,
2111 : : actions, actions_template_index,
2112 : : user_data, error);
2113 : :
2114 : : rte_flow_trace_async_create(port_id, queue_id, op_attr, template_table,
2115 : : pattern, pattern_template_index, actions,
2116 : : actions_template_index, user_data, flow);
2117 : :
2118 : 0 : return flow;
2119 : : }
2120 : :
2121 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_create_by_index, 23.03)
2122 : : struct rte_flow *
2123 : 0 : rte_flow_async_create_by_index(uint16_t port_id,
2124 : : uint32_t queue_id,
2125 : : const struct rte_flow_op_attr *op_attr,
2126 : : struct rte_flow_template_table *template_table,
2127 : : uint32_t rule_index,
2128 : : const struct rte_flow_action actions[],
2129 : : uint8_t actions_template_index,
2130 : : void *user_data,
2131 : : struct rte_flow_error *error)
2132 : : {
2133 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2134 : : struct rte_flow *flow;
2135 : :
2136 : : #ifdef RTE_FLOW_DEBUG
2137 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2138 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2139 : : rte_strerror(ENODEV));
2140 : : return NULL;
2141 : : }
2142 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_create_by_index == NULL) {
2143 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2144 : : rte_strerror(ENOSYS));
2145 : : return NULL;
2146 : : }
2147 : : #endif
2148 : :
2149 : 0 : flow = dev->flow_fp_ops->async_create_by_index(dev, queue_id,
2150 : : op_attr, template_table, rule_index,
2151 : : actions, actions_template_index,
2152 : : user_data, error);
2153 : :
2154 : : rte_flow_trace_async_create_by_index(port_id, queue_id, op_attr, template_table, rule_index,
2155 : : actions, actions_template_index, user_data, flow);
2156 : :
2157 : 0 : return flow;
2158 : : }
2159 : :
2160 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_create_by_index_with_pattern, 24.11)
2161 : : struct rte_flow *
2162 : 0 : rte_flow_async_create_by_index_with_pattern(uint16_t port_id,
2163 : : uint32_t queue_id,
2164 : : const struct rte_flow_op_attr *op_attr,
2165 : : struct rte_flow_template_table *template_table,
2166 : : uint32_t rule_index,
2167 : : const struct rte_flow_item pattern[],
2168 : : uint8_t pattern_template_index,
2169 : : const struct rte_flow_action actions[],
2170 : : uint8_t actions_template_index,
2171 : : void *user_data,
2172 : : struct rte_flow_error *error)
2173 : : {
2174 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2175 : : struct rte_flow *flow;
2176 : :
2177 : : #ifdef RTE_FLOW_DEBUG
2178 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2179 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2180 : : rte_strerror(ENODEV));
2181 : : return NULL;
2182 : : }
2183 : : if (dev->flow_fp_ops == NULL ||
2184 : : dev->flow_fp_ops->async_create_by_index_with_pattern == NULL) {
2185 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2186 : : rte_strerror(ENOSYS));
2187 : : return NULL;
2188 : : }
2189 : : #endif
2190 : :
2191 : 0 : flow = dev->flow_fp_ops->async_create_by_index_with_pattern(dev, queue_id, op_attr,
2192 : : template_table, rule_index,
2193 : : pattern, pattern_template_index,
2194 : : actions, actions_template_index,
2195 : : user_data, error);
2196 : :
2197 : : rte_flow_trace_async_create_by_index_with_pattern(port_id, queue_id, op_attr,
2198 : : template_table, rule_index, pattern,
2199 : : pattern_template_index, actions,
2200 : : actions_template_index, user_data, flow);
2201 : :
2202 : 0 : return flow;
2203 : : }
2204 : :
2205 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_destroy, 22.03)
2206 : : int
2207 : 0 : rte_flow_async_destroy(uint16_t port_id,
2208 : : uint32_t queue_id,
2209 : : const struct rte_flow_op_attr *op_attr,
2210 : : struct rte_flow *flow,
2211 : : void *user_data,
2212 : : struct rte_flow_error *error)
2213 : : {
2214 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2215 : : int ret;
2216 : :
2217 : : #ifdef RTE_FLOW_DEBUG
2218 : : if (!rte_eth_dev_is_valid_port(port_id))
2219 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2220 : : rte_strerror(ENODEV));
2221 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_destroy == NULL)
2222 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2223 : : rte_strerror(ENOSYS));
2224 : : #endif
2225 : :
2226 : 0 : ret = dev->flow_fp_ops->async_destroy(dev, queue_id,
2227 : : op_attr, flow,
2228 : : user_data, error);
2229 : :
2230 : : rte_flow_trace_async_destroy(port_id, queue_id, op_attr, flow,
2231 : : user_data, ret);
2232 : :
2233 : 0 : return ret;
2234 : : }
2235 : :
2236 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_actions_update, 23.07)
2237 : : int
2238 : 0 : rte_flow_async_actions_update(uint16_t port_id,
2239 : : uint32_t queue_id,
2240 : : const struct rte_flow_op_attr *op_attr,
2241 : : struct rte_flow *flow,
2242 : : const struct rte_flow_action actions[],
2243 : : uint8_t actions_template_index,
2244 : : void *user_data,
2245 : : struct rte_flow_error *error)
2246 : : {
2247 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2248 : : int ret;
2249 : :
2250 : : #ifdef RTE_FLOW_DEBUG
2251 : : if (!rte_eth_dev_is_valid_port(port_id))
2252 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2253 : : rte_strerror(ENODEV));
2254 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_actions_update == NULL)
2255 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2256 : : rte_strerror(ENOSYS));
2257 : : #endif
2258 : :
2259 : 0 : ret = dev->flow_fp_ops->async_actions_update(dev, queue_id, op_attr,
2260 : : flow, actions,
2261 : : actions_template_index,
2262 : : user_data, error);
2263 : :
2264 : : rte_flow_trace_async_actions_update(port_id, queue_id, op_attr, flow,
2265 : : actions, actions_template_index,
2266 : : user_data, ret);
2267 : :
2268 : 0 : return ret;
2269 : : }
2270 : :
2271 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_push, 22.03)
2272 : : int
2273 : 0 : rte_flow_push(uint16_t port_id,
2274 : : uint32_t queue_id,
2275 : : struct rte_flow_error *error)
2276 : : {
2277 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2278 : : int ret;
2279 : :
2280 : : #ifdef RTE_FLOW_DEBUG
2281 : : if (!rte_eth_dev_is_valid_port(port_id))
2282 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2283 : : rte_strerror(ENODEV));
2284 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->push == NULL)
2285 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2286 : : rte_strerror(ENOSYS));
2287 : : #endif
2288 : :
2289 : 0 : ret = dev->flow_fp_ops->push(dev, queue_id, error);
2290 : :
2291 : : rte_flow_trace_push(port_id, queue_id, ret);
2292 : :
2293 : 0 : return ret;
2294 : : }
2295 : :
2296 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_pull, 22.03)
2297 : : int
2298 : 0 : rte_flow_pull(uint16_t port_id,
2299 : : uint32_t queue_id,
2300 : : struct rte_flow_op_result res[],
2301 : : uint16_t n_res,
2302 : : struct rte_flow_error *error)
2303 : : {
2304 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2305 : : int ret;
2306 : :
2307 : : #ifdef RTE_FLOW_DEBUG
2308 : : if (!rte_eth_dev_is_valid_port(port_id))
2309 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2310 : : rte_strerror(ENODEV));
2311 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->pull == NULL)
2312 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2313 : : rte_strerror(ENOSYS));
2314 : : #endif
2315 : :
2316 : 0 : ret = dev->flow_fp_ops->pull(dev, queue_id, res, n_res, error);
2317 : :
2318 : : rte_flow_trace_pull(port_id, queue_id, res, n_res, ret);
2319 : :
2320 : 0 : return ret;
2321 : : }
2322 : :
2323 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_create, 22.03)
2324 : : struct rte_flow_action_handle *
2325 : 0 : rte_flow_async_action_handle_create(uint16_t port_id,
2326 : : uint32_t queue_id,
2327 : : const struct rte_flow_op_attr *op_attr,
2328 : : const struct rte_flow_indir_action_conf *indir_action_conf,
2329 : : const struct rte_flow_action *action,
2330 : : void *user_data,
2331 : : struct rte_flow_error *error)
2332 : : {
2333 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2334 : : struct rte_flow_action_handle *handle;
2335 : :
2336 : : #ifdef RTE_FLOW_DEBUG
2337 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2338 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2339 : : rte_strerror(ENODEV));
2340 : : return NULL;
2341 : : }
2342 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_create == NULL) {
2343 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2344 : : rte_strerror(ENOSYS));
2345 : : return NULL;
2346 : : }
2347 : : #endif
2348 : :
2349 : 0 : handle = dev->flow_fp_ops->async_action_handle_create(dev, queue_id, op_attr,
2350 : : indir_action_conf, action,
2351 : : user_data, error);
2352 : :
2353 : : rte_flow_trace_async_action_handle_create(port_id, queue_id, op_attr,
2354 : : indir_action_conf, action,
2355 : : user_data, handle);
2356 : :
2357 : 0 : return handle;
2358 : : }
2359 : :
2360 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_destroy, 22.03)
2361 : : int
2362 : 0 : rte_flow_async_action_handle_destroy(uint16_t port_id,
2363 : : uint32_t queue_id,
2364 : : const struct rte_flow_op_attr *op_attr,
2365 : : struct rte_flow_action_handle *action_handle,
2366 : : void *user_data,
2367 : : struct rte_flow_error *error)
2368 : : {
2369 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2370 : : int ret;
2371 : :
2372 : : #ifdef RTE_FLOW_DEBUG
2373 : : if (!rte_eth_dev_is_valid_port(port_id))
2374 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2375 : : rte_strerror(ENODEV));
2376 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_destroy == NULL)
2377 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2378 : : rte_strerror(ENOSYS));
2379 : : #endif
2380 : :
2381 : 0 : ret = dev->flow_fp_ops->async_action_handle_destroy(dev, queue_id, op_attr,
2382 : : action_handle, user_data, error);
2383 : :
2384 : : rte_flow_trace_async_action_handle_destroy(port_id, queue_id, op_attr,
2385 : : action_handle, user_data, ret);
2386 : :
2387 : 0 : return ret;
2388 : : }
2389 : :
2390 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_update, 22.03)
2391 : : int
2392 : 0 : rte_flow_async_action_handle_update(uint16_t port_id,
2393 : : uint32_t queue_id,
2394 : : const struct rte_flow_op_attr *op_attr,
2395 : : struct rte_flow_action_handle *action_handle,
2396 : : const void *update,
2397 : : void *user_data,
2398 : : struct rte_flow_error *error)
2399 : : {
2400 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2401 : : int ret;
2402 : :
2403 : : #ifdef RTE_FLOW_DEBUG
2404 : : if (!rte_eth_dev_is_valid_port(port_id))
2405 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2406 : : rte_strerror(ENODEV));
2407 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_update == NULL)
2408 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2409 : : rte_strerror(ENOSYS));
2410 : : #endif
2411 : :
2412 : 0 : ret = dev->flow_fp_ops->async_action_handle_update(dev, queue_id, op_attr,
2413 : : action_handle, update, user_data, error);
2414 : :
2415 : : rte_flow_trace_async_action_handle_update(port_id, queue_id, op_attr,
2416 : : action_handle, update,
2417 : : user_data, ret);
2418 : :
2419 : 0 : return ret;
2420 : : }
2421 : :
2422 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_query, 22.11)
2423 : : int
2424 : 0 : rte_flow_async_action_handle_query(uint16_t port_id,
2425 : : uint32_t queue_id,
2426 : : const struct rte_flow_op_attr *op_attr,
2427 : : const struct rte_flow_action_handle *action_handle,
2428 : : void *data,
2429 : : void *user_data,
2430 : : struct rte_flow_error *error)
2431 : : {
2432 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2433 : : int ret;
2434 : :
2435 : : #ifdef RTE_FLOW_DEBUG
2436 : : if (!rte_eth_dev_is_valid_port(port_id))
2437 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2438 : : rte_strerror(ENODEV));
2439 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_query == NULL)
2440 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2441 : : rte_strerror(ENOSYS));
2442 : : #endif
2443 : :
2444 : 0 : ret = dev->flow_fp_ops->async_action_handle_query(dev, queue_id, op_attr,
2445 : : action_handle, data, user_data, error);
2446 : :
2447 : : rte_flow_trace_async_action_handle_query(port_id, queue_id, op_attr,
2448 : : action_handle, data, user_data,
2449 : : ret);
2450 : :
2451 : 0 : return ret;
2452 : : }
2453 : :
2454 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_handle_query_update, 23.03)
2455 : : int
2456 : 0 : rte_flow_action_handle_query_update(uint16_t port_id,
2457 : : struct rte_flow_action_handle *handle,
2458 : : const void *update, void *query,
2459 : : enum rte_flow_query_update_mode mode,
2460 : : struct rte_flow_error *error)
2461 : : {
2462 : : int ret;
2463 : : struct rte_eth_dev *dev;
2464 : : const struct rte_flow_ops *ops;
2465 : :
2466 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2467 [ # # ]: 0 : if (!handle)
2468 : : return -EINVAL;
2469 [ # # ]: 0 : if (!update && !query)
2470 : : return -EINVAL;
2471 : 0 : dev = &rte_eth_devices[port_id];
2472 : 0 : ops = rte_flow_ops_get(port_id, error);
2473 [ # # # # ]: 0 : if (!ops || !ops->action_handle_query_update)
2474 : : return -ENOTSUP;
2475 : 0 : ret = ops->action_handle_query_update(dev, handle, update,
2476 : : query, mode, error);
2477 : 0 : return flow_err(port_id, ret, error);
2478 : : }
2479 : :
2480 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_handle_query_update, 23.03)
2481 : : int
2482 : 0 : rte_flow_async_action_handle_query_update(uint16_t port_id, uint32_t queue_id,
2483 : : const struct rte_flow_op_attr *attr,
2484 : : struct rte_flow_action_handle *handle,
2485 : : const void *update, void *query,
2486 : : enum rte_flow_query_update_mode mode,
2487 : : void *user_data,
2488 : : struct rte_flow_error *error)
2489 : : {
2490 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2491 : :
2492 : : #ifdef RTE_FLOW_DEBUG
2493 : : if (!rte_eth_dev_is_valid_port(port_id))
2494 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2495 : : rte_strerror(ENODEV));
2496 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_handle_query_update == NULL)
2497 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2498 : : rte_strerror(ENOSYS));
2499 : : #endif
2500 : :
2501 : 0 : return dev->flow_fp_ops->async_action_handle_query_update(dev, queue_id, attr,
2502 : : handle, update,
2503 : : query, mode,
2504 : : user_data, error);
2505 : : }
2506 : :
2507 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_list_handle_create, 23.07)
2508 : : struct rte_flow_action_list_handle *
2509 : 0 : rte_flow_action_list_handle_create(uint16_t port_id,
2510 : : const
2511 : : struct rte_flow_indir_action_conf *conf,
2512 : : const struct rte_flow_action *actions,
2513 : : struct rte_flow_error *error)
2514 : : {
2515 : : int ret;
2516 : : struct rte_eth_dev *dev;
2517 : : const struct rte_flow_ops *ops;
2518 : : struct rte_flow_action_list_handle *handle;
2519 : :
2520 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, NULL);
2521 : 0 : ops = rte_flow_ops_get(port_id, error);
2522 [ # # # # ]: 0 : if (!ops || !ops->action_list_handle_create) {
2523 : 0 : rte_flow_error_set(error, ENOTSUP,
2524 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2525 : : "action_list handle not supported");
2526 : 0 : return NULL;
2527 : : }
2528 : 0 : dev = &rte_eth_devices[port_id];
2529 : 0 : handle = ops->action_list_handle_create(dev, conf, actions, error);
2530 : 0 : ret = flow_err(port_id, -rte_errno, error);
2531 : : rte_flow_trace_action_list_handle_create(port_id, conf, actions, ret);
2532 : 0 : return handle;
2533 : : }
2534 : :
2535 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_list_handle_destroy, 23.07)
2536 : : int
2537 : 0 : rte_flow_action_list_handle_destroy(uint16_t port_id,
2538 : : struct rte_flow_action_list_handle *handle,
2539 : : struct rte_flow_error *error)
2540 : : {
2541 : : int ret;
2542 : : struct rte_eth_dev *dev;
2543 : : const struct rte_flow_ops *ops;
2544 : :
2545 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2546 : 0 : ops = rte_flow_ops_get(port_id, error);
2547 [ # # # # ]: 0 : if (!ops || !ops->action_list_handle_destroy)
2548 : 0 : return rte_flow_error_set(error, ENOTSUP,
2549 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2550 : : "action_list handle not supported");
2551 : 0 : dev = &rte_eth_devices[port_id];
2552 : 0 : ret = ops->action_list_handle_destroy(dev, handle, error);
2553 : 0 : ret = flow_err(port_id, ret, error);
2554 : : rte_flow_trace_action_list_handle_destroy(port_id, handle, ret);
2555 : 0 : return ret;
2556 : : }
2557 : :
2558 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_list_handle_create, 23.07)
2559 : : struct rte_flow_action_list_handle *
2560 : 0 : rte_flow_async_action_list_handle_create(uint16_t port_id, uint32_t queue_id,
2561 : : const struct rte_flow_op_attr *attr,
2562 : : const struct rte_flow_indir_action_conf *conf,
2563 : : const struct rte_flow_action *actions,
2564 : : void *user_data,
2565 : : struct rte_flow_error *error)
2566 : : {
2567 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2568 : : struct rte_flow_action_list_handle *handle;
2569 : : int ret;
2570 : :
2571 : : #ifdef RTE_FLOW_DEBUG
2572 : : if (!rte_eth_dev_is_valid_port(port_id)) {
2573 : : rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2574 : : rte_strerror(ENODEV));
2575 : : return NULL;
2576 : : }
2577 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_list_handle_create == NULL) {
2578 : : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2579 : : rte_strerror(ENOSYS));
2580 : : return NULL;
2581 : : }
2582 : : #endif
2583 : :
2584 : 0 : handle = dev->flow_fp_ops->async_action_list_handle_create(dev, queue_id, attr, conf,
2585 : : actions, user_data,
2586 : : error);
2587 : 0 : ret = flow_err(port_id, -rte_errno, error);
2588 : :
2589 : : rte_flow_trace_async_action_list_handle_create(port_id, queue_id, attr,
2590 : : conf, actions, user_data,
2591 : : ret);
2592 : 0 : return handle;
2593 : : }
2594 : :
2595 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_list_handle_destroy, 23.07)
2596 : : int
2597 : 0 : rte_flow_async_action_list_handle_destroy(uint16_t port_id, uint32_t queue_id,
2598 : : const struct rte_flow_op_attr *op_attr,
2599 : : struct rte_flow_action_list_handle *handle,
2600 : : void *user_data, struct rte_flow_error *error)
2601 : : {
2602 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2603 : : int ret;
2604 : :
2605 : : #ifdef RTE_FLOW_DEBUG
2606 : : if (!rte_eth_dev_is_valid_port(port_id))
2607 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2608 : : rte_strerror(ENODEV));
2609 : : if (dev->flow_fp_ops == NULL || dev->flow_fp_ops->async_action_list_handle_destroy == NULL)
2610 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2611 : : rte_strerror(ENOSYS));
2612 : : #endif
2613 : :
2614 : 0 : ret = dev->flow_fp_ops->async_action_list_handle_destroy(dev, queue_id, op_attr,
2615 : : handle, user_data, error);
2616 : :
2617 : : rte_flow_trace_async_action_list_handle_destroy(port_id, queue_id,
2618 : : op_attr, handle,
2619 : : user_data, ret);
2620 : 0 : return ret;
2621 : : }
2622 : :
2623 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_action_list_handle_query_update, 23.07)
2624 : : int
2625 : 0 : rte_flow_action_list_handle_query_update(uint16_t port_id,
2626 : : const struct rte_flow_action_list_handle *handle,
2627 : : const void **update, void **query,
2628 : : enum rte_flow_query_update_mode mode,
2629 : : struct rte_flow_error *error)
2630 : : {
2631 : : int ret;
2632 : : struct rte_eth_dev *dev;
2633 : : const struct rte_flow_ops *ops;
2634 : :
2635 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2636 : 0 : ops = rte_flow_ops_get(port_id, error);
2637 [ # # # # ]: 0 : if (!ops || !ops->action_list_handle_query_update)
2638 : 0 : return rte_flow_error_set(error, ENOTSUP,
2639 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2640 : : "action_list query_update not supported");
2641 : 0 : dev = &rte_eth_devices[port_id];
2642 : 0 : ret = ops->action_list_handle_query_update(dev, handle, update, query,
2643 : : mode, error);
2644 : 0 : ret = flow_err(port_id, ret, error);
2645 : : rte_flow_trace_action_list_handle_query_update(port_id, handle, update,
2646 : : query, mode, ret);
2647 : 0 : return ret;
2648 : : }
2649 : :
2650 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_action_list_handle_query_update, 23.07)
2651 : : int
2652 : 0 : rte_flow_async_action_list_handle_query_update(uint16_t port_id, uint32_t queue_id,
2653 : : const struct rte_flow_op_attr *attr,
2654 : : const struct rte_flow_action_list_handle *handle,
2655 : : const void **update, void **query,
2656 : : enum rte_flow_query_update_mode mode,
2657 : : void *user_data, struct rte_flow_error *error)
2658 : : {
2659 : 0 : struct rte_eth_dev *dev = &rte_eth_devices[port_id];
2660 : : int ret;
2661 : :
2662 : : #ifdef RTE_FLOW_DEBUG
2663 : : if (!rte_eth_dev_is_valid_port(port_id))
2664 : : return rte_flow_error_set(error, ENODEV, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2665 : : rte_strerror(ENODEV));
2666 : : if (dev->flow_fp_ops == NULL ||
2667 : : dev->flow_fp_ops->async_action_list_handle_query_update == NULL)
2668 : : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2669 : : rte_strerror(ENOSYS));
2670 : : #endif
2671 : :
2672 : 0 : ret = dev->flow_fp_ops->async_action_list_handle_query_update(dev, queue_id, attr,
2673 : : handle, update, query,
2674 : : mode, user_data,
2675 : : error);
2676 : :
2677 : : rte_flow_trace_async_action_list_handle_query_update(port_id, queue_id,
2678 : : attr, handle,
2679 : : update, query,
2680 : : mode, user_data,
2681 : : ret);
2682 : 0 : return ret;
2683 : : }
2684 : :
2685 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_calc_table_hash, 23.11)
2686 : : int
2687 : 0 : rte_flow_calc_table_hash(uint16_t port_id, const struct rte_flow_template_table *table,
2688 : : const struct rte_flow_item pattern[], uint8_t pattern_template_index,
2689 : : uint32_t *hash, struct rte_flow_error *error)
2690 : : {
2691 : : int ret;
2692 : : struct rte_eth_dev *dev;
2693 : : const struct rte_flow_ops *ops;
2694 : :
2695 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2696 : 0 : ops = rte_flow_ops_get(port_id, error);
2697 [ # # # # ]: 0 : if (!ops || !ops->flow_calc_table_hash)
2698 : 0 : return rte_flow_error_set(error, ENOTSUP,
2699 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2700 : : "action_list async query_update not supported");
2701 : 0 : dev = &rte_eth_devices[port_id];
2702 : 0 : ret = ops->flow_calc_table_hash(dev, table, pattern, pattern_template_index,
2703 : : hash, error);
2704 : 0 : return flow_err(port_id, ret, error);
2705 : : }
2706 : :
2707 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_calc_encap_hash, 24.03)
2708 : : int
2709 : 0 : rte_flow_calc_encap_hash(uint16_t port_id, const struct rte_flow_item pattern[],
2710 : : enum rte_flow_encap_hash_field dest_field, uint8_t hash_len,
2711 : : uint8_t *hash, struct rte_flow_error *error)
2712 : : {
2713 : : int ret;
2714 : : struct rte_eth_dev *dev;
2715 : : const struct rte_flow_ops *ops;
2716 : :
2717 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2718 : 0 : ops = rte_flow_ops_get(port_id, error);
2719 [ # # # # ]: 0 : if (!ops || !ops->flow_calc_encap_hash)
2720 : 0 : return rte_flow_error_set(error, ENOTSUP,
2721 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2722 : : "calc encap hash is not supported");
2723 [ # # ]: 0 : if (dest_field > RTE_FLOW_ENCAP_HASH_FIELD_NVGRE_FLOW_ID)
2724 : 0 : return rte_flow_error_set(error, EINVAL,
2725 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2726 : : "hash dest field is not defined");
2727 [ # # ]: 0 : if ((dest_field == RTE_FLOW_ENCAP_HASH_FIELD_SRC_PORT && hash_len != 2) ||
2728 [ # # ]: 0 : (dest_field == RTE_FLOW_ENCAP_HASH_FIELD_NVGRE_FLOW_ID && hash_len != 1))
2729 : 0 : return rte_flow_error_set(error, EINVAL,
2730 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2731 : : "hash len doesn't match the requested field len");
2732 : 0 : dev = &rte_eth_devices[port_id];
2733 : 0 : ret = ops->flow_calc_encap_hash(dev, pattern, dest_field, hash, error);
2734 : 0 : return flow_err(port_id, ret, error);
2735 : : }
2736 : :
2737 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_resizable, 24.03)
2738 : : bool
2739 : 0 : rte_flow_template_table_resizable(__rte_unused uint16_t port_id,
2740 : : const struct rte_flow_template_table_attr *tbl_attr)
2741 : : {
2742 : 0 : return (tbl_attr->specialize &
2743 : 0 : RTE_FLOW_TABLE_SPECIALIZE_RESIZABLE) != 0;
2744 : : }
2745 : :
2746 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_resize, 24.03)
2747 : : int
2748 : 0 : rte_flow_template_table_resize(uint16_t port_id,
2749 : : struct rte_flow_template_table *table,
2750 : : uint32_t nb_rules,
2751 : : struct rte_flow_error *error)
2752 : : {
2753 : : int ret;
2754 : : struct rte_eth_dev *dev;
2755 : : const struct rte_flow_ops *ops;
2756 : :
2757 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2758 : 0 : ops = rte_flow_ops_get(port_id, error);
2759 [ # # # # ]: 0 : if (!ops || !ops->flow_template_table_resize)
2760 : 0 : return rte_flow_error_set(error, ENOTSUP,
2761 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2762 : : "flow_template_table_resize not supported");
2763 : 0 : dev = &rte_eth_devices[port_id];
2764 : 0 : ret = ops->flow_template_table_resize(dev, table, nb_rules, error);
2765 : 0 : ret = flow_err(port_id, ret, error);
2766 : : rte_flow_trace_template_table_resize(port_id, table, nb_rules, ret);
2767 : 0 : return ret;
2768 : : }
2769 : :
2770 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_async_update_resized, 24.03)
2771 : : int
2772 : 0 : rte_flow_async_update_resized(uint16_t port_id, uint32_t queue,
2773 : : const struct rte_flow_op_attr *attr,
2774 : : struct rte_flow *rule, void *user_data,
2775 : : struct rte_flow_error *error)
2776 : : {
2777 : : int ret;
2778 : : struct rte_eth_dev *dev;
2779 : : const struct rte_flow_ops *ops;
2780 : :
2781 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2782 : 0 : ops = rte_flow_ops_get(port_id, error);
2783 [ # # # # ]: 0 : if (!ops || !ops->flow_update_resized)
2784 : 0 : return rte_flow_error_set(error, ENOTSUP,
2785 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2786 : : "async_flow_async_transfer not supported");
2787 : 0 : dev = &rte_eth_devices[port_id];
2788 : 0 : ret = ops->flow_update_resized(dev, queue, attr, rule, user_data, error);
2789 : 0 : ret = flow_err(port_id, ret, error);
2790 : : rte_flow_trace_async_update_resized(port_id, queue, attr,
2791 : : rule, user_data, ret);
2792 : 0 : return ret;
2793 : : }
2794 : :
2795 : : RTE_EXPORT_EXPERIMENTAL_SYMBOL(rte_flow_template_table_resize_complete, 24.03)
2796 : : int
2797 : 0 : rte_flow_template_table_resize_complete(uint16_t port_id,
2798 : : struct rte_flow_template_table *table,
2799 : : struct rte_flow_error *error)
2800 : : {
2801 : : int ret;
2802 : : struct rte_eth_dev *dev;
2803 : : const struct rte_flow_ops *ops;
2804 : :
2805 [ # # ]: 0 : RTE_ETH_VALID_PORTID_OR_ERR_RET(port_id, -ENODEV);
2806 : 0 : ops = rte_flow_ops_get(port_id, error);
2807 [ # # # # ]: 0 : if (!ops || !ops->flow_template_table_resize_complete)
2808 : 0 : return rte_flow_error_set(error, ENOTSUP,
2809 : : RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2810 : : "flow_template_table_transfer_complete not supported");
2811 : 0 : dev = &rte_eth_devices[port_id];
2812 : 0 : ret = ops->flow_template_table_resize_complete(dev, table, error);
2813 : 0 : ret = flow_err(port_id, ret, error);
2814 : : rte_flow_trace_table_resize_complete(port_id, table, ret);
2815 : 0 : return ret;
2816 : : }
2817 : :
2818 : : static struct rte_flow *
2819 : 0 : rte_flow_dummy_async_create(struct rte_eth_dev *dev __rte_unused,
2820 : : uint32_t queue __rte_unused,
2821 : : const struct rte_flow_op_attr *attr __rte_unused,
2822 : : struct rte_flow_template_table *table __rte_unused,
2823 : : const struct rte_flow_item items[] __rte_unused,
2824 : : uint8_t pattern_template_index __rte_unused,
2825 : : const struct rte_flow_action actions[] __rte_unused,
2826 : : uint8_t action_template_index __rte_unused,
2827 : : void *user_data __rte_unused,
2828 : : struct rte_flow_error *error)
2829 : : {
2830 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2831 : : rte_strerror(ENOSYS));
2832 : 0 : return NULL;
2833 : : }
2834 : :
2835 : : static struct rte_flow *
2836 : 0 : rte_flow_dummy_async_create_by_index(struct rte_eth_dev *dev __rte_unused,
2837 : : uint32_t queue __rte_unused,
2838 : : const struct rte_flow_op_attr *attr __rte_unused,
2839 : : struct rte_flow_template_table *table __rte_unused,
2840 : : uint32_t rule_index __rte_unused,
2841 : : const struct rte_flow_action actions[] __rte_unused,
2842 : : uint8_t action_template_index __rte_unused,
2843 : : void *user_data __rte_unused,
2844 : : struct rte_flow_error *error)
2845 : : {
2846 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2847 : : rte_strerror(ENOSYS));
2848 : 0 : return NULL;
2849 : : }
2850 : :
2851 : : static struct rte_flow *
2852 : 0 : rte_flow_dummy_async_create_by_index_with_pattern(struct rte_eth_dev *dev __rte_unused,
2853 : : uint32_t queue __rte_unused,
2854 : : const struct rte_flow_op_attr *attr __rte_unused,
2855 : : struct rte_flow_template_table *table __rte_unused,
2856 : : uint32_t rule_index __rte_unused,
2857 : : const struct rte_flow_item items[] __rte_unused,
2858 : : uint8_t pattern_template_index __rte_unused,
2859 : : const struct rte_flow_action actions[] __rte_unused,
2860 : : uint8_t action_template_index __rte_unused,
2861 : : void *user_data __rte_unused,
2862 : : struct rte_flow_error *error)
2863 : : {
2864 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2865 : : rte_strerror(ENOSYS));
2866 : 0 : return NULL;
2867 : : }
2868 : :
2869 : : static int
2870 : 0 : rte_flow_dummy_async_actions_update(struct rte_eth_dev *dev __rte_unused,
2871 : : uint32_t queue_id __rte_unused,
2872 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2873 : : struct rte_flow *flow __rte_unused,
2874 : : const struct rte_flow_action actions[] __rte_unused,
2875 : : uint8_t actions_template_index __rte_unused,
2876 : : void *user_data __rte_unused,
2877 : : struct rte_flow_error *error)
2878 : : {
2879 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2880 : : rte_strerror(ENOSYS));
2881 : : }
2882 : :
2883 : : static int
2884 : 0 : rte_flow_dummy_async_destroy(struct rte_eth_dev *dev __rte_unused,
2885 : : uint32_t queue_id __rte_unused,
2886 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2887 : : struct rte_flow *flow __rte_unused,
2888 : : void *user_data __rte_unused,
2889 : : struct rte_flow_error *error)
2890 : : {
2891 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2892 : : rte_strerror(ENOSYS));
2893 : : }
2894 : :
2895 : : static int
2896 : 0 : rte_flow_dummy_push(struct rte_eth_dev *dev __rte_unused,
2897 : : uint32_t queue_id __rte_unused,
2898 : : struct rte_flow_error *error)
2899 : : {
2900 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2901 : : rte_strerror(ENOSYS));
2902 : : }
2903 : :
2904 : : static int
2905 : 0 : rte_flow_dummy_pull(struct rte_eth_dev *dev __rte_unused,
2906 : : uint32_t queue_id __rte_unused,
2907 : : struct rte_flow_op_result res[] __rte_unused,
2908 : : uint16_t n_res __rte_unused,
2909 : : struct rte_flow_error *error)
2910 : : {
2911 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2912 : : rte_strerror(ENOSYS));
2913 : : }
2914 : :
2915 : : static struct rte_flow_action_handle *
2916 : 0 : rte_flow_dummy_async_action_handle_create(
2917 : : struct rte_eth_dev *dev __rte_unused,
2918 : : uint32_t queue_id __rte_unused,
2919 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2920 : : const struct rte_flow_indir_action_conf *indir_action_conf __rte_unused,
2921 : : const struct rte_flow_action *action __rte_unused,
2922 : : void *user_data __rte_unused,
2923 : : struct rte_flow_error *error)
2924 : : {
2925 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2926 : : rte_strerror(ENOSYS));
2927 : 0 : return NULL;
2928 : : }
2929 : :
2930 : : static int
2931 : 0 : rte_flow_dummy_async_action_handle_destroy(
2932 : : struct rte_eth_dev *dev __rte_unused,
2933 : : uint32_t queue_id __rte_unused,
2934 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2935 : : struct rte_flow_action_handle *action_handle __rte_unused,
2936 : : void *user_data __rte_unused,
2937 : : struct rte_flow_error *error)
2938 : : {
2939 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2940 : : rte_strerror(ENOSYS));
2941 : : }
2942 : :
2943 : : static int
2944 : 0 : rte_flow_dummy_async_action_handle_update(
2945 : : struct rte_eth_dev *dev __rte_unused,
2946 : : uint32_t queue_id __rte_unused,
2947 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2948 : : struct rte_flow_action_handle *action_handle __rte_unused,
2949 : : const void *update __rte_unused,
2950 : : void *user_data __rte_unused,
2951 : : struct rte_flow_error *error)
2952 : : {
2953 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2954 : : rte_strerror(ENOSYS));
2955 : : }
2956 : :
2957 : : static int
2958 : 0 : rte_flow_dummy_async_action_handle_query(
2959 : : struct rte_eth_dev *dev __rte_unused,
2960 : : uint32_t queue_id __rte_unused,
2961 : : const struct rte_flow_op_attr *op_attr __rte_unused,
2962 : : const struct rte_flow_action_handle *action_handle __rte_unused,
2963 : : void *data __rte_unused,
2964 : : void *user_data __rte_unused,
2965 : : struct rte_flow_error *error)
2966 : : {
2967 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2968 : : rte_strerror(ENOSYS));
2969 : : }
2970 : :
2971 : : static int
2972 : 0 : rte_flow_dummy_async_action_handle_query_update(
2973 : : struct rte_eth_dev *dev __rte_unused,
2974 : : uint32_t queue_id __rte_unused,
2975 : : const struct rte_flow_op_attr *attr __rte_unused,
2976 : : struct rte_flow_action_handle *handle __rte_unused,
2977 : : const void *update __rte_unused,
2978 : : void *query __rte_unused,
2979 : : enum rte_flow_query_update_mode mode __rte_unused,
2980 : : void *user_data __rte_unused,
2981 : : struct rte_flow_error *error)
2982 : : {
2983 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2984 : : rte_strerror(ENOSYS));
2985 : : }
2986 : :
2987 : : static struct rte_flow_action_list_handle *
2988 : 0 : rte_flow_dummy_async_action_list_handle_create(
2989 : : struct rte_eth_dev *dev __rte_unused,
2990 : : uint32_t queue_id __rte_unused,
2991 : : const struct rte_flow_op_attr *attr __rte_unused,
2992 : : const struct rte_flow_indir_action_conf *conf __rte_unused,
2993 : : const struct rte_flow_action *actions __rte_unused,
2994 : : void *user_data __rte_unused,
2995 : : struct rte_flow_error *error)
2996 : : {
2997 : 0 : rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
2998 : : rte_strerror(ENOSYS));
2999 : 0 : return NULL;
3000 : : }
3001 : :
3002 : : static int
3003 : 0 : rte_flow_dummy_async_action_list_handle_destroy(
3004 : : struct rte_eth_dev *dev __rte_unused,
3005 : : uint32_t queue_id __rte_unused,
3006 : : const struct rte_flow_op_attr *op_attr __rte_unused,
3007 : : struct rte_flow_action_list_handle *handle __rte_unused,
3008 : : void *user_data __rte_unused,
3009 : : struct rte_flow_error *error)
3010 : : {
3011 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
3012 : : rte_strerror(ENOSYS));
3013 : : }
3014 : :
3015 : : static int
3016 : 0 : rte_flow_dummy_async_action_list_handle_query_update(
3017 : : struct rte_eth_dev *dev __rte_unused,
3018 : : uint32_t queue_id __rte_unused,
3019 : : const struct rte_flow_op_attr *attr __rte_unused,
3020 : : const struct rte_flow_action_list_handle *handle __rte_unused,
3021 : : const void **update __rte_unused,
3022 : : void **query __rte_unused,
3023 : : enum rte_flow_query_update_mode mode __rte_unused,
3024 : : void *user_data __rte_unused,
3025 : : struct rte_flow_error *error)
3026 : : {
3027 : 0 : return rte_flow_error_set(error, ENOSYS, RTE_FLOW_ERROR_TYPE_UNSPECIFIED, NULL,
3028 : : rte_strerror(ENOSYS));
3029 : : }
3030 : :
3031 : : RTE_EXPORT_INTERNAL_SYMBOL(rte_flow_fp_default_ops)
3032 : : struct rte_flow_fp_ops rte_flow_fp_default_ops = {
3033 : : .async_create = rte_flow_dummy_async_create,
3034 : : .async_create_by_index = rte_flow_dummy_async_create_by_index,
3035 : : .async_actions_update = rte_flow_dummy_async_actions_update,
3036 : : .async_create_by_index_with_pattern = rte_flow_dummy_async_create_by_index_with_pattern,
3037 : : .async_destroy = rte_flow_dummy_async_destroy,
3038 : : .push = rte_flow_dummy_push,
3039 : : .pull = rte_flow_dummy_pull,
3040 : : .async_action_handle_create = rte_flow_dummy_async_action_handle_create,
3041 : : .async_action_handle_destroy = rte_flow_dummy_async_action_handle_destroy,
3042 : : .async_action_handle_update = rte_flow_dummy_async_action_handle_update,
3043 : : .async_action_handle_query = rte_flow_dummy_async_action_handle_query,
3044 : : .async_action_handle_query_update = rte_flow_dummy_async_action_handle_query_update,
3045 : : .async_action_list_handle_create = rte_flow_dummy_async_action_list_handle_create,
3046 : : .async_action_list_handle_destroy = rte_flow_dummy_async_action_list_handle_destroy,
3047 : : .async_action_list_handle_query_update =
3048 : : rte_flow_dummy_async_action_list_handle_query_update,
3049 : : };
|