Branch data Line data Source code
1 : : /* SPDX-License-Identifier: BSD-3-Clause
2 : : * Copyright(c) 2014-2023 Broadcom
3 : : * All rights reserved.
4 : : */
5 : :
6 : : #include <inttypes.h>
7 : : #include <stdbool.h>
8 : :
9 : : #include <rte_bitmap.h>
10 : : #include <rte_byteorder.h>
11 : : #include <rte_malloc.h>
12 : : #include <rte_memory.h>
13 : : #include <rte_alarm.h>
14 : :
15 : : #include "bnxt.h"
16 : : #include "bnxt_reps.h"
17 : : #include "bnxt_ring.h"
18 : : #include "bnxt_rxr.h"
19 : : #include "bnxt_rxq.h"
20 : : #include "hsi_struct_def_dpdk.h"
21 : : #include "bnxt_hwrm.h"
22 : :
23 : : #include <bnxt_tf_common.h>
24 : : #include <ulp_mark_mgr.h>
25 : :
26 : : /*
27 : : * RX Ring handling
28 : : */
29 : :
30 : : static inline struct rte_mbuf *__bnxt_alloc_rx_data(struct rte_mempool *mb)
31 : : {
32 : : struct rte_mbuf *data;
33 : :
34 : 0 : data = rte_mbuf_raw_alloc(mb);
35 : :
36 : : return data;
37 : : }
38 : :
39 : 0 : static inline int bnxt_alloc_rx_data(struct bnxt_rx_queue *rxq,
40 : : struct bnxt_rx_ring_info *rxr,
41 : : uint16_t raw_prod)
42 : : {
43 : 0 : uint16_t prod = RING_IDX(rxr->rx_ring_struct, raw_prod);
44 : : struct rx_prod_pkt_bd *rxbd;
45 : : struct rte_mbuf **rx_buf;
46 : : struct rte_mbuf *mbuf;
47 : :
48 : 0 : rxbd = &rxr->rx_desc_ring[prod];
49 : 0 : rx_buf = &rxr->rx_buf_ring[prod];
50 : 0 : mbuf = __bnxt_alloc_rx_data(rxq->mb_pool);
51 [ # # ]: 0 : if (!mbuf) {
52 : 0 : __atomic_fetch_add(&rxq->rx_mbuf_alloc_fail, 1, __ATOMIC_RELAXED);
53 : : /* If buff has failed already, setting this again won't hurt */
54 : 0 : rxq->need_realloc = 1;
55 : 0 : return -ENOMEM;
56 : : }
57 : :
58 : 0 : *rx_buf = mbuf;
59 : 0 : mbuf->data_off = RTE_PKTMBUF_HEADROOM;
60 : :
61 : 0 : rxbd->address = rte_cpu_to_le_64(rte_mbuf_data_iova_default(mbuf));
62 : :
63 : 0 : return 0;
64 : : }
65 : :
66 : 0 : static inline int bnxt_alloc_ag_data(struct bnxt_rx_queue *rxq,
67 : : struct bnxt_rx_ring_info *rxr,
68 : : uint16_t raw_prod)
69 : : {
70 : 0 : uint16_t prod = RING_IDX(rxr->ag_ring_struct, raw_prod);
71 : : struct rx_prod_pkt_bd *rxbd;
72 : : struct rte_mbuf **rx_buf;
73 : : struct rte_mbuf *mbuf;
74 : :
75 : 0 : rxbd = &rxr->ag_desc_ring[prod];
76 : 0 : rx_buf = &rxr->ag_buf_ring[prod];
77 [ # # ]: 0 : if (rxbd == NULL) {
78 : 0 : PMD_DRV_LOG(ERR, "Jumbo Frame. rxbd is NULL\n");
79 : 0 : return -EINVAL;
80 : : }
81 : :
82 [ # # ]: 0 : if (rx_buf == NULL) {
83 : 0 : PMD_DRV_LOG(ERR, "Jumbo Frame. rx_buf is NULL\n");
84 : 0 : return -EINVAL;
85 : : }
86 : :
87 : 0 : mbuf = __bnxt_alloc_rx_data(rxq->mb_pool);
88 [ # # ]: 0 : if (!mbuf) {
89 : 0 : __atomic_fetch_add(&rxq->rx_mbuf_alloc_fail, 1, __ATOMIC_RELAXED);
90 : : /* If buff has failed already, setting this again won't hurt */
91 : 0 : rxq->need_realloc = 1;
92 : 0 : return -ENOMEM;
93 : : }
94 : :
95 : 0 : *rx_buf = mbuf;
96 : 0 : mbuf->data_off = RTE_PKTMBUF_HEADROOM;
97 : :
98 : 0 : rxbd->address = rte_cpu_to_le_64(rte_mbuf_data_iova_default(mbuf));
99 : :
100 : 0 : return 0;
101 : : }
102 : :
103 : : static inline void bnxt_reuse_rx_mbuf(struct bnxt_rx_ring_info *rxr,
104 : : struct rte_mbuf *mbuf)
105 : : {
106 : 0 : uint16_t prod, raw_prod = RING_NEXT(rxr->rx_raw_prod);
107 : : struct rte_mbuf **prod_rx_buf;
108 : : struct rx_prod_pkt_bd *prod_bd;
109 : :
110 : 0 : prod = RING_IDX(rxr->rx_ring_struct, raw_prod);
111 : 0 : prod_rx_buf = &rxr->rx_buf_ring[prod];
112 : :
113 : : RTE_ASSERT(*prod_rx_buf == NULL);
114 : : RTE_ASSERT(mbuf != NULL);
115 : :
116 : 0 : *prod_rx_buf = mbuf;
117 : :
118 : 0 : prod_bd = &rxr->rx_desc_ring[prod];
119 : :
120 : 0 : prod_bd->address = rte_cpu_to_le_64(rte_mbuf_data_iova_default(mbuf));
121 : :
122 : 0 : rxr->rx_raw_prod = raw_prod;
123 : : }
124 : :
125 : : static inline
126 : : struct rte_mbuf *bnxt_consume_rx_buf(struct bnxt_rx_ring_info *rxr,
127 : : uint16_t cons)
128 : : {
129 : : struct rte_mbuf **cons_rx_buf;
130 : : struct rte_mbuf *mbuf;
131 : :
132 : 0 : cons_rx_buf = &rxr->rx_buf_ring[RING_IDX(rxr->rx_ring_struct, cons)];
133 : : RTE_ASSERT(*cons_rx_buf != NULL);
134 : 0 : mbuf = *cons_rx_buf;
135 : 0 : *cons_rx_buf = NULL;
136 : :
137 : : return mbuf;
138 : : }
139 : :
140 : 0 : static void bnxt_rx_ring_reset(void *arg)
141 : : {
142 : : struct bnxt *bp = arg;
143 : : int i, rc = 0;
144 : : struct bnxt_rx_queue *rxq;
145 : :
146 [ # # ]: 0 : for (i = 0; i < (int)bp->rx_nr_rings; i++) {
147 : : struct bnxt_rx_ring_info *rxr;
148 : :
149 : 0 : rxq = bp->rx_queues[i];
150 [ # # # # ]: 0 : if (!rxq || !rxq->in_reset)
151 : 0 : continue;
152 : :
153 : 0 : rxr = rxq->rx_ring;
154 : : /* Disable and flush TPA before resetting the RX ring */
155 [ # # ]: 0 : if (rxr->tpa_info)
156 : 0 : bnxt_vnic_tpa_cfg(bp, rxq->queue_id, false);
157 : :
158 : 0 : rc = bnxt_hwrm_rx_ring_reset(bp, i);
159 [ # # ]: 0 : if (rc) {
160 : 0 : PMD_DRV_LOG(ERR, "Rx ring%d reset failed\n", i);
161 : 0 : continue;
162 : : }
163 : :
164 : 0 : bnxt_rx_queue_release_mbufs(rxq);
165 : 0 : rxr->rx_raw_prod = 0;
166 : 0 : rxr->ag_raw_prod = 0;
167 : 0 : rxr->ag_cons = 0;
168 : 0 : rxr->rx_next_cons = 0;
169 : 0 : bnxt_init_one_rx_ring(rxq);
170 [ # # ]: 0 : bnxt_db_write(&rxr->rx_db, rxr->rx_raw_prod);
171 [ # # ]: 0 : bnxt_db_write(&rxr->ag_db, rxr->ag_raw_prod);
172 [ # # ]: 0 : if (rxr->tpa_info)
173 : 0 : bnxt_vnic_tpa_cfg(bp, rxq->queue_id, true);
174 : :
175 : 0 : rxq->in_reset = 0;
176 : : }
177 : 0 : }
178 : :
179 : :
180 : : static void bnxt_sched_ring_reset(struct bnxt_rx_queue *rxq)
181 : : {
182 : 0 : rxq->in_reset = 1;
183 : 0 : rte_eal_alarm_set(1, bnxt_rx_ring_reset, (void *)rxq->bp);
184 : : }
185 : :
186 : 0 : static void bnxt_tpa_get_metadata(struct bnxt *bp,
187 : : struct bnxt_tpa_info *tpa_info,
188 : : struct rx_tpa_start_cmpl *tpa_start,
189 : : struct rx_tpa_start_cmpl_hi *tpa_start1)
190 : : {
191 : 0 : tpa_info->cfa_code_valid = 0;
192 : 0 : tpa_info->vlan_valid = 0;
193 : 0 : tpa_info->hash_valid = 0;
194 : 0 : tpa_info->l4_csum_valid = 0;
195 : :
196 [ # # ]: 0 : if (likely(tpa_start->flags_type &
197 : : rte_cpu_to_le_32(RX_TPA_START_CMPL_FLAGS_RSS_VALID))) {
198 : 0 : tpa_info->hash_valid = 1;
199 : 0 : tpa_info->rss_hash = rte_le_to_cpu_32(tpa_start->rss_hash);
200 : : }
201 : :
202 [ # # ]: 0 : if (bp->vnic_cap_flags & BNXT_VNIC_CAP_RX_CMPL_V2) {
203 : : struct rx_tpa_start_v2_cmpl *v2_tpa_start = (void *)tpa_start;
204 : : struct rx_tpa_start_v2_cmpl_hi *v2_tpa_start1 =
205 : : (void *)tpa_start1;
206 : :
207 [ # # ]: 0 : if (v2_tpa_start->agg_id &
208 : : RX_TPA_START_V2_CMPL_METADATA1_VALID) {
209 : 0 : tpa_info->vlan_valid = 1;
210 : 0 : tpa_info->vlan =
211 : 0 : rte_le_to_cpu_16(v2_tpa_start1->metadata0);
212 : : }
213 : :
214 [ # # ]: 0 : if (v2_tpa_start1->flags2 & RX_CMP_FLAGS2_L4_CSUM_ALL_OK_MASK)
215 : 0 : tpa_info->l4_csum_valid = 1;
216 : :
217 : 0 : return;
218 : : }
219 : :
220 : 0 : tpa_info->cfa_code_valid = 1;
221 : 0 : tpa_info->cfa_code = rte_le_to_cpu_16(tpa_start1->cfa_code);
222 [ # # ]: 0 : if (tpa_start1->flags2 &
223 : : rte_cpu_to_le_32(RX_TPA_START_CMPL_FLAGS2_META_FORMAT_VLAN)) {
224 : 0 : tpa_info->vlan_valid = 1;
225 : 0 : tpa_info->vlan = rte_le_to_cpu_32(tpa_start1->metadata);
226 : : }
227 : :
228 [ # # ]: 0 : if (likely(tpa_start1->flags2 &
229 : : rte_cpu_to_le_32(RX_TPA_START_CMPL_FLAGS2_L4_CS_CALC)))
230 : 0 : tpa_info->l4_csum_valid = 1;
231 : : }
232 : :
233 : 0 : static void bnxt_tpa_start(struct bnxt_rx_queue *rxq,
234 : : struct rx_tpa_start_cmpl *tpa_start,
235 : : struct rx_tpa_start_cmpl_hi *tpa_start1)
236 : : {
237 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
238 : : uint16_t agg_id;
239 : : uint16_t data_cons;
240 : : struct bnxt_tpa_info *tpa_info;
241 : : struct rte_mbuf *mbuf;
242 : :
243 [ # # ]: 0 : agg_id = bnxt_tpa_start_agg_id(rxq->bp, tpa_start);
244 : :
245 : 0 : data_cons = tpa_start->opaque;
246 : 0 : tpa_info = &rxr->tpa_info[agg_id];
247 [ # # ]: 0 : if (unlikely(data_cons != rxr->rx_next_cons)) {
248 : 0 : PMD_DRV_LOG(ERR, "TPA cons %x, expected cons %x\n",
249 : : data_cons, rxr->rx_next_cons);
250 : : bnxt_sched_ring_reset(rxq);
251 : 0 : return;
252 : : }
253 : :
254 : : mbuf = bnxt_consume_rx_buf(rxr, data_cons);
255 : :
256 : 0 : bnxt_reuse_rx_mbuf(rxr, tpa_info->mbuf);
257 : :
258 : 0 : tpa_info->agg_count = 0;
259 : 0 : tpa_info->mbuf = mbuf;
260 : 0 : tpa_info->len = rte_le_to_cpu_32(tpa_start->len);
261 : :
262 : 0 : mbuf->data_off = RTE_PKTMBUF_HEADROOM;
263 : 0 : mbuf->nb_segs = 1;
264 : 0 : mbuf->next = NULL;
265 : 0 : mbuf->pkt_len = rte_le_to_cpu_32(tpa_start->len);
266 : 0 : mbuf->data_len = mbuf->pkt_len;
267 : 0 : mbuf->port = rxq->port_id;
268 : 0 : mbuf->ol_flags = RTE_MBUF_F_RX_LRO;
269 : :
270 : 0 : bnxt_tpa_get_metadata(rxq->bp, tpa_info, tpa_start, tpa_start1);
271 : :
272 [ # # ]: 0 : if (likely(tpa_info->hash_valid)) {
273 : 0 : mbuf->hash.rss = tpa_info->rss_hash;
274 : 0 : mbuf->ol_flags |= RTE_MBUF_F_RX_RSS_HASH;
275 [ # # ]: 0 : } else if (tpa_info->cfa_code_valid) {
276 : 0 : mbuf->hash.fdir.id = tpa_info->cfa_code;
277 : 0 : mbuf->ol_flags |= RTE_MBUF_F_RX_FDIR | RTE_MBUF_F_RX_FDIR_ID;
278 : : }
279 : :
280 [ # # # # ]: 0 : if (tpa_info->vlan_valid && BNXT_RX_VLAN_STRIP_EN(rxq->bp)) {
281 : 0 : mbuf->vlan_tci = tpa_info->vlan;
282 : 0 : mbuf->ol_flags |= RTE_MBUF_F_RX_VLAN | RTE_MBUF_F_RX_VLAN_STRIPPED;
283 : : }
284 : :
285 [ # # ]: 0 : if (likely(tpa_info->l4_csum_valid))
286 : 0 : mbuf->ol_flags |= RTE_MBUF_F_RX_L4_CKSUM_GOOD;
287 : :
288 : : /* recycle next mbuf */
289 : 0 : data_cons = RING_NEXT(data_cons);
290 : : bnxt_reuse_rx_mbuf(rxr, bnxt_consume_rx_buf(rxr, data_cons));
291 : :
292 : 0 : rxr->rx_next_cons = RING_IDX(rxr->rx_ring_struct,
293 : : RING_NEXT(data_cons));
294 : : }
295 : :
296 : 0 : static int bnxt_agg_bufs_valid(struct bnxt_cp_ring_info *cpr,
297 : : uint8_t agg_bufs, uint32_t raw_cp_cons)
298 : : {
299 : : uint16_t last_cp_cons;
300 : : struct rx_pkt_cmpl *agg_cmpl;
301 : :
302 : 0 : raw_cp_cons = ADV_RAW_CMP(raw_cp_cons, agg_bufs);
303 : 0 : last_cp_cons = RING_CMP(cpr->cp_ring_struct, raw_cp_cons);
304 : 0 : agg_cmpl = (struct rx_pkt_cmpl *)&cpr->cp_desc_ring[last_cp_cons];
305 [ # # ]: 0 : return bnxt_cpr_cmp_valid(agg_cmpl, raw_cp_cons,
306 : : cpr->cp_ring_struct->ring_size);
307 : : }
308 : :
309 : : /* TPA consume agg buffer out of order, allocate connected data only */
310 : 0 : static int bnxt_prod_ag_mbuf(struct bnxt_rx_queue *rxq)
311 : : {
312 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
313 : 0 : uint16_t raw_next = RING_NEXT(rxr->ag_raw_prod);
314 : 0 : uint16_t bmap_next = RING_IDX(rxr->ag_ring_struct, raw_next);
315 : :
316 : : /* TODO batch allocation for better performance */
317 [ # # ]: 0 : while (rte_bitmap_get(rxr->ag_bitmap, bmap_next)) {
318 [ # # ]: 0 : if (unlikely(bnxt_alloc_ag_data(rxq, rxr, raw_next))) {
319 : 0 : PMD_DRV_LOG(ERR, "agg mbuf alloc failed: prod=0x%x\n",
320 : : raw_next);
321 : 0 : break;
322 : : }
323 : 0 : rte_bitmap_clear(rxr->ag_bitmap, bmap_next);
324 : 0 : rxr->ag_raw_prod = raw_next;
325 : 0 : raw_next = RING_NEXT(raw_next);
326 : 0 : bmap_next = RING_IDX(rxr->ag_ring_struct, raw_next);
327 : : }
328 : :
329 : 0 : return 0;
330 : : }
331 : :
332 : 0 : static int bnxt_rx_pages(struct bnxt_rx_queue *rxq,
333 : : struct rte_mbuf *mbuf, uint32_t *tmp_raw_cons,
334 : : uint8_t agg_buf, struct bnxt_tpa_info *tpa_info)
335 : : {
336 : 0 : struct bnxt_cp_ring_info *cpr = rxq->cp_ring;
337 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
338 : : int i;
339 : : uint16_t cp_cons, ag_cons;
340 : : struct rx_pkt_cmpl *rxcmp;
341 : : struct rte_mbuf *last = mbuf;
342 [ # # # # ]: 0 : bool is_p5_tpa = tpa_info && BNXT_CHIP_P5_P7(rxq->bp);
343 : :
344 [ # # ]: 0 : for (i = 0; i < agg_buf; i++) {
345 : : struct rte_mbuf **ag_buf;
346 : : struct rte_mbuf *ag_mbuf;
347 : :
348 [ # # ]: 0 : if (is_p5_tpa) {
349 : 0 : rxcmp = (void *)&tpa_info->agg_arr[i];
350 : : } else {
351 : 0 : *tmp_raw_cons = NEXT_RAW_CMP(*tmp_raw_cons);
352 : 0 : cp_cons = RING_CMP(cpr->cp_ring_struct, *tmp_raw_cons);
353 : 0 : rxcmp = (struct rx_pkt_cmpl *)
354 : 0 : &cpr->cp_desc_ring[cp_cons];
355 : : }
356 : :
357 : : #ifdef BNXT_DEBUG
358 : : bnxt_dump_cmpl(cp_cons, rxcmp);
359 : : #endif
360 : :
361 : 0 : ag_cons = rxcmp->opaque;
362 : : RTE_ASSERT(ag_cons <= rxr->ag_ring_struct->ring_mask);
363 : 0 : ag_buf = &rxr->ag_buf_ring[ag_cons];
364 : 0 : ag_mbuf = *ag_buf;
365 [ # # ]: 0 : if (ag_mbuf == NULL)
366 : : return -EBUSY;
367 : :
368 : 0 : ag_mbuf->data_len = rte_le_to_cpu_16(rxcmp->len);
369 : :
370 : 0 : mbuf->nb_segs++;
371 : 0 : mbuf->pkt_len += ag_mbuf->data_len;
372 : :
373 : 0 : last->next = ag_mbuf;
374 : : last = ag_mbuf;
375 : :
376 : 0 : *ag_buf = NULL;
377 : :
378 : : /*
379 : : * As aggregation buffer consumed out of order in TPA module,
380 : : * use bitmap to track freed slots to be allocated and notified
381 : : * to NIC
382 : : */
383 : 0 : rte_bitmap_set(rxr->ag_bitmap, ag_cons);
384 : : }
385 : 0 : last->next = NULL;
386 : 0 : bnxt_prod_ag_mbuf(rxq);
387 : 0 : return 0;
388 : : }
389 : :
390 : 0 : static int bnxt_discard_rx(struct bnxt *bp, struct bnxt_cp_ring_info *cpr,
391 : : uint32_t *raw_cons, void *cmp)
392 : : {
393 : : struct rx_pkt_cmpl *rxcmp = cmp;
394 : 0 : uint32_t tmp_raw_cons = *raw_cons;
395 : : uint8_t cmp_type, agg_bufs = 0;
396 : :
397 : 0 : cmp_type = CMP_TYPE(rxcmp);
398 : :
399 [ # # ]: 0 : if (cmp_type == CMPL_BASE_TYPE_RX_L2) {
400 : 0 : agg_bufs = BNXT_RX_L2_AGG_BUFS(rxcmp);
401 [ # # ]: 0 : } else if (cmp_type == RX_TPA_END_CMPL_TYPE_RX_TPA_END) {
402 : : struct rx_tpa_end_cmpl *tpa_end = cmp;
403 : :
404 [ # # ]: 0 : if (BNXT_CHIP_P5_P7(bp))
405 : : return 0;
406 : :
407 : 0 : agg_bufs = BNXT_TPA_END_AGG_BUFS(tpa_end);
408 : : }
409 : :
410 [ # # ]: 0 : if (agg_bufs) {
411 [ # # ]: 0 : if (!bnxt_agg_bufs_valid(cpr, agg_bufs, tmp_raw_cons))
412 : : return -EBUSY;
413 : : }
414 : 0 : *raw_cons = tmp_raw_cons;
415 : 0 : return 0;
416 : : }
417 : :
418 : 0 : static inline struct rte_mbuf *bnxt_tpa_end(
419 : : struct bnxt_rx_queue *rxq,
420 : : uint32_t *raw_cp_cons,
421 : : struct rx_tpa_end_cmpl *tpa_end,
422 : : struct rx_tpa_end_cmpl_hi *tpa_end1)
423 : : {
424 : 0 : struct bnxt_cp_ring_info *cpr = rxq->cp_ring;
425 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
426 : : uint16_t agg_id;
427 : : struct rte_mbuf *mbuf;
428 : : uint8_t agg_bufs;
429 : : uint8_t payload_offset;
430 : : struct bnxt_tpa_info *tpa_info;
431 : :
432 [ # # ]: 0 : if (unlikely(rxq->in_reset)) {
433 : 0 : PMD_DRV_LOG(ERR, "rxq->in_reset: raw_cp_cons:%d\n",
434 : : *raw_cp_cons);
435 : 0 : bnxt_discard_rx(rxq->bp, cpr, raw_cp_cons, tpa_end);
436 : 0 : return NULL;
437 : : }
438 : :
439 [ # # ]: 0 : if (BNXT_CHIP_P5_P7(rxq->bp)) {
440 : : struct rx_tpa_v2_end_cmpl *th_tpa_end;
441 : : struct rx_tpa_v2_end_cmpl_hi *th_tpa_end1;
442 : :
443 : : th_tpa_end = (void *)tpa_end;
444 : : th_tpa_end1 = (void *)tpa_end1;
445 : 0 : agg_id = BNXT_TPA_END_AGG_ID_TH(th_tpa_end);
446 : 0 : agg_bufs = BNXT_TPA_END_AGG_BUFS_TH(th_tpa_end1);
447 : 0 : payload_offset = th_tpa_end1->payload_offset;
448 : : } else {
449 : 0 : agg_id = BNXT_TPA_END_AGG_ID(tpa_end);
450 : 0 : agg_bufs = BNXT_TPA_END_AGG_BUFS(tpa_end);
451 [ # # ]: 0 : if (!bnxt_agg_bufs_valid(cpr, agg_bufs, *raw_cp_cons))
452 : : return NULL;
453 : 0 : payload_offset = tpa_end->payload_offset;
454 : : }
455 : :
456 : 0 : tpa_info = &rxr->tpa_info[agg_id];
457 : 0 : mbuf = tpa_info->mbuf;
458 : : RTE_ASSERT(mbuf != NULL);
459 : :
460 [ # # ]: 0 : if (agg_bufs) {
461 : 0 : (void)bnxt_rx_pages(rxq, mbuf, raw_cp_cons, agg_bufs, tpa_info);
462 : : }
463 : 0 : mbuf->l4_len = payload_offset;
464 : :
465 : 0 : struct rte_mbuf *new_data = __bnxt_alloc_rx_data(rxq->mb_pool);
466 : : RTE_ASSERT(new_data != NULL);
467 [ # # ]: 0 : if (!new_data) {
468 : 0 : __atomic_fetch_add(&rxq->rx_mbuf_alloc_fail, 1, __ATOMIC_RELAXED);
469 : 0 : return NULL;
470 : : }
471 : 0 : tpa_info->mbuf = new_data;
472 : :
473 : 0 : return mbuf;
474 : : }
475 : :
476 : : uint32_t bnxt_ptype_table[BNXT_PTYPE_TBL_DIM] __rte_cache_aligned;
477 : :
478 : : static void __rte_cold
479 : 0 : bnxt_init_ptype_table(void)
480 : : {
481 : : uint32_t *pt = bnxt_ptype_table;
482 : : static bool initialized;
483 : : int ip6, tun, type;
484 : : uint32_t l3;
485 : : int i;
486 : :
487 [ # # ]: 0 : if (initialized)
488 : : return;
489 : :
490 [ # # ]: 0 : for (i = 0; i < BNXT_PTYPE_TBL_DIM; i++) {
491 [ # # ]: 0 : if (i & BNXT_PTYPE_TBL_VLAN_MSK)
492 : 0 : pt[i] = RTE_PTYPE_L2_ETHER_VLAN;
493 : : else
494 : 0 : pt[i] = RTE_PTYPE_L2_ETHER;
495 : :
496 : 0 : ip6 = !!(i & BNXT_PTYPE_TBL_IP_VER_MSK);
497 : 0 : tun = !!(i & BNXT_PTYPE_TBL_TUN_MSK);
498 : 0 : type = (i & BNXT_PTYPE_TBL_TYPE_MSK) >> BNXT_PTYPE_TBL_TYPE_SFT;
499 : :
500 [ # # ]: 0 : if (!tun && !ip6)
501 : : l3 = RTE_PTYPE_L3_IPV4_EXT_UNKNOWN;
502 [ # # ]: 0 : else if (!tun && ip6)
503 : : l3 = RTE_PTYPE_L3_IPV6_EXT_UNKNOWN;
504 [ # # ]: 0 : else if (tun && !ip6)
505 : : l3 = RTE_PTYPE_INNER_L3_IPV4_EXT_UNKNOWN;
506 : : else
507 : : l3 = RTE_PTYPE_INNER_L3_IPV6_EXT_UNKNOWN;
508 : :
509 [ # # # # : 0 : switch (type) {
# ]
510 : 0 : case BNXT_PTYPE_TBL_TYPE_ICMP:
511 [ # # ]: 0 : if (tun)
512 : 0 : pt[i] |= l3 | RTE_PTYPE_INNER_L4_ICMP;
513 : : else
514 : 0 : pt[i] |= l3 | RTE_PTYPE_L4_ICMP;
515 : : break;
516 : 0 : case BNXT_PTYPE_TBL_TYPE_TCP:
517 [ # # ]: 0 : if (tun)
518 : 0 : pt[i] |= l3 | RTE_PTYPE_INNER_L4_TCP;
519 : : else
520 : 0 : pt[i] |= l3 | RTE_PTYPE_L4_TCP;
521 : : break;
522 : 0 : case BNXT_PTYPE_TBL_TYPE_UDP:
523 [ # # ]: 0 : if (tun)
524 : 0 : pt[i] |= l3 | RTE_PTYPE_INNER_L4_UDP;
525 : : else
526 : 0 : pt[i] |= l3 | RTE_PTYPE_L4_UDP;
527 : : break;
528 : 0 : case BNXT_PTYPE_TBL_TYPE_IP:
529 : 0 : pt[i] |= l3;
530 : 0 : break;
531 : : }
532 : : }
533 : 0 : initialized = true;
534 : : }
535 : :
536 : : static uint32_t
537 : : bnxt_parse_pkt_type(struct rx_pkt_cmpl *rxcmp, struct rx_pkt_cmpl_hi *rxcmp1)
538 : : {
539 : : uint32_t flags_type, flags2;
540 : : uint8_t index;
541 : :
542 : 0 : flags_type = rte_le_to_cpu_16(rxcmp->flags_type);
543 : 0 : flags2 = rte_le_to_cpu_32(rxcmp1->flags2);
544 : :
545 : : /* Validate ptype table indexing at build time. */
546 : : bnxt_check_ptype_constants();
547 : :
548 : : /*
549 : : * Index format:
550 : : * bit 0: Set if IP tunnel encapsulated packet.
551 : : * bit 1: Set if IPv6 packet, clear if IPv4.
552 : : * bit 2: Set if VLAN tag present.
553 : : * bits 3-6: Four-bit hardware packet type field.
554 : : */
555 : 0 : index = BNXT_CMPL_ITYPE_TO_IDX(flags_type) |
556 : 0 : BNXT_CMPL_VLAN_TUN_TO_IDX(flags2) |
557 : 0 : BNXT_CMPL_IP_VER_TO_IDX(flags2);
558 : :
559 : 0 : return bnxt_ptype_table[index];
560 : : }
561 : :
562 : : static void
563 : : bnxt_parse_pkt_type_v3(struct rte_mbuf *mbuf,
564 : : struct rx_pkt_cmpl *rxcmp_v1,
565 : : struct rx_pkt_cmpl_hi *rxcmp1_v1)
566 : : {
567 : : uint32_t flags_type, flags2, meta;
568 : : struct rx_pkt_v3_cmpl_hi *rxcmp1;
569 : : struct rx_pkt_v3_cmpl *rxcmp;
570 : : uint8_t index;
571 : :
572 : : rxcmp = (void *)rxcmp_v1;
573 : : rxcmp1 = (void *)rxcmp1_v1;
574 : :
575 : 0 : flags_type = rte_le_to_cpu_16(rxcmp->flags_type);
576 : : flags2 = rte_le_to_cpu_32(rxcmp1->flags2);
577 : 0 : meta = rte_le_to_cpu_32(rxcmp->metadata1_payload_offset);
578 : :
579 : : /* TODO */
580 : : /* Validate ptype table indexing at build time. */
581 : : /* bnxt_check_ptype_constants_v3(); */
582 : :
583 : : /*
584 : : * Index format:
585 : : * bit 0: Set if IP tunnel encapsulated packet.
586 : : * bit 1: Set if IPv6 packet, clear if IPv4.
587 : : * bit 2: Set if VLAN tag present.
588 : : * bits 3-6: Four-bit hardware packet type field.
589 : : */
590 : 0 : index = BNXT_CMPL_V3_ITYPE_TO_IDX(flags_type) |
591 : 0 : BNXT_CMPL_V3_VLAN_TO_IDX(meta) |
592 : 0 : BNXT_CMPL_V3_IP_VER_TO_IDX(flags2);
593 : :
594 [ # # ]: 0 : mbuf->packet_type = bnxt_ptype_table[index];
595 : : }
596 : :
597 : : static void __rte_cold
598 : 0 : bnxt_init_ol_flags_tables(struct bnxt_rx_queue *rxq)
599 : : {
600 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
601 : : struct rte_eth_conf *dev_conf;
602 : : bool outer_cksum_enabled;
603 : : uint64_t offloads;
604 : : uint32_t *pt;
605 : : int i;
606 : :
607 : 0 : dev_conf = &rxq->bp->eth_dev->data->dev_conf;
608 : 0 : offloads = dev_conf->rxmode.offloads;
609 : :
610 : 0 : outer_cksum_enabled = !!(offloads & (RTE_ETH_RX_OFFLOAD_OUTER_IPV4_CKSUM |
611 : : RTE_ETH_RX_OFFLOAD_OUTER_UDP_CKSUM));
612 : :
613 : : /* Initialize ol_flags table. */
614 : 0 : pt = rxr->ol_flags_table;
615 [ # # ]: 0 : for (i = 0; i < BNXT_OL_FLAGS_TBL_DIM; i++) {
616 : 0 : pt[i] = 0;
617 : :
618 [ # # ]: 0 : if (BNXT_RX_VLAN_STRIP_EN(rxq->bp)) {
619 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_META_FORMAT_VLAN)
620 : 0 : pt[i] |= RTE_MBUF_F_RX_VLAN | RTE_MBUF_F_RX_VLAN_STRIPPED;
621 : : }
622 : :
623 [ # # ]: 0 : if (i & (RX_PKT_CMPL_FLAGS2_T_IP_CS_CALC << 3)) {
624 : : /* Tunnel case. */
625 [ # # ]: 0 : if (outer_cksum_enabled) {
626 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_IP_CS_CALC)
627 : 0 : pt[i] |= RTE_MBUF_F_RX_IP_CKSUM_GOOD;
628 : :
629 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_L4_CS_CALC)
630 : 0 : pt[i] |= RTE_MBUF_F_RX_L4_CKSUM_GOOD;
631 : :
632 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_T_L4_CS_CALC)
633 : 0 : pt[i] |= RTE_MBUF_F_RX_OUTER_L4_CKSUM_GOOD;
634 : : } else {
635 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_T_IP_CS_CALC)
636 : 0 : pt[i] |= RTE_MBUF_F_RX_IP_CKSUM_GOOD;
637 : :
638 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_T_L4_CS_CALC)
639 : 0 : pt[i] |= RTE_MBUF_F_RX_L4_CKSUM_GOOD;
640 : : }
641 : : } else {
642 : : /* Non-tunnel case. */
643 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_IP_CS_CALC)
644 : 0 : pt[i] |= RTE_MBUF_F_RX_IP_CKSUM_GOOD;
645 : :
646 [ # # ]: 0 : if (i & RX_PKT_CMPL_FLAGS2_L4_CS_CALC)
647 : 0 : pt[i] |= RTE_MBUF_F_RX_L4_CKSUM_GOOD;
648 : : }
649 : : }
650 : :
651 : : /* Initialize checksum error table. */
652 : 0 : pt = rxr->ol_flags_err_table;
653 [ # # ]: 0 : for (i = 0; i < BNXT_OL_FLAGS_ERR_TBL_DIM; i++) {
654 : 0 : pt[i] = 0;
655 : :
656 [ # # ]: 0 : if (i & (RX_PKT_CMPL_FLAGS2_T_IP_CS_CALC << 2)) {
657 : : /* Tunnel case. */
658 [ # # ]: 0 : if (outer_cksum_enabled) {
659 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_IP_CS_ERROR >> 4))
660 : 0 : pt[i] |= RTE_MBUF_F_RX_IP_CKSUM_BAD;
661 : :
662 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_T_IP_CS_ERROR >> 4))
663 : 0 : pt[i] |= RTE_MBUF_F_RX_OUTER_IP_CKSUM_BAD;
664 : :
665 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_L4_CS_ERROR >> 4))
666 : 0 : pt[i] |= RTE_MBUF_F_RX_L4_CKSUM_BAD;
667 : :
668 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_T_L4_CS_ERROR >> 4))
669 : 0 : pt[i] |= RTE_MBUF_F_RX_OUTER_L4_CKSUM_BAD;
670 : : } else {
671 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_T_IP_CS_ERROR >> 4))
672 : 0 : pt[i] |= RTE_MBUF_F_RX_IP_CKSUM_BAD;
673 : :
674 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_T_L4_CS_ERROR >> 4))
675 : 0 : pt[i] |= RTE_MBUF_F_RX_L4_CKSUM_BAD;
676 : : }
677 : : } else {
678 : : /* Non-tunnel case. */
679 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_IP_CS_ERROR >> 4))
680 : 0 : pt[i] |= RTE_MBUF_F_RX_IP_CKSUM_BAD;
681 : :
682 [ # # ]: 0 : if (i & (RX_PKT_CMPL_ERRORS_L4_CS_ERROR >> 4))
683 : 0 : pt[i] |= RTE_MBUF_F_RX_L4_CKSUM_BAD;
684 : : }
685 : : }
686 : 0 : }
687 : :
688 : : static void
689 : 0 : bnxt_set_ol_flags(struct bnxt_rx_ring_info *rxr, struct rx_pkt_cmpl *rxcmp,
690 : : struct rx_pkt_cmpl_hi *rxcmp1, struct rte_mbuf *mbuf)
691 : : {
692 : : uint16_t flags_type, errors, flags;
693 : : uint64_t ol_flags;
694 : :
695 : 0 : flags_type = rte_le_to_cpu_16(rxcmp->flags_type);
696 : :
697 : 0 : flags = rte_le_to_cpu_32(rxcmp1->flags2) &
698 : : (RX_PKT_CMPL_FLAGS2_IP_CS_CALC |
699 : : RX_PKT_CMPL_FLAGS2_L4_CS_CALC |
700 : : RX_PKT_CMPL_FLAGS2_T_IP_CS_CALC |
701 : : RX_PKT_CMPL_FLAGS2_T_L4_CS_CALC |
702 : : RX_PKT_CMPL_FLAGS2_META_FORMAT_VLAN);
703 : :
704 : 0 : flags |= (flags & RX_PKT_CMPL_FLAGS2_T_IP_CS_CALC) << 3;
705 : 0 : errors = rte_le_to_cpu_16(rxcmp1->errors_v2) &
706 : : (RX_PKT_CMPL_ERRORS_IP_CS_ERROR |
707 : : RX_PKT_CMPL_ERRORS_L4_CS_ERROR |
708 : : RX_PKT_CMPL_ERRORS_T_IP_CS_ERROR |
709 : : RX_PKT_CMPL_ERRORS_T_L4_CS_ERROR);
710 : 0 : errors = (errors >> 4) & flags;
711 : :
712 : 0 : ol_flags = rxr->ol_flags_table[flags & ~errors];
713 : :
714 [ # # ]: 0 : if (unlikely(errors)) {
715 : 0 : errors |= (flags & RX_PKT_CMPL_FLAGS2_T_IP_CS_CALC) << 2;
716 : 0 : ol_flags |= rxr->ol_flags_err_table[errors];
717 : : }
718 : :
719 [ # # ]: 0 : if (flags_type & RX_PKT_CMPL_FLAGS_RSS_VALID) {
720 : 0 : mbuf->hash.rss = rte_le_to_cpu_32(rxcmp->rss_hash);
721 : 0 : ol_flags |= RTE_MBUF_F_RX_RSS_HASH;
722 : : }
723 : :
724 [ # # ]: 0 : if (unlikely((flags_type & RX_PKT_CMPL_FLAGS_MASK) ==
725 : : RX_PKT_CMPL_FLAGS_ITYPE_PTP_W_TIMESTAMP))
726 : 0 : ol_flags |= RTE_MBUF_F_RX_IEEE1588_PTP | RTE_MBUF_F_RX_IEEE1588_TMST;
727 : :
728 : 0 : mbuf->ol_flags = ol_flags;
729 : 0 : }
730 : :
731 : : static void
732 : 0 : bnxt_get_rx_ts_p5(struct bnxt *bp, uint32_t rx_ts_cmpl)
733 : : {
734 : 0 : struct bnxt_ptp_cfg *ptp = bp->ptp_cfg;
735 : : uint64_t last_hwrm_time = 0;
736 : : uint64_t pkt_time = 0;
737 : :
738 [ # # # # ]: 0 : if (!BNXT_CHIP_P5(bp) || !ptp)
739 : : return;
740 : :
741 : : /* On P5, Rx timestamps are provided directly in the
742 : : * Rx completion records to the driver. Only 32 bits of
743 : : * the timestamp is present in the completion. Driver needs
744 : : * to read the current 48 bit free running timer using the
745 : : * HWRM_PORT_TS_QUERY command and combine the upper 16 bits
746 : : * from the HWRM response with the lower 32 bits in the
747 : : * Rx completion to produce the 48 bit timestamp for the Rx packet
748 : : */
749 : 0 : rte_spinlock_lock(&ptp->ptp_lock);
750 : 0 : last_hwrm_time = ptp->old_time;
751 : : rte_spinlock_unlock(&ptp->ptp_lock);
752 : 0 : pkt_time = (last_hwrm_time & BNXT_PTP_CURRENT_TIME_MASK) | rx_ts_cmpl;
753 [ # # ]: 0 : if (rx_ts_cmpl < (uint32_t)last_hwrm_time) {
754 : : /* timer has rolled over */
755 : 0 : pkt_time += (1ULL << 32);
756 : : }
757 : 0 : ptp->rx_timestamp = pkt_time;
758 : : }
759 : :
760 : : static uint32_t
761 : 0 : bnxt_ulp_set_mark_in_mbuf_v3(struct bnxt *bp, struct rx_pkt_cmpl_hi *rxcmp1,
762 : : struct rte_mbuf *mbuf, uint32_t *vfr_flag)
763 : : {
764 : : struct rx_pkt_v3_cmpl_hi *rxcmp1_v3 = (void *)rxcmp1;
765 : 0 : uint32_t flags2, meta, mark_id = 0;
766 : : /* revisit the usage of gfid/lfid if mark action is supported.
767 : : * for now, only VFR is using mark and the metadata is the SVIF
768 : : * (a small number)
769 : : */
770 : : bool gfid = false;
771 : : int rc = 0;
772 : :
773 : 0 : flags2 = rte_le_to_cpu_32(rxcmp1_v3->flags2);
774 : :
775 [ # # ]: 0 : switch (flags2 & RX_PKT_V3_CMPL_HI_FLAGS2_META_FORMAT_MASK) {
776 : 0 : case RX_PKT_V3_CMPL_HI_FLAGS2_META_FORMAT_CHDR_DATA:
777 : : /* Only supporting Metadata for ulp now */
778 : 0 : meta = rxcmp1_v3->metadata2;
779 : : break;
780 : 0 : default:
781 : 0 : goto skip_mark;
782 : : }
783 : :
784 : 0 : rc = ulp_mark_db_mark_get(bp->ulp_ctx, gfid, meta, vfr_flag, &mark_id);
785 [ # # ]: 0 : if (!rc) {
786 : : /* Only supporting VFR for now, no Mark actions */
787 [ # # # # ]: 0 : if (vfr_flag && *vfr_flag)
788 : 0 : return mark_id;
789 : : }
790 : :
791 : 0 : skip_mark:
792 : 0 : mbuf->hash.fdir.hi = 0;
793 : :
794 : 0 : return 0;
795 : : }
796 : :
797 : : static uint32_t
798 : 0 : bnxt_ulp_set_mark_in_mbuf(struct bnxt *bp, struct rx_pkt_cmpl_hi *rxcmp1,
799 : : struct rte_mbuf *mbuf, uint32_t *vfr_flag)
800 : : {
801 : : uint32_t cfa_code;
802 : : uint32_t meta_fmt;
803 : : uint32_t meta;
804 : : bool gfid = false;
805 : : uint32_t mark_id;
806 : : uint32_t flags2;
807 : : uint32_t gfid_support = 0;
808 : : int rc;
809 : :
810 [ # # ]: 0 : if (BNXT_GFID_ENABLED(bp))
811 : : gfid_support = 1;
812 : :
813 : 0 : cfa_code = rte_le_to_cpu_16(rxcmp1->cfa_code);
814 : 0 : flags2 = rte_le_to_cpu_32(rxcmp1->flags2);
815 : 0 : meta = rte_le_to_cpu_32(rxcmp1->metadata);
816 : :
817 : : /*
818 : : * The flags field holds extra bits of info from [6:4]
819 : : * which indicate if the flow is in TCAM or EM or EEM
820 : : */
821 : 0 : meta_fmt = (flags2 & BNXT_CFA_META_FMT_MASK) >>
822 : : BNXT_CFA_META_FMT_SHFT;
823 : :
824 [ # # # # ]: 0 : switch (meta_fmt) {
825 : 0 : case 0:
826 [ # # ]: 0 : if (gfid_support) {
827 : : /* Not an LFID or GFID, a flush cmd. */
828 : 0 : goto skip_mark;
829 : : } else {
830 : : /* LFID mode, no vlan scenario */
831 : : gfid = false;
832 : : }
833 : : break;
834 : 0 : case 4:
835 : : case 5:
836 : : /*
837 : : * EM/TCAM case
838 : : * Assume that EM doesn't support Mark due to GFID
839 : : * collisions with EEM. Simply return without setting the mark
840 : : * in the mbuf.
841 : : */
842 [ # # ]: 0 : if (BNXT_CFA_META_EM_TEST(meta)) {
843 : : /*This is EM hit {EM(1), GFID[27:16], 19'd0 or vtag } */
844 : : gfid = true;
845 : 0 : meta >>= BNXT_RX_META_CFA_CODE_SHIFT;
846 : 0 : cfa_code |= meta << BNXT_CFA_CODE_META_SHIFT;
847 : : } else {
848 : : /*
849 : : * It is a TCAM entry, so it is an LFID.
850 : : * The TCAM IDX and Mode can also be determined
851 : : * by decoding the meta_data. We are not
852 : : * using these for now.
853 : : */
854 : : }
855 : : break;
856 : 0 : case 6:
857 : : case 7:
858 : : /* EEM Case, only using gfid in EEM for now. */
859 : : gfid = true;
860 : :
861 : : /*
862 : : * For EEM flows, The first part of cfa_code is 16 bits.
863 : : * The second part is embedded in the
864 : : * metadata field from bit 19 onwards. The driver needs to
865 : : * ignore the first 19 bits of metadata and use the next 12
866 : : * bits as higher 12 bits of cfa_code.
867 : : */
868 : 0 : meta >>= BNXT_RX_META_CFA_CODE_SHIFT;
869 : 0 : cfa_code |= meta << BNXT_CFA_CODE_META_SHIFT;
870 : 0 : break;
871 : : default:
872 : : /* For other values, the cfa_code is assumed to be an LFID. */
873 : : break;
874 : : }
875 : :
876 : 0 : rc = ulp_mark_db_mark_get(bp->ulp_ctx, gfid,
877 : : cfa_code, vfr_flag, &mark_id);
878 [ # # ]: 0 : if (!rc) {
879 : : /* VF to VFR Rx path. So, skip mark_id injection in mbuf */
880 [ # # # # ]: 0 : if (vfr_flag && *vfr_flag)
881 : 0 : return mark_id;
882 : : /* Got the mark, write it to the mbuf and return */
883 : 0 : mbuf->hash.fdir.hi = mark_id;
884 : 0 : *bnxt_cfa_code_dynfield(mbuf) = cfa_code & 0xffffffffull;
885 : 0 : mbuf->hash.fdir.id = rxcmp1->cfa_code;
886 : 0 : mbuf->ol_flags |= RTE_MBUF_F_RX_FDIR | RTE_MBUF_F_RX_FDIR_ID;
887 : 0 : return mark_id;
888 : : }
889 : :
890 : 0 : skip_mark:
891 : 0 : mbuf->hash.fdir.hi = 0;
892 : :
893 : 0 : return 0;
894 : : }
895 : :
896 : 0 : void bnxt_set_mark_in_mbuf(struct bnxt *bp,
897 : : struct rx_pkt_cmpl_hi *rxcmp1,
898 : : struct rte_mbuf *mbuf)
899 : : {
900 : : uint32_t cfa_code = 0;
901 : :
902 [ # # ]: 0 : if (unlikely(bp->mark_table == NULL))
903 : : return;
904 : :
905 : 0 : cfa_code = rte_le_to_cpu_16(rxcmp1->cfa_code);
906 [ # # ]: 0 : if (!cfa_code)
907 : : return;
908 : :
909 [ # # ]: 0 : if (cfa_code && !bp->mark_table[cfa_code].valid)
910 : : return;
911 : :
912 : 0 : mbuf->hash.fdir.hi = bp->mark_table[cfa_code].mark_id;
913 : 0 : mbuf->ol_flags |= RTE_MBUF_F_RX_FDIR | RTE_MBUF_F_RX_FDIR_ID;
914 : : }
915 : :
916 : : static void
917 : 0 : bnxt_set_ol_flags_crx(struct bnxt_rx_ring_info *rxr,
918 : : struct rx_pkt_compress_cmpl *rxcmp,
919 : : struct rte_mbuf *mbuf)
920 : : {
921 : : uint16_t flags_type, errors, flags;
922 : : uint16_t cserr, tmp;
923 : : uint64_t ol_flags;
924 : :
925 : 0 : flags_type = rte_le_to_cpu_16(rxcmp->flags_type);
926 : :
927 : 0 : cserr = rte_le_to_cpu_16(rxcmp->metadata1_cs_error_calc_v1) &
928 : : (RX_PKT_COMPRESS_CMPL_CS_ERROR_CALC_MASK |
929 : : BNXT_RXC_METADATA1_VLAN_VALID);
930 : :
931 : 0 : flags = cserr & BNXT_CRX_CQE_CSUM_CALC_MASK;
932 : : tmp = flags;
933 : :
934 : : /* Set tunnel frame indicator.
935 : : * This is to correctly index into the flags_err table.
936 : : */
937 : : flags |= (flags & BNXT_CRX_TUN_CS_CALC) ? BNXT_PKT_CMPL_T_IP_CS_CALC << 3 : 0;
938 : :
939 : 0 : flags = flags >> BNXT_CRX_CQE_CSUM_CALC_SFT;
940 : :
941 : : errors = cserr & BNXT_CRX_CQE_CSUM_ERROR_MASK;
942 : 0 : errors = (errors >> RX_PKT_COMPRESS_CMPL_CS_ERROR_CALC_SFT) & flags;
943 : :
944 : 0 : ol_flags = rxr->ol_flags_table[flags & ~errors];
945 : :
946 [ # # ]: 0 : if (unlikely(errors)) {
947 : : /* Set tunnel frame indicator.
948 : : * This is to correctly index into the flags_err table.
949 : : */
950 : : errors |= (tmp & BNXT_CRX_TUN_CS_CALC) ? BNXT_PKT_CMPL_T_IP_CS_CALC << 2 : 0;
951 : 0 : ol_flags |= rxr->ol_flags_err_table[errors];
952 : : }
953 : :
954 [ # # ]: 0 : if (flags_type & RX_PKT_COMPRESS_CMPL_FLAGS_RSS_VALID) {
955 : 0 : mbuf->hash.rss = rte_le_to_cpu_32(rxcmp->rss_hash);
956 : 0 : ol_flags |= RTE_MBUF_F_RX_RSS_HASH;
957 : : }
958 : :
959 : : #ifdef RTE_LIBRTE_IEEE1588
960 : : /* TODO: TIMESTAMP flags need to be parsed and set. */
961 : : #endif
962 : :
963 : 0 : mbuf->ol_flags = ol_flags;
964 : 0 : }
965 : :
966 : : static uint32_t
967 : : bnxt_parse_pkt_type_crx(struct rx_pkt_compress_cmpl *rxcmp)
968 : : {
969 : : uint16_t flags_type, meta_cs;
970 : : uint8_t index;
971 : :
972 : 0 : flags_type = rte_le_to_cpu_16(rxcmp->flags_type);
973 : 0 : meta_cs = rte_le_to_cpu_16(rxcmp->metadata1_cs_error_calc_v1);
974 : :
975 : : /* Validate ptype table indexing at build time. */
976 : : /* TODO */
977 : : /* bnxt_check_ptype_constants(); */
978 : :
979 : : /*
980 : : * Index format:
981 : : * bit 0: Set if IP tunnel encapsulated packet.
982 : : * bit 1: Set if IPv6 packet, clear if IPv4.
983 : : * bit 2: Set if VLAN tag present.
984 : : * bits 3-6: Four-bit hardware packet type field.
985 : : */
986 : 0 : index = BNXT_CMPL_ITYPE_TO_IDX(flags_type) |
987 : 0 : BNXT_CMPL_VLAN_TUN_TO_IDX_CRX(meta_cs) |
988 : 0 : BNXT_CMPL_IP_VER_TO_IDX(flags_type);
989 : :
990 : 0 : return bnxt_ptype_table[index];
991 : : }
992 : :
993 : 0 : static int bnxt_rx_pages_crx(struct bnxt_rx_queue *rxq, struct rte_mbuf *mbuf,
994 : : uint32_t *tmp_raw_cons, uint8_t agg_buf)
995 : : {
996 : 0 : struct bnxt_cp_ring_info *cpr = rxq->cp_ring;
997 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
998 : : int i;
999 : : uint16_t cp_cons, ag_cons;
1000 : : struct rx_pkt_compress_cmpl *rxcmp;
1001 : : struct rte_mbuf *last = mbuf;
1002 : :
1003 [ # # ]: 0 : for (i = 0; i < agg_buf; i++) {
1004 : : struct rte_mbuf **ag_buf;
1005 : : struct rte_mbuf *ag_mbuf;
1006 : :
1007 : 0 : *tmp_raw_cons = NEXT_RAW_CMP(*tmp_raw_cons);
1008 : 0 : cp_cons = RING_CMP(cpr->cp_ring_struct, *tmp_raw_cons);
1009 : 0 : rxcmp = (struct rx_pkt_compress_cmpl *)&cpr->cp_desc_ring[cp_cons];
1010 : :
1011 : : #ifdef BNXT_DEBUG
1012 : : bnxt_dump_cmpl(cp_cons, rxcmp);
1013 : : #endif
1014 : :
1015 : : /*
1016 : : * The consumer index aka the opaque field for the agg buffers
1017 : : * is not * available in errors_agg_bufs_opaque. So maintain it
1018 : : * in driver itself.
1019 : : */
1020 : 0 : ag_cons = rxr->ag_cons;
1021 : 0 : ag_buf = &rxr->ag_buf_ring[ag_cons];
1022 : 0 : ag_mbuf = *ag_buf;
1023 : :
1024 : 0 : ag_mbuf->data_len = rte_le_to_cpu_16(rxcmp->len);
1025 : :
1026 : 0 : mbuf->nb_segs++;
1027 : 0 : mbuf->pkt_len += ag_mbuf->data_len;
1028 : :
1029 : 0 : last->next = ag_mbuf;
1030 : : last = ag_mbuf;
1031 : :
1032 : 0 : *ag_buf = NULL;
1033 : : /*
1034 : : * As aggregation buffer consumed out of order in TPA module,
1035 : : * use bitmap to track freed slots to be allocated and notified
1036 : : * to NIC. TODO: Is this needed. Most likely not.
1037 : : */
1038 : 0 : rte_bitmap_set(rxr->ag_bitmap, ag_cons);
1039 : 0 : rxr->ag_cons = RING_IDX(rxr->ag_ring_struct, RING_NEXT(ag_cons));
1040 : : }
1041 : 0 : last->next = NULL;
1042 : 0 : bnxt_prod_ag_mbuf(rxq);
1043 : 0 : return 0;
1044 : : }
1045 : :
1046 : 0 : static int bnxt_crx_pkt(struct rte_mbuf **rx_pkt,
1047 : : struct bnxt_rx_queue *rxq,
1048 : : struct rx_pkt_compress_cmpl *rxcmp,
1049 : : uint32_t *raw_cons)
1050 : : {
1051 : 0 : struct bnxt_cp_ring_info *cpr = rxq->cp_ring;
1052 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
1053 : 0 : uint32_t tmp_raw_cons = *raw_cons;
1054 : : uint16_t cons, raw_prod;
1055 : : struct rte_mbuf *mbuf;
1056 : : int rc = 0;
1057 : : uint8_t agg_buf = 0;
1058 : :
1059 : 0 : agg_buf = BNXT_CRX_CQE_AGG_BUFS(rxcmp);
1060 : : /*
1061 : : * Since size of rx_pkt_cmpl is same as rx_pkt_compress_cmpl,
1062 : : * we should be able to use bnxt_agg_bufs_valid to check if AGG
1063 : : * bufs are valid when using compressed CQEs.
1064 : : * All we want to check here is if the CQE is valid and the
1065 : : * location of valid bit is same irrespective of the CQE type.
1066 : : */
1067 [ # # # # ]: 0 : if (agg_buf && !bnxt_agg_bufs_valid(cpr, agg_buf, tmp_raw_cons))
1068 : : return -EBUSY;
1069 : :
1070 : 0 : raw_prod = rxr->rx_raw_prod;
1071 : :
1072 : 0 : cons = rxcmp->errors_agg_bufs_opaque & BNXT_CRX_CQE_OPAQUE_MASK;
1073 : : mbuf = bnxt_consume_rx_buf(rxr, cons);
1074 [ # # ]: 0 : if (mbuf == NULL)
1075 : : return -EBUSY;
1076 : :
1077 : 0 : mbuf->data_off = RTE_PKTMBUF_HEADROOM;
1078 : 0 : mbuf->nb_segs = 1;
1079 : 0 : mbuf->next = NULL;
1080 : 0 : mbuf->pkt_len = rxcmp->len;
1081 : 0 : mbuf->data_len = mbuf->pkt_len;
1082 : 0 : mbuf->port = rxq->port_id;
1083 : :
1084 : : #ifdef RTE_LIBRTE_IEEE1588
1085 : : /* TODO: Add timestamp support. */
1086 : : #endif
1087 : :
1088 : 0 : bnxt_set_ol_flags_crx(rxr, rxcmp, mbuf);
1089 [ # # ]: 0 : mbuf->packet_type = bnxt_parse_pkt_type_crx(rxcmp);
1090 : : bnxt_set_vlan_crx(rxcmp, mbuf);
1091 : :
1092 [ # # ]: 0 : if (bnxt_alloc_rx_data(rxq, rxr, raw_prod)) {
1093 : 0 : PMD_DRV_LOG(ERR, "mbuf alloc failed with prod=0x%x\n",
1094 : : raw_prod);
1095 : : rc = -ENOMEM;
1096 : 0 : goto rx;
1097 : : }
1098 : 0 : raw_prod = RING_NEXT(raw_prod);
1099 : 0 : rxr->rx_raw_prod = raw_prod;
1100 : :
1101 [ # # ]: 0 : if (agg_buf)
1102 : 0 : bnxt_rx_pages_crx(rxq, mbuf, &tmp_raw_cons, agg_buf);
1103 : :
1104 : 0 : rx:
1105 : 0 : rxr->rx_next_cons = RING_IDX(rxr->rx_ring_struct, RING_NEXT(cons));
1106 : 0 : *rx_pkt = mbuf;
1107 : :
1108 : 0 : *raw_cons = tmp_raw_cons;
1109 : :
1110 : 0 : return rc;
1111 : : }
1112 : :
1113 : 0 : static int bnxt_rx_pkt(struct rte_mbuf **rx_pkt,
1114 : : struct bnxt_rx_queue *rxq, uint32_t *raw_cons)
1115 : : {
1116 : 0 : struct bnxt_cp_ring_info *cpr = rxq->cp_ring;
1117 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
1118 : : struct rx_pkt_cmpl *rxcmp;
1119 : : struct rx_pkt_cmpl_hi *rxcmp1;
1120 : 0 : uint32_t tmp_raw_cons = *raw_cons;
1121 : 0 : uint16_t cons, raw_prod, cp_cons =
1122 : 0 : RING_CMP(cpr->cp_ring_struct, tmp_raw_cons);
1123 : : struct rte_mbuf *mbuf;
1124 : : int rc = 0;
1125 : : uint8_t agg_buf = 0;
1126 : : uint16_t cmp_type;
1127 : 0 : uint32_t vfr_flag = 0, mark_id = 0;
1128 : 0 : struct bnxt *bp = rxq->bp;
1129 : :
1130 : 0 : rxcmp = (struct rx_pkt_cmpl *)
1131 : 0 : &cpr->cp_desc_ring[cp_cons];
1132 : :
1133 : 0 : cmp_type = CMP_TYPE(rxcmp);
1134 : :
1135 [ # # ]: 0 : if (cmp_type == RX_TPA_V2_ABUF_CMPL_TYPE_RX_TPA_AGG) {
1136 : : struct rx_tpa_v2_abuf_cmpl *rx_agg = (void *)rxcmp;
1137 : 0 : uint16_t agg_id = rte_cpu_to_le_16(rx_agg->agg_id);
1138 : : struct bnxt_tpa_info *tpa_info;
1139 : :
1140 : 0 : tpa_info = &rxr->tpa_info[agg_id];
1141 : : RTE_ASSERT(tpa_info->agg_count < 16);
1142 : 0 : tpa_info->agg_arr[tpa_info->agg_count++] = *rx_agg;
1143 : : rc = -EINVAL; /* Continue w/o new mbuf */
1144 : 0 : goto next_rx;
1145 : : }
1146 : :
1147 : 0 : tmp_raw_cons = NEXT_RAW_CMP(tmp_raw_cons);
1148 : 0 : cp_cons = RING_CMP(cpr->cp_ring_struct, tmp_raw_cons);
1149 : 0 : rxcmp1 = (struct rx_pkt_cmpl_hi *)&cpr->cp_desc_ring[cp_cons];
1150 : :
1151 [ # # ]: 0 : if (!bnxt_cpr_cmp_valid(rxcmp1, tmp_raw_cons,
1152 : : cpr->cp_ring_struct->ring_size))
1153 : : return -EBUSY;
1154 : :
1155 : 0 : if (cmp_type == RX_TPA_START_CMPL_TYPE_RX_TPA_START ||
1156 [ # # # # ]: 0 : cmp_type == RX_TPA_START_V2_CMPL_TYPE_RX_TPA_START_V2 ||
1157 : : cmp_type == RX_TPA_START_V3_CMPL_TYPE_RX_TPA_START_V3) {
1158 : 0 : bnxt_tpa_start(rxq, (struct rx_tpa_start_cmpl *)rxcmp,
1159 : : (struct rx_tpa_start_cmpl_hi *)rxcmp1);
1160 : : rc = -EINVAL; /* Continue w/o new mbuf */
1161 : 0 : goto next_rx;
1162 [ # # ]: 0 : } else if (cmp_type == RX_TPA_END_CMPL_TYPE_RX_TPA_END) {
1163 : 0 : mbuf = bnxt_tpa_end(rxq, &tmp_raw_cons,
1164 : : (struct rx_tpa_end_cmpl *)rxcmp,
1165 : : (struct rx_tpa_end_cmpl_hi *)rxcmp1);
1166 [ # # ]: 0 : if (unlikely(!mbuf))
1167 : : return -EBUSY;
1168 : 0 : *rx_pkt = mbuf;
1169 : 0 : goto next_rx;
1170 : 0 : } else if ((cmp_type != CMPL_BASE_TYPE_RX_L2) &&
1171 [ # # # # ]: 0 : (cmp_type != CMPL_BASE_TYPE_RX_L2_V2) &&
1172 : : (cmp_type != CMPL_BASE_TYPE_RX_L2_V3)) {
1173 : : rc = -EINVAL;
1174 : 0 : goto next_rx;
1175 : : }
1176 : :
1177 : 0 : agg_buf = BNXT_RX_L2_AGG_BUFS(rxcmp);
1178 [ # # # # ]: 0 : if (agg_buf && !bnxt_agg_bufs_valid(cpr, agg_buf, tmp_raw_cons))
1179 : : return -EBUSY;
1180 : :
1181 : 0 : raw_prod = rxr->rx_raw_prod;
1182 : :
1183 : 0 : cons = rxcmp->opaque;
1184 [ # # ]: 0 : if (unlikely(cons != rxr->rx_next_cons)) {
1185 : 0 : bnxt_discard_rx(bp, cpr, &tmp_raw_cons, rxcmp);
1186 : 0 : PMD_DRV_LOG(ERR, "RX cons %x != expected cons %x\n",
1187 : : cons, rxr->rx_next_cons);
1188 : : bnxt_sched_ring_reset(rxq);
1189 : : rc = -EBUSY;
1190 : 0 : goto next_rx;
1191 : : }
1192 : : mbuf = bnxt_consume_rx_buf(rxr, cons);
1193 [ # # ]: 0 : if (mbuf == NULL)
1194 : : return -EBUSY;
1195 : :
1196 : 0 : mbuf->data_off = RTE_PKTMBUF_HEADROOM;
1197 : 0 : mbuf->nb_segs = 1;
1198 : 0 : mbuf->next = NULL;
1199 : 0 : mbuf->pkt_len = rxcmp->len;
1200 : 0 : mbuf->data_len = mbuf->pkt_len;
1201 : 0 : mbuf->port = rxq->port_id;
1202 : :
1203 [ # # ]: 0 : if (unlikely((rte_le_to_cpu_16(rxcmp->flags_type) &
1204 : : RX_PKT_CMPL_FLAGS_MASK) ==
1205 : 0 : RX_PKT_CMPL_FLAGS_ITYPE_PTP_W_TIMESTAMP) ||
1206 [ # # ]: 0 : bp->ptp_all_rx_tstamp)
1207 : 0 : bnxt_get_rx_ts_p5(rxq->bp, rxcmp1->reorder);
1208 : :
1209 [ # # ]: 0 : if (cmp_type == CMPL_BASE_TYPE_RX_L2_V3) {
1210 : : bnxt_parse_csum_v3(mbuf, rxcmp1);
1211 : : bnxt_parse_pkt_type_v3(mbuf, rxcmp, rxcmp1);
1212 : : bnxt_rx_vlan_v3(mbuf, rxcmp, rxcmp1);
1213 [ # # # # ]: 0 : if (BNXT_TRUFLOW_EN(bp))
1214 : 0 : mark_id = bnxt_ulp_set_mark_in_mbuf_v3(rxq->bp, rxcmp1,
1215 : : mbuf, &vfr_flag);
1216 : 0 : goto reuse_rx_mbuf;
1217 : : }
1218 : :
1219 [ # # ]: 0 : if (cmp_type == CMPL_BASE_TYPE_RX_L2_V2) {
1220 : 0 : bnxt_parse_csum_v2(mbuf, rxcmp1);
1221 : 0 : bnxt_parse_pkt_type_v2(mbuf, rxcmp, rxcmp1);
1222 : : bnxt_rx_vlan_v2(mbuf, rxcmp, rxcmp1);
1223 : : /* TODO Add support for cfa_code parsing */
1224 : 0 : goto reuse_rx_mbuf;
1225 : : }
1226 : :
1227 : 0 : bnxt_set_ol_flags(rxr, rxcmp, rxcmp1, mbuf);
1228 : :
1229 [ # # ]: 0 : mbuf->packet_type = bnxt_parse_pkt_type(rxcmp, rxcmp1);
1230 : :
1231 : : bnxt_set_vlan(rxcmp1, mbuf);
1232 : :
1233 [ # # # # ]: 0 : if (BNXT_TRUFLOW_EN(bp))
1234 : 0 : mark_id = bnxt_ulp_set_mark_in_mbuf(rxq->bp, rxcmp1, mbuf,
1235 : : &vfr_flag);
1236 : : else
1237 : 0 : bnxt_set_mark_in_mbuf(rxq->bp, rxcmp1, mbuf);
1238 : :
1239 : 0 : reuse_rx_mbuf:
1240 [ # # ]: 0 : if (agg_buf) {
1241 : 0 : rc = bnxt_rx_pages(rxq, mbuf, &tmp_raw_cons, agg_buf, NULL);
1242 [ # # ]: 0 : if (rc != 0)
1243 : : return -EBUSY;
1244 : : }
1245 : :
1246 : : #ifdef BNXT_DEBUG
1247 : : if (rxcmp1->errors_v2 & RX_CMP_L2_ERRORS) {
1248 : : /* Re-install the mbuf back to the rx ring */
1249 : : bnxt_reuse_rx_mbuf(rxr, cons, mbuf);
1250 : :
1251 : : rc = -EIO;
1252 : : goto next_rx;
1253 : : }
1254 : : #endif
1255 : : /*
1256 : : * TODO: Redesign this....
1257 : : * If the allocation fails, the packet does not get received.
1258 : : * Simply returning this will result in slowly falling behind
1259 : : * on the producer ring buffers.
1260 : : * Instead, "filling up" the producer just before ringing the
1261 : : * doorbell could be a better solution since it will let the
1262 : : * producer ring starve until memory is available again pushing
1263 : : * the drops into hardware and getting them out of the driver
1264 : : * allowing recovery to a full producer ring.
1265 : : *
1266 : : * This could also help with cache usage by preventing per-packet
1267 : : * calls in favour of a tight loop with the same function being called
1268 : : * in it.
1269 : : */
1270 : 0 : raw_prod = RING_NEXT(raw_prod);
1271 [ # # ]: 0 : if (bnxt_alloc_rx_data(rxq, rxr, raw_prod)) {
1272 : 0 : PMD_DRV_LOG(ERR, "mbuf alloc failed with prod=0x%x\n",
1273 : : raw_prod);
1274 : : rc = -ENOMEM;
1275 : 0 : goto rx;
1276 : : }
1277 : 0 : rxr->rx_raw_prod = raw_prod;
1278 : 0 : rx:
1279 : 0 : rxr->rx_next_cons = RING_IDX(rxr->rx_ring_struct, RING_NEXT(cons));
1280 : :
1281 [ # # # # : 0 : if (BNXT_TRUFLOW_EN(bp) && (BNXT_VF_IS_TRUSTED(bp) || BNXT_PF(bp)) &&
# # # # ]
1282 : : vfr_flag) {
1283 : 0 : bnxt_vfr_recv(mark_id, rxq->queue_id, mbuf);
1284 : : /* Now return an error so that nb_rx_pkts is not
1285 : : * incremented.
1286 : : * This packet was meant to be given to the representor.
1287 : : * So no need to account the packet and give it to
1288 : : * parent Rx burst function.
1289 : : */
1290 : : rc = -ENODEV;
1291 : 0 : goto next_rx;
1292 : : }
1293 : : /*
1294 : : * All MBUFs are allocated with the same size under DPDK,
1295 : : * no optimization for rx_copy_thresh
1296 : : */
1297 : 0 : *rx_pkt = mbuf;
1298 : :
1299 : 0 : next_rx:
1300 : :
1301 : 0 : *raw_cons = tmp_raw_cons;
1302 : :
1303 : 0 : return rc;
1304 : : }
1305 : :
1306 : 0 : static void bnxt_reattempt_buffer_alloc(struct bnxt_rx_queue *rxq)
1307 : : {
1308 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
1309 : : struct bnxt_ring *ring;
1310 : : uint16_t raw_prod;
1311 : : uint32_t cnt;
1312 : :
1313 : : /* Assume alloc passes. On failure,
1314 : : * need_realloc will be set inside bnxt_alloc_XY_data.
1315 : : */
1316 : 0 : rxq->need_realloc = 0;
1317 [ # # ]: 0 : if (!bnxt_need_agg_ring(rxq->bp->eth_dev))
1318 : 0 : goto alloc_rx;
1319 : :
1320 : 0 : raw_prod = rxr->ag_raw_prod;
1321 : 0 : bnxt_prod_ag_mbuf(rxq);
1322 [ # # ]: 0 : if (raw_prod != rxr->ag_raw_prod)
1323 [ # # ]: 0 : bnxt_db_write(&rxr->ag_db, rxr->ag_raw_prod);
1324 : :
1325 : 0 : alloc_rx:
1326 : 0 : raw_prod = rxr->rx_raw_prod;
1327 : 0 : ring = rxr->rx_ring_struct;
1328 [ # # ]: 0 : for (cnt = 0; cnt < ring->ring_size; cnt++) {
1329 : : struct rte_mbuf **rx_buf;
1330 : : uint16_t ndx;
1331 : :
1332 : 0 : ndx = RING_IDX(ring, raw_prod + cnt);
1333 : 0 : rx_buf = &rxr->rx_buf_ring[ndx];
1334 : :
1335 : : /* Buffer already allocated for this index. */
1336 [ # # # # ]: 0 : if (*rx_buf != NULL && *rx_buf != &rxq->fake_mbuf)
1337 : 0 : continue;
1338 : :
1339 : : /* This slot is empty. Alloc buffer for Rx */
1340 [ # # ]: 0 : if (bnxt_alloc_rx_data(rxq, rxr, raw_prod + cnt))
1341 : : break;
1342 : :
1343 : 0 : rxr->rx_raw_prod = raw_prod + cnt;
1344 [ # # ]: 0 : bnxt_db_write(&rxr->rx_db, rxr->rx_raw_prod);
1345 : : }
1346 : 0 : }
1347 : :
1348 : 0 : uint16_t bnxt_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
1349 : : uint16_t nb_pkts)
1350 : : {
1351 : : struct bnxt_rx_queue *rxq = rx_queue;
1352 : 0 : struct bnxt_cp_ring_info *cpr = rxq->cp_ring;
1353 : 0 : struct bnxt_rx_ring_info *rxr = rxq->rx_ring;
1354 : 0 : uint16_t rx_raw_prod = rxr->rx_raw_prod;
1355 : 0 : uint16_t ag_raw_prod = rxr->ag_raw_prod;
1356 : 0 : uint32_t raw_cons = cpr->cp_raw_cons;
1357 : : uint32_t cons;
1358 : : int nb_rx_pkts = 0;
1359 : : int nb_rep_rx_pkts = 0;
1360 : : struct rx_pkt_cmpl *rxcmp;
1361 : : int rc = 0;
1362 : : bool evt = false;
1363 : :
1364 [ # # ]: 0 : if (unlikely(is_bnxt_in_error(rxq->bp)))
1365 : : return 0;
1366 : :
1367 : : /* If Rx Q was stopped return */
1368 [ # # ]: 0 : if (unlikely(!rxq->rx_started))
1369 : : return 0;
1370 : :
1371 : : #if defined(RTE_ARCH_X86) || defined(RTE_ARCH_ARM64)
1372 : : /*
1373 : : * Replenish buffers if needed when a transition has been made from
1374 : : * vector- to non-vector- receive processing.
1375 : : */
1376 [ # # ]: 0 : while (unlikely(rxq->rxrearm_nb)) {
1377 [ # # ]: 0 : if (!bnxt_alloc_rx_data(rxq, rxr, rxq->rxrearm_start)) {
1378 : 0 : rxr->rx_raw_prod = rxq->rxrearm_start;
1379 [ # # ]: 0 : bnxt_db_write(&rxr->rx_db, rxr->rx_raw_prod);
1380 : 0 : rxq->rxrearm_start++;
1381 : 0 : rxq->rxrearm_nb--;
1382 : : } else {
1383 : : /* Retry allocation on next call. */
1384 : : break;
1385 : : }
1386 : : }
1387 : : #endif
1388 : :
1389 : : /* Handle RX burst request */
1390 : : while (1) {
1391 : 0 : cons = RING_CMP(cpr->cp_ring_struct, raw_cons);
1392 : 0 : rxcmp = (struct rx_pkt_cmpl *)&cpr->cp_desc_ring[cons];
1393 : :
1394 [ # # ]: 0 : if (!bnxt_cpr_cmp_valid(rxcmp, raw_cons,
1395 : : cpr->cp_ring_struct->ring_size))
1396 : : break;
1397 [ # # ]: 0 : if (CMP_TYPE(rxcmp) == CMPL_BASE_TYPE_HWRM_DONE) {
1398 : 0 : PMD_DRV_LOG(ERR, "Rx flush done\n");
1399 [ # # ]: 0 : } else if (CMP_TYPE(rxcmp) == CMPL_BASE_TYPE_RX_L2_COMPRESS) {
1400 : 0 : rc = bnxt_crx_pkt(&rx_pkts[nb_rx_pkts], rxq,
1401 : : (struct rx_pkt_compress_cmpl *)rxcmp,
1402 : : &raw_cons);
1403 [ # # ]: 0 : } else if ((CMP_TYPE(rxcmp) >= CMPL_BASE_TYPE_RX_TPA_START_V2) &&
1404 : : (CMP_TYPE(rxcmp) <= CMPL_BASE_TYPE_RX_TPA_START_V3)) {
1405 : 0 : rc = bnxt_rx_pkt(&rx_pkts[nb_rx_pkts], rxq, &raw_cons);
1406 [ # # ]: 0 : if (!rc)
1407 : 0 : nb_rx_pkts++;
1408 [ # # ]: 0 : else if (rc == -EBUSY) /* partial completion */
1409 : : break;
1410 [ # # ]: 0 : else if (rc == -ENODEV) /* completion for representor */
1411 : 0 : nb_rep_rx_pkts++;
1412 [ # # ]: 0 : else if (rc == -ENOMEM)
1413 : 0 : nb_rx_pkts++;
1414 : : } else if (!BNXT_NUM_ASYNC_CPR(rxq->bp)) {
1415 : : evt =
1416 : : bnxt_event_hwrm_resp_handler(rxq->bp,
1417 : : (struct cmpl_base *)rxcmp);
1418 : : /* If the async event is Fatal error, return */
1419 : : if (unlikely(is_bnxt_in_error(rxq->bp)))
1420 : : goto done;
1421 : : }
1422 : :
1423 : 0 : raw_cons = NEXT_RAW_CMP(raw_cons);
1424 : : /*
1425 : : * The HW reposting may fall behind if mbuf allocation has
1426 : : * failed. Break and reattempt allocation to prevent that.
1427 : : */
1428 [ # # # # ]: 0 : if (nb_rx_pkts == nb_pkts || nb_rep_rx_pkts == nb_pkts || evt ||
1429 [ # # ]: 0 : rxq->need_realloc != 0)
1430 : : break;
1431 : : }
1432 : :
1433 : 0 : cpr->cp_raw_cons = raw_cons;
1434 [ # # ]: 0 : if (!nb_rx_pkts && !nb_rep_rx_pkts && !evt) {
1435 : : /*
1436 : : * For PMD, there is no need to keep on pushing to REARM
1437 : : * the doorbell if there are no new completions
1438 : : */
1439 : 0 : goto done;
1440 : : }
1441 : :
1442 : : /* Ring the completion queue doorbell. */
1443 : 0 : bnxt_db_cq(cpr);
1444 : :
1445 : : /* Ring the receive descriptor doorbell. */
1446 [ # # ]: 0 : if (rx_raw_prod != rxr->rx_raw_prod)
1447 [ # # ]: 0 : bnxt_db_write(&rxr->rx_db, rxr->rx_raw_prod);
1448 : :
1449 : : /* Ring the AGG ring DB */
1450 [ # # ]: 0 : if (ag_raw_prod != rxr->ag_raw_prod)
1451 [ # # ]: 0 : bnxt_db_write(&rxr->ag_db, rxr->ag_raw_prod);
1452 : 0 : done:
1453 [ # # ]: 0 : if (unlikely(rxq->need_realloc))
1454 : 0 : bnxt_reattempt_buffer_alloc(rxq);
1455 : 0 : return nb_rx_pkts;
1456 : : }
1457 : :
1458 : 0 : void bnxt_free_rx_rings(struct bnxt *bp)
1459 : : {
1460 : : int i;
1461 : : struct bnxt_rx_queue *rxq;
1462 : :
1463 [ # # ]: 0 : if (!bp->rx_queues)
1464 : : return;
1465 : :
1466 [ # # ]: 0 : for (i = 0; i < (int)bp->rx_nr_rings; i++) {
1467 : 0 : rxq = bp->rx_queues[i];
1468 [ # # ]: 0 : if (!rxq)
1469 : 0 : continue;
1470 : :
1471 : 0 : bnxt_free_ring(rxq->rx_ring->rx_ring_struct);
1472 : 0 : rte_free(rxq->rx_ring->rx_ring_struct);
1473 : :
1474 : : /* Free the Aggregator ring */
1475 : 0 : bnxt_free_ring(rxq->rx_ring->ag_ring_struct);
1476 : 0 : rte_free(rxq->rx_ring->ag_ring_struct);
1477 : 0 : rxq->rx_ring->ag_ring_struct = NULL;
1478 : :
1479 : 0 : rte_free(rxq->rx_ring);
1480 : :
1481 : 0 : bnxt_free_ring(rxq->cp_ring->cp_ring_struct);
1482 : 0 : rte_free(rxq->cp_ring->cp_ring_struct);
1483 : 0 : rte_free(rxq->cp_ring);
1484 : :
1485 : 0 : rte_memzone_free(rxq->mz);
1486 : 0 : rxq->mz = NULL;
1487 : :
1488 : 0 : rte_free(rxq);
1489 : 0 : bp->rx_queues[i] = NULL;
1490 : : }
1491 : : }
1492 : :
1493 : 0 : int bnxt_init_rx_ring_struct(struct bnxt_rx_queue *rxq, unsigned int socket_id)
1494 : : {
1495 : : struct bnxt_cp_ring_info *cpr;
1496 : : struct bnxt_rx_ring_info *rxr;
1497 : : struct bnxt_ring *ring;
1498 : :
1499 : 0 : rxq->rx_buf_size = BNXT_MAX_PKT_LEN + sizeof(struct rte_mbuf);
1500 : :
1501 [ # # ]: 0 : if (rxq->rx_ring != NULL) {
1502 : : rxr = rxq->rx_ring;
1503 : : } else {
1504 : :
1505 : 0 : rxr = rte_zmalloc_socket("bnxt_rx_ring",
1506 : : sizeof(struct bnxt_rx_ring_info),
1507 : : RTE_CACHE_LINE_SIZE, socket_id);
1508 [ # # ]: 0 : if (rxr == NULL)
1509 : : return -ENOMEM;
1510 : 0 : rxq->rx_ring = rxr;
1511 : : }
1512 : :
1513 [ # # ]: 0 : if (rxr->rx_ring_struct == NULL) {
1514 : 0 : ring = rte_zmalloc_socket("bnxt_rx_ring_struct",
1515 : : sizeof(struct bnxt_ring),
1516 : : RTE_CACHE_LINE_SIZE, socket_id);
1517 [ # # ]: 0 : if (ring == NULL)
1518 : : return -ENOMEM;
1519 : 0 : rxr->rx_ring_struct = ring;
1520 : 0 : ring->ring_size = rte_align32pow2(rxq->nb_rx_desc);
1521 : 0 : ring->ring_mask = ring->ring_size - 1;
1522 : 0 : ring->bd = (void *)rxr->rx_desc_ring;
1523 : 0 : ring->bd_dma = rxr->rx_desc_mapping;
1524 : :
1525 : : /* Allocate extra rx ring entries for vector rx. */
1526 : 0 : ring->vmem_size = sizeof(struct rte_mbuf *) *
1527 : 0 : (ring->ring_size + BNXT_RX_EXTRA_MBUF_ENTRIES);
1528 : :
1529 : 0 : ring->vmem = (void **)&rxr->rx_buf_ring;
1530 : 0 : ring->fw_ring_id = INVALID_HW_RING_ID;
1531 : : }
1532 : :
1533 [ # # ]: 0 : if (rxq->cp_ring != NULL) {
1534 : : cpr = rxq->cp_ring;
1535 : : } else {
1536 : 0 : cpr = rte_zmalloc_socket("bnxt_rx_ring",
1537 : : sizeof(struct bnxt_cp_ring_info),
1538 : : RTE_CACHE_LINE_SIZE, socket_id);
1539 [ # # ]: 0 : if (cpr == NULL)
1540 : : return -ENOMEM;
1541 : 0 : rxq->cp_ring = cpr;
1542 : : }
1543 : :
1544 [ # # ]: 0 : if (cpr->cp_ring_struct == NULL) {
1545 : 0 : ring = rte_zmalloc_socket("bnxt_rx_ring_struct",
1546 : : sizeof(struct bnxt_ring),
1547 : : RTE_CACHE_LINE_SIZE, socket_id);
1548 [ # # ]: 0 : if (ring == NULL)
1549 : : return -ENOMEM;
1550 : 0 : cpr->cp_ring_struct = ring;
1551 : :
1552 : : /* Allocate two completion slots per entry in desc ring. */
1553 : 0 : ring->ring_size = rxr->rx_ring_struct->ring_size * 2;
1554 [ # # ]: 0 : if (bnxt_need_agg_ring(rxq->bp->eth_dev))
1555 : 0 : ring->ring_size *= AGG_RING_SIZE_FACTOR;
1556 : :
1557 : 0 : ring->ring_size = rte_align32pow2(ring->ring_size);
1558 : 0 : ring->ring_mask = ring->ring_size - 1;
1559 : 0 : ring->bd = (void *)cpr->cp_desc_ring;
1560 : 0 : ring->bd_dma = cpr->cp_desc_mapping;
1561 : 0 : ring->vmem_size = 0;
1562 : 0 : ring->vmem = NULL;
1563 : 0 : ring->fw_ring_id = INVALID_HW_RING_ID;
1564 : : }
1565 : :
1566 [ # # ]: 0 : if (!bnxt_need_agg_ring(rxq->bp->eth_dev))
1567 : : return 0;
1568 : :
1569 : 0 : rxr = rxq->rx_ring;
1570 : : /* Allocate Aggregator rings */
1571 : 0 : ring = rte_zmalloc_socket("bnxt_rx_ring_struct",
1572 : : sizeof(struct bnxt_ring),
1573 : : RTE_CACHE_LINE_SIZE, socket_id);
1574 [ # # ]: 0 : if (ring == NULL)
1575 : : return -ENOMEM;
1576 : 0 : rxr->ag_ring_struct = ring;
1577 : 0 : ring->ring_size = rte_align32pow2(rxq->nb_rx_desc *
1578 : : AGG_RING_SIZE_FACTOR);
1579 : 0 : ring->ring_mask = ring->ring_size - 1;
1580 : 0 : ring->bd = (void *)rxr->ag_desc_ring;
1581 : 0 : ring->bd_dma = rxr->ag_desc_mapping;
1582 : 0 : ring->vmem_size = ring->ring_size * sizeof(struct rte_mbuf *);
1583 : 0 : ring->vmem = (void **)&rxr->ag_buf_ring;
1584 : 0 : ring->fw_ring_id = INVALID_HW_RING_ID;
1585 : :
1586 : 0 : return 0;
1587 : : }
1588 : :
1589 : : static void bnxt_init_rxbds(struct bnxt_ring *ring, uint32_t type,
1590 : : uint16_t len)
1591 : : {
1592 : : uint32_t j;
1593 : 0 : struct rx_prod_pkt_bd *rx_bd_ring = (struct rx_prod_pkt_bd *)ring->bd;
1594 : :
1595 : 0 : if (!rx_bd_ring)
1596 : : return;
1597 [ # # # # ]: 0 : for (j = 0; j < ring->ring_size; j++) {
1598 : 0 : rx_bd_ring[j].flags_type = rte_cpu_to_le_16(type);
1599 : 0 : rx_bd_ring[j].len = rte_cpu_to_le_16(len);
1600 : 0 : rx_bd_ring[j].opaque = j;
1601 : : }
1602 : : }
1603 : :
1604 : 0 : int bnxt_init_one_rx_ring(struct bnxt_rx_queue *rxq)
1605 : : {
1606 : : struct bnxt_rx_ring_info *rxr;
1607 : : struct bnxt_ring *ring;
1608 : : uint32_t raw_prod, type;
1609 : : unsigned int i;
1610 : : uint16_t size;
1611 : :
1612 : : /* Initialize packet type table. */
1613 : 0 : bnxt_init_ptype_table();
1614 : :
1615 [ # # ]: 0 : size = rte_pktmbuf_data_room_size(rxq->mb_pool) - RTE_PKTMBUF_HEADROOM;
1616 : 0 : size = RTE_MIN(BNXT_MAX_PKT_LEN, size);
1617 : :
1618 : : type = RX_PROD_PKT_BD_TYPE_RX_PROD_PKT;
1619 : :
1620 : 0 : rxr = rxq->rx_ring;
1621 [ # # ]: 0 : ring = rxr->rx_ring_struct;
1622 : : bnxt_init_rxbds(ring, type, size);
1623 : :
1624 : : /* Initialize offload flags parsing table. */
1625 : 0 : bnxt_init_ol_flags_tables(rxq);
1626 : :
1627 : 0 : raw_prod = rxr->rx_raw_prod;
1628 [ # # ]: 0 : for (i = 0; i < ring->ring_size; i++) {
1629 [ # # ]: 0 : if (unlikely(!rxr->rx_buf_ring[i])) {
1630 [ # # ]: 0 : if (bnxt_alloc_rx_data(rxq, rxr, raw_prod) != 0) {
1631 : 0 : PMD_DRV_LOG(WARNING,
1632 : : "RxQ %d allocated %d of %d mbufs\n",
1633 : : rxq->queue_id, i, ring->ring_size);
1634 : 0 : return -ENOMEM;
1635 : : }
1636 : : }
1637 : 0 : rxr->rx_raw_prod = raw_prod;
1638 : 0 : raw_prod = RING_NEXT(raw_prod);
1639 : : }
1640 : :
1641 : : /* Initialize dummy mbuf pointers for vector mode rx. */
1642 : : for (i = ring->ring_size;
1643 [ # # ]: 0 : i < ring->ring_size + BNXT_RX_EXTRA_MBUF_ENTRIES; i++) {
1644 : 0 : rxr->rx_buf_ring[i] = &rxq->fake_mbuf;
1645 : : }
1646 : :
1647 : : /* Explicitly reset this driver internal tracker on a ring init */
1648 : 0 : rxr->rx_next_cons = 0;
1649 : :
1650 [ # # ]: 0 : if (!bnxt_need_agg_ring(rxq->bp->eth_dev))
1651 : : return 0;
1652 : :
1653 [ # # ]: 0 : ring = rxr->ag_ring_struct;
1654 : : type = RX_PROD_AGG_BD_TYPE_RX_PROD_AGG;
1655 : : bnxt_init_rxbds(ring, type, size);
1656 : 0 : raw_prod = rxr->ag_raw_prod;
1657 : :
1658 [ # # ]: 0 : for (i = 0; i < ring->ring_size; i++) {
1659 [ # # ]: 0 : if (unlikely(!rxr->ag_buf_ring[i])) {
1660 [ # # ]: 0 : if (bnxt_alloc_ag_data(rxq, rxr, raw_prod) != 0) {
1661 : 0 : PMD_DRV_LOG(WARNING,
1662 : : "RxQ %d allocated %d of %d mbufs\n",
1663 : : rxq->queue_id, i, ring->ring_size);
1664 : 0 : return -ENOMEM;
1665 : : }
1666 : : }
1667 : 0 : rxr->ag_raw_prod = raw_prod;
1668 : 0 : raw_prod = RING_NEXT(raw_prod);
1669 : : }
1670 : 0 : PMD_DRV_LOG(DEBUG, "AGG Done!\n");
1671 : :
1672 [ # # ]: 0 : if (rxr->tpa_info) {
1673 [ # # ]: 0 : unsigned int max_aggs = BNXT_TPA_MAX_AGGS(rxq->bp);
1674 : :
1675 [ # # ]: 0 : for (i = 0; i < max_aggs; i++) {
1676 [ # # ]: 0 : if (unlikely(!rxr->tpa_info[i].mbuf)) {
1677 : 0 : rxr->tpa_info[i].mbuf =
1678 : 0 : __bnxt_alloc_rx_data(rxq->mb_pool);
1679 [ # # ]: 0 : if (!rxr->tpa_info[i].mbuf) {
1680 : 0 : __atomic_fetch_add(&rxq->rx_mbuf_alloc_fail, 1,
1681 : : __ATOMIC_RELAXED);
1682 : 0 : return -ENOMEM;
1683 : : }
1684 : : }
1685 : : }
1686 : : }
1687 : 0 : PMD_DRV_LOG(DEBUG, "TPA alloc Done!\n");
1688 : :
1689 : 0 : return 0;
1690 : : }
1691 : :
1692 : : /* Sweep the Rx completion queue till HWRM_DONE for ring flush is received.
1693 : : * The mbufs will not be freed in this call.
1694 : : * They will be freed during ring free as a part of mem cleanup.
1695 : : */
1696 : 0 : int bnxt_flush_rx_cmp(struct bnxt_cp_ring_info *cpr)
1697 : : {
1698 : 0 : struct bnxt_ring *cp_ring_struct = cpr->cp_ring_struct;
1699 : 0 : uint32_t ring_mask = cp_ring_struct->ring_mask;
1700 : 0 : uint32_t raw_cons = cpr->cp_raw_cons;
1701 : : struct rx_pkt_cmpl *rxcmp;
1702 : : uint32_t nb_rx = 0;
1703 : : uint32_t cons;
1704 : :
1705 : : do {
1706 : 0 : cons = RING_CMP(cpr->cp_ring_struct, raw_cons);
1707 : 0 : rxcmp = (struct rx_pkt_cmpl *)&cpr->cp_desc_ring[cons];
1708 : :
1709 [ # # ]: 0 : if (!bnxt_cpr_cmp_valid(rxcmp, raw_cons, ring_mask + 1))
1710 : : break;
1711 : :
1712 [ # # ]: 0 : if (CMP_TYPE(rxcmp) == CMPL_BASE_TYPE_HWRM_DONE)
1713 : : return 1;
1714 : :
1715 : 0 : raw_cons = NEXT_RAW_CMP(raw_cons);
1716 : 0 : nb_rx++;
1717 [ # # ]: 0 : } while (nb_rx < ring_mask);
1718 : :
1719 [ # # ]: 0 : if (nb_rx) {
1720 : 0 : cpr->cp_raw_cons = raw_cons;
1721 : : /* Ring the completion queue doorbell. */
1722 : 0 : bnxt_db_cq(cpr);
1723 : : }
1724 : :
1725 : : return 0;
1726 : : }
|