Ottimizzazione della manipolazione dei campioni alimentari e del riconoscimento dei pattern di posizionamento con un algoritmo di rilevamento degli oggetti chiamato YOLO.

Il Giappone, alle prese con un significativo deficit di manodopera dovuto al calo delle nascite e all’invecchiamento della popolazione, si sta sempre più orientando verso la robotica industriale, in particolare nel settore della produzione alimentare.

La natura diversificata dei prodotti alimentari presenta una sfida notevole: la necessità di una programmazione personalizzata per ogni variante di prodotto, che è stata un ostacolo importante all’adozione diffusa della robotica in questo settore.

Questo documento presenta una soluzione innovativa che utilizza l’algoritmo di rilevamento degli oggetti “You Only Look Once” (YOLO), mirato a semplificare il processo di programmazione per i robot industriali.

Un miglioramento fondamentale dell’approccio adottato in questo studio è l’integrazione della Non-Maximum Suppression (NMS) per una discriminazione efficace degli oggetti sovrapposti, sfruttando dati critici come il centro di gravità, la profondità e le misurazioni del bounding box.

L’incorporazione di sensori RGB-D consente l’acquisizione di dati precisi sull’altezza spaziale, essenziali per valutare l’impilamento e la disposizione degli articoli.

La praticità e l’efficacia di questa metodologia sono corroborate da prove empiriche che coinvolgono il posizionamento robotico di oggetti del mondo reale.

Questa ricerca non solo dimostra la fattibilità di questo approccio, ma sottolinea anche il suo potenziale per ottimizzare significativamente le operazioni robotiche nella produzione alimentare.

DOI: 10.1016/j.cogr.2024.01.001

Ottimizzazione della manipolazione dei campioni alimentari e del riconoscimento dei pattern di posizionamento con YOLO: tecniche avanzate nel rilevamento robotico degli oggetti

Optimizing Food Sample Handling and Placement Pattern Recognition with YOLO: Advanced Techniques in Robotic Object Detection. Cognitive Robotics, 4 gennaio 2024

S. Koga, K. Hamamoto, H. Lu, Y. Nakatoh

 

 

Pin It