Visione artificiale per robot

Rendere sempre più efficiente la produzione, minimizzare gli scarti e azzerare i tempi di fermo macchina: questi gli obietti principali della Robot Vision, ma senza dimenticare la necessità di semplicare e velocizzare la programmazione dei sistemi.

La robotica è oramai uno dei temi principali della nostra rivista, stante la centralità dei sistemi robot nelle nuove formalizzazioni concettuali della fabbrica del futuro e il crescente impatto sul mondo del lavoro. Questo mese proponiamo una valutazione dello stato dell’arte dell’abbinamento tra robot e visione.

Tecnologia e applicazioni

Serena Monti, Vision Systems Product Manager di SICK, ci ricorda il limite dei sistemi di visione 2D: non restituiscono informazioni su altezza e volume di un oggetto, quindi, in caso di prodotti diversi per forma e dimensioni, occorre interrompere la catena produttiva per settare i robot con nuovi parametri. «Questo problema può essere oggi risolto con sistemi di visione 3D, che permettono a un robot di individuare gli oggetti in modo più affidabile, anche con contrasto minimo o variabile, e prelevarli rapidamente e in sicurezza senza collisioni: non solo si aumenta l’efficienza produttiva, ma si riduce anche il rischio di danneggiamenti, senza dimenticare che questa tecnologia offre maggiori possibilità per l’ispezione del volume e del peso e il rilevamento di anomalie nella forma dell’oggetto».

Alberto Sicuri, Presidente di Egicon, Official System Partner di KUKA Roboter Italia, evidenzia che un passo in avanti significativo è stato fatto nell’individuazione delle coordinate di oggetti posti casualmente su un piano, per esempio per la presa al volo da parte di un robot. «Oggi, grazie al nuovo algoritmo PatMax Redline di Cognex si abbatte notevolmente il tempo ciclo nell’individuazione delle coordinate di oggetti su un piano. La connessione logica di un sistema di visione a un robot antropomorfo costituisce un’innovazione di per sé, coniugando la flessibilità di un robot con l’efficacia della visione. Questo consente infatti di mettere in moto relativo due oggetti, vale a dire la telecamera e l’oggetto da ispezionare, su sei gradi di libertà, da cui l’ispezione di particolari nascosti e difficili da raggiungere con i sistemi di movimentazione tradizionali». I sistemi di stereo-visione basati su due camere o Cloud of points possono poi fornire nuovi scenari applicativi dove il workspace del robot non è noto a priori, ma viene ricostruito realtime in tre dimensioni con opportuni sensori 3D, molto importante in situazioni di robotica collaborativa dove le celle senza ripari potrebbero essere soggette a forte dinamicità.

Fino a qualche anno fa, parlare di visione artificiale era, secondo Marco Pecchenini, Sales Manager FANUC Robotics, argomento di un numero limitato di aziende, mentre oggi, in ambito automazione industriale, l’argomento è diventato quotidiano. Il mercato è sempre più orientato ad avere sistemi con un rapido cambio produzione, rispetto a sistemi meccanici rigidi, con altre produttività ma con cambio produzione quasi impossibile. «FANUC ha realizzato una soluzione totalmente integrata, sia 2D, denominata iRVision, che 3D, denominata Area Sensor, che non richiede alcun tipo di PC esterno, telecamere intelligenti o altro ancora: si tratta di un prodotto “plug and play”, con un pacchetto software che include il processo di calibrazione e di scambio dati. Il punto di forza riguarda Il pacchetto software FANUC a corredo: nessuno sviluppo è richiesto da parte del cliente che si limita a utilizzare le funzioni messe a disposizione. La velocità del sistema integrato ne permette l’uso in linee ad alta velocità, e inoltre, grazie alla totale integrazione, si possono installare telecamere a bordo robot ed effettuare foto in movimento con la correzione automatica degli errori dovuti allo spostamento del robot stesso».

Gianluca Conti, Product Specialist, Fluid sensors & Diagnostic Systems di ifm electronic, sottolinea sia gli enormi passi in avanti nella gestione robotizzata di lavorazioni e movimentazioni di prodotti e semilavorati, che la conseguente crescita di applicazioni in cui vi è una diretta cooperazione non solo tra robot, ma tra robot e operatori, aumentando i casi di gestione di prodotti con variabili dimensionali o di posizionamento. Da qui l’importanza di poter dotare il robot non già di coordinate e dimensioni fisse, note e stabili, ma d’informazioni variabili e virtualmente imprevedibili, da gestire in modo rapido e preciso. «La guida robot e l’analisi di scene sono la richiesta primaria che ci perviene dal mercato, oltre all’esigenza di mantenere accessibili i costi e di non richiedere know how estremi o tempi lunghi per l’implementazione a sistema. Le soluzioni sul mercato tuttavia, possono avere caratteristiche che mal si sposano con le esigenze esistenti, richiedendo quasi sempre un’azione dinamica sull’oggetto o sul sensore, rendendo quindi impossibile ottenere un dato dimensionale o di posizione con una singola lettura di un oggetto sia fermo che in movimento».

Per Marco Dessì, Responsabile Ricerca e Sviluppo di Yaskawa Italia, gli sviluppi recenti più importanti nella Vision Robot sono due. «Il primo è un sistema che può contenere in modo virtuale la cella robotizzata e il sistema di visione 3D; questo permette il completo controllo delle traiettorie evitando a priori eventuali collisioni del robot nel reale. Il software comprende anche un protocollo di comunicazione dedicato, che utilizzato dal robot, accetta comandi in modo casuale. Il secondo è una camera 3D composta da due camere calibrate tra loro, con acquisizione in stereo e definizione di una nuvola di punti pronta per elaborazione dal sistema di visione».

I sistemi di visione, per Michele Pedretti, Business Development Manager Robotics Italy di ABB, si divideranno sempre più in “soluzioni ad alto livello” (solitamente PC-based) e soluzioni “standard” (principalmente gestite da Smart Camera). Le prime saranno supportate e gestite da specialisti della visione, mentre le seconde diventeranno una semplice e performante “opzione” dei bracci robotizzati. «ABB ritiene fondamentale semplificare al massimo la gestione dei nostri robot e quindi anche di tutte le sue opzioni: è forse la sfida più importante da vincere nel brevissimo periodo. Con questo obiettivo abbiamo sviluppato una «Visione Integrata» estremamente performante, semplice e veloce che assicura produzioni di altissima qualità conformi ai migliori standard produttivi».

Le proposte al mercato

Monti (SICK) cita la smart camera IVC-3D per ispezione, localizzazione e misurazione di oggetti (per colore, altezza, volume e contorno, indipendentemente dal contrasto) tramite triangolazione laser. Questo principio permette di acquisire dati in tre dimensioni, rendendo semplice per il robot la presa di oggetti che prima erano difficili da gestire.

Per aumentare la sinergia fra sistemi di visione 3D e robot, recentemente è nata anche una collaborazione tra SICK e ABB, con lo sviluppo di una soluzione che unisce tecnologie di entrambe le aziende. SICK ha contribuito con la smart camera IVC-3D e il “Belt Picking Toolkit”, software che permette a IVC-3D di rilevare gli oggetti in base alla loro altezza. Per una semplice messa in opera, il toolkit dispone di una interfaccia grafica su Web per l’impostazione dei parametri relativi a oggetti e a nastro trasportatore.

ABB ha contribuito con i suoi famosi robot, e nella maggior parte dei casi è usato il robot IRB360 FlexPicker e l’unità di controllo della linea con il software Pick-Master, che opera anche da interfaccia tra la camera IVC-3D e il robot, cui sono costantemente trasmesse le informazioni necessarie alla presa degli oggetti nelle posizioni e nei momenti corretti, in base alle coordinate tridimensionali fornite dalla IVC-3D e alla velocità del nastro trasportatore. Sicuri (Egicon) evidenzia la realizzazione di un sistema di ispezione con soluzione eye-in-hand (telecamera fissata sul polso del robot) che consente l’acquisizione di punti di ispezione di oggetti o di sistemi complessi. Egicom sta poi sviluppando un sistema collaborativo di ispezione, sempre di tipo eye-in hand, che consentirà una programmabilità molto semplificata e l’introduzione di un sistema veramente collaborativo su una linea di produzione a fianco degli operatori.

Pecchenini (FANUC Robotics) ripropone iRVision system 2D e Area Sensor 3D; il primo (nelle tre versioni standard, alta definizione e colori) è tipicamente usato in sistemi di guida robot e controllo qualità, sia con telecamera fissa che installata a bordo robot. Un pacchetto opzionale permette inoltre di effettuare prelievi e depositi su convogliatori in movimento, gestendo la coda del flusso prodotto in sistemi a singolo robot o multirobot. Grazie alla possibilità di gestione di più telecamere su convogliatori di ampie dimensioni, la precisione risulta migliorata e la possibilità di identificazioni doppie è annullata.

Area Sensor 3D trova invece collocazione principalmente nei sistemi di prelievo da cassone, nella depallettizzazione, nel prelievo di tutti i pezzi difficilmente identificabili con sistemi 2D. Un proiettore a luce strutturata e due telecamere stereo compongono il pacchetto, disponibile in due versioni con differente campo inquadrato. Anche in questo caso FANUC fornisce tutto il software necessario a gestire il sistema di visione.

L’offerta di Ifm electronic, come ci dice Conti, prevede soluzioni per le fasi di presa e posizionamento, tipicamente per palettizzazione o depalettizzazione, nel controllo dimensionale o nella completezza e composizione dei pallet di trasporto. Tra i prodotti citati, lo smart sensor O2DXXX, in grado di ispezionare una scena in modo statico o dinamico per poi trasmettere le coordinate bidimensionali di uno o più oggetti riconosciuti, e la nuova telecamera 3D basata sulla tecnologia PMD, basata su un chip d’immagine digitale con 23.000 pixel, che oltre all’immagine a distanza restituisce anche un’immagine in scala di grigi della scena: con l’uso di librerie comuni sul mercato, si possono elaborare immagini 3D e creare un programma per la propria applicazione. Il principio di funzionamento, ossia la misurazione del tempo di volo (ToF), è simile a quello di un laser scanner. Ma al posto di un singolo punto, c’è una matrice di 23.000 pixel disposti sul chip.

Un software intuitivo per impostare i parametri della telecamera è eventualmente integrabile con un SDK con codice di programmazione esempio in varie lingue; possibile inoltre il collegamento a MATLAB, HALCON, PCL (Point Cloud Library) e ROS (Robot Operating System). Dessì ci ricorda che Yaskawa ha realizzato un software di visione su PC, utilizzando una libreria commerciale, completamente integrato con il robot per comunicazione e scambio dei dati essendo stato sviluppato un protocollo di comunicazione Ethernet TCP/IP per robot e PC; inoltre, permette l’uso di diversi tipi di camera senza necessità di software aggiuntivo. Attualmente Yaskawa utilizza dei tool di visione per il riconoscimento 2D di oggetti in Pick&Place, ispezione e misura, ma sono in sviluppo anche tool in 3D».

Pedretti (ABB) ritiene il sistema di visione proposto dalla sua azienda sia una vera e propria rivoluzione: è dotato di strumenti ad altissima potenza, messa a fuoco automatica, illuminazione e ottiche integrate; la nostra Smart Camera, in involucro IP67, può catturare immagini molto rapidamente e controllare un’intera serie di illuminazioni esterne, con capacità di I/O per ogni tipo di scenario di controllo. La Visione Integrata ABB comprende 50 strumenti intelligenti di visione artificiale: gli utenti della Smart Camera, che siano esperti o alla prima applicazione, troveranno l’ampia libreria di comandi facile da usare e adatta a qualsiasi applicazione robotizzata 2D. Sul mercato esistono molti sistemi robot a guida visiva, ma nessuno con la potenza di programmazione del pacchetto completo di comandi RobotStudio, enfatizzato come il miglior software di simulazione e programmazione robot fuori linea sul mercato.