Il sensing dei robot, evoluzione e nuove prospettive a sensoristica è fondamentale per una netta evoluzione dei robot, coinvolgendo tecnologie consolidate quali la visione artificiale o l’identificazione in radiofrequenza, fino a sensori futuristici e sperimentali, tipo la pelle artificiale per robot. Importante poi l’interazione tra diverse forme di sensing per ottenere nuove prestazioni specifiche per l’ambientazione robot.

Le diverse tipologie di sensing

I robot prevedono “nativamente” della sensoristica comunque integrata, per esempio encoder o resolver per feedback, ma si possono inizialmente individuare tre ulteriori categorie di sensori: End of Arm Sensing Tooling, Preventive Sensing e Safery Sensing. La prima categoria, definibile anche come “gripper sensors”, prevede tipicamente sensori di prossimità o fotoelettrici collegati alla logica di processo del ro-bot per controllare quando un oggetto viene preso dal tool, e si può dire che abbia una duplice funzione: presenza del pezzo e garanzia di qualità, nel senso che il pezzo è stato verificato e correttamente rilevato dall’End of Arm Tool prima che il robot proceda nella lavorazione. Ne consegue che un robot deve avere come minimo degli EOAT sensors come standard quando è integrato in una cella di lavorazione. Il Preventive Sensing si basa su diversi tipi di sensori analogici, per esempio celle di carico o sensori di forza utilizzati quando un robot afferra un pezzo ma vi è un disallineamento nel processo. Il robot non ha normalmente la capacità di percepire se due parti non si incastrano, e l’aggiunta di un preventive sensing permette di misurare l’eventuale presenza di limitazioni anormali o parti estranee, da cui l’attribuzione al robot della capacità di “sentire” il pezzo che sta lavorando, evitando anche danni al tooling. Il Safety Sensing è da tempo implementato con molteplici soluzioni a garanzia che un operatore possa inavvertitamente trovarsi nel raggio dell’azione automatica di un robot. Ma si possono definire altre tipologie di sensing, per esempio il Precision Sensing, termine che si riferisce alla capacità di sensori miniaturizzati di fornire punti di rilevazione stabili, per esempio anche in caso di fluttuazioni dovute a fenomeni termici, con migliore ripetibilità, ridotte finestre di isteresi e maggiore capacità di individuare dei target molto piccoli, praticamente invisibili a sensori più grandi. Infine si può parlare di Presence Sensing con riferimento all’individuazione della presenza o la posizione di oggetti da lavorare o di operatori umani che i sistemi robot potrebbero esporre a rischi, ma anche, con i dovuti distinguo, per conferire una navigazione autonoma a sistemi robot. In prima linea i sensori di distanza laser e i sensori di visione, inizialmente di difficile integrazione con i robot. Ma con l’evoluzione delle tecnologie, l’interfaccia tra robot e visione artificiale è diventata molto meno problematica, portando la visione a essere quasi una commodity. Tra i plus funzionali da evidenziare, il feedback al robot: in passato, quando un robot era stato programmato a svolgere un dato compito, questo veniva eseguito nel bene o nel male, mentre oggi il robot può “vedere” in tempo reale un’immagine e validare se un pezzo è correttamente posizionato o meno, senza dimenticare la possibilità, sempre tramite la visione, di integrare delle capacità di self-teaching nel sistema. Per la visione alcuni costruttori di robot hanno iniziato a indagare e perfezionare nuove soluzioni tecnologiche, tra cui la Pulse Ranging Technology (PRT), metodologia simile al time-of-flight ma con migliore capacità di ottenere misure di distanza affidabili: un esempio di implementazione PRT prevede l’uso di scanner 2D che mettono a disposizione una visuale a 360 gradi senza oscillazioni nel piano di scansione, prestazione importante per i sistemi robot che devono misurare o individuare oggetti nelle vicinanza di piani di riferimento. Ulteriori evoluzioni hanno portato a usare semplici LED al posto di sorgenti laser, per generare singoli canali ottici in modo che lo scanner 2D non abbia parte alcuna in movimento, con anche abbattimento dei costi del sistema di sensing, argomento non trascurabile dato che il trend è quello di abbattere i costi dei robot, obiettivo raggiungibile anche agendo sulla sensoristica.

Migliorare il sensing dei robot

Per questa parte dell’articolo abbiamo coinvolto alcuni membri del comitato tecnico-scientifico della rivista, sottoponendo loro delle domande sull’evoluzione del sensing e lo stato dell’arte. Di seguito proponiamo al lettore una sintesi dei commenti che abbiamo ricevuto sui diversi temi

Lo sviluppo dei sensori per sistemi robotizzati ha subito probabilmente una forte accelerazione con il crescente interesse nei robot collaborativi, ma in questo filone tecnologico si è da sempre impegnata in modo costante la ricerca del mondo accademico e industriale. Considerando l’attuale stato dell’arte, quali tipologie di sensori sono oggi in grado di conferire un netto miglioramento alle capacità di “percezione” dei robot, e in riferimento a quali specifici aspetti funzionali?

Tra le varie classi di sensori, la categoria sicuramente più di interesse è quella dei sensori di visione. Il trend della ricerca è quello di utilizzare sensori di visione classici verso sensori di visione 3D, sia per mezzo di telecamere stereoscopiche, sia utilizzando sensori di profondità tipo Kinect o similari. Dal punto di vista B2C, il sensore originariamente brevettato da PrimeSense e poi distribuito su larga scala da Microsoft, Asus, e altri, ha avuto un grande successo in ambito accademico. Questo ha suscitato anche un movimento dal punto di vista industriale con la creazione di startup, per esempio Roboception, visore stereoscopico, che producono o commercializzano sensori di questo tipo o di altre aziende che hanno lanciato nuovi prodotti per il settore industrial.

Andando oltre la disponibilità attuale di sensori per sistemi robotizzati, su quali fronti è da ritenersi che che sia importante che la ricerca si impegni per sviluppare una nuova sensoristica, possiamo dire nuovi sensori del futuro? A che punto è la ricerca?

Più che dal punto di vista puramente hardware, cioè sviluppo del sensore di per sé, va evidenziato che gli algoritmi per interpretare in maniera intelligente i dati provenienti da vari tipi di sensori non abbiano ancora raggiunto uno stato dell’arte soddisfacente. La ricerca sta progredendo in maniera molto veloce, grazie anche alla disponibilità di mezzi di calcolo sempre più performanti, ma forse dal punto di vista dell’industrializzazione e del trasferimento di queste tecnologie il gap tra la ricerca e le vere applicazioni è ancora poco soddisfacente.

Vi sono altre considerazioni di particolare rilevanza sul tema “sensori per robot”?

Sempre in tema “combinazione di rilevazioni sensoriali eterogenee”, si può prendere in considerazione uno smartphone. Tramite un comando vocale, quale per esempio “dimmi qual è il primo treno per Milano”, il dispositivo è in grado di collegarsi a internet, combinando informazioni provenienti dal sistema di geolocalizzazione, e fornirci la risposta. Ecco, i robot sono ancora lontani da questo paradigma di programmazione. I robot, in particolare quelli collaborativi, si programmano secondo la modalità, del resto prevista dalla normativa in vigore, denominata lead-through programming, metodo di programmazione in cui un robot è posto in “reach mode” e l’operatore, tramite un tech pendant remoto, guida il sistema attraverso i differenti step costituenti la task complessiva da svolgere. Siamo ancora abbastanza lontani dal poter istruire i robot semplicemente dicendo loro cosa fare.