Assemblaggio di pannelli solari con bracci robotici doppi per la costruzione autonoma di una base lunare

Assemblaggio di pannelli solari con bracci robotici doppi per la costruzione autonoma di una base lunare

Dopo il successo del programma Apollo, l’umanità punta nuovamente a tornare sulla Luna per la scoperta scientifica, l’estrazione di risorse e l’abitazione. I prossimi decenni si concentrano sulla costruzione di un avamposto lunare, con i sistemi robotici che svolgono un ruolo cruciale per stabilire in modo sicuro ed efficiente infrastrutture essenziali come torri di generazione di energia solare. Similmente alla costruzione della Stazione Spaziale Internazionale (ISS), la spedizione dei componenti necessari tramite moduli e il loro assemblaggio in situ dovrebbero essere uno scenario pratico. In questo contesto, questo articolo si concentra sull’integrazione di sistemi di visione, controllo e hardware all’interno di una sequenza autonoma per un sistema robotico a doppio braccio. Esploriamo un pipeline di percezione e controllo specificamente progettato per l’assemblaggio di moduli di pannelli solari, uno dei compiti di riferimento. L’hardware ad hoc è stato progettato e testato in esperimenti nel mondo reale. Sono stati impiegati un modello di pannelli solari modulari e connettori attivi-passivi, con il controllo di questa attrezzatura di presa integrata nella pipeline proposta. L’implementazione di successo del nostro metodo dimostra che i due manipolatori robotici possono collegare efficacemente pannelli posizionati arbitrariamente, evidenziando la perfetta integrazione di sistemi di visione, controllo e hardware in complesse applicazioni spaziali.


Paper: ArXiv.org

Sguardo all’Intenzione: Manipolazione Robotica Guidata dallo Sguardo tramite Modelli Fondazionali

Sguardo all’Intenzione: Manipolazione Robotica Guidata dallo Sguardo tramite Modelli Fondazionali

La progettazione di interfacce intuitive per il controllo robotico rimane una sfida cruciale per una efficace interazione uomo-robot, specialmente in contesti di assistenza. Lo sguardo offre una modalità di input rapida, non intrusiva e ricca di intenzioni, rendendola un canale attraente per comunicare gli obiettivi dell’utente. In questo lavoro, presentiamo GAMMA (Gaze Assisted Manipulation for Modular Autonomy), un sistema che sfrutta il tracciamento dello sguardo egocentrico e un modello visione-linguaggio per dedurre l’intento dell’utente ed eseguire autonomamente compiti di manipolazione robotica.

Contestualizzando le fissazioni dello sguardo all’interno della scena, il sistema mappa l’attenzione visiva a una comprensione semantica di alto livello, consentendo la selezione e la parametrizzazione delle competenze senza addestramento specifico per il compito. Valutiamo GAMMA su una serie di compiti di manipolazione da tavolo e lo confrontiamo con il controllo basato sullo sguardo di base senza ragionamento. I risultati dimostrano che GAMMA fornisce un controllo robusto, intuitivo e generalizzabile, evidenziando il potenziale della combinazione di modelli fondazionali e sguardo per un’autonomia robotica naturale e scalabile. Il sito web del progetto è disponibile all’indirizzo: https://gamma0.vercel.app/


Paper: ArXiv.org