Per inviarci segnalazioni, foto e video puoi contattarci su info@moto.it
Figure ha dimostrato il primo frutto della sua collaborazione con OpenAI per potenziare le capacità dei robot umanoidi. In un video pubblicato qualche giorno fa, il bot Figure 01 viene visto impegnato in una conversazione in tempo reale.
Il progresso nello sviluppo presso Figure è nulla meno che straordinario. L'imprenditore Brett Adcock è comparso nel panorama solo l'anno scorso, dopo aver riunito un gruppo di giocatori chiave provenienti da Boston Dynamics, Tesla Google DeepMind e Archer Aviation per "creare il primo robot umanoide a uso generale commercialmente viable del mondo".
Entro ottobre, il Figure 01 era già in piedi e svolgeva compiti autonomi di base. Entro la fine dell'anno, il robot aveva capacità di apprendimento osservando e imitando, ed era pronto per entrare nel mondo del lavoro presso la BMW a metà gennaio.
Lo abbiamo visto sul pavimento del magazzino il mese scorso, poco prima che Figure annunciasse un round di finanziamenti di successo della Serie B insieme a un accordo di collaborazione con OpenAI "per sviluppare modelli di intelligenza artificiale di prossima generazione per robot umanoidi." Ora abbiamo un assaggio di cosa significhi tutto ciò.
Adcock ha confermato in un post su X che le telecamere integrate del Figure 01 inviano dati a un grande modello visione-linguaggio addestrato da OpenAI, mentre le reti neurali proprie di Figure "prendono immagini a 10 Hz attraverso telecamere sul robot." OpenAI è anche responsabile della capacità di comprendere le parole pronunciate, e tutto questo afflusso di informazioni viene tradotto in "azioni robotiche veloci, a basso livello e dattili" dalla rete neurale di Figure.