Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Learning-from-Observation 2.0
Learning-from-Observation 2.0
Dati e Statistiche
Wishlist Salvato in 0 liste dei desideri
Learning-from-Observation 2.0
Scaricabile subito
37,43 €
37,43 €
Scaricabile subito
Chiudi

Altre offerte vendute e spedite dai nostri venditori

Altri venditori
Prezzo e spese di spedizione
ibs
Spedizione Gratis
37,43 €
Vai alla scheda completa
Altri venditori
Prezzo e spese di spedizione
ibs
Spedizione Gratis
37,43 €
Vai alla scheda completa
Altri venditori
Prezzo e spese di spedizione
Chiudi
ibs
Chiudi

Tutti i formati ed edizioni

Chiudi
Learning-from-Observation 2.0
Chiudi

Promo attive (0)

Chiudi

Informazioni del regalo

Descrizione


This book presents recent breakthroughs in the field of Learning-from-Observation (LfO) resulting from advancement in large language models (LLM) and reinforcement learning (RL) and positions it in the context of historical developments in the area. LfO involves observing human behaviors and generating robot actions that mimic these behaviors. While LfO may appear similar, on the surface, to Imitation Learning (IL) in the machine learning community and Programing-by-Demonstration (PbD) in the robotics community, a significant difference lies in the fact that these methods directly imitate human hand movements, whereas LfO encodes human behaviors into the abstract representations and then maps these representations onto the currently available hardware (individual body) of the robot, thus indirectly mimicking them. This indirect imitation allows for absorbing changes in the surrounding environment and differences in robot hardware. Additionally, by passing through this abstract representation, filtering can occur, distinguishing between important and less important aspects of human behavior, enabling imitation with fewer demonstrations and less demanding demonstrations. The authors have been researching the LfO paradigm for the past decade or so. Previously, the focus was primarily on designing necessary and sufficient task representations to define specific task domains such as assembly of machine parts, knot-tying, and human dance movements. Recent advancements in Generative Pre-trained Transformers (GPT) and RL have led to groundbreaking developments in methods to obtain and map these abstract representations. By utilizing GPT, the authors can automatically generate abstract representations from videos, and by employing RL-trained agent libraries, implementing robot actions becomes more feasible.
Leggi di più Leggi di meno

Dettagli

2025
Inglese
Tutti i dispositivi (eccetto Kindle) Scopri di più
Reflowable
9783032034458
Chiudi
Aggiunto

L'articolo è stato aggiunto al carrello

Compatibilità

Formato:

Gli eBook venduti da IBS.it sono in formato ePub e possono essere protetti da Adobe DRM. In caso di download di un file protetto da DRM si otterrà un file in formato .acs, (Adobe Content Server Message), che dovrà essere aperto tramite Adobe Digital Editions e autorizzato tramite un account Adobe, prima di poter essere letto su pc o trasferito su dispositivi compatibili.

Compatibilità:

Gli eBook venduti da IBS.it possono essere letti utilizzando uno qualsiasi dei seguenti dispositivi: PC, eReader, Smartphone, Tablet o con una app Kobo iOS o Android.

Cloud:

Gli eBook venduti da IBS.it sono sincronizzati automaticamente su tutti i client di lettura Kobo successivamente all’acquisto. Grazie al Cloud Kobo i progressi di lettura, le note, le evidenziazioni vengono salvati e sincronizzati automaticamente su tutti i dispositivi e le APP di lettura Kobo utilizzati per la lettura.

Clicca qui per sapere come scaricare gli ebook utilizzando un pc con sistema operativo Windows

Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Chiudi

Chiudi

Siamo spiacenti si è verificato un errore imprevisto, la preghiamo di riprovare.

Chiudi

Verrai avvisato via email sulle novità di Nome Autore