Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Feature Selection for Knowledge Discovery and Data Mining - Huan Liu,Hiroshi Motoda - cover
Feature Selection for Knowledge Discovery and Data Mining - Huan Liu,Hiroshi Motoda - cover
Dati e Statistiche
Wishlist Salvato in 0 liste dei desideri
Feature Selection for Knowledge Discovery and Data Mining
Disponibilità in 2 settimane
475,00 €
475,00 €
Disp. in 2 settimane
Chiudi

Altre offerte vendute e spedite dai nostri venditori

Altri venditori
Prezzo e spese di spedizione
ibs
Spedizione Gratis
475,00 €
Vai alla scheda completa
Altri venditori
Prezzo e spese di spedizione
ibs
Spedizione Gratis
475,00 €
Vai alla scheda completa
Altri venditori
Prezzo e spese di spedizione
Chiudi
ibs
Chiudi

Tutti i formati ed edizioni

Chiudi
Feature Selection for Knowledge Discovery and Data Mining - Huan Liu,Hiroshi Motoda - cover

Descrizione


As computer power grows and data collection technologies advance, a plethora of data is generated in almost every field where computers are used. The com­ puter generated data should be analyzed by computers; without the aid of computing technologies, it is certain that huge amounts of data collected will not ever be examined, let alone be used to our advantages. Even with today's advanced computer technologies (e. g. , machine learning and data mining sys­ tems), discovering knowledge from data can still be fiendishly hard due to the characteristics of the computer generated data. Taking its simplest form, raw data are represented in feature-values. The size of a dataset can be measUJ·ed in two dimensions, number of features (N) and number of instances (P). Both Nand P can be enormously large. This enormity may cause serious problems to many data mining systems. Feature selection is one of the long existing methods that deal with these problems. Its objective is to select a minimal subset of features according to some reasonable criteria so that the original task can be achieved equally well, if not better. By choosing a minimal subset offeatures, irrelevant and redundant features are removed according to the criterion. When N is reduced, the data space shrinks and in a sense, the data set is now a better representative of the whole data population. If necessary, the reduction of N can also give rise to the reduction of P by eliminating duplicates.
Leggi di più Leggi di meno

Dettagli

The Springer International Series in Engineering and Computer Science
2013
Paperback / softback
214 p.
Testo in English
235 x 155 mm
9781461376040
Chiudi
Aggiunto

L'articolo è stato aggiunto al carrello

Informazioni e Contatti sulla Sicurezza dei Prodotti

Le schede prodotto sono aggiornate in conformità al Regolamento UE 988/2023. Laddove ci fossero taluni dati non disponibili per ragioni indipendenti da IBS, vi informiamo che stiamo compiendo ogni ragionevole sforzo per inserirli. Vi invitiamo a controllare periodicamente il sito www.ibs.it per eventuali novità e aggiornamenti.
Per le vendite di prodotti da terze parti, ciascun venditore si assume la piena e diretta responsabilità per la commercializzazione del prodotto e per la sua conformità al Regolamento UE 988/2023, nonché alle normative nazionali ed europee vigenti.

Per informazioni sulla sicurezza dei prodotti, contattare productsafetyibs@feltrinelli.it

Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Chiudi

Chiudi

Siamo spiacenti si è verificato un errore imprevisto, la preghiamo di riprovare.

Chiudi

Verrai avvisato via email sulle novità di Nome Autore