Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Dati e Statistiche
Wishlist Salvato in 256 liste dei desideri
Superintelligenza. Tendenze, pericoli, strategie
15,40 €
-45% 28,00 €
15,40 € 28,00 €
Attualmente non disp.
Chiudi

Altre offerte vendute e spedite dai nostri venditori

Altri venditori
Prezzo e spese di spedizione
Libraccio
+ Spese di spedizione
-45% 28,00 € 15,40 €
Altri venditori
Prezzo e spese di spedizione
Altri venditori
Prezzo e spese di spedizione
Libraccio
+ Spese di spedizione
-45% 28,00 € 15,40 €
Chiudi
Libraccio
Chiudi
Superintelligenza. Tendenze, pericoli, strategie - Nick Bostrom - copertina
Chiudi

Promo attive (0)

Chiudi
Superintelligenza. Tendenze, pericoli, strategie

Descrizione


Il libro che ha lanciato nel mondo l'allarme di un'Intelligenza Artificiale fuori controllo

«Lo consiglio vivamente.» - Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l'Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare-» - Elon Musk

«Non c'è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana.» - Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell'umanità.: se l'Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l'ultimo?» - Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell'Intelligenza Artificiale. Non ha firmato quell'appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L'Intelligenza Artificiale è una delle più grandi promesse dell'umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici. E tuttavia c'è una nube minacciosa sopra il cielo dell'Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un'eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l'avremo costruita? Se lo scopo dell'attuale ricerca sull'Intelligenza Artificiale è quello di costruire delle macchine fornite di un'intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero. Per questo - sostiene Bostrom - dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l'Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.
Leggi di più Leggi di meno

Dettagli

5
2018
11 gennaio 2018
528 p., Brossura
9788833929019
Chiudi

Indice

Indice

La favola incompiuta dei passeri
Prefazione
Ringraziamenti
Elenco delle figure, elenco delle tabelle, elenco dei riquadri

I. Sviluppi del passato e capacità attuali
Modalità di crescita e grande storia - Grandi aspettative - Stagioni di speranza e di disperazione - Stato dell'arte - Opinioni sul futuro dell'intelligenza delle macchine

II. Le vie per arrivare alla superintelligenza
Intelligenza artificiale - Emulazione globale del cervello - Cognizione biologica - Interfacce cervello-computer - Reti e organizzazioni - Riassunto

III. Forme di superintelligenza
Superintelligenza di grande velocità - Superintelligenza collettiva - Superintelligenza di qualità - Portata diretta e indiretta - Fonti di vantaggio per l'intelligenza digitale

IV. La cinetica di un'esplosione di intelligenza
Tempi e velocità del decollo - Resistenza - Percorsi che non hanno a che fare con l'intelligenza digitale - Percorsi legati alle emulazioni e all'IA - Potere di ottimizzazione ed esplosività

V. Vantaggio strategico decisivo
Il progetto in prima posizione otterrà un vantaggio strategico decisivo? - Quanto sarà grande il progetto che avrà successo? - Monitoraggio - Collaborazione internazionale - Dal vantaggio strategico decisivo al singleton

VI. Superpoteri cognitivi
Funzionalità e superpoteri - Uno scenario di presa del potere da parte di un'IA - Potere sulla natura e sugli agenti

VII. La volontà superintelligente
La relazione tra intelligenza e motivazione - Convergenza strumentale - Autoconservazione - Integrità del contenuto dell'obiettivo - Potenziamento cognitivo - Perfezionamento della tecnologia - Acquisizione di risorse

VIII. Il risultato di default è la rovina?
La catastrofe esistenziale è il risultato di default di un'esplosione d'intelligenza - La svolta insidiosa - Modalità di guasto maligno - Istanziazione malvagia - Profusione di infrastrutture - Crimine mentale

IX. Il problema del controllo
Due problemi di agenzia - Metodi di controllo delle capacità - Metodi di contenimento - Metodi di incentivazione - Impedimento dello sviluppo - Tripwires - Metodi di selezione delle motivazioni - Specificazione diretta - Domesticità - Normatività indiretta - Incremento - Sinossi

X. Oracoli, geni, monarchi, strumenti
Oracoli - Geni e monarchi - Strumenti - Confronto

XI. Scenari multipolari
Dei cavalli e degli uomini - Retribuzioni e disoccupazione - Capitale e benessere - Il principio malthusiano in una prospettiva storica - Crescita della popolazione e investimenti - Vivere in un'economia algoritmica - Schiavitù volontaria, morte accidentale - Il lavoro superefficiente sarebbe piacevole? - Esternalizzatori inconsci? - L'evoluzione non è necessariamente terminata - Formazione post-transizione di un singleton? - Una seconda transizione - Superorganismi ed economie di scala - Unificazione mediante un trattato

XII. L'acquisizione dei valori
Il problema del caricamento dei valori - Selezione evolutiva - Apprendimento per rinforzo - Accumulo associativo dei valori - Impalcatura motivazionale - Apprendimento dei valori - Modulazione delle emulazioni - Progettazione delle istituzioni - Sinossi

XIII. La scelta dei criteri di scelta
La necessità della normatività indiretta - Volontà estrapolata coerente - Qualche spiegazione - Ragioni a favore della VEC - Altre osservazioni - Modelli di moralità - Fai ciò che intendo - Elenco delle componenti - Contenuto dell'obiettivo - Teoria della decisione - Epistemologia - Ratifica - Avvicinarsi abbastanza

XIV. Il quadro strategico
Strategia scientifica e tecnologica - Sviluppo tecnologico differenziale - Ordine di arrivo preferito - Tassi di cambiamento e potenziamento cognitivo - Accoppiamenti tecnologici - Gioco d'anticipo - Percorsi e abilitatori - Effetti dei progressi dell'hardware - Si dovrebbe promuovere la ricerca sull'emulazione globale del cervello? - La prospettiva relativa alle persone favorisce la velocità - Collaborazione - La dinamica di competizione e i suoi pericoli - Sui benefici della collaborazione - Lavorare insieme

XV. Il momento cruciale
Filosofia con una scadenza - Che cosa occorre fare? - Cercare la luce strategica - Sviluppare buone capacità - Misure particolari - Chiamata a raccolta del meglio della natura umana

Postfazione
Indice analitico

Valutazioni e recensioni

4,5/5
Recensioni: 5/5
(2)
5
(1)
4
(1)
3
(0)
2
(0)
1
(0)
Scrivi una recensione Scrivi una recensione

Recensioni pubblicate senza verifica sull'acquisto del prodotto.

Gaetano
Recensioni: 5/5

Libro non di facile lettura per i non addetti ai lavori ma che apre le porte a molte riflessione su questioni poco trattate ma che risulteranno decisive in un futuro non troppo lontano.

Leggi di più Leggi di meno
Recensioni: 4/5

E' difficile commentare questo libro in modo oggettivo: Bostrom dipinge in modo assolutamente scientifico scenari devastanti e non rasserena il lettore. Peraltro si concentra - per sua stessa ammissione - più sui rischi che sui vantaggi derivanti dallo sviluppo (che appare difficilmente controllabile) di una superintelligenza che potrebbe decidere autonomamente quali saranno i suoi obiettivi futuri non necessariamente utili all'umanità. Premesso quanto sopra non posso che consigliarlo a chi vuole cercare di capire un po' di più di questo nuovo fenomeno che non è ancora ben conosciuto al grande pubblico (l'Intelligenza Artificiale) che purtroppo o per fortuna (ancora non lo sappiamo) non ha precedenti per impatto politico, sociale, economico e soprattutto etico. Trovo solo un po' innaturale il linguaggio utilizzato, forse limitato dalla traduzione dall'inglese e certamente dovuto alla complessità dell'argomento trattato.

Leggi di più Leggi di meno
Chiudi

Recensioni

4,5/5
Recensioni: 5/5
Scrivi una recensione Scrivi una recensione
5
(1)
4
(1)
3
(0)
2
(0)
1
(0)

Recensioni pubblicate senza verifica sull'acquisto del prodotto.

Conosci l'autore

Nick Bostrom

1973, Helsingborg

Nick Bostrom (Helsingborg, Svezia, 1973), laureato in filosofia, fisica e neuroscienze computazionali, è docente alla Oxford University, dove dirige il Future of Humanity Institute, da lui fondato; un centro di ricerca interdisciplinare che permette a un gruppo di matematici, filosofi e scienziati eccezionali di pensare alle priorità globali e alle grandi questioni dell'umanità. Sempre a Oxford, dirige anche lo Strategic Artificial Intelligence Research Center. Bostrom è autore di più di 200 pubblicazioni specialistiche e di diversi libri, tra i quali Anthropic Bias (2002), Global Catastrophic Risks (2008) e Human Enhancement (2009). Superintelligenza. Tendenze, pericoli, strategie - bestseller del New York Times - è il suo primo libro tradotto in...

Chiudi
Aggiunto

L'articolo è stato aggiunto al carrello

Informazioni e Contatti sulla Sicurezza dei Prodotti

Le schede prodotto sono aggiornate in conformità al Regolamento UE 988/2023. Laddove ci fossero taluni dati non disponibili per ragioni indipendenti da IBS, vi informiamo che stiamo compiendo ogni ragionevole sforzo per inserirli. Vi invitiamo a controllare periodicamente il sito www.ibs.it per eventuali novità e aggiornamenti.
Per le vendite di prodotti da terze parti, ciascun venditore si assume la piena e diretta responsabilità per la commercializzazione del prodotto e per la sua conformità al Regolamento UE 988/2023, nonché alle normative nazionali ed europee vigenti.

Per informazioni sulla sicurezza dei prodotti, contattare complianceDSA@feltrinelli.it

Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Chiudi

Chiudi

Siamo spiacenti si è verificato un errore imprevisto, la preghiamo di riprovare.

Chiudi

Verrai avvisato via email sulle novità di Nome Autore