Beschreibung
««Da leggere assolutamente... Dobbiamo essere estremamente cauti con l’Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare». »
Elon Musk
«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell’umanità: se l’Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?»
Max Tegmark
««Non c’è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana. »
Financial Times
««Lo consiglio vivamente». »
Bill Gates
Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici.
E tuttavia c’è una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l’avremo costruita?
Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero.
Per questo – sostiene Bostrom – dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.
Elon Musk
«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell’umanità: se l’Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?»
Max Tegmark
««Non c’è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana. »
Financial Times
««Lo consiglio vivamente». »
Bill Gates
Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici.
E tuttavia c’è una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l’avremo costruita?
Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero.
Per questo – sostiene Bostrom – dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.
Biografische Notizen
Nick Bostrom (Helsingborg, Svezia, 1973), laureato in filosofia, fisica e neuroscienze computazionali, è docente alla Oxford University, dove dirige il Future of Humanity Institute, da lui fondato; un centro di ricerca interdisciplinare che permette a un gruppo di matematici, filosofi e scienziati eccezionali di pensare alle priorità globali e alle grandi questioni dell’umanità. Sempre a Oxford, dirige anche lo Strategic Artificial Intelligence Research Center. Bostrom è autore di più di 200 pubblicazioni specialistiche e di diversi libri, tra i quali Anthropic Bias (2002), Global Catastrophic Risks (2008) e Human Enhancement (2009). Superintelligenza. Tendenze, pericoli, strategie – un bestseller del «New York Times» – è il suo primo libro tradotto in italiano. Il suo sito web è www.nickbostrom.com.