Ecco perché gli scienziati pensano che dovresti essere preoccupato per l'intelligenza artificiale

Ecco perché gli scienziati pensano che dovresti essere preoccupato per l'intelligenza artificiale / Tecnologia del futuro

Negli ultimi mesi, potresti aver letto la copertura che circonda un articolo, scritto da Stephen Hawking, in cui si discutono i rischi associati all'intelligenza artificiale. L'articolo suggeriva che l'intelligenza artificiale potrebbe rappresentare un serio rischio per la razza umana. Hawking non è solo lì - Elon Musk e Peter Thiel sono entrambi personaggi pubblici intellettuali che hanno espresso preoccupazioni simili (Thiel ha investito oltre 1,3 milioni di dollari per la ricerca del problema e le possibili soluzioni).

La copertura dell'articolo di Hawking e i commenti di Musk sono stati, per non dirla in modo eccessivo, un po 'gioviali. Il tono è stato molto "guarda questa strana cosa di cui tutti questi geek sono preoccupati". Poca considerazione viene data all'idea che se alcune delle persone più intelligenti sulla Terra ti avvertono che qualcosa potrebbe essere molto pericoloso, potrebbe valere la pena ascoltarlo.

Ciò è comprensibile - l'intelligenza artificiale che sta conquistando il mondo sembra certamente molto strana e poco plausibile, forse a causa dell'enorme attenzione già data a questa idea dagli scrittori di fantascienza. Quindi, cosa ha spaventato tutte queste persone nominalmente sane e razionali?

Cos'è l'intelligenza?

Per parlare del pericolo dell'intelligenza artificiale, potrebbe essere utile capire cos'è l'intelligenza. Per comprendere meglio il problema, diamo un'occhiata a un'architettura AI giocattolo utilizzata dai ricercatori che studiano la teoria del ragionamento. Questa AI giocattolo si chiama AIXI e ha un numero di proprietà utili. Gli obiettivi possono essere arbitrari, si adattano bene alla potenza di calcolo e il suo design interno è molto pulito e diretto.

Inoltre, puoi implementare versioni semplici e pratiche dell'architettura che possono fare cose come giocare a Pacman, se vuoi. AIXI è il prodotto di un ricercatore di intelligenza artificiale chiamato Marcus Hutter, probabilmente il più esperto in intelligenza algoritmica. È lui che parla nel video qui sopra.

AIXI è sorprendentemente semplice: ha tre componenti principali: allievo, progettista, e funzione utile.

  • Il allievo accetta stringhe di bit che corrispondono a input sul mondo esterno e cerca nei programmi del computer fino a quando non trova quelli che producono le sue osservazioni come output. Questi programmi, insieme, permettono di fare ipotesi su come sarà il futuro, semplicemente facendo avanzare ciascun programma e ponderando la probabilità del risultato per la lunghezza del programma (un'implementazione del Rasoio di Occam).
  • Il progettista cerca tra le possibili azioni che l'agente può intraprendere e usa il modulo studente per prevedere cosa succederebbe se prendesse ciascuna di esse. Quindi li valuta in base a quanto buoni o cattivi sono i risultati previsti, e sceglie la linea d'azione che massimizza la bontà del risultato atteso moltiplicato per la probabilità prevista di raggiungerlo.
  • L'ultimo modulo, il funzione utile, è un semplice programma che contiene una descrizione di uno stato futuro del mondo e calcola un punteggio di utilità per esso. Questo punteggio di utilità è quanto sia buono o cattivo quel risultato, ed è usato dal pianificatore per valutare lo stato mondiale futuro. La funzione di utilità può essere arbitraria.
  • Presi insieme, questi tre componenti formano un ottimizzatore, che ottimizza per un obiettivo particolare, indipendentemente dal mondo in cui si trova.

Questo semplice modello rappresenta una definizione di base di un agente intelligente. L'agente studia il suo ambiente, ne costruisce modelli e quindi usa quei modelli per trovare la linea d'azione che massimizzerà le probabilità che ottenga ciò che vuole. AIXI è simile nella struttura a un'intelligenza artificiale che gioca a scacchi, o altri giochi con regole conosciute - tranne che è in grado di dedurre le regole del gioco giocando, partendo da zero conoscenza.

AIXI, dato il tempo necessario per calcolare, può imparare a ottimizzare qualsiasi sistema per qualsiasi obiettivo, per quanto complesso. È un algoritmo generalmente intelligente. Nota che questa non è la stessa cosa di avere l'intelligenza umana (l'intelligenza artificiale è un argomento completamente diverso Giovanni Idili di OpenWorm: Brains, Worms e Intelligenza Artificiale Giovanni Idili di OpenWorm: Brains, Worms e Intelligenza Artificiale Simulare un il cervello umano è lontano, ma un progetto open source sta prendendo i primi passi vitali, simulando la neurologia e la fisiologia di uno degli animali più semplici conosciuti dalla scienza. In altre parole, AIXI potrebbe essere in grado di superare in astuzia qualsiasi essere umano in qualsiasi attività intellettuale (con una sufficiente potenza di calcolo), ma potrebbe non essere consapevole della sua vittoria. Thinking Machines: Cosa Neuroscienze e Intelligenza Artificiale possono insegnarci sulla coscienza? La neuroscienza e l'intelligenza artificiale possono insegnarci la coscienza La costruzione di macchine e software artificialmente intelligenti ci insegna il funzionamento della coscienza e la natura stessa della mente umana? Leggi di più .

Come AI pratica, AIXI ha molti problemi. Primo, non ha modo di trovare quei programmi che producono l'output a cui è interessato. È un algoritmo a forza bruta, il che significa che non è pratico se non si ha un computer arbitrariamente potente in giro. Ogni effettiva implementazione di AIXI è per necessità un'approssimazione, e (oggi) generalmente abbastanza approssimativa. Tuttavia, AIXI ci offre uno sguardo teorico su come potrebbe apparire una potente intelligenza artificiale e su come potrebbe ragionare.

Lo spazio dei valori

Se hai fatto qualche programma di programmazione Nozioni di base sulla programmazione computerizzata 101 - Variabili e tipi di dati I fondamenti della programmazione per computer 101 - Variabili e tipi di dati Avendo introdotto e parlato un po 'di programmazione orientata agli oggetti prima e da dove proviene il suo omonimo, ho pensato che fosse ora passiamo attraverso le basi assolute della programmazione in un modo specifico non linguistico. Questo ... Per saperne di più, sai che i computer sono odiosamente, pedanti e meccanicamente alla lettera. La macchina non sa né importa cosa vuoi che faccia: fa solo ciò che è stato detto. Questa è una nozione importante quando si parla di intelligenza artificiale.

Con questo in mente, immagina di aver inventato una potente intelligenza artificiale: hai escogitato algoritmi intelligenti per generare ipotesi che corrispondono ai tuoi dati e per generare buoni piani per i candidati. La tua intelligenza artificiale può risolvere problemi generali e può farlo in modo efficiente su hardware moderno.

Ora è il momento di scegliere una funzione di utilità, che determinerà il valore dell'IA. Cosa dovresti chiedere per valutare? Ricorda, la macchina sarà odiosamente, pedantemente letterale su qualsiasi funzione tu lo chieda di massimizzare, e non si fermerà mai: non c'è nessun fantasma nella macchina che si "sveglierà" e deciderà di cambiare la sua funzione di utilità, indipendentemente da quanti miglioramenti dell'efficienza che rende al proprio ragionamento.

Eliezer Yudkowsky ha detto così:

Come in tutti i programmi per computer, la sfida fondamentale e la difficoltà essenziale di AGI è che se scriviamo il codice sbagliato, l'IA non guarderà automaticamente sul nostro codice, segnerà gli errori, capirà cosa intendiamo veramente dire e lo faremo anziché. I non programmatori a volte immaginano un AGI, o programmi per computer in generale, come analoghi a un servitore che segue gli ordini senza fare domande. Ma non è che l'intelligenza artificiale sia assolutamente obbediente al suo codice; piuttosto, l'intelligenza artificiale semplicemente è il codice.

Se stai cercando di gestire una fabbrica e dici alla macchina di valutare la produzione di graffette, e poi dargli il controllo di una serie di robot di fabbrica, potresti tornare il giorno dopo per scoprire che ha esaurito ogni altra forma di materia prima, ha ucciso tutti i tuoi dipendenti e ha fatto graffette dai loro resti. Se, nel tentativo di correggere il tuo torto, riprogrammi la macchina per rendere semplicemente tutti felici, puoi tornare il giorno dopo a trovarla mettendo fili nel cervello delle persone.

Il punto qui è che gli umani hanno molti valori complicati che assumiamo sono implicitamente condivisi con altre menti. Apprezziamo il denaro, ma apprezziamo maggiormente la vita umana. Vogliamo essere felici, ma non vogliamo necessariamente mettere fili nel nostro cervello per farlo. Non sentiamo il bisogno di chiarire queste cose quando stiamo dando istruzioni ad altri esseri umani. Non è possibile formulare questo tipo di ipotesi, tuttavia, quando si progetta la funzione di utilità di una macchina. Le migliori soluzioni sotto la matematica senz'anima di una semplice funzione di utilità sono spesso soluzioni che gli esseri umani avrebbero nesso per essere moralmente orribili.

Permettere a una macchina intelligente di massimizzare una funzione di utilità ingenua sarà quasi sempre catastrofica. Come dice il filosofo di Oxford Nick Bostom,

Non possiamo supporre allegramente che una superintelligenza condivida necessariamente uno qualsiasi dei valori finali stereotipati associati alla saggezza e allo sviluppo intellettuale negli esseri umani: curiosità scientifica, preoccupazione benevola per gli altri, illuminazione e contemplazione spirituale, rinuncia all'acquisività materiale, gusto per la cultura raffinata o per i semplici piaceri nella vita, l'umiltà e l'altruismo, e così via.

A peggiorare le cose, è molto, molto difficile specificare l'elenco completo e dettagliato di tutto ciò che le persone apprezzano. Ci sono molte sfaccettature alla domanda, e dimenticare anche solo uno è potenzialmente catastrofico. Anche tra quelli di cui siamo consapevoli, ci sono sottigliezze e complessità che rendono difficile scriverle come sistemi puliti di equazioni che possiamo dare a una macchina come funzione di utilità.

Alcune persone, dopo aver letto questo, concludono che la costruzione di IA con funzioni di utilità è un'idea terribile e dovremmo semplicemente progettarle in modo diverso. Qui, ci sono anche cattive notizie: puoi provare, formalmente, che qualsiasi agente che non ha qualcosa di equivalente a una funzione di utilità non può avere preferenze coerenti sul futuro.

Auto-miglioramento ricorsivo

Una soluzione al dilemma di cui sopra è non dare agli agenti di AI l'opportunità di ferire le persone: dare loro solo le risorse di cui hanno bisogno per risolvere il problema nel modo in cui si intende risolverlo, sorvegliarli da vicino e tenerli lontani dalle opportunità di fare grandi danni. Sfortunatamente, la nostra capacità di controllare macchine intelligenti è altamente sospetta.

Anche se non sono molto più intelligenti di noi, esiste la possibilità per la macchina “bootstrap” - raccogliere hardware migliore o apportare miglioramenti al proprio codice che lo rende ancora più intelligente. Ciò potrebbe consentire a una macchina di scavalcare l'intelligenza umana di molti ordini di grandezza, superando in astuzia gli umani nello stesso senso in cui gli umani superano in astuzia i gatti. Questo scenario fu proposto per la prima volta da un uomo di nome I. J. Good, che lavorò al progetto di analisi della cripta Enigma con Alan Turing durante la seconda guerra mondiale. Lo chiamò un “Intelligence Explosion,” e ha descritto la questione in questo modo:

Che una macchina ultra-intelligente sia definita come una macchina che può superare di gran lunga tutte le attività intellettuali di qualsiasi uomo, per quanto intelligente. Poiché la progettazione di macchine è una di queste attività intellettuali, una macchina ultra-intelligente potrebbe progettare macchine ancora migliori; ci sarebbe quindi indiscutibilmente “esplosione di intelligenza,” e l'intelligenza dell'uomo sarebbe rimasta molto indietro. Pertanto, la prima macchina ultra-intelligente è l'ultima invenzione che l'uomo deve mai realizzare, a condizione che la macchina sia sufficientemente docile.

Non è garantito che un'esplosione di intelligenza sia possibile nel nostro universo, ma sembra probabile. Col passare del tempo, i computer diventano più veloci e le informazioni di base sull'intelligence si accumulano. Ciò significa che il requisito della risorsa per rendere l'ultimo salto a un generale, l'intelligenza di boostrapping scenderà sempre più in basso. Ad un certo punto, ci troveremo in un mondo in cui milioni di persone possono guidare verso un Best Buy e raccogliere l'hardware e la documentazione tecnica di cui hanno bisogno per costruire un'intelligenza artificiale auto-migliorante, che abbiamo già stabilito potrebbe essere molto pericoloso. Immagina un mondo in cui potresti fabbricare bombe atomiche con bastoni e sassi. Questo è il tipo di futuro di cui stiamo discutendo.

E se una macchina fa quel salto, potrebbe superare molto rapidamente la specie umana in termini di produttività intellettuale, risolvendo problemi che un miliardo di umani non può risolvere, nello stesso modo in cui gli umani possono risolvere problemi che un miliardo di gatti può ' t.

Potrebbe sviluppare potenti robot (o bio o nanotecnologie) e acquisire rapidamente la capacità di rimodellare il mondo a suo piacimento, e ci sarebbe ben poco da fare a riguardo. Tale intelligenza potrebbe spogliare la Terra e il resto del sistema solare per i pezzi di ricambio senza troppi problemi, nel suo modo di fare tutto ciò che gli abbiamo detto. Sembra probabile che un tale sviluppo sarebbe catastrofico per l'umanità. Un'intelligenza artificiale non deve essere maliziosa per distruggere il mondo, semplicemente catastroficamente indifferente.

Come dice il proverbio, “La macchina non ti ama o ti odia, ma tu sei fatto di atomi che può usare per altre cose.”

Valutazione del rischio e mitigazione

Quindi, se accettiamo che progettando una potente intelligenza artificiale che massimizzi una semplice funzione di utilità è cattiva, quanti problemi ci troviamo davvero? Quanto tempo abbiamo prima che diventi possibile costruire questo tipo di macchine? È, naturalmente, difficile da dire.

Gli sviluppatori di intelligenza artificiale stanno facendo progressi. 7 incredibili siti web per vedere l'ultimo in intelligenza artificiale Programmazione 7 siti Web stupefacenti per vedere l'ultimo programma di intelligenza artificiale L'intelligenza artificiale non è ancora HAL dal 2001: The Space Odyssey ... ma ci stiamo avvicinando terribilmente. Abbastanza sicuro, un giorno potrebbe essere simile a quello dei pentole di fantascienza che sono stati sfornati da Hollywood ... Per saperne di più Le macchine che costruiamo e i problemi che possono risolvere sono in costante crescita. Nel 1997, Deep Blue poteva giocare a scacchi ad un livello più grande di un grande maestro umano. Nel 2011, la Watson di IBM ha potuto leggere e sintetizzare abbastanza informazioni abbastanza in profondità e abbastanza rapidamente da battere i migliori giocatori umani in un gioco di domande e risposte aperto con giochi di parole e giochi di parole - sono molti i progressi in quattordici anni.

In questo momento, Google sta investendo molto nella ricerca di deep learning, una tecnica che consente la costruzione di potenti reti neurali creando catene di reti neurali più semplici. Questo investimento gli consente di compiere progressi seri nel riconoscimento vocale e dell'immagine. La loro acquisizione più recente nell'area è una startup Deep Learning chiamata DeepMind, per la quale hanno pagato circa $ 400 milioni. Come parte dei termini dell'accordo, Google ha accettato di creare una commissione etica per garantire che la sua tecnologia AI sia sviluppata in modo sicuro.

Allo stesso tempo, IBM sta sviluppando Watson 2.0 e 3.0, sistemi in grado di elaborare immagini e video e discutere per difendere le conclusioni. Hanno dato una semplice dimostrazione iniziale della capacità di Watson di sintetizzare gli argomenti a favore e contro un argomento nella demo video qui sotto. I risultati sono imperfetti, ma un passo impressionante a prescindere.

Nessuna di queste tecnologie è pericolosa in questo momento: l'intelligenza artificiale come campo sta ancora lottando per far combaciare le abilità dominate dai bambini piccoli. La programmazione di computer e il design di intelligenza artificiale sono abilità cognitive molto difficili e di alto livello, e sarà probabilmente l'ultimo compito umano a cui le macchine diventeranno abili. Prima di arrivare a quel punto, avremo anche macchine onnipresenti che possono guidare Ecco come arriveremo in un mondo pieno di auto senza guidatore Ecco come arriveremo in un mondo pieno di auto senza conducente Guidare è un noioso, pericoloso, e compito impegnativo. Potrebbe un giorno essere automatizzato dalla tecnologia automobilistica senza conducente di Google? Per saperne di più, pratica la medicina e la legge, e probabilmente anche altre cose, con profonde conseguenze economiche.

Il tempo che ci vorrà per arrivare al punto di flessione dell'auto-miglioramento dipende solo da quanto velocemente abbiamo buone idee. Le previsioni di progressi tecnologici di questo tipo sono notoriamente difficili. Non sembra irragionevole che potremmo essere in grado di costruire un'intelligenza artificiale forte tra vent'anni, ma non sembra nemmeno irragionevole che potrebbero volerci ottant'anni. Ad ogni modo, accadrà alla fine, e c'è ragione di credere che quando accadrà, sarà estremamente pericoloso.

Quindi, se accettiamo che questo sarà un problema, cosa possiamo fare a riguardo? La risposta è assicurarsi che le prime macchine intelligenti siano sicure, in modo che possano eseguire il bootstrap fino a un livello significativo di intelligenza, e quindi proteggerci da macchine non sicure fatte in seguito. Questa "sicurezza" è definita dalla condivisione dei valori umani e dalla volontà di proteggere e aiutare l'umanità.

Poiché non possiamo realmente sederci e programmare i valori umani nella macchina, sarà probabilmente necessario progettare una funzione di utilità che richiede alla macchina di osservare gli umani, dedurre i nostri valori e quindi cercare di massimizzarli. Al fine di rendere sicuro questo processo di sviluppo, può anche essere utile sviluppare intelligenze artificiali che sono specificamente progettate non avere preferenze sulle loro funzioni di utilità, permettendoci di correggerle o spegnerle senza resistenza se iniziano a sviarsi durante lo sviluppo.

Molti dei problemi che dobbiamo risolvere per costruire una macchina sicura sono difficili da un punto di vista matematico, ma c'è motivo di credere che possano essere risolti. Diverse organizzazioni stanno lavorando su questo tema, tra cui il Future of Humanity Institute di Oxford e il Machine Intelligence Research Institute (finanziato da Peter Thiel).

MIRI è interessato specificamente allo sviluppo della matematica necessaria per costruire l'intelligenza artificiale. Se si scopre che l'intelligenza artificiale in grado di eseguire il bootstrap è possibile, allora sviluppare questo tipo di tecnologia 'Friendly AI', in primo luogo, se ha successo, potrebbe rivelarsi l'unica cosa più importante che gli umani abbiano mai fatto.

Pensi che l'intelligenza artificiale sia pericolosa? Sei preoccupato di ciò che il futuro dell'IA potrebbe portare? Condividi i tuoi pensieri nella sezione commenti qui sotto!

Crediti immagine: Lwp Kommunikáció Via Flickr, “Rete neurale“, da fdecomite,” img_7801“, di Steve Rainwater, “E-volve”, di Keoni Cabral, “new_20x“, di Robert Cudmore, “Graffette“, di Clifford Wallace

Scopri di più su: Intelligenza Artificiale, Automazione Informatica.