Stiamo per perdere il controllo dell'intelligenza artificiale, secondo un nuovo studio

Di Redazione
·2 minuto per la lettura
Photo credit: Warner Bros.
Photo credit: Warner Bros.

From Esquire

Certe previsioni ansiogene sull'intelligenza artificiale sono sicuramente da prendere con le molle: il 2001 è passato da un bel pezzo, per esempio, ma nessun computer super-intelligente chiamato HAL per il momento ci ha costretti a un'odissea nello spazio. Noi, però, riportiamo: i ricercatori dell'Istituto tedesco Max Planck per lo sviluppo umano affermano di aver dimostrato in una nuova ricerca che un'intelligenza artificiale di categoria "superintelligente" sarebbe impossibile da controllare e contenere per gli esseri umani con un software concorrente.

Ok, non suona come una BUONISSIMA notizia.

L'Istituto Max Planck studia l'apprendimento negli esseri umani e successivamente nelle macchine. Si definisce intelligenza artificiale "superintelligente" quella che supera l'intelligenza umana, e può insegnare a se stessa cose nuove oltre la comprensione umana.

Il comunicato stampa dell'istituto sottolinea che le IA superintelligenti esistono già, per lo meno dal punto di vista di alcune capacità specifiche. "Ci sono già macchine che eseguono compiti importanti in modo indipendente, senza che i programmatori capiscano come hanno imparato", spiega il coautore dello studio Manuel Cebrian. "Bisogna quindi chiedersi se questo possa a un certo punto diventare incontrollabile e pericoloso per l'umanità".

Photo credit: Chris McGrath - Getty Images
Photo credit: Chris McGrath - Getty Images

I matematici, ad esempio, utilizzano l'apprendimento automatico per aiutare a risolvere problemi famosi. Gli scienziati lo utilizzano per elaborare nuove molecole per curare le malattie. Queste ricerche naturalmente al momento richiedono ancora la guida umana, ma i computer svolgendo miliardi di calcoli in pochissimo tempo possono accorciarne il corso da decenni a mesi, o addirittura giorni. Vista l'incredibile velocità dei computer, il punto in cui la quantità di calcolo diventa qualità non è sempre facile da individuare.

Da molti decenni gli esseri umani hanno sviluppato la paura dell'IA autonoma che può insegnare a se stessa. Pensiamo alle tre leggi della robotica di Isaac Asimov: un robot non può danneggiare le persone spontaneamente né essere istruito a danneggiare le persone.

Il problema, secondo i ricercatori, è che probabilmente non c'è modo di far rispettare le leggi della robotica ai robot.

Un'intelligenza artificiale superintelligente avrà acquisito così tante conoscenze che persino progettare un contenitore abbastanza grande per immagazzinarle supererà la nostra portata umana. Non solo, ma non c'è alcuna garanzia che saremo in grado di analizzare ciò che l'IA ha deciso essere la soluzione migliore a un dato problema. Una IA di questo tipo potrebbe sviluppare un linguaggio proprio, per nulla somigliante alla nostra programmazione e del tutto indecifrabile

Come per tutte le scoperte ansiogene, l'altra faccia della medaglia è che questo studio fornisce un'informazione estremamente importante agli scienziati. Se un "algoritmo di sicurezza" è impossibile come pensano alla Max Planck, gli scienziati possono iniziare fin d'ora a riflettere su altri sistemi di protezione e contenimento dell'IA.