Paura che le I.A. distruggano il mondo impadronendosi delle armi nucleari? Lo scenario Paperclip Maximizer è molto più inquietante. Leggete un po’!
Dopo aver sentito parlare di ChaosGPT, in molti si preoccupano giustamente che le I.A. possano sfuggire al controllo e diventare serie minacce per la sicurezza del mondo. Scenari come quello della saga di Terminator sembrano improvvisamente per la prima volta concreti e orrendamente plausibili (anche se non, per ora, raggiungibili).
Ma ci sono immagini peggiori di quella di una I.A. che si impadronisca di un arsenale nucleare e distrugga il mondo. Infatti una possibile apocalisse potrebbe arrivare in maniera inaspettata per via della semplice produzione di… graffette. Sia ben chiaro, stiamo solo parlando di una situazione ipotetica, un semplice esercizio di pensiero.
Esercizio che però, formulato dal filosofo svedese Nick Bostrom nel 2003, ritorna oggi molto attuale ed interessante alla luce delle nuove possibilità attribuite alle sempre più capaci I.A.. Ecco come lui stesso descriveva la sua idea, l’anno scorso: “Supponiamo di avere una I.A. il cui unico compito sia quello di realizzare quante più graffette possibili“.
“L’I.A. realizzerà in fretta che sarebbe molto meglio se non ci fossero più umani perché gli umani potrebbero decidere di spegnerla. Perché se gli umani lo facessero, ci sarebbero meno graffette. In più, i corpi umani contengono un sacco di atomi che potrebbero essere trasformati in graffette“.
“Il futuro verso il quale la I.A. starebbe cercando di ingranare [a quel punto] sarebbe uno in cui ci siano un sacco di graffette ma nessun umano”. Non è tutto qui, perché l’ipotesi postula che nel tentativo di realizzare quante più graffette possibili la I.A. in questione finisca col consumare tutte le risorse della Terra, rendendo infine il pianeta inabitabile anche dopo la scomparsa degli umani.
Uno scenario orrendamente simile a quello della saga di Horizon, nella quale le macchine (non guidate da una singola I.A. ma agenti come uno “sciame” in continua inter-connessione) consumano tutta la materia organica del pianeta, compresa quella umana, con lo scopo di alimentare sè stesse all’infinito.
Ribadiamo, si tratta solo di un ragionamento effimero e filosofico, ideato dal suo autore per mettere in guardia gli sivluppatori di I.A. dal dotarle di troppa autonomia e spingendoli invece a programmare le loro creazioni attentamente, per esempio con qualcosa di simile alle leggi della robotica di Isaac Asimov.
Potrebbe mai accadere? Chiaro che come al solito ci si divide tra fiduciosi e fatalisti, ed è difficile in effetti ora come ora prevedere a quali possibilità ci affacceremo tra cinque, dieci o vent’anni, così come qualcosa come ChatGPT era imprevedibile fino a qualche anno fa se non strettamente per gli addetti ai lavori. Ma, se la fantascienza ci ha insegnato qualche cosa, è che è sempre meglio dotare ogni macchina di un bel bottone OFF.
Continuate a seguirci su LaScimmiaPensa