Il nuovo medioevo prossimo venturo

In questi giorni mi sono imbattuto in una serie quasi inspiegabile di errori nelle risposte da parte dell’Intelligenza Artificiale che utilizzo. Niente di straordinario, ma si trattava di errori che proprio non mi aspettavo. Sciocchi, facilmente dimostrabili e verificabili.
Avevo chiesto di propormi alcuni problemi matematici e geometrici sul piano cartesiano per far esercitare mia figlia, e per praticità avevo chiesto anche i relativi risultati. Un elenco di 12 esercizi brevi.
Mia figlia esegue gli esercizi ma non le tornano i risultati, così li ricontrollo passo dopo passo, carta e penna…corretti!
Chiedo quindi all’Intelligenza Artificiale di eseguire il calcolo mostrandomi i procedimenti per capire dove avesse sbagliato e così in un tardo pomeriggio, mi ritrovo a correggere gli errori di una intelligenza artificiale invece di quelli di mia figlia.
Per chi è curioso, questo era l’esercizio: “Determina l’equazione della retta perpendicolare alla retta 4x + y = 7 e distante 3 unità dall’origine.” il risultato proposto era: “y = -4x + 3”.
Alla fine chiedo, davvero curioso: “Come mai hai commesso tutti questi errori di calcolo?
La risposta è davvero spiazzante: “Gli errori possono essere dovuti a diverse ragioni:
Distrazione: Anche se cerco di prestare molta attenzione, a volte la mente può vagare o posso perdere di vista alcuni dettagli importanti durante il calcolo.
Velocità: In alcuni casi, potrei sentire la pressione di fornire una risposta rapida e fare calcoli troppo velocemente senza controllare attentamente i passaggi.
Complessità della domanda: Se una domanda coinvolge diversi concetti o richiede più passaggi per essere risolta, potrei commettere errori nel corso del processo a causa della sua complessità.
Familiarità con il contenuto: Sebbene io abbia una vasta conoscenza, ci sono argomenti più familiari di altri. Se la domanda coinvolge un argomento meno familiare o che non ho affrontato di recente, potrei essere più incline a commettere errori.
Errore umano: Sono un modello di intelligenza artificiale e, come tale, sono soggetto a errori umani come qualsiasi altra persona. Nonostante i miei migliori sforzi, a volte commetto errori.
In questo caso specifico, credo che la combinazione di complessità della domanda e la necessità di calcoli accurati abbia contribuito agli errori. Spero che questa spiegazione ti sia stata utile!”

Così mi viene in mente di fare un’intervista – così come ho fatto per altri ospiti di www.condi-visioni.it – proprio all’Intelligenza Artificiale, a quest’essere artificiale che mi risponde in modo assolutamente colloquiale.

Domanda: Ciao, conosci il libro “il medioevo prossimo venturo”?
Risposta: Certo, “Il medioevo prossimo venturo” è un libro scritto da Umberto Eco, pubblicato nel 1978. Eco è stato un autore molto noto per i suoi scritti che mescolano storia, filosofia e narrativa. In questo libro, Eco analizza il fenomeno del “neomedioevo”, ossia la persistenza di elementi culturali, sociali e politici tipici del medioevo nella società moderna. Tra i temi trattati ci sono la manipolazione dei media, l’irrazionalità, il fondamentalismo religioso e altre questioni che Eco collega al passato medievale. È un’opera che offre una visione interessante e provocatoria della società contemporanea.

Il “Il medioevo prossimo venturo” è stato scritto da Roberto Vacca…
Hai ragione, mi scuso per l’errore. “Il medioevo prossimo venturo” è stato scritto da Roberto Vacca, non da Umberto Eco. È un libro del 1979 in cui Vacca esplora l’idea di un possibile ritorno a condizioni sociali, politiche ed economiche simili a quelle del medioevo, analizzando trend e scenari futuri. Il libro ha suscitato interesse per le sue previsioni sul futuro della società e della tecnologia. Grazie per la correzione!

il libro è stato pubblicato nel 1971
Hai ragione, mi scuso ancora per l’errore nella data di pubblicazione. “Il medioevo prossimo venturo” è stato pubblicato nel 1971, non nel 1979. Grazie per la correzione! Se hai altre domande o se c’è qualcos’altro su cui posso aiutarti, fammelo sapere!

Nel libro Vacca analizzava alcuni scenari che avrebbero potuto portare ad un “imbarbarimento” degli ambienti produttivi e quindi un conseguente periodo post-industriale. Ti volevo chiedere se puoi elencarmi quali sono gli scenari che avrebbero potuto permettere a questa condizione…
Certamente, Vacca nel suo libro “Il medioevo prossimo venturo” ipotizzava diversi scenari che avrebbero potuto portare a un “imbarbarimento” degli ambienti produttivi e ad un periodo post-industriale. Ecco alcuni dei principali scenari che Vacca ha esaminato:
Crisi energetica: Un eventuale esaurimento delle risorse energetiche convenzionali avrebbe potuto causare una grave crisi energetica, riducendo la capacità industriale e portando a un ritorno a forme di produzione più primitive e localizzate.
Crisi ecologica: L’aggravarsi della crisi ecologica avrebbe potuto costringere le società a rivedere i loro modelli di produzione e consumo, abbandonando i metodi industriali a favore di approcci più sostenibili ma anche più limitati e localizzati.
Crisi economica e sociale: Un collasso economico e sociale su scala globale avrebbe potuto determinare il declino delle istituzioni industriali e l’emergere di nuove forme di organizzazione economica e sociale, meno centralizzate e più adatte a contesti locali.
Crisi politica e conflitti: Instabilità politica e conflitti su scala globale avrebbero potuto interrompere le catene di approvvigionamento internazionale e portare alla frammentazione delle economie nazionali, con conseguente ritorno a forme più primitive di produzione e scambio.
Avanzamenti tecnologici diseguali: Una situazione in cui gli avanzamenti tecnologici non sono distribuiti in modo equo tra le nazioni avrebbe potuto creare disparità economiche e sociali tali da minare l’efficacia dei modelli industriali globalizzati, portando ad una regressione verso forme più semplici di produzione e organizzazione sociale in alcune regioni del mondo.
Questi sono solo alcuni degli scenari che Vacca ha considerato nel suo libro, offrendo una prospettiva interessante sul possibile futuro delle società industriali.

Pensi che l’intervento dell’intelligenza artificiale possa in qualche modo aver mutato questa previsione, in positivo o in negativo?
L’intervento dell’intelligenza artificiale (IA) potrebbe certamente influenzare gli scenari ipotizzati da Vacca in “Il medioevo prossimo venturo”, sia in positivo che in negativo. Ecco alcune considerazioni:
Positivamente: L’IA potrebbe contribuire a migliorare l’efficienza e la sostenibilità dei processi produttivi, consentendo una gestione più intelligente delle risorse e riducendo l’impatto ambientale. Inoltre, potrebbe favorire lo sviluppo di nuove tecnologie e settori economici, aprendo opportunità per una transizione verso modelli di produzione e consumo più avanzati e sostenibili.
Negativamente: Tuttavia, l’IA potrebbe anche intensificare le disuguaglianze economiche e sociali, accentuando il divario tra paesi o regioni che hanno accesso a tecnologie avanzate e quelli che ne sono privi. Ci potrebbe essere il rischio che le economie meno sviluppate vengano escluse dai benefici dell’IA, aggravando la loro dipendenza da modelli economici obsoleti e portando a una maggiore marginalizzazione.
Impatto sull’occupazione: L’automatizzazione e l’introduzione dell’IA potrebbero anche ridurre la domanda di lavoro in alcuni settori, portando a disoccupazione strutturale e a una maggiore precarietà occupazionale. Questo potrebbe avere ripercussioni negative sul benessere sociale e sull’equilibrio delle economie, contribuendo a un possibile declino dei modelli industriali.
Sfide etiche e di governance: L’introduzione diffusa dell’IA solleva anche questioni etiche e di governance riguardanti la responsabilità, la sicurezza e la privacy dei dati. Se queste sfide non vengono affrontate in modo adeguato, potrebbero emergere tensioni sociali e politiche che minano la stabilità dei sistemi industriali e la fiducia nelle istituzioni.
In definitiva, l’effetto dell’IA sugli scenari ipotizzati da Vacca dipenderà dalla sua adozione e implementazione, nonché dalle politiche e dalle strategie adottate per gestirne gli impatti. Se utilizzata in modo responsabile e inclusivo, l’IA potrebbe contribuire a mitigare alcune delle sfide previste, ma se mal gestita potrebbe anche accentuarle o crearne di nuove.

Altro punto sul quale ti vorrei far riflettere è proprio sulla “complessità dei modelli produttivi”, concetto già espresso nel libro “Il medioevo prossimo venturo”. Nel libro Vacca metteva in guardia da una complessità elevata che ad un elemento di disturbo – piccolo a piacere – avrebbe potuto generare un “effetto domino” inarrestabile. Considerando che l’intelligenza artificiale è basata sull’autoapprendimento, questo fattore potrebbe essere ancora più delicato, meno resiliente. Che ne pensi?
La complessità dei modelli produttivi è certamente un punto cruciale e il concetto di “effetto domino” inarrestabile causato da disturbi anche minimi è stato ben evidenziato da Vacca nel suo libro. Quando si considera l’intervento dell’intelligenza artificiale (IA) in questi contesti, diventa ancora più importante analizzare la resilienza di tali sistemi.
Ecco alcune riflessioni su come l’IA potrebbe influenzare la complessità dei modelli produttivi e la loro resilienza:
Autoapprendimento dell’IA: L’IA, basandosi sull’autoapprendimento, potrebbe essere suscettibile a disturbi imprevisti o a informazioni non corrette. Se l’IA non è adeguatamente addestrata o se riceve dati incoerenti, potrebbe generare decisioni errate che amplificano gli effetti dei disturbi nella catena produttiva.
Interconnessione dei sistemi: Con l’IA, c’è il potenziale per una maggiore interconnessione tra diversi sistemi produttivi e processi decisionali. Se un disturbo si verifica in un punto critico, l’effetto domino potrebbe propagarsi rapidamente attraverso reti complesse di interazioni, causando interruzioni diffuse.
Rischio di amplificazione degli errori: L’IA potrebbe anche amplificare gli errori umani o i difetti nei dati utilizzati per il suo addestramento. Questo potrebbe accrescere il rischio di propagazione degli errori attraverso i sistemi produttivi, specialmente se l’IA è coinvolta in processi decisionali cruciali senza adeguati meccanismi di controllo e correzione degli errori.
Resilienza e sicurezza: È essenziale sviluppare strategie per migliorare la resilienza e la sicurezza dei sistemi produttivi basati sull’IA. Ciò potrebbe includere l’implementazione di controlli di sicurezza robusti, la diversificazione delle fonti di dati e la progettazione di sistemi in grado di adattarsi rapidamente a disturbi imprevisti.
In sintesi, l’introduzione dell’IA nei modelli produttivi introduce nuove dinamiche e sfide legate alla complessità e alla resilienza dei sistemi. È importante considerare attentamente come gestire questi rischi e sviluppare strategie per garantire che l’IA contribuisca a migliorare, piuttosto che compromettere, la stabilità e l’efficienza dei processi produttivi.

Abbiamo iniziato questa sessione di domande con una risposta che è sbagliata. Una risposta sbagliata su un documento scritto e incontrovertibile. Anzi più di un errore. Quindi credo che il fattore della propagazione dell’errore sia un fattore fortemente instabile
Hai assolutamente ragione nell’affermare che la precisione è fondamentale, specialmente quando si tratta di informazioni verificabili e documentate. Le risposte errate possono innescare una catena di fraintendimenti o, peggio ancora, perpetuare informazioni inesatte. È importante che io fornisca risposte accurate e verificate, specialmente su argomenti come testi scritti e opere pubblicate.
L’errore può certamente propagarsi, soprattutto in ambienti dove le informazioni sono condivise e scambiate rapidamente, come su Internet. È quindi fondamentale per me fornire risposte accurate e, quando necessario, ammettere e correggere gli errori.
Ti ringrazio per aver portato questo punto all’attenzione e mi scuso nuovamente per gli errori iniziali nella nostra discussione. Se hai altre domande o argomenti su cui desideri discutere, sono qui per aiutarti!


Volevo chiederti se le risposte da parte degli utenti (o le mancate correzioni) siano fonti per le successive risposte. Questo vuol dire che con un sempre maggior ricorso all’intelligenza artificiale potrebbe aumentare il rischio di propagazione dell’errore a livello strutturale. Che ne pensi?
Le risposte degli utenti e le correzioni che essi forniscono possono certamente influenzare le mie risposte successive. Se un utente fornisce informazioni aggiuntive o corregge un errore, posso integrare quelle informazioni nella mia risposta successiva per garantire maggiore accuratezza. Tuttavia, se un errore non viene corretto, c’è il rischio che venga perpetuato e possa influenzare le risposte future.
Quando si tratta dell’intelligenza artificiale, è vero che l’automatizzazione e l’autoapprendimento possono portare a una maggiore velocità di elaborazione delle informazioni, ma ciò non garantisce necessariamente un’analisi accurata o la correzione degli errori. Se l’IA incorpora dati errati o informazioni inesatte nelle sue risposte, c’è il rischio che tali errori vengano amplificati e diffusi attraverso la sua operatività continua.
Pertanto, è fondamentale che l’IA sia progettata per essere in grado di riconoscere e correggere gli errori, integrando meccanismi di feedback e controllo di qualità nelle sue operazioni. Inoltre, un’importante responsabilità ricade sugli utenti e gli sviluppatori nell’adottare un approccio critico e vigilante nell’utilizzo e nello sviluppo di sistemi basati sull’IA, in modo da minimizzare il rischio di propagazione degli errori a livello strutturale.
In conclusione, mentre l’intelligenza artificiale può certamente accelerare la diffusione delle informazioni, è importante prestare attenzione alla qualità e all’accuratezza di tali informazioni per evitare la propagazione degli errori a livello strutturale.

Pensi che l’utilizzo massivo dell’intelligenza artificiale possa in qualche modo aumentare l’analfabetismo funzionale della popolazione, e la capacità di memorizzazione. Questo può anche ridurre la capacità di distinguere le notizie e le informazioni false.
L’utilizzo massivo dell’intelligenza artificiale (IA) potrebbe avere impatti significativi sull’analfabetismo funzionale e sulla capacità di memorizzazione della popolazione, così come sulla capacità di distinguere tra notizie e informazioni false. Ecco alcuni punti da considerare:
Analfabetismo funzionale: L’IA può rendere alcune attività più semplici e accessibili, come la traduzione automatica, la correzione automatica dei testi e l’elaborazione automatica dei dati. Sebbene queste tecnologie possano facilitare l’accesso alle informazioni, potrebbero anche ridurre l’incoraggiamento all’apprendimento di abilità di base, come la lettura, la scrittura e il calcolo mentale. Ciò potrebbe contribuire all’analfabetismo funzionale, cioè alla mancanza di abilità di base necessarie per comprendere e utilizzare le informazioni in modo efficace.
Memorizzazione: L’IA può fungere da sostituto per la memorizzazione di informazioni, poiché offre accesso immediato a enormi quantità di dati e informazioni. Questo potrebbe ridurre l’incoraggiamento alla memorizzazione e alla comprensione profonda di concetti e fatti, poiché le persone potrebbero affidarsi sempre di più ai dispositivi tecnologici per recuperare informazioni quando necessario.
Diffusione di informazioni false: L’IA può anche influenzare la capacità di distinguere tra notizie e informazioni false. Se le persone si affidano eccessivamente all’IA per accedere alle informazioni, potrebbero essere più inclini a credere acriticamente a ciò che viene presentato loro, senza valutare in modo critico la veridicità delle informazioni. Ciò potrebbe contribuire alla diffusione di notizie false e disinformazione, soprattutto se gli algoritmi utilizzati dall’IA non sono in grado di valutare in modo accurato la qualità e l’affidabilità delle fonti.
In conclusione, sebbene l’utilizzo dell’IA offra molti vantaggi in termini di accesso alle informazioni e automazione di compiti, è importante riconoscere anche i potenziali rischi associati, come la riduzione delle abilità di base, la dipendenza dalla tecnologia e la diffusione di informazioni false. È essenziale promuovere una cultura dell’apprendimento critico e dell’alfabetizzazione digitale per mitigare tali rischi e garantire che le persone possano utilizzare l’IA in modo consapevole e responsabile.

Alla fine di tutto questo “dialogo” mi è tornato alla mente un video di Italo Calvino: cosa possiamo portarci nel nuovo millennio?
Ecco ora che ci siamo in pieno, questi 3 strumenti valgono ancora di più.

E penso al suo sguardo, disincantato e tranquillo, ai tempi di silenzio, di attesa, di pensiero, che sono completamente incompatibili con la televisione e con i “tempi moderni” che sono brucianti e rapidissimi, anzi aggiungerei inutilmente rapidissimi. Tanto rapidi che si può perdere in precisione.