Questo blog non rappresenta una testata giornalistica in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 7.03.2001

mercoledì, agosto 14, 2024

C'è solo un problema: l'intelligenza artificiale non è intelligente e questo è un rischio sistemico Pubblicato il14/08/2024 di EraOfLight



Di Charles Hugh Smith | Fonte

L'imitazione dell'intelligenza non è intelligenza e quindi, sebbene l'imitazione dell'intelligenza artificiale sia uno strumento potente, non è intelligente.

La mitologia della tecnologia ha un altare speciale per l'IA, l'intelligenza artificiale , che è venerata con riverenza come fonte di sorprendenti riduzioni dei costi (poiché il lavoro umano è sostituito dall'IA) e l'espansione illimitata di consumi e profitti. L'IA è la perfezione beata del naturale progresso della tecnologia verso poteri sempre maggiori.

L'opinione comune è che il progresso dell'intelligenza artificiale porterà a un'utopia di controllo praticamente illimitato della natura e a una cornucopia di tempo libero e abbondanza.

Se scostiamo la cortina della mitologia, scopriamo che l'IA imita l'intelligenza umana , e questa imitazione è così avvincente che la prendiamo come prova di intelligenza effettiva. Ma l'imitazione dell'intelligenza non è intelligenza, e quindi, mentre l'imitazione dell'IA è uno strumento potente, non è intelligente.

Le attuali iterazioni dell'intelligenza artificiale generativa, ovvero i modelli linguistici di grandi dimensioni (LLM) e l'apprendimento automatico, imitano la nostra capacità di linguaggio naturale elaborando milioni di esempi di scrittura e discorso umano ed estraendo quali algoritmi selezionano come migliori risposte alle query.

Questi programmi di intelligenza artificiale non hanno alcuna comprensione del contesto o del significato dell'argomento; estraggono la conoscenza umana per distillare una risposta. Questo è potenzialmente utile ma non intelligenza.

I programmi di intelligenza artificiale hanno una capacità limitata di distinguere la verità dalla falsità , da qui la loro propensione ad  allucinare  finzioni come fatti. Sono incapaci di discernere la differenza tra variazioni statistiche ed errori fatali, e l'aggiunta di misure precauzionali aggiunge ulteriore complessità che diventa un altro punto di fallimento.

Per quanto riguarda l'apprendimento automatico, l'intelligenza artificiale può progettare soluzioni plausibili a problemi computazionalmente complessi, come il ripiegamento delle proteine, ma questa  scatola nera computazionale basata sulla forza bruta  è opaca e quindi di valore limitato: il programma in realtà non comprende il ripiegamento delle proteine ​​nel modo in cui lo comprendono gli esseri umani, e noi non capiamo come il programma sia arrivato alla sua soluzione.

Poiché l'IA non comprende realmente il contesto, è limitata alle opzioni incorporate nella sua programmazione e nei suoi algoritmi. Rileviamo questi limiti nelle app e nei bot basati sull'IA, che non hanno consapevolezza del problema effettivo. Ad esempio, la nostra connessione Internet è inattiva a causa di un aggiornamento di sistema corrotto, ma poiché questa possibilità non era inclusa nell'universo di problemi da risolvere dell'app, l'app/bot dell'IA segnala diligentemente che il sistema funziona perfettamente anche se è rotto. (Questo è un esempio tratto dalla vita reale.)

In sostanza, ogni livello di questa estrazione/imitazione crea ulteriori punti di errore:  l'incapacità di identificare la differenza tra realtà e finzione o tra tassi di errore consentiti ed errori fatali, la maggiore complessità delle misure precauzionali e l'opacità della scatola nera generano tutti rischi di  normali incidenti  che si trasformano in guasti dei sistemi.

C'è anche il rischio sistemico generato dal fare affidamento sull'intelligenza artificiale black-box per gestire i sistemi al punto che gli esseri umani perdono la capacità di modificare o ricostruire i sistemi.  Questa eccessiva dipendenza dai programmi di intelligenza artificiale crea il rischio di un fallimento a cascata non solo dei sistemi digitali, ma anche dell'infrastruttura del mondo reale che ora dipende dai sistemi digitali.

C'è un risultato ancora più pernicioso nel dipendere dall'intelligenza artificiale per le soluzioni.  Proprio come la natura avvincente dei telefoni cellulari, dei social media e dei contenuti di Internet ha sconvolto la nostra capacità di concentrarci, focalizzarci e apprendere materiale difficile, un declino devastante nell'apprendimento per bambini e adolescenti, l'intelligenza artificiale offre una cornucopia di  fatti spuntinabili , frammenti di codice, pubblicità televisive generate al computer, articoli e interi libri che non richiedono più una conoscenza approfondita di argomenti e processi. In mancanza di questa comprensione, non siamo più attrezzati per perseguire indagini scettiche o creare contenuti o codici da zero.

In effetti, l'arduo processo di acquisizione di questa conoscenza ora sembra inutile:  il bot AI può fare tutto, rapidamente, a basso costo e con precisione. Ciò crea due problemi: 1) quando i programmi AI black-box falliscono, non sappiamo più abbastanza per diagnosticare e risolvere il guasto, o fare il lavoro da soli, e 2) abbiamo perso la capacità di comprendere che in molti casi non esiste una risposta o una soluzione che sia l'ultima parola: la "risposta" richiede l'interpretazione di fatti, eventi, processi e basi di conoscenza che sono intrinsecamente ambigue.

Non ci rendiamo più conto che la risposta dell'intelligenza artificiale a una domanda non è un fatto in sé, ma  un'interpretazione della realtà presentata come un fatto , e che la soluzione dell'intelligenza artificiale è solo uno dei tanti percorsi, ognuno dei quali ha dei compromessi intrinseci che generano costi e conseguenze imprevedibili nel lungo periodo.

Per discernere la differenza tra un'interpretazione e un presunto fatto è necessario un mare di conoscenze vasto e profondo e, perdendo la motivazione e la capacità di apprendere argomenti difficili, abbiamo perso anche la capacità di riconoscere ciò che abbiamo perso: coloro che hanno poca conoscenza reale non hanno le basi necessarie per comprendere la risposta dell'IA nel contesto appropriato.

Il risultato netto è che diventiamo meno capaci e meno informati, ciechi ai rischi creati dalla nostra perdita di competenza mentre i programmi di intelligenza artificiale introducono rischi sistemici che non possiamo prevedere o prevenire.  L'intelligenza artificiale degrada la qualità di ogni prodotto e sistema, perché l'imitazione non genera risposte, soluzioni e intuizioni definitive, genera solo  un'illusione di risposte, soluzioni e intuizioni definitive  che confondiamo stupidamente con l'intelligenza reale.

Mentre lo stato-corporativo neofeudale esulta per i profitti che si possono ottenere eliminando il lavoro umano su larga scala, l'estrazione/imitazione della conoscenza umana ha dei limiti.  Affidarsi ai programmi di intelligenza artificiale per eliminare tutti gli errori fatali è di per sé un errore fatale, e quindi gli umani devono rimanere nel ciclo decisionale (il ciclo OODA di osservare, orientare, decidere, agire).

Una volta che i programmi di intelligenza artificiale sono coinvolti in processi di sicurezza della vita o di assistenza sanitaria, ogni entità connessa al programma di intelligenza artificiale è esposta a responsabilità illimitata ( solidale ) nel caso in cui si verifichino errori dannosi o fatali.

Se eliminiamo mitologia e iperbole, ci ritroviamo con un'altra struttura neofeudale:  i ricchi saranno serviti dagli esseri umani, e il resto di noi sarà bloccato con un servizio di intelligenza artificiale di bassa qualità e soggetto a errori, senza possibilità di ricorso.

L'aspettativa dei promotori dell'IA è che l'IA generativa mieterà trilioni di dollari di profitti da risparmi sui costi e nuovi prodotti/servizi. Questa storia non mappa il mondo reale , in cui ogni strumento software di IA è facilmente copiato/distribuito e quindi sarà impossibile proteggere qualsiasi  valore di scarsità , che è la dinamica essenziale per mantenere il  potere di determinazione dei prezzi  necessario per raccogliere profitti sproporzionati.

Gli strumenti software che tutti possiedono hanno scarso valore, a meno che un monopolio non ne limiti la distribuzione, e scarso valore è anche il contenuto generato automaticamente da questi strumenti: milioni di canzoni, film, comunicati stampa, saggi, articoli di ricerca, ecc. generati dall'intelligenza artificiale travolgeranno qualsiasi potenziale pubblico, riducendo a zero il valore di tutti i contenuti generati dall'intelligenza artificiale.

I promotori sostengono che l'abbattimento di massa dei posti di lavoro sarà magicamente compensato da intere nuove industrie create dall'IA , riecheggiando la transizione dal lavoro agricolo al lavoro in fabbrica. Ma il drago dell'IA si mangerà la coda, perché crea pochi posti di lavoro o profitti che possono essere tassati per pagare le persone che non lavorano (reddito di cittadinanza universale).

Forse il limite più importante dell'IA è che non farà nulla per invertire i problemi più urgenti dell'umanità.  Non può ripulire il  Great Pacific Trash Gyre , o limitare i 450 milioni di tonnellate di plastica per lo più non riciclata vomitata ogni anno, o invertire il cambiamento climatico, o pulire le orbite terrestri basse dalle migliaia di pezzi ad alta velocità di detriti pericolosi, o trasformare la  crescita altamente redditizia dei rifiuti  in un sistema globale sostenibile, o eliminare tutte le fonti di ciò che definisco  Anti-Progresso .

Ciò non farà altro che aggiungere nuove fonti di rischio sistemico, spreco e sfruttamento neofeudale

Nessun commento: