Deloitte beccata ad usare l'AI in un report da 440.000 dollari! | Investire.biz

Deloitte beccata ad usare l'AI in un report da 440.000 dollari!

14 ott 2025 - 09:45

Deloitte, l'AI e un report da 440.000$ pieno di menzogne. Uno scandalo isolato o l'inizio di un'era di errori? Ecco la verità che molti ignorano

Immaginate la scena: avete commissionato uno studio cruciale a un fornitore di fiducia, una delle più grandi società di consulenza al mondo. Pagate una cifra considerevole, ben 440.000 dollari, per un report che dovrebbe guidare le vostre decisioni strategiche. Poco dopo, la scoperta agghiacciante: non solo il documento è stato generato quasi interamente da un'intelligenza artificiale, ma è anche infarcito di informazioni false, citazioni inesistenti e dati inventati di sana pianta.

Probabilmente la vostra prima reazione sarebbe la rabbia. Ma subito dopo subentrerebbe lo sconcerto. Questo scenario, che sembra tratto da un romanzo distopico, è esattamente ciò che è accaduto di recente in Australia, dove il governo stesso ha pagato a Deloitte quasi mezzo milione di dollari per uno studio che si è rivelato essere un prodotto delle cosiddette "allucinazioni" dell'intelligenza artificiale.

Questa storia ha fatto il giro del mondo, scatenando un dibattito infuocato e gettando un'ombra di vergogna su Deloitte. Ma siamo sicuri che il vero colpevole sia la tecnologia? O stiamo assistendo al più classico dei casi in cui l'errore umano cerca un capro espiatorio tecnologico?

 

 

Il vero errore: quando la tecnologia diventa un alibi

Prima di puntare il dito contro l'intelligenza artificiale, analizziamo i fatti. Deloitte, un'azienda che fa della competenza e dell'affidabilità il suo marchio di fabbrica, ha consegnato un prodotto difettoso. Le televisioni australiane hanno mostrato giornalisti che intervistavano gli presunti autori dei libri citati nel report, i quali hanno candidamente confermato di non aver mai scritto quelle opere.

La situazione è a dir poco imbarazzante, ma non dovrebbe essere classificata come uno "scandalo dell'intelligenza artificiale". Questo è, a tutti gli effetti, uno scandalo di negligenza professionale. L'intelligenza artificiale non è un'entità autonoma con una propria etica; è uno strumento. E come ogni strumento, il suo risultato dipende da chi lo maneggia. In questo caso, è stato maneggiato male, senza la supervisione, la verifica e il controllo di qualità che un progetto da 440.000 dollari meriterebbe.

L'AI non c'entra nulla. È normale che commetta errori, che abbia "allucinazioni". Il vero problema è che professionisti pagati profumatamente hanno abdicato alla loro responsabilità, delegando completamente il lavoro a un sistema automatico e omettendo la fase più importante: la verifica umana.

 

 

Ma come funziona davvero l'Intelligenza Artificiale? Sveliamo il "trucco"

Per comprendere a fondo perché casi come questo accadono (e perché accadranno sempre più spesso), dobbiamo fare un passo indietro e capire la vera natura dei Large Language Models (LLM) come Chat GPT. Avendo processato, con il nostro progetto Forecaster.biz, oltre 10 miliardi di token – un traguardo riconosciuto persino da OpenAI – abbiamo avuto modo di studiare a fondo i meccanismi, i punti di forza e, soprattutto, i limiti di questa tecnologia.

La prima cosa da capire è che il termine "intelligenza artificiale" è fuorviante. Questi modelli non sono veramente intelligenti nel senso umano del termine. Non ragionano, non comprendono e non verificano. La loro abilità straordinaria, che li rende così efficaci, è puramente probabilistica.

Facciamo un esempio semplice: se io dico "La mamma è andata al supermercato a comprare il...", il vostro cervello completerà quasi istantaneamente la frase con la parola "latte". Non perché sia un indovino, ma perché, in base a tutte le conversazioni e i testi che ha processato nella sua vita, "latte" è la parola statisticamente più probabile a seguire.

Fonte: ChatGPT

 

Ecco, gli LLM fanno esattamente questo, ma su una scala di miliardi di informazioni. Quando gli poniamo una domanda, il modello non "cerca la risposta", ma costruisce una frase mettendo in sequenza le parole più probabili basandosi sull'enorme mole di dati su cui è stato addestrato. Il suo obiettivo non è la verità, ma la coerenza statistica. Se volete ho già approfondito proprio questo argomento in un articolo dedicato (Il ChatGPT dei mercati: Projection arriva su Forecaster Terminal), perché di fatto è la stessa cosa che fa la funzione Projection, appunto del Forecaster, per prevedere i mercati.

Le "allucinazioni" si verificano quando, per mantenere questa coerenza, il modello inventa un fatto, una fonte o una citazione che suona plausibile in quel contesto, anche se è completamente falsa.

 

 

Intelligenza Artificiale o assistente Instancabile?

Forse, se avessimo chiamato questa tecnologia in modo diverso, avremmo evitato molti fraintendimenti. Invece di "intelligenza artificiale", un nome più appropriato sarebbe "assistente intelligente" o, ancora meglio, "assistente instancabile".

Pensate di avere al vostro fianco un assistente appena assunto, estremamente volenteroso e capace di scrivere a una velocità sovrumana, ma senza alcuna esperienza pregressa o capacità di discernimento critico. Gli affidereste mai, senza alcuna supervisione, la stesura di un report fondamentale per il vostro business? Ovviamente no. Lo guidereste, gli fornireste le fonti, e soprattutto controllereste meticolosamente il suo lavoro prima di presentarlo a un cliente.

Chat GPT e gli altri LLM sono proprio questo: assistenti instancabili che possono accelerare il lavoro, generare bozze, riassumere testi e stimolare la creatività. Ma il professionista, l'esperto, rimane l'essere umano. La responsabilità finale è e deve rimanere nostra.

 

 

Il Futuro è qui: la nostra responsabilità nell'era dell'AI

Il caso Deloitte-Australia non sarà un episodio isolato. Dobbiamo abituarci a sentire storie simili, non per un difetto della tecnologia, ma per colpa di un diffuso analfabetismo tecnologico. Oggi, il 99,9% delle persone che usano Chat GPT non ha idea di come funzioni realmente. Lo percepisce come una sorta di Google evoluto, un oracolo infallibile a cui chiedere qualsiasi cosa, aspettandosi risposte sempre corrette.

Questa percezione errata è pericolosissima. Quando una tecnologia così potente viene messa nelle mani di tutti, senza un'adeguata formazione sui suoi limiti, il "patatrac" è inevitabile.

Il consiglio, da chi lavora quotidianamente con questi strumenti, è semplice ma non negoziabile:

  1. Usate l'AI come un punto di partenza, non di arrivo. Sfruttatela per generare idee, bozze e strutture.

  2. Verificate, verificate, verificate. Qualsiasi dato, statistica, citazione o informazione sensibile prodotta da un'AI deve essere controllata incrociando le fonti con il buon vecchio Google o altre risorse affidabili.

  3. Siate sempre i supervisori. Non delegate mai completamente un compito critico. Mantenete il controllo, il pensiero critico e la responsabilità professionale.

L'intelligenza artificiale non è il nemico. L'ignoranza del suo funzionamento, unita alla pigrizia intellettuale, lo è. Lo scandalo australiano non è un monito contro l'AI, ma un potente promemoria della nostra insostituibile responsabilità umana.

 

 

Puoi provare il Forecaster e scoprire tutte le sue potenzialità, AI inclusa, gratis per 7 giorni cliccando QUI

 

 

0 - Commenti

I Nostri Partners



Malta

ELP Finance LTD

34, Wied Ghomor Street, St. Julians STJ 2043 – Malta

+356 20 341590

Switzerland

ELP SA

Corso San Gottardo 8A, 6830 Chiasso, Switzerland

+41 91 9228171

Investire.biz non offre servizi finanziari, regolamentati o di investimento. Le informazioni presenti sul sito non devono essere considerate consigli di investimento personalizzati e sono disseminate sul sito e accessibili al pubblico in generale. Tutti i link e i banner sui siti web della società puntano verso società finanziarie, fornitori di servizi di investimento o banche regolamentate in Europa. Si prega di leggere Dichiarazione di non responsabilità, Informativa sui rischi, Informativa sul trattamento dei dati personali e Termini e condizioni prima di utilizzare questo sito Web.

L’utilizzo del presente sito è soggetto al diritto svizzero, che ha giurisdizione esclusiva in relazione all’interpretazione, applicazione ed effetti delle condizioni d’uso. Il tribunale cantonale competente avrà giurisdizione esclusiva su tutti i reclami o le controversie derivanti da, in relazione a o in relazione al presente sito web ed al suo utilizzo.

Le informazioni presenti sul sito web non devono essere considerate consigli di investimento personalizzati e sono disseminate sul sito e accessibili al pubblico in generale. Tutti i link e i banner sui siti web di ELP SA o ELP Finance LTD (di seguito il “gruppo ELP” o “ELP”) indirizzano verso società finanziarie, fornitori di servizi di investimento o banche regolamentate in Europa. Gli strumenti finanziari menzionati nel presente sito web possono essere soggetti a restrizioni di vendita in alcune giurisdizioni.

Continuando ad accedere o utilizzare questo sito web o qualsiasi servizio su questo sito, dichiari di accettarne i termini e condizioni. Tutti gli investimenti finanziari comportano un certo livello di rischio. Il trading e la speculazione finanziaria comportano un alto livello di rischio e potrebbe non essere adatto a tutti gli investitori. Prima di decidere di investire dovresti considerare attentamente i tuoi obiettivi di investimento, il livello della tua esperienza, la tua disponibilità ad assumersi dei rischi e consultare un consulente indipendente. C'è sempre la possibilità di perdere l'investimento, per intero o parte di esso. Quindi ti suggeriamo di investire denaro che puoi permetterti di perdere.

Dichiarazione di non responsabilità - Informativa sui rischi - MAR - Informativa sul trattamento dei dati personali - Termini e condizioni - Codice Etico - Cookie policy - Privacy Policy

© 2025 Investire.biz, all rights reserved.