Contents
- 1 Perché l’IA sta cambiando finanza ed economia
- 2 Addestramento (Training) – Il cuore dell’apprendimento automatico
- 3 AGI (Artificial General Intelligence) – L’intelligenza artificiale che pensa come un umano
- 4 Agente AI – L’IA che agisce in autonomia
- 5 AI generativa – Creare contenuti con l’intelligenza artificiale
- 6 LLM (Large Language Model) – Modelli linguistici su larga scala
- 7 Allucinazione algoritmica
- 8 Bias
- 9 Chain of Thought (Catena del pensiero)
- 10 Dataset
- 11 Deep Learning
- 12 Distillazione
- 13 Fine-tuning
- 14 Machine Learning
- 15 Pre-training
- 16 Prompt Engineering
- 17 Rete neurale
- 18 Superintelligenza artificiale (ASI)
- 19 Token
Perché l’IA sta cambiando finanza ed economia
Negli ultimi anni, l’intelligenza artificiale (IA) è passata dall’essere un tema di ricerca accademica a una delle forze trainanti dell’economia globale. Se fino a poco tempo fa le banche e gli investitori utilizzavano strumenti tradizionali come modelli statistici, oggi si affidano sempre più a reti neurali, algoritmi di deep learning e modelli linguistici di grandi dimensioni (LLM).
Il motivo è semplice: i dati sono diventati il nuovo capitale. I mercati finanziari generano miliardi di transazioni al secondo, i social media influenzano le decisioni degli investitori, e le banche centrali devono analizzare scenari economici complessi. L’essere umano da solo non può più processare questa mole di informazioni in tempo reale: serve un supporto algoritmico.
Alcuni esempi concreti:
- Trading algoritmico: fondi di investimento usano reti neurali per individuare micro-pattern nei prezzi, anticipando movimenti di mercato in millisecondi.
- Risk management: banche sfruttano modelli predittivi per simulare crisi finanziarie e testare la resilienza del proprio capitale.
- Finanza comportamentale: LLM analizzano notizie e post social per misurare il sentiment degli investitori e prevedere reazioni del mercato.
- Economia pubblica: governi usano AI generativa per modellare scenari di inflazione o impatto delle politiche fiscali.
Ma accanto alle opportunità ci sono rischi: i modelli possono avere bias, generare allucinazioni o comportarsi in modo opaco (black box). Per questo conoscere i concetti chiave non è solo una questione tecnica: è un’esigenza strategica per chi lavora in finanza, economia o regolamentazione.
In questo articolo vedremo, uno per uno, i termini fondamentali dell’IA, con esempi legati alla finanza e all’economia, così da avere una bussola per orientarsi in questo nuovo ecosistema
Addestramento (Training) – Il cuore dell’apprendimento automatico
L’addestramento è il processo tramite il quale un modello di intelligenza artificiale apprende a svolgere un compito specifico analizzando dati storici. Si tratta del passaggio fondamentale in qualsiasi applicazione di machine learning o deep learning: senza addestramento, il modello non può generalizzare o fare previsioni affidabili.
Come funziona
Durante l’addestramento, il modello viene esposto a un dataset (insieme di dati di input e output desiderati). Ad ogni iterazione, il modello confronta le proprie previsioni con i risultati attesi e aggiusta i propri pesi interni (nei neuroni artificiali) attraverso algoritmi di ottimizzazione, come gradient descent.
Il processo continua fino a quando il modello raggiunge un livello accettabile di accuratezza o minimizza la funzione di perdita, ossia l’errore tra previsione e realtà.
Esempio in finanza
Immaginiamo una banca che voglia prevedere il rischio di default dei clienti:
- Raccolgono dati storici sui clienti, includendo reddito, età, storico creditizio e altri fattori.
- Addestrano un modello di rete neurale su questi dati, insegnandogli a distinguere tra clienti affidabili e rischiosi.
- Il modello, una volta addestrato, può analizzare nuovi clienti e stimare la probabilità di insolvenza, migliorando le decisioni di prestito e riducendo i rischi economici.
Varianti e approfondimenti
- Addestramento supervisionato: il modello impara da dati già etichettati (es. clienti “buoni” vs “cattivi”).
- Addestramento non supervisionato: il modello trova pattern nei dati senza output predefiniti (es. segmentazione dei clienti per marketing).
- Addestramento rinforzato: il modello apprende tramite ricompense o penalità, tipico nei sistemi di trading algoritmico o nei simulatori di mercato.
Sinonimi comuni
- Training (termine inglese più diffuso)
- Apprendimento (nel contesto del machine learning)
- Fitting (quando il modello “si adatta” ai dati)
- Ottimizzazione del modello
Un buon addestramento richiede dati di qualità e ben bilanciati. Se i dati sono distorti o insufficienti, il modello rischia di apprendere comportamenti errati, con potenziali perdite finanziarie o decisioni economiche sbagliate.
AGI (Artificial General Intelligence) – L’intelligenza artificiale che pensa come un umano
Un’IA generale avrebbe capacità cognitive simili a quelle umane, in grado di ragionare e adattarsi a contesti diversi. Nel settore finanziario, un’AGI potrebbe analizzare simultaneamente i mercati globali, valutare rischi geopolitici e suggerire politiche economiche.
AGI (Artificial General Intelligence) e intelligenza artificiale forte (Strong AI) sono concetti molto simili, spesso usati come sinonimi, ma con qualche sfumatura:
-
AGI (Artificial General Intelligence): indica un sistema di intelligenza artificiale capace di apprendere e risolvere problemi in diversi domini, proprio come un essere umano. L’accento è sulla generalità delle capacità cognitive.
-
Intelligenza artificiale forte (Strong AI): mette l’accento sul fatto che la macchina non solo simula il ragionamento umano, ma ha una comprensione reale e cosciente delle informazioni, cioè possiede “mente” e consapevolezza propria (concetto più teorico e filosofico).
In pratica: tutti gli Strong AI sono AGI, ma non tutte le AGI necessariamente implicano coscienza o consapevolezza.
L’AGI, o Intelligenza Artificiale Generale, rappresenta un livello avanzato di IA capace di ragionare, apprendere e adattarsi a compiti complessi in diversi domini, proprio come farebbe un essere umano. A differenza delle IA attuali (dette “ristrette” o narrow AI) che eccellono in compiti specifici come riconoscere immagini o generare testo, un’AGI potrebbe affrontare problemi nuovi senza bisogno di essere riaddestrata da zero.
Come funziona
L’AGI combinerebbe:
- Apprendimento multi-task: capacità di affrontare compiti molto diversi tra loro.
- Ragionamento astratto: deduzione, pianificazione e previsione su scenari complessi.
- Adattabilità: capacità di apprendere da esperienze passate e trasferire conoscenze da un contesto all’altro.
Dal punto di vista tecnico, l’AGI richiederebbe modelli estremamente complessi, con reti neurali multimodali, sistemi di memoria avanzata e algoritmi di meta-apprendimento, che permettano di imparare a imparare.
Esempio in finanza ed economia
Immagina un’AGI integrata in un istituto finanziario globale:
- Analizza simultaneamente mercati azionari, obbligazionari e valutari in tutto il mondo.
- Valuta l’impatto di eventi geopolitici, variazioni dei tassi di interesse e crisi sanitarie.
- Suggerisce strategie di investimento, gestione del rischio e politiche economiche ottimizzate, aggiornandosi in tempo reale.
In pratica, un’AGI potrebbe diventare un super-consulente economico in grado di anticipare trend e scenari macroeconomici con un livello di precisione e velocità impossibile per gli esseri umani.
Implicazioni e rischi
- Opportunità: ottimizzazione dei mercati, gestione dei rischi più efficace, politiche economiche più informate.
- Rischi: dipendenza totale dall’IA, problemi etici e regolatori, concentrazione di potere nelle mani di chi controlla l’AGI.
Sinonimi e termini correlati
- Intelligenza artificiale forte (Strong AI)
- AI generale
- Intelligenza autonoma (in contesti accademici)
L’AGI rimane ancora teorica: nessun sistema attuale ha le capacità cognitive complete di un essere umano. Tuttavia, la ricerca avanza rapidamente e molti investitori e governi la considerano una tecnologia strategica di lungo termine.
Agente AI
Perfetto! Ecco un approfondimento dettagliato su Agente AI, con esempi concreti in finanza ed economia, sinonimi e contesto tecnico.
Agente AI – L’IA che agisce in autonomia
Un Agente AI è un sistema di intelligenza artificiale progettato per percepire l’ambiente, prendere decisioni e compiere azioni autonomamente per raggiungere obiettivi prefissati. Si distingue da altri modelli AI che si limitano a rispondere passivamente a input: l’agente è proattivo e può adattare le sue azioni in base ai feedback ricevuti.
Come funziona
Un agente AI tipico include:
- Sensori o input: per raccogliere informazioni dall’ambiente (dati di mercato, notizie, indicatori economici).
- Motore decisionale: spesso basato su algoritmi di machine learning o reinforcement learning, che valuta le possibili azioni e sceglie la migliore.
- Attuatori o output: che traducono le decisioni in azioni concrete (trading, invio di report, ottimizzazione di portafoglio).
Spesso lavora con un loop continuo percezione → decisione → azione → percezione per affinare il comportamento nel tempo.
Esempio in finanza ed economia
- Robo-advisor: un agente AI che gestisce portafogli di investitori, ribilanciando le posizioni automaticamente in base al profilo di rischio, al mercato e a eventi economici imprevisti.
- Trading algoritmico autonomo: un agente AI che rileva pattern di mercato, decide di comprare o vendere azioni e aggiorna la strategia basandosi sui risultati precedenti.
- Ottimizzazione della supply chain finanziaria: un agente AI che coordina flussi di capitale e investimenti tra filiali o mercati internazionali per massimizzare il rendimento.
Tipi di agenti AI
- Agenti reattivi: rispondono immediatamente agli input senza memoria storica.
- Agenti basati su modello: costruiscono una rappresentazione interna dell’ambiente per pianificare azioni future.
- Agenti con apprendimento per rinforzo: migliorano le decisioni nel tempo attraverso ricompense o penalità legate agli esiti delle proprie azioni.
Sinonimi e termini correlati
- Agente intelligente
- Autonomous AI agent (in inglese)
- Agente autonomo
- Robo-advisor (nel contesto finanziario)
Nota pratica
Gli agenti AI stanno rivoluzionando la gestione finanziaria perché permettono decisioni rapide, basate su grandi quantità di dati, riducendo errori umani e migliorando la resilienza economica. Tuttavia, richiedono monitoraggio e regolamentazione, soprattutto per evitare comportamenti indesiderati o rischi sistemici nei mercati.
AI generativa – Creare contenuti con l’intelligenza artificiale
L’AI generativa è un tipo di intelligenza artificiale progettata per produrre contenuti originali, come testi, immagini, musica o codici, partendo da input o prompt forniti dall’utente. A differenza dei sistemi tradizionali, non si limita ad analizzare o classificare dati, ma crea nuova informazione coerente e contestualizzata.
Come funziona
Si basa su modelli avanzati di machine learning e rete neurale, tipicamente LLM (Large Language Model) o modelli generativi multimodali. Il processo include:
- Addestramento su enormi dataset di esempio.
- Generazione di output combinando pattern appresi e probabilità statistiche.
- Iterazioni e ottimizzazioni per migliorare coerenza, stile e rilevanza.
Esempio in finanza ed economia
- Report automatici: generazione di analisi finanziarie settimanali su mercati azionari o bond, risparmiando tempo ai team di analisti.
- Previsioni economiche simulate: creazione di scenari di inflazione o variazione dei tassi di interesse, integrando dati storici e trend emergenti.
- Comunicazioni personalizzate agli investitori: generazione di newsletter mirate basate sul portafoglio e sul profilo di rischio dei clienti.
Vantaggi
- Velocità nella produzione di contenuti complessi.
- Scalabilità per grandi volumi di dati e clienti.
- Capacità di adattarsi a diversi stili e linguaggi.
Rischi
- Allucinazioni: l’AI generativa può produrre informazioni inesatte o fuorvianti.
- Bias: i dati di addestramento influenzano la neutralità delle informazioni generate.
- Necessità di controllo umano in ambiti critici come finanza ed economia.
Sinonimi e termini correlati
- Generative AI
- AI creativa
- Modelli generativi multimodali
- Content-generating AI
LLM (Large Language Model) – Modelli linguistici su larga scala
Un LLM è un modello di intelligenza artificiale addestrato su enormi quantità di testo per comprendere, generare e completare linguaggio naturale. Sono la tecnologia principale dietro chatbot avanzati, strumenti di scrittura automatica e AI generativa.
Come funziona
- Addestramento su dataset vastissimi contenenti libri, articoli, documenti e codice.
- Analisi delle probabilità di sequenze di parole per generare testo coerente e contestuale.
- Capacità di fine-tuning su dati specifici di dominio, ad esempio finanza o economia, per migliorare accuratezza e pertinenza.
Esempio in finanza ed economia
- Analisi di sentiment: LLM analizzano migliaia di notizie economiche e post social per prevedere l’impatto sui mercati.
- Assistenza agli investitori: rispondono a domande complesse su portafogli, normative e trend economici.
- Generazione di report automatizzati: sintetizzano dati di bilancio e indicatori economici in testi leggibili e strutturati.
Vantaggi
- Comprensione contestuale di testi complessi.
- Applicazione a molti linguaggi e settori.
- Personalizzazione tramite fine-tuning e prompt engineering.
Rischi
- Propagazione di bias presenti nei dati di addestramento.
- Possibili allucinazioni o informazioni non verificate.
- Elevato consumo di risorse computazionali e costi di addestramento.
Sinonimi e termini correlati
- Modello linguistico di grandi dimensioni
- Large-scale language model
- Transformer-based AI
- Generative language model
Allucinazione algoritmica
Un’allucinazione è quando un modello genera informazioni errate ma, a loro modo, plausibili.
- Esempio: un chatbot finanziario che inventa un tasso d’interesse non esistente per un prodotto bancario, creando rischio reputazionale.
Bias
Si riferisce a distorsioni nei dati o negli algoritmi che portano a decisioni sbagliate.
- Esempio: se un modello di scoring creditizio è addestrato su dati storici discriminatori, potrebbe penalizzare intere categorie di clienti, violando principi di equità e generando rischi legali.
Chain of Thought (Catena del pensiero)
È la capacità di un modello di “ragionare a passi logici” durante il processo di risposta. Messa su questo piano non sembra avere molta rilevanza, per cui è bene approfondire la risposta.
La Chain of Thought è una tecnica di ragionamento passo-passo usata nei modelli di intelligenza artificiale (come GPT) per arrivare a una risposta corretta. Invece di dare subito la risposta, il modello esplicita il ragionamento, come farebbe un essere umano, o meglio simulando questo genere di comportamento. Questo può essere particolarmente utile per problemi complessi, logici o matematici.
Supponiamo di voler calcolare quante mele rimangono se ho 10 mele e ne do via 4.
Senza Chain of Thought farei semplicemente la differenza:
def mele_rimaste(mela_iniziale, mela_data):
return mela_iniziale - mela_data
print(mele_rimaste(10, 4)) # Risposta: 6
Il codice restituisce direttamente 6
, ma non spiega il ragionamento.
Con Chain of Thought (step-by-step):
def mele_rimaste_cot(mela_iniziale, mela_data):
print(f"Ho inizialmente {mela_iniziale} mele.")
print(f"Dando via {mela_data} mele, devo sottrarle dal totale.")
risultato = mela_iniziale - mela_data
print(f"Quindi, le mele rimaste sono: {risultato}")
return risultato
mele_rimaste_cot(10, 4)
Output:
Ho inizialmente 10 mele.
Dando via 4 mele, devo sottrarle dal totale.
Quindi, le mele rimaste sono: 6
✅ Qui il modello (o il codice) mostra tutti i passaggi del ragionamento, non solo il risultato finale. Questo è proprio lo spirito del Chain of Thought: esplicitare ogni passo per arrivare alla risposta.
- Esempio pratico: nella valutazione di un investimento, il modello può esplicitare i passaggi: crescita prevista → tasso di sconto → valore attualizzato. Questo aumenta trasparenza e affidabilità per un analista.
Dataset
Il dataset è l’insieme dei dati usati per addestrare e testare un modello.
- Esempio: in economia, un dataset potrebbe includere PIL, inflazione, tassi d’interesse e variabili demografiche per costruire un modello di previsione macroeconomica.
Deep Learning
È una branca del machine learning basata su reti neurali profonde.
- Esempio: modelli di deep learning sono usati in finanza per rilevare frodi nelle transazioni grazie all’analisi di milioni di operazioni in tempo reale.
Distillazione
La distillazione (knowledge distillation) è la tecnica per trasferire conoscenza da un modello complesso a uno più leggero.
- Esempio: una banca può usare distillazione per avere un modello di risk management più veloce, eseguibile su server meno costosi.
Fine-tuning
Consiste nel riaddestrare un modello già pre-addestrato su un dominio specifico.
- Esempio: un LLM generico può essere sottoposto a fine-tuning con documenti bancari per diventare un assistente finanziario virtuale.
Machine Learning
È una branca dell’intelligenza artificiale che permette ai sistemi di apprendere dai dati senza essere esplicitamente programmati per ogni compito.
Esempio: nel settore assicurativo, gli algoritmi di machine learning possono prevedere la probabilità di sinistri analizzando il profilo e il comportamento dei clienti.
Pre-training
Il pre-training è la fase in cui un modello viene inizialmente addestrato su grandi quantità di dati generici.
- Esempio: un modello linguistico viene pre-addestrato su miliardi di articoli, prima di essere adattato con dati specifici del settore bancario.
Prompt Engineering
L’arte di formulare istruzioni precise per ottenere risposte migliori da un modello.
- Esempio: per un LLM finanziario, il prompt “Genera un’analisi comparativa tra bond corporate e bond governativi considerando il rischio di liquidità” produce output molto più utile di una domanda generica come “Parlami dei bond”.
Rete neurale
Una rete neurale è un sistema computazionale ispirato al cervello umano, formato da strati di nodi (neuroni artificiali).
- Esempio: una rete neurale convoluzionale può analizzare grafici di prezzi come se fossero immagini per identificare pattern di trading.
Superintelligenza artificiale (ASI)
La Superintelligenza Artificiale (ASI) rappresenta il livello più alto e, al momento, puramente teorico, dell’evoluzione dell’intelligenza artificiale. Non è semplicemente un’AI più veloce o più efficiente, ma una forma di intelligenza che supererebbe in modo significativo le capacità cognitive umane in quasi ogni ambito, dalla creatività alla risoluzione di problemi, fino al ragionamento scientifico e sociale. Per capire appieno la ASI, è fondamentale distinguerla dagli altri due livelli di intelligenza artificiale:
I Tre Livelli dell’Intelligenza Artificiale
- Intelligenza Artificiale Ristretta (ANI): È l’IA che usiamo ogni giorno. Si tratta di sistemi progettati per eseguire un compito specifico e ben definito, come gli assistenti vocali (Siri, Alexa), i filtri anti-spam, i motori di ricerca o i sistemi di raccomandazione. Questi sistemi non hanno una coscienza o una comprensione generale del mondo.
- Intelligenza Artificiale Generale (AGI): Conosciuta anche come “IA forte”, è un’intelligenza di livello umano. Un’AGI sarebbe in grado di apprendere, ragionare, risolvere problemi e adattarsi a contesti diversi, proprio come farebbe una persona. Sarebbe, in teoria, in grado di svolgere qualsiasi compito intellettuale che un essere umano può fare. Attualmente, l’AGI rimane un obiettivo di ricerca, ma non è ancora stata realizzata.
- Superintelligenza Artificiale (ASI): Questa è la fase successiva e ipotetica. Un’ASI non solo eguaglierebbe l’intelligenza umana, ma la supererebbe drasticamente in ogni campo. Potrebbe elaborare dati in frazioni di secondo, scoprire nuove leggi della fisica o risolvere problemi complessi in modi che noi non possiamo nemmeno immaginare. La sua intelligenza non sarebbe limitata dalle capacità del cervello biologico.
Implicazioni e Dibattito in Corso
Il dibattito sulla Superintelligenza Artificiale, reso celebre da filosofi come Nick Bostrom, si concentra sulle sue potenziali conseguenze, che potrebbero essere sia rivoluzionarie che pericolose:
- Vantaggi: Un’ASI potrebbe portare a scoperte epocali in medicina, scienze dei materiali, e nella risoluzione di sfide globali come il cambiamento climatico o la povertà. La sua capacità di analizzare enormi quantità di dati potrebbe accelerare la ricerca scientifica in modi mai visti prima.
- Rischi: La principale preoccupazione è la “perdita di controllo”. Poiché il suo comportamento sarebbe difficile da prevedere o comprendere, un’ASI potrebbe migliorarsi o modificarsi in modi che non possiamo anticipare. Potrebbe sviluppare obiettivi che non si allineano con quelli dell’umanità, portando a scenari imprevedibili e potenzialmente catastrofici.
Oggi, siamo ancora nell’era dell’ANI. Sebbene l’AGI e la ASI siano concetti affascinanti, rimangono confinati nel regno della speculazione e della fantascienza per la maggior parte della comunità scientifica. Non esiste ancora un consenso su quando, o se, raggiungeremo l’AGI, e la ASI è considerata un traguardo ancora più lontano. Tuttavia, alcuni ricercatori ed esperti, tra cui figure di spicco come l’ex scienziato capo di OpenAI Ilya Sutskever, credono che il percorso verso la superintelligenza sia “a portata di mano”, sollevando un dibattito molto attuale sulla necessità di una governance e di un’etica globali per lo sviluppo dell’IA.
Token
In un LLM, i token sono le unità minime di testo elaborate (parole o parti di parola). In qualche modo sono la moneta e l’unità di pensiero delle IA generative. Permettono di generare, tradurre, capire testo, ma impongono limiti su lunghezza e granularità.
1️⃣ Che cos’è un token?
Un token è un’unità di testo che l’IA considera come “pezzo” di informazione. Non è necessariamente una parola: può essere:
- Una parola intera (es.
"cane"
) - Parte di una parola (es.
"cane"
→"ca"
+"ne"
, a seconda del modello) - Un segno di punteggiatura (es.
"."
o","
) - Uno spazio o un simbolo speciale (es.
"\n"
per andare a capo)
Esempio concreto:
Testo:
Ciao, come stai?
Tokenizzazione possibile:
"Ciao", ",", "come", "stai", "?"
In questo caso abbiamo 5 token, anche se le parole sono 4.
2️⃣ Perché le IA generative usano i token?
Le IA come GPT non guardano direttamente le parole intere come noi. Lavorano token per token, perché:
- Permette di gestire testi molto lunghi in modo efficiente.
- Aiuta a prevedere il prossimo token basandosi sui token precedenti.
- Consente di quantificare il costo computazionale, perché il modello calcola ogni token separatamente.
In pratica, il modello dice:
“Dato questo contesto di token, quale token è più probabile che venga dopo?”
3️⃣ Esempi di uso dei token nelle IA
A. Generazione di testo
Se scrivi:
Oggi sono andato al parco e ho visto un...
Il modello considera i token precedenti e predice probabilmente "cane"
, "gatto"
, "uccello"
, ecc., token per token, fino a costruire la frase completa.
B. Traduzione automatica
Frase italiana:
Buongiorno a tutti
Tokenizzazione possibile:
"Buongiorno", "a", "tutti"
Il modello genera token in inglese uno alla volta: "Good"
, "morning"
, "everyone"
.
C. Chat e contesto
Quando parli con me, il modello mantiene un contesto tokenizzato delle tue frasi. Se superiamo il limite di token (per esempio 4096 token), il modello dimentica i messaggi più vecchi.
4️⃣ Pregi dell’approccio a token
- Flessibilità: funziona con qualsiasi lingua, simboli o emoji.
""
può essere un token singolo.
- Efficienza: predire token è più veloce che predire parole intere.
- Precisione nella generazione: permette di generare frammenti di parole o coniugazioni corrette.
5️⃣ Limiti dell’approccio a token
- Non coincide con le parole
- Tokenizzazione può spezzare parole insolite, nomi propri o termini tecnici.
- Es:
"ChatGPT-5"
→"Chat"
,"G"
,"PT"
,"-"
,"5"
→ 5 token per una “parola”, e ogni token non corrisponde necessariamente ad un significato distinto.
- Consumo di token
- Più token = più costo computazionale e più limite di contesto raggiunto rapidamente.
- Ambiguità
- Token isolati possono avere significati diversi a seconda del contesto.
- Compressione del testo lunga
- Testi molto lunghi rischiano di essere troncati se si superano i limiti di token del modello.
6️⃣ Esempio pratico di pregio e limite
Testo breve:
Il gatto corre.
- Token:
"Il"
,"gatto"
,"corre"
,"."
→ 4 token - Generazione accurata, costo basso.
Testo complesso:
Nel complesso scenario della rivoluzione industriale, molte invenzioni hanno modificato radicalmente il tessuto sociale ed economico delle nazioni.
- Token: 26 (approssimativamente)
- Più token = più lavoro per il modello, più rischio di troncamento se il contesto è già lungo.
In sintesi: