Glossario essenziale dell'intelligenza artificiale — definizioni chiare, esempi pratici e fonti verificate
Un algoritmo AI è un insieme di regole e istruzioni matematiche che permette a un sistema informatico di apprendere dai dati, riconoscere pattern e prendere decisioni autonome — simulando alcune capacità cognitive umane. A differenza degli algoritmi tradizionali, che seguono regole fisse, quelli AI possono migliorare le proprie prestazioni con l'esperienza.
Un'API è un insieme di protocolli e strumenti che consente a diversi software di comunicare tra loro. Nel contesto AI, le API permettono agli sviluppatori di integrare funzionalità di intelligenza artificiale — come il riconoscimento del linguaggio o la generazione di testo — nelle proprie applicazioni senza dover costruire i modelli da zero.
📖 Fonte: IBM — What is an API?
AutoML è il processo di automazione delle fasi di sviluppo di un modello di machine learning: dalla selezione dell'algoritmo, alla pulizia dei dati, all'ottimizzazione degli iperparametri. Permette anche a chi non è esperto di data science di costruire modelli predittivi efficaci in tempi ridotti.
📖 Fonte: IBM — What is AutoML?
Con Big Data si intendono insiemi di dati così enormi, veloci e variegati da non poter essere gestiti con strumenti tradizionali. Si descrivono spesso con le "5V": Volume, Velocità, Varietà, Veridicità e Valore. I Big Data sono il carburante dell'AI moderna: senza grandi quantità di dati di addestramento, i modelli non possono imparare.
📖 Fonte: IBM — What is Big Data?
Il bias in AI è una distorsione sistematica nei risultati di un modello causata da dati di addestramento non rappresentativi o da scelte progettuali errate. Può portare a decisioni ingiuste o discriminatorie. Esistono varie forme di bias: di campionamento, di conferma, di misurazione. È uno dei problemi etici centrali dell'AI moderna.
📖 Fonte: IBM — What is AI Bias?
Un chatbot è un programma software progettato per simulare una conversazione con gli esseri umani, in forma testuale o vocale. I chatbot moderni basati su AI — come ChatGPT o Claude — utilizzano modelli linguistici avanzati (LLM) per comprendere il contesto, rispondere in modo naturale e svolgere compiti complessi.
📖 Fonte: IBM — What is a Chatbot?
La Computer Vision è il campo dell'AI che permette ai computer di interpretare e comprendere il contenuto visivo del mondo reale — immagini, video, profondità spaziale. Utilizza reti neurali convoluzionali (CNN) per riconoscere oggetti, volti, testi e scene con precisione sempre maggiore.
📖 Fonte: IBM — What is Computer Vision?
Il Data Mining è il processo di scoperta di pattern, correlazioni e anomalie significative all'interno di grandi dataset. Combina tecniche di statistica, machine learning e database per estrarre conoscenza utile da dati grezzi. È il primo passo fondamentale prima di addestrare qualsiasi modello AI.
📖 Fonte: IBM — What is Data Mining?
Un dataset è una raccolta strutturata di dati utilizzata per addestrare, validare o testare un modello AI. La qualità, la quantità e la rappresentatività del dataset sono fattori determinanti per le prestazioni del modello. Si distinguono dataset di training (addestramento), validation (validazione) e test (valutazione finale).
📖 Fonte: IBM — Machine Learning & Datasets
Il Deep Learning è un sottoinsieme del Machine Learning che utilizza reti neurali artificiali con molti strati (layer) per imparare rappresentazioni gerarchiche dei dati. È alla base dei più grandi progressi AI degli ultimi anni: riconoscimento vocale, traduzione automatica, generazione di immagini e testo.
📖 Fonte: IBM — What is Deep Learning?
Il Fine-Tuning è il processo di adattamento di un modello pre-addestrato a un compito specifico, utilizzando un dataset più piccolo e mirato. Permette di partire da un modello generale già capace e specializzarlo — risparmiando enormi risorse computazionali rispetto all'addestramento da zero.
📖 Fonte: IBM — What is Fine-Tuning?
Una GAN è un'architettura di Deep Learning composta da due reti neurali che competono tra loro: un generatore (crea dati sintetici) e un discriminatore (cerca di distinguere i dati reali da quelli falsi). Questa competizione porta il generatore a produrre output sempre più realistici. Le GAN sono alla base della generazione di immagini deepfake e di molti sistemi generativi.
📖 Fonte: IBM — What are GANs?
L'Hallucination (allucinazione) è il fenomeno per cui un modello AI genera informazioni plausibili ma false o inventate, presentandole con sicurezza come se fossero reali. È uno dei limiti più critici degli LLM attuali: il modello non "sa" di non sapere qualcosa, e riempie le lacune con contenuti generati statisticamente.
📖 Fonte: IBM — What are AI Hallucinations?
L'Inference è la fase in cui un modello AI già addestrato viene utilizzato per fare previsioni o generare output su nuovi dati. È distinta dalla fase di training (addestramento). L'efficienza dell'inferenza — velocità, costo computazionale, latenza — è cruciale per le applicazioni AI in produzione.
📖 Fonte: IBM — AI Inference
Un LLM è un modello di intelligenza artificiale addestrato su enormi quantità di testo per comprendere e generare linguaggio naturale. I parametri di un LLM — che possono essere miliardi o centinaia di miliardi — codificano la "conoscenza" del modello. ChatGPT, Claude, Gemini e Mistral sono tutti esempi di LLM.
Il Machine Learning è una branca dell'AI che consente ai sistemi di imparare e migliorare automaticamente dall'esperienza, senza essere esplicitamente programmati per ogni compito. I modelli ML identificano pattern nei dati di addestramento e li usano per fare previsioni su dati nuovi. Si divide in Supervised, Unsupervised e Reinforcement Learning.
📖 Fonte: IBM — What is Machine Learning?
In AI, un modello è la rappresentazione matematica appresa durante il processo di addestramento. È l'output del training: una struttura di parametri (pesi numerici) che codifica la conoscenza estratta dai dati. Un modello può essere semplice (regressione lineare) o enormemente complesso (LLM con miliardi di parametri).
📖 Fonte: IBM — AI Models explained
L'NLP è il campo dell'AI dedicato alla comprensione e generazione del linguaggio umano da parte delle macchine. Comprende attività come analisi del sentimento, traduzione automatica, estrazione di entità, classificazione del testo e generazione di risposte. È la tecnologia fondamentale dietro tutti i chatbot e gli assistenti vocali.
📖 Fonte: IBM — What is NLP?
Una rete neurale artificiale è un sistema computazionale ispirato alla struttura del cervello umano, composto da strati di nodi (neuroni) interconnessi. Ogni connessione ha un peso numerico che viene aggiornato durante l'addestramento. Le reti neurali sono il mattone fondamentale del Deep Learning e di tutta l'AI generativa moderna.
📖 Fonte: IBM — What are Neural Networks?
Un prompt è il testo di input fornito a un modello AI per ottenere una risposta o un output. Può essere una domanda, un'istruzione, un esempio, o una combinazione di questi elementi. La qualità e la struttura del prompt influenzano direttamente la qualità della risposta — motivo per cui è nata una disciplina apposita: il Prompt Engineering.
📖 Fonte: IBM — Prompt Engineering Guide
Il Prompt Engineering è la disciplina che studia come progettare, ottimizzare e strutturare i prompt per ottenere risposte più accurate, utili e coerenti dagli LLM. Include tecniche come few-shot prompting (fornire esempi), chain-of-thought (ragionamento passo-passo), role prompting (assegnare un ruolo al modello) e molte altre.
📖 Fonte: IBM — What is Prompt Engineering?
RAG è un'architettura AI che combina un sistema di recupero delle informazioni (retrieval) con un modello generativo. Invece di affidarsi solo alla conoscenza interna del modello, RAG cerca documenti rilevanti in una knowledge base esterna e li usa come contesto per generare risposte più accurate e aggiornate, riducendo le allucinazioni.
📖 Fonte: IBM — What is RAG?
Il Supervised Learning è la forma più comune di Machine Learning: il modello viene addestrato su un dataset in cui ogni esempio ha un'etichetta (label) che rappresenta la risposta corretta. Il modello impara a mappare gli input agli output desiderati minimizzando l'errore di predizione. È opposto all'Unsupervised Learning dove le etichette non esistono.
📖 Fonte: IBM — What is Supervised Learning?
Il Transformer è l'architettura di rete neurale introdotta da Google nel 2017 nel paper "Attention Is All You Need" che ha rivoluzionato l'NLP e l'AI generativa. Utilizza un meccanismo chiamato "self-attention" per pesare l'importanza di ogni parola rispetto alle altre nel contesto. Quasi tutti i modelli linguistici moderni — GPT, BERT, Claude, Gemini — sono basati su architetture Transformer.
📖 Fonte: IBM — What is a Transformer Model?