AInstAIn Logo
  • Home
  • Progetto AI
  • Valutazioni
  • Notizie
  • Blog
  • Formazione
  • Termini AI
  • Ologrammi
  • Contatti
  • 🧠 brAIn

📚 Termini AI

Glossario essenziale dell'intelligenza artificiale — definizioni chiare, esempi pratici e fonti verificate

A B C D F G H I L M N P R S T
Algoritmo AI Artificial Intelligence Fondamenti

Un algoritmo AI è un insieme di regole e istruzioni matematiche che permette a un sistema informatico di apprendere dai dati, riconoscere pattern e prendere decisioni autonome — simulando alcune capacità cognitive umane. A differenza degli algoritmi tradizionali, che seguono regole fisse, quelli AI possono migliorare le proprie prestazioni con l'esperienza.

Esempio: L'algoritmo che riconosce il tuo volto per sbloccare lo smartphone è un algoritmo AI addestrato su milioni di immagini facciali.

📖 Fonte: IBM — What is Artificial Intelligence?

API Application Programming Interface Fondamenti

Un'API è un insieme di protocolli e strumenti che consente a diversi software di comunicare tra loro. Nel contesto AI, le API permettono agli sviluppatori di integrare funzionalità di intelligenza artificiale — come il riconoscimento del linguaggio o la generazione di testo — nelle proprie applicazioni senza dover costruire i modelli da zero.

Esempio: Quando un'app di e-commerce usa ChatGPT per rispondere ai clienti, lo fa chiamando l'API di OpenAI.

📖 Fonte: IBM — What is an API?

AutoML Automated Machine Learning Tecniche

AutoML è il processo di automazione delle fasi di sviluppo di un modello di machine learning: dalla selezione dell'algoritmo, alla pulizia dei dati, all'ottimizzazione degli iperparametri. Permette anche a chi non è esperto di data science di costruire modelli predittivi efficaci in tempi ridotti.

Esempio: Google AutoML consente a un'azienda di addestrare un modello di classificazione delle immagini senza scrivere una riga di codice.

📖 Fonte: IBM — What is AutoML?

Big Data Dati

Con Big Data si intendono insiemi di dati così enormi, veloci e variegati da non poter essere gestiti con strumenti tradizionali. Si descrivono spesso con le "5V": Volume, Velocità, Varietà, Veridicità e Valore. I Big Data sono il carburante dell'AI moderna: senza grandi quantità di dati di addestramento, i modelli non possono imparare.

Esempio: I miliardi di ricerche giornaliere su Google costituiscono Big Data che alimentano i suoi algoritmi di ranking e suggerimento.

📖 Fonte: IBM — What is Big Data?

Bias Distorsione algoritmica Fondamenti

Il bias in AI è una distorsione sistematica nei risultati di un modello causata da dati di addestramento non rappresentativi o da scelte progettuali errate. Può portare a decisioni ingiuste o discriminatorie. Esistono varie forme di bias: di campionamento, di conferma, di misurazione. È uno dei problemi etici centrali dell'AI moderna.

Esempio: Un sistema di selezione del personale addestrato su curriculum storici prevalentemente maschili potrebbe penalizzare le candidate donne.

📖 Fonte: IBM — What is AI Bias?

Chatbot Applicazioni

Un chatbot è un programma software progettato per simulare una conversazione con gli esseri umani, in forma testuale o vocale. I chatbot moderni basati su AI — come ChatGPT o Claude — utilizzano modelli linguistici avanzati (LLM) per comprendere il contesto, rispondere in modo naturale e svolgere compiti complessi.

Esempio: Il chatbot di un sito di assistenza clienti risponde automaticamente alle domande frequenti 24 ore su 24, senza intervento umano.

📖 Fonte: IBM — What is a Chatbot?

Computer Vision Visione Artificiale Applicazioni

La Computer Vision è il campo dell'AI che permette ai computer di interpretare e comprendere il contenuto visivo del mondo reale — immagini, video, profondità spaziale. Utilizza reti neurali convoluzionali (CNN) per riconoscere oggetti, volti, testi e scene con precisione sempre maggiore.

Esempio: Le auto a guida autonoma usano la Computer Vision per rilevare pedoni, segnali stradali e altri veicoli in tempo reale.

📖 Fonte: IBM — What is Computer Vision?

Data Mining Dati

Il Data Mining è il processo di scoperta di pattern, correlazioni e anomalie significative all'interno di grandi dataset. Combina tecniche di statistica, machine learning e database per estrarre conoscenza utile da dati grezzi. È il primo passo fondamentale prima di addestrare qualsiasi modello AI.

Esempio: Una banca usa il Data Mining per analizzare le transazioni e individuare comportamenti anomali associati a frodi.

📖 Fonte: IBM — What is Data Mining?

Dataset Dati

Un dataset è una raccolta strutturata di dati utilizzata per addestrare, validare o testare un modello AI. La qualità, la quantità e la rappresentatività del dataset sono fattori determinanti per le prestazioni del modello. Si distinguono dataset di training (addestramento), validation (validazione) e test (valutazione finale).

Esempio: ImageNet è un dataset con oltre 14 milioni di immagini etichettate, usato per addestrare modelli di Computer Vision.

📖 Fonte: IBM — Machine Learning & Datasets

Deep Learning Apprendimento Profondo Modelli

Il Deep Learning è un sottoinsieme del Machine Learning che utilizza reti neurali artificiali con molti strati (layer) per imparare rappresentazioni gerarchiche dei dati. È alla base dei più grandi progressi AI degli ultimi anni: riconoscimento vocale, traduzione automatica, generazione di immagini e testo.

Esempio: I modelli come GPT-4 o Gemini Ultra sono costruiti su architetture di Deep Learning con miliardi di parametri.

📖 Fonte: IBM — What is Deep Learning?

Fine-Tuning Ottimizzazione del modello Tecniche

Il Fine-Tuning è il processo di adattamento di un modello pre-addestrato a un compito specifico, utilizzando un dataset più piccolo e mirato. Permette di partire da un modello generale già capace e specializzarlo — risparmiando enormi risorse computazionali rispetto all'addestramento da zero.

Esempio: Un ospedale può fare Fine-Tuning di un LLM generico su cartelle cliniche anonimizzate per ottenere un assistente medico specializzato.

📖 Fonte: IBM — What is Fine-Tuning?

GAN Generative Adversarial Network Modelli

Una GAN è un'architettura di Deep Learning composta da due reti neurali che competono tra loro: un generatore (crea dati sintetici) e un discriminatore (cerca di distinguere i dati reali da quelli falsi). Questa competizione porta il generatore a produrre output sempre più realistici. Le GAN sono alla base della generazione di immagini deepfake e di molti sistemi generativi.

Esempio: Le GAN vengono usate per generare volti di persone che non esistono, come nel progetto "ThisPersonDoesNotExist.com".

📖 Fonte: IBM — What are GANs?

Hallucination Allucinazione AI Fondamenti

L'Hallucination (allucinazione) è il fenomeno per cui un modello AI genera informazioni plausibili ma false o inventate, presentandole con sicurezza come se fossero reali. È uno dei limiti più critici degli LLM attuali: il modello non "sa" di non sapere qualcosa, e riempie le lacune con contenuti generati statisticamente.

Esempio: Un LLM può citare un articolo scientifico con titolo, autori e DOI completamente inventati ma stilisticamente credibili.

📖 Fonte: IBM — What are AI Hallucinations?

Inference Inferenza Tecniche

L'Inference è la fase in cui un modello AI già addestrato viene utilizzato per fare previsioni o generare output su nuovi dati. È distinta dalla fase di training (addestramento). L'efficienza dell'inferenza — velocità, costo computazionale, latenza — è cruciale per le applicazioni AI in produzione.

Esempio: Ogni volta che scrivi un messaggio a ChatGPT e ricevi una risposta, il modello sta eseguendo un'inferenza.

📖 Fonte: IBM — AI Inference

LLM Large Language Model Modelli

Un LLM è un modello di intelligenza artificiale addestrato su enormi quantità di testo per comprendere e generare linguaggio naturale. I parametri di un LLM — che possono essere miliardi o centinaia di miliardi — codificano la "conoscenza" del modello. ChatGPT, Claude, Gemini e Mistral sono tutti esempi di LLM.

Esempio: GPT-4 è un LLM con oltre 1 trilione di parametri stimati, addestrato su larga parte del testo disponibile su internet.

📖 Fonte: IBM — What are Large Language Models?

Machine Learning Apprendimento Automatico Fondamenti

Il Machine Learning è una branca dell'AI che consente ai sistemi di imparare e migliorare automaticamente dall'esperienza, senza essere esplicitamente programmati per ogni compito. I modelli ML identificano pattern nei dati di addestramento e li usano per fare previsioni su dati nuovi. Si divide in Supervised, Unsupervised e Reinforcement Learning.

Esempio: I filtri antispam delle email usano ML per imparare a riconoscere messaggi indesiderati basandosi su esempi passati.

📖 Fonte: IBM — What is Machine Learning?

Modello AI Model Modelli

In AI, un modello è la rappresentazione matematica appresa durante il processo di addestramento. È l'output del training: una struttura di parametri (pesi numerici) che codifica la conoscenza estratta dai dati. Un modello può essere semplice (regressione lineare) o enormemente complesso (LLM con miliardi di parametri).

Esempio: Claude Sonnet è un modello — il risultato di mesi di addestramento su dati testuali e feedback umano da parte di Anthropic.

📖 Fonte: IBM — AI Models explained

NLP Natural Language Processing Linguaggio

L'NLP è il campo dell'AI dedicato alla comprensione e generazione del linguaggio umano da parte delle macchine. Comprende attività come analisi del sentimento, traduzione automatica, estrazione di entità, classificazione del testo e generazione di risposte. È la tecnologia fondamentale dietro tutti i chatbot e gli assistenti vocali.

Esempio: Google Translate usa NLP per rilevare automaticamente la lingua sorgente e produrre una traduzione fluente.

📖 Fonte: IBM — What is NLP?

Neural Network Rete Neurale Artificiale Modelli

Una rete neurale artificiale è un sistema computazionale ispirato alla struttura del cervello umano, composto da strati di nodi (neuroni) interconnessi. Ogni connessione ha un peso numerico che viene aggiornato durante l'addestramento. Le reti neurali sono il mattone fondamentale del Deep Learning e di tutta l'AI generativa moderna.

Esempio: Una rete neurale convoluzionale (CNN) con 50 strati può riconoscere tumori nelle radiografie con accuratezza paragonabile a quella di un radiologo esperto.

📖 Fonte: IBM — What are Neural Networks?

Prompt Linguaggio

Un prompt è il testo di input fornito a un modello AI per ottenere una risposta o un output. Può essere una domanda, un'istruzione, un esempio, o una combinazione di questi elementi. La qualità e la struttura del prompt influenzano direttamente la qualità della risposta — motivo per cui è nata una disciplina apposita: il Prompt Engineering.

Esempio: "Scrivi una email professionale di ringraziamento per un colloquio di lavoro, tono formale, max 150 parole" è un prompt ben strutturato.

📖 Fonte: IBM — Prompt Engineering Guide

Prompt Engineering Tecniche

Il Prompt Engineering è la disciplina che studia come progettare, ottimizzare e strutturare i prompt per ottenere risposte più accurate, utili e coerenti dagli LLM. Include tecniche come few-shot prompting (fornire esempi), chain-of-thought (ragionamento passo-passo), role prompting (assegnare un ruolo al modello) e molte altre.

Esempio: Aggiungere "Pensa passo dopo passo" a un prompt matematico migliora significativamente l'accuratezza del modello grazie alla tecnica chain-of-thought.

📖 Fonte: IBM — What is Prompt Engineering?

RAG Retrieval-Augmented Generation Tecniche

RAG è un'architettura AI che combina un sistema di recupero delle informazioni (retrieval) con un modello generativo. Invece di affidarsi solo alla conoscenza interna del modello, RAG cerca documenti rilevanti in una knowledge base esterna e li usa come contesto per generare risposte più accurate e aggiornate, riducendo le allucinazioni.

Esempio: Un chatbot aziendale con RAG può rispondere a domande specifiche sui prodotti consultando in tempo reale il catalogo aggiornato dell'azienda.

📖 Fonte: IBM — What is RAG?

Supervised Learning Apprendimento Supervisionato Fondamenti

Il Supervised Learning è la forma più comune di Machine Learning: il modello viene addestrato su un dataset in cui ogni esempio ha un'etichetta (label) che rappresenta la risposta corretta. Il modello impara a mappare gli input agli output desiderati minimizzando l'errore di predizione. È opposto all'Unsupervised Learning dove le etichette non esistono.

Esempio: Un modello addestrato su migliaia di email etichettate come "spam" o "non spam" impara a classificare autonomamente le nuove email.

📖 Fonte: IBM — What is Supervised Learning?

Transformer Modelli

Il Transformer è l'architettura di rete neurale introdotta da Google nel 2017 nel paper "Attention Is All You Need" che ha rivoluzionato l'NLP e l'AI generativa. Utilizza un meccanismo chiamato "self-attention" per pesare l'importanza di ogni parola rispetto alle altre nel contesto. Quasi tutti i modelli linguistici moderni — GPT, BERT, Claude, Gemini — sono basati su architetture Transformer.

Esempio: Grazie al meccanismo di attention, un Transformer capisce che "banca" in "vado in banca" e "mi siedo sulla banca del parco" ha significati diversi.

📖 Fonte: IBM — What is a Transformer Model?

AInstAIn Logo

Owned and Developed by AInstAIn © 2026

Generative AI Orchestrator - Find Your Perfect AI Assistant

Seguici sui social

Termini di Servizio | Contatti | Blog

Powered by AI • Made with ❤️ in Italy