Home/ Wiki/ AI/ ML Supervisionato vs Non Sup.

ML: Supervisionato vs Non Supervisionato

I due paradigmi fondamentali del machine learning: apprendere da dati etichettati (supervisionato) o scoprire strutture nascoste senza etichette (non supervisionato).

Indice dei contenuti
Aggiornato: Aprile 2026 9 min di lettura

I paradigmi del ML

Il machine learning e la branca dell'AI in cui i sistemi apprendono dai dati senza essere esplicitamente programmati per ogni caso. Si distinguono tre paradigmi fondamentali in base al tipo di supervisione durante l'addestramento:

I tre paradigmi

Supervisionato: il modello apprende da coppie (input, output atteso). Obiettivo: predire l'output per nuovi input.

Non supervisionato: il modello riceve solo input, senza etichette. Obiettivo: scoprire strutture e pattern nascosti.

Reinforcement Learning: un agente apprende interagendo con un ambiente, ricevendo ricompense o penalita.

In pratica, il confine tra i paradigmi si sta sfumando: il self-supervised learning (usato per pre-addestrare i LLM) crea automaticamente le etichette dal testo stesso (es. predire la parola mascherata), combinando aspetti supervisionati e non supervisionati.

Classificazione

La classificazione e il task supervisionato piu comune: assegnare un'etichetta categorica (classe) a un input. Il modello apprende da un dataset in cui ogni campione ha un'etichetta nota.

Esempi pratici:

  • Email: spam o non spam (classificazione binaria)
  • Immagine: gatto, cane, uccello (classificazione multiclasse)
  • Testo di recensione: positivo, negativo, neutro (sentiment analysis)
  • Transazione bancaria: legittima o fraudolenta

Gli algoritmi di classificazione principali includono Logistic Regression, Decision Tree, Random Forest, SVM e KNN. Le reti neurali dominano per task complessi (immagini, testo). La valutazione avviene attraverso la matrice di confusione e le metriche derivate (accuracy, precision, recall, F1).

Regressione

La regressione predice un valore numerico continuo (non una categoria). Il modello apprende la relazione funzionale tra le feature di input e il target numerico.

AlgoritmoComplessitaUso tipico
Regressione lineareBassaRelazioni lineari semplici, baseline
Regressione polinomialeMediaRelazioni non lineari note
Random Forest RegressorAltaRelazioni complesse, feature interaction
Gradient Boosting (XGBoost)AltaCompetizioni ML, massima accuracy
Reti neuraliMolto altaBig data, relazioni molto complesse

Metriche di valutazione: MAE (Mean Absolute Error), MSE (Mean Squared Error), RMSE e R-squared. A differenza della classificazione, non esiste una "matrice di confusione" per la regressione — si misura direttamente la distanza tra valore predetto e valore reale.

Clustering: K-means e DBSCAN

Il clustering e il task non supervisionato piu diffuso: raggruppare dati simili in cluster senza etichette predefinite. Il modello scopre le strutture naturali nei dati.

K-means e l'algoritmo piu semplice e popolare:

  1. Si scelgono K centroidi iniziali (casualmente o con k-means++).
  2. Ogni punto viene assegnato al centroide piu vicino.
  3. I centroidi vengono ricalcolati come media dei punti assegnati.
  4. Si ripete finche i centroidi si stabilizzano.

Limite: richiede di specificare K in anticipo e assume cluster sferici di dimensione simile.

DBSCAN (Density-Based Spatial Clustering) risolve questi limiti: trova cluster di forma arbitraria basandosi sulla densita dei punti e identifica automaticamente outlier e rumore. Non richiede di specificare il numero di cluster, ma ha due parametri: epsilon (raggio di vicinanza) e min_samples (minimo di punti per formare un cluster).

Nel marketing, il clustering e usato per la segmentazione dei clienti: raggruppa automaticamente utenti con comportamenti simili (RFM analysis), permettendo campagne personalizzate senza definire i segmenti manualmente.

PCA e riduzione dimensionale

La PCA (Principal Component Analysis) e la tecnica di riduzione dimensionale piu usata. Trasforma un dataset con molte feature in un nuovo spazio con meno dimensioni, preservando la massima varianza possibile.

Applicazioni pratiche:

  • Visualizzazione: ridurre dati ad alta dimensionalita a 2-3 dimensioni per grafici interpretabili.
  • Preprocessing: ridurre il rumore e la ridondanza prima di applicare altri algoritmi.
  • Compressione: ridurre lo storage necessario mantenendo l'informazione essenziale.
  • Decorrelazione: le componenti principali sono ortogonali, eliminando la multicollinearita.

Alternative moderne: t-SNE e UMAP per visualizzazione (preservano meglio le strutture locali), autoencoders per riduzione non lineare.

Cenni di Reinforcement Learning

Il Reinforcement Learning (RL) e il terzo paradigma: un agente interagisce con un ambiente, compie azioni e riceve ricompense (reward). L'obiettivo e apprendere una politica (policy) che massimizzi la ricompensa cumulativa nel tempo.

Concetti chiave: stato (osservazione dell'ambiente), azione (scelta dell'agente), reward (feedback numerico), policy (strategia decisionale). Algoritmi noti: Q-learning, Deep Q-Network (DQN), PPO (Proximal Policy Optimization).

Il RL e fondamentale nell'AI moderna: RLHF (Reinforcement Learning from Human Feedback) e la tecnica usata per allineare i LLM alle preferenze umane, trasformando un modello pre-addestrato in un assistente utile e sicuro. E anche alla base dei successi di AlphaGo, della robotica avanzata e dei sistemi di raccomandazione.

Come scegliere l'approccio

Hai etichette?ObiettivoApproccio
SiPredire una categoriaClassificazione supervisionata
SiPredire un numeroRegressione supervisionata
NoTrovare gruppi naturaliClustering
NoRidurre le dimensioniPCA / riduzione dimensionale
No (ma hai un ambiente)Ottimizzare una strategiaReinforcement Learning

La scelta dell'approccio dipende dal problema e dai dati disponibili, non dalla complessita dell'algoritmo. Un modello semplice e ben calibrato batte quasi sempre un modello complesso applicato al problema sbagliato. Per evitare gli errori piu comuni, consulta Errori Comuni nell'AI e Overfitting e Underfitting.