I paradigmi del ML
Il machine learning e la branca dell'AI in cui i sistemi apprendono dai dati senza essere esplicitamente programmati per ogni caso. Si distinguono tre paradigmi fondamentali in base al tipo di supervisione durante l'addestramento:
I tre paradigmi
Supervisionato: il modello apprende da coppie (input, output atteso). Obiettivo: predire l'output per nuovi input.
Non supervisionato: il modello riceve solo input, senza etichette. Obiettivo: scoprire strutture e pattern nascosti.
Reinforcement Learning: un agente apprende interagendo con un ambiente, ricevendo ricompense o penalita.
In pratica, il confine tra i paradigmi si sta sfumando: il self-supervised learning (usato per pre-addestrare i LLM) crea automaticamente le etichette dal testo stesso (es. predire la parola mascherata), combinando aspetti supervisionati e non supervisionati.
Classificazione
La classificazione e il task supervisionato piu comune: assegnare un'etichetta categorica (classe) a un input. Il modello apprende da un dataset in cui ogni campione ha un'etichetta nota.
Esempi pratici:
- Email: spam o non spam (classificazione binaria)
- Immagine: gatto, cane, uccello (classificazione multiclasse)
- Testo di recensione: positivo, negativo, neutro (sentiment analysis)
- Transazione bancaria: legittima o fraudolenta
Gli algoritmi di classificazione principali includono Logistic Regression, Decision Tree, Random Forest, SVM e KNN. Le reti neurali dominano per task complessi (immagini, testo). La valutazione avviene attraverso la matrice di confusione e le metriche derivate (accuracy, precision, recall, F1).
Regressione
La regressione predice un valore numerico continuo (non una categoria). Il modello apprende la relazione funzionale tra le feature di input e il target numerico.
| Algoritmo | Complessita | Uso tipico |
|---|---|---|
| Regressione lineare | Bassa | Relazioni lineari semplici, baseline |
| Regressione polinomiale | Media | Relazioni non lineari note |
| Random Forest Regressor | Alta | Relazioni complesse, feature interaction |
| Gradient Boosting (XGBoost) | Alta | Competizioni ML, massima accuracy |
| Reti neurali | Molto alta | Big data, relazioni molto complesse |
Metriche di valutazione: MAE (Mean Absolute Error), MSE (Mean Squared Error), RMSE e R-squared. A differenza della classificazione, non esiste una "matrice di confusione" per la regressione — si misura direttamente la distanza tra valore predetto e valore reale.
Clustering: K-means e DBSCAN
Il clustering e il task non supervisionato piu diffuso: raggruppare dati simili in cluster senza etichette predefinite. Il modello scopre le strutture naturali nei dati.
K-means e l'algoritmo piu semplice e popolare:
- Si scelgono K centroidi iniziali (casualmente o con k-means++).
- Ogni punto viene assegnato al centroide piu vicino.
- I centroidi vengono ricalcolati come media dei punti assegnati.
- Si ripete finche i centroidi si stabilizzano.
Limite: richiede di specificare K in anticipo e assume cluster sferici di dimensione simile.
DBSCAN (Density-Based Spatial Clustering) risolve questi limiti: trova cluster di forma arbitraria basandosi sulla densita dei punti e identifica automaticamente outlier e rumore. Non richiede di specificare il numero di cluster, ma ha due parametri: epsilon (raggio di vicinanza) e min_samples (minimo di punti per formare un cluster).
Nel marketing, il clustering e usato per la segmentazione dei clienti: raggruppa automaticamente utenti con comportamenti simili (RFM analysis), permettendo campagne personalizzate senza definire i segmenti manualmente.
PCA e riduzione dimensionale
La PCA (Principal Component Analysis) e la tecnica di riduzione dimensionale piu usata. Trasforma un dataset con molte feature in un nuovo spazio con meno dimensioni, preservando la massima varianza possibile.
Applicazioni pratiche:
- Visualizzazione: ridurre dati ad alta dimensionalita a 2-3 dimensioni per grafici interpretabili.
- Preprocessing: ridurre il rumore e la ridondanza prima di applicare altri algoritmi.
- Compressione: ridurre lo storage necessario mantenendo l'informazione essenziale.
- Decorrelazione: le componenti principali sono ortogonali, eliminando la multicollinearita.
Alternative moderne: t-SNE e UMAP per visualizzazione (preservano meglio le strutture locali), autoencoders per riduzione non lineare.
Cenni di Reinforcement Learning
Il Reinforcement Learning (RL) e il terzo paradigma: un agente interagisce con un ambiente, compie azioni e riceve ricompense (reward). L'obiettivo e apprendere una politica (policy) che massimizzi la ricompensa cumulativa nel tempo.
Concetti chiave: stato (osservazione dell'ambiente), azione (scelta dell'agente), reward (feedback numerico), policy (strategia decisionale). Algoritmi noti: Q-learning, Deep Q-Network (DQN), PPO (Proximal Policy Optimization).
Il RL e fondamentale nell'AI moderna: RLHF (Reinforcement Learning from Human Feedback) e la tecnica usata per allineare i LLM alle preferenze umane, trasformando un modello pre-addestrato in un assistente utile e sicuro. E anche alla base dei successi di AlphaGo, della robotica avanzata e dei sistemi di raccomandazione.
Come scegliere l'approccio
| Hai etichette? | Obiettivo | Approccio |
|---|---|---|
| Si | Predire una categoria | Classificazione supervisionata |
| Si | Predire un numero | Regressione supervisionata |
| No | Trovare gruppi naturali | Clustering |
| No | Ridurre le dimensioni | PCA / riduzione dimensionale |
| No (ma hai un ambiente) | Ottimizzare una strategia | Reinforcement Learning |
La scelta dell'approccio dipende dal problema e dai dati disponibili, non dalla complessita dell'algoritmo. Un modello semplice e ben calibrato batte quasi sempre un modello complesso applicato al problema sbagliato. Per evitare gli errori piu comuni, consulta Errori Comuni nell'AI e Overfitting e Underfitting.