Timeline
Chat
Prospettiva

Apprendimento per similarità

tecniche di apprendimento supervisionato accomunate dall'obiettivo di imparare una misura di similarità (o distanza) da sfruttare per la predizione Da Wikipedia, l'enciclopedia libera

Remove ads

Nell'intelligenza artificiale, l'apprendimento per similarità costituisce una classe di metodi per l'apprendimento supervisionato utili a risolvere problemi di regressione e classificazione. Essi sono accomunati dall'obiettivo di imparare una funzione di similarità capace di misurare quanto due oggetti siano simili o correlati. Tali metodi trovano applicazione nel ranking, nei sistemi di raccomandazione, nella visione artificiale e nel riconoscimento vocale.

Remove ads

Tipologie

Riepilogo
Prospettiva

Esistono diverse tipologie di apprendimento per similarità (o metriche di distanza):

Regressione
In questo caso, sono date coppie di oggetti e una misura della loro similarità . L'obiettivo è quello di imparare una funzione che che approssimi per ciascuna nuova tripla d'esempio . Il problema si risolve minimizzando una loss regolarizzata: .
Classificazione
Siano dati due insiemi di coppie di oggetti simili e non . In una formulazione equivalente ogni coppia può essere assieme a un'etichetta binaria che ne indichi la similarità. Di nuovo l'obiettivo è imparare un classificatore che sappia decidere se una nuova coppia di oggetti siano simili o meno.
Ranking
Siano date triple di oggetti la cui similarità relativa segua un ordine predefinito: si sa che è più simile a che a . L'obiettivo è imparare una funzione tale che per ogni nuova tripla di oggetti , si verifichi (contrastive learning). Questa impostazione assume una forma più debole di supervisione rispetto alla regressione, in quanto invece di fornire una misura di similarità vera e propria si deve fornire solo un ordinamento relativo. per tale ragione, il ranking per similarità risulta di più facile applicazione su problemi reali di larga scala.[1]
Locality sensitive hashing (LSH)[2]
Il metodo crea una funzione di hash per gli oggetti in input in modo tale che, con elevata probabilità, oggetti simili siano mappati nelle stesse posizioni in memoria (il numero di posizioni - bucket - sarà molto più piccolo dell'intero universo dei possibili oggetti). Il metodo è spesso applicato nel nearest neighbor su dati ad alta dimensionalità e larga scala, e.g., database di immagini o serie temporali, corpus di documenti, e database sul genoma.[3]

Un approccio comune nell'apprendimento per similarità è modellare la funzione di similarità in forma bilineare. Ad esempio, nel caso dell'apprendimento relativo al ranking, si mira ad apprendere una matrice W che parametrizzi la funzione di similarità. Quando i dati sono abbondanti, un approccio comune è quello di apprendere una rete siamese, un modello di rete profonda con condivisione dei parametri.

Remove ads

Apprendimento di metriche

Riepilogo
Prospettiva

L'apprendimento per similarità è strettamente correlato all'apprendimento di metriche di distanza. L'apprendimento di metriche consiste nell'apprendere una funzione di distanza sugli oggetti. Una metrica o funzione di distanza deve rispettare quattro assiomi: non negatività, identità degli indiscernibili, simmetria e subadditività (o disuguaglianza triangolare). Nella pratica, gli algoritmi di apprendimento di metriche ignorano la condizione di identità degli indiscernibili e apprendono una pseudo-metrica.

Quando gli oggetti sono vettori in , allora qualsiasi matrice nel cono semidefinito positivo simmetrico definisce una distanza pseudo-metrica dello spazio di x attraverso la forma . Quando è una matrice simmetrica definita positiva, è una metrica. Inoltre, come qualsiasi matrice semidefinita positiva simmetrica può essere decomposta come , dove e , la funzione distanza può quindi essere riscritta in modo equivalente come.

La distanza corrisponde alla distanza euclidea tra i vettori di feature trasformate e .

Sono state proposte numerose formulazioni per l'apprendimento di metriche [4]. Alcuni approcci degli più popolari comprendono l'apprendimento da confronti relativi, [5] che si basa sulla loss di tripla (triplet loss), sul vicino più prossimo con margine ampio, [6] e l'apprendimento di metriche basato sulla teoria dell'informazione (ITML). [7]

In statistica, si usa talvolta la matrice di covarianza dei dati per definire una metrica detta distanza di Mahalanobis.

Remove ads

Applicazioni

L'apprendimento per similarità viene utilizzato nel recupero delle informazioni per imparare a ordinare (ranking), nella verifica o identificazione di volti, [8] [9] e nei sistemi di raccomandazione. Inoltre, molti approcci di apprendimento automatico si basano su metriche. Essi comprendono forme di apprendimento non supervisionato, come il clustering, che raggruppa oggetti vicini o simili. Essi includono anche approcci supervisionati come l'algoritmo K-nearest neighbor che si basa sulle etichette degli oggetti vicini per decidere l'etichetta di un nuovo oggetto. L'apprendimento di metriche è considerato come una fase di pre-elaborazione in molti di questi approcci. [10]

Scalabilità

L'apprendimento di metriche o similarità scala quadraticamente rispetto alla dimensionalità dello spazio di input, come si può facilmente vedere quando la metrica appresa ha la forma bilineare . Si può scalare verso dimensioni superiori imponendo la sparsità della matrice del modello, come fatto in HDSL, [11] e COMET. [12]

Remove ads

Software

  • metric-learn [13] è una libreria free Python che offre implementazioni efficienti di diversi algoritmi di apprendimento di metriche e di similarità supervisionati e debolmente supervisionati. L'API di metric-learn è compatibile con scikit-learn. [14]
  • OpenMetricLearning [15] è un framework Python per addestrare e convalidare i modelli che producono embedding di alta qualità.

Ulteriori informazioni

Per ulteriori informazioni su questo argomento, si vedano gli studi comparativi sull'apprendimento di metriche e similarità di Bellet et al. [16] e Kulis. [4]

Voci correlate

Note

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads