fbpx

MACHINE LEARNING

Machine Learning è oggi ritenuto uno dei approcci più importanti dell’intelligenza artificiale.

 

ISCRIVITI ALLA NEWSLETTER

Ti INVIEREMO DUE VOLTE A SETTIMANA ARTICOLI E RISORSE DEL MONDO HR.

Un sistema di Machine Learning (apprendimento automatico) durante la fase di training apprende a partire da esempi (in modo più o meno supervisionato). Successivamente è in grado di generalizzare e gestire nuovi dati nello stesso dominio applicativo.
Machine Learning è oggi ritenuto uno dei approcci più importanti dell’intelligenza artificiale.

I dati sono un ingrediente fondamentale del machine learning, dove il comportamento degli algoritmi non è pre-programmato ma appreso dai dati stessi. Nel corso del tempo, sono stati sviluppati molti approcci di apprendimento automatico delle macchine. Puoi usare questa mappa dal team di scikit-learn come guida per i metodi più popolari.

“I dati sono un ingrediente fondamentale del machine learning “

Classificazione: assegna una classe a un pattern.

Il concetto di classe è semantico e dipende strettamente dall’applicazione: per esempio 10 classi per il riconoscimento delle cifre da 0-9.

Esempi di problemi di classificazione:

• Emotion recognition
• Face recognition
• Pedestrian classification

Regressione: assegna un valore continuo a un pattern.
Utile per la predizione di valori continui.

Esempi di problemi di regressione:

• Object detection
• Stima prezzi vendita appartamenti nel mercato immobiliare
• Stima del rischio per compagnie assicurative

Clustering: individua gruppi (cluster) di pattern con caratteristiche simili. Le classi del problema non sono note e i pattern non etichettati rendendo così la natura non supervisionata del problema più complesso della classificazione. I cluster individuati nell’ apprendimento possono essere poi utilizzati come classi.

Esempi di problemi di clustering:
• Marketing segmentation
• Social network analysis
• Search result grouping
• Medical imaging
• Image segmentation

Riduzione di dimensionalità: riduce il numero di dimensioni dei pattern in input.

 

Prenota una prova gratuita della soluzione creata per gli Hr e Recruiter di Coloquio24.

Il successo di molte applicazioni di machine learning dipende dall’efficacia di rappresentazione dei pattern in termini di estrazioni delle caratteristiche. Ad esempio per il riconoscimento di oggetti esistono numerosi descrittori di forma, colore e texture che possiamo utilizzare per convertire immagini in vettori numerici.


Data un’immagine di input di pixel, applicheremmo il nostro algoritmo per i pixel, e in cambio riceviamo un vettore di funzionalità che quantifica il contenuto dell’immagine. I vettori di
caratteristiche che risultavano dall’estrazione delle caratteristiche sono ciò che noi siamo veramente interessati in quanto servono da input per i nostri modelli di apprendimento automatico.


Nella figura di seguito a sinistra: il processo tradizionale di prendere una serie di immagini in input, applicare una serie di algoritmi di estrazione delle caratteristiche, seguito dalla formazione di un
classificatore di apprendimento automatico sulle funzionalità.
A destra: l’approccio di apprendimento approfondito per sovrapporre strati sovrapposti che apprendono automaticamente le funzioni più complesse, astratte e discriminanti.

“Ma si possono apprendere automaticamente le caratterische efficaci delle immagini a partire da raw
data? “

O analogamente, possiamo operare direttamente sulle caratteristiche (es. intensità dei pixel di un’immagine, ampiezza di un segnale audio nel tempo) senza utilizzare feature pre-definite ?


Gran parte delle tecniche di deep learning (es. convolutional neural networks) operano in questo modo, utilizzando come input i raw data ed estraendo automaticamente da essi le feature necessarie
per risolvere il problema di interesse. Invece di definire manualmente una serie di regole e algoritmi per estrarre le caratteristiche da un’immagine, queste le caratteristiche vengono invece apprese automaticamente dal processo di formazione. Data un’immagine, forniamo i valori di intensità del pixel come input alla rete. 

Una serie di nascosti i livelli sono usati per estrarre le caratteristiche dalla nostra immagine di input. Questi strati nascosti si fondono l’un l’altro in modo gerarchico. Inizialmente, solo le regioni di tipo edge vengono rilevate negli strati di livello inferiore di il network. Queste aree del bordo vengono utilizzate per definire gli angoli (dove i bordi si intersecano) e i contorni (contorni di oggetti). 

La combinazione di angoli e contorni può portare a “parti dell’oggetto” astratte nel prossimo strato. Possiamo osservare questo processo come apprendimento gerarchico: ogni strato della rete utilizza l’output di strati precedenti come “elementi costitutivi” per costruire concetti sempre più astratti. 

Questi livelli vengono appresiautomaticamente – non sono stati usati algoritmi di estrazione delle caratteristiche nella Rete.

Le applicazioni di questa tecnologia sono già numerose, un esempio sono i motori di ricerca che forniscono risultati in risposta a parole chiave: sono algoritmi con apprendimento non supervisionato. Possiamo citare anche i filtri anti-spam nelle e-mail che imparano costantemente a riconoscere i messaggi sospetti, i sistemi di raccomandazione che studiano le preferenze degli utenti sul web o a livello più alto i sistemi usati per prevenire frodi in ambito finanziario come la clonazione di carte, oppure per evitare furti di dati o di identità.

Nel mondo delle HR possiamo dire che le nuove tecnologie hanno rivoluzionato il lavoro dei responsabili delle risorse umane facilitandolo perché consentono di raccogliere una grande mole di dati provenienti dai cv inviati dagli aspiranti candidati. Una difficoltà dei recruiter, infatti, è sempre stata quello di raccogliere tutti i dati ricevuti ed elaborarli in modo corretto. Il rischio da sempre legato all’arrivo di tanti cv è quello di non notare un profilo interessante e quindi scartare un possibile talento. Automatizzare questo processo significa far risparmiare tempo al recruiter e al tempo stesso si possono salvare i dati in modo intelligente confrontandoli con le necessità dell’azienda.

Il brand Unilever, ad esempio a partire da Luglio 2016, ha rivoluzionato il proprio modo di fare recruiting, utilizzando le potenzialità del Intelligenza Artificiale per superare i tradizionali canali . Unilever,  quindi , ha eliminato del tutto il CV tradizionale: i candidati inviano solo il proprio profilo LinkedIn e come prima prova devono risolvere, dal proprio smartphone, 12 giochi basati sulle neuroscienze (Pymetrics, Hire Vue). Anche in questo caso la durata della selezione è diminuita drasticamente, mentre è molto aumentato il numero dei candidati che rispondono agli annunci di lavoro.

In Italia si sta facendo avanti la startup innovativa Colloquio24.it che ha creato un software di tecnologie AI che analizzano il comportamento del candidato ed attraverso l’unione di metriche psicologiche ed algoritmi AI, realizza video test predittivi personalizzati e centrati sul ruolo da svolgere.

Il  software si basa sul pattern delle reti neurali artificiali, modelli matematici composti da neuroni artificiali che si ispirano al funzionamento biologico del cervello umano.

Tramite una rete neurale profonda ( deep neural network ) ogni nodo sa come prendere un set di valori come input, applicare dei pesi ad essi, e calcolare un valore di output.

La rete è allenata su un Dataset di 1 milioni di immagini, permettendo così di leggere le espressioni facciali e tradurle nelle 7 emozioni universali. Innova  il processo di pre-screening fornendo ai recruiter più dati per scegliere, in meno tempo fornendo una nuova esperienza di selezione al candidato.

Nei prossimi articoli parleremo più dettagliatamente delle tecniche di deep learning applicate alla computer vision.

Suggerisci l'articolo su

Share on facebook
Share on google
Share on twitter
Share on linkedin
Share on whatsapp
Share on email
Share on print