venerdì, Febbraio 26, 2021
Tempo di lettura: 2 minuti

Dopo la notizia di Facebook che ha deciso di avviare un’indagine interna per verificare il comportamento dei propri algoritmi, è tornato alla ribalta l’argomento degli algoritmi influenzati da possibili pregiudizi.

Secondo la rivista del Mit, Facebook sta istituendo un team internazionale per verificare se gli algoritmi che regolano il social network e Instagram siano viziati da pregiudizi razziali. Saranno analizzate in particolare tutte le applicazioni basate sul machine learning che gestiscono, tra le altre cose, le inserzioni pubblicitarie. Questa è una delle risposte ai recenti scioperi interni ed allo stop alle pubblicità delle grandi aziende.

Cos’è il machine learning?

Facebook e moltissime altre aziende in svariati settori stanno progressivamente adottando soluzioni basate sugli algoritmi ad apprendimento o machine learning. Questa tecnica, semplificando estremamente, si basa sull’addestrare dei software fornendogli un’enorme quantitativo di dati in input ed indicandogli a cosa questi dati corrispondono. Facendo un esempio, se fornissimo ad un modello di machine learning milioni di foto dove compaiono cani ed altrettante foto dove non compaiono, questo potrebbe imparare a riconoscere le foto dove i cani sono presenti.

In che senso pregiudizi?

Come detto, il funzionamento dei modelli di machine learning si basa principalmente sui dati forniti e sull’interpretazione che gli viene data. Così come si può insegnare a riconoscere la foto di un cane, si può imporre una correlazione errata.

Poniamo per ipotesi di voler sviluppare un modello che, avendo accesso ai curriculum di neolaureati, propone ad un recruiter dei possibili candidati per una posizione. Per addestrare l’algoritmo usiamo i profili dei dipendenti che attualmente occupano posizioni simili. Se parliamo di ruoli di alta reponsabilità, è probabile che, basandosi sui dati forniti, il modello ci proponga un uomo, bianco, di mezza età.

Che implicazioni ha?

L’esempio del recruiter dimostra come, fornendo ad un algoritmo dei dati non rappresentativi o legati a fenomeni discriminatori, si influenzi il modello.

Un algoritmo ad apprendimento “impara” quali sono le caratteristiche comuni tra gli oggetti della sua ricerca. Se come dati di addestramento vengono forniti nella stragrande maggioranza uomini, l’algoritmo imparerà a consigliare uomini.

Questo non vuol dire che il fatto di essere uomo renda un candidato la scelta corretta per una determinata posizione, ma solo che attualmente nella maggioranza dei casi ci sono uomini.

Anche se le caratteristiche fisiche di qualunque tipo non dovrebbero essere rilevanti in alcun modo per la selezione di un candidato, se i dati di partenza sono vincolati a specifiche caratteristiche, l’algoritmo manterrà intatti questi pregiudizi.

Il caso

Questo problema di pregiudizi negli algoritmi a causa di pregiudizi nei dati si riflette in moltissimi ambiti. Per il caso specifico che abbiamo riportato in testa, il problema è legato alla pubblicità. Facebook, infatti, sfrutta algoritmi di machine learning per fornire ad ogni utente la pubblicità giusta in base alla sua profilazione. In pratica il social network cerca di proporti la pubblicità più adatta in base ai like che hai messo ed alle interazioni che hai avuto.

Se i dati usati sono sbagliati, o l’algoritmo è scritto in modo non corretto, è possibile avere delle pubblicità sbagliate o, peggio, discriminatorie. Sono allo studio metodi di correzione di questi algoritmi in modo da renderli più equi e non discriminatori. Ma, soprattutto, sono allo studio dei miglioramenti per non far scappare gli inserzionisti dalla piattaforma.

Se cercate altri approfondimenti legati al mondo della tecnologia, seguite Posizione Zero anche su Facebook ed Instagram e troverete molte altre informazioni!

Cover da freepik.com

Tags: ,

Related Article

0 Comments

Rispondi