Giornale on-line fondato nel 2004

Mercoledì, 03 Lug 2024

Chiamata da molti la “poetessa del codice”, Joy Buolamwini (1989) è ricercatrice in computer science e pioniera nello studio dei “bias algoritmici” nei sistemi di riconoscimento facciale, cioè degli errori dovuti da assunzioni errate nel processo di apprendimento automatico dei computer.

Un giorno del 2018, si accorge che iI suo viso non viene riconosciuto dai sistemi di riconoscimento facciale attivi nel laboratorio dove lavora, il MIT Media Lab di Chicago, uno dei più avanzati del mondo.

Questo intoppo, apparentemente insignificante, la conduce alla sorprendente scoperta che alcuni algoritmi non sono in grado di rilevare e identificare il viso delle donne e in particolare delle donne con la pelle scura: Joy Buolamwini è donna ed è nera.

Insieme ad altre scienziate, matematiche e attiviste, intraprende allora una ricerca che rivelerà la natura profondamente sessista e razzista dei software che stanno alla base di quel particolare campo dell'Intelligenza Artificiale (AI) che è il “riconoscimento facciale”.

La sua storia è raccontata nel film documentario Coded Bias, di Shalini Kantayya, che denuncia un fatto impressionante: proprio gli algoritmi di apprendimento automatico destinati a evitare le discriminazioni sono essi stessi tendenziosi e intrisi di pregiudizi tanto quanto lo sono gli esseri umani e i dati storici che li programmano.

Non è cosa da poco e dovrebbe preoccuparci tutti perché ci si affida sempre più a sofisticati algoritmi, non solo nella vita di tutti i giorni, ma anche nelle decisioni importanti come la selezione del personale nelle aziende, la valutazione degli insegnanti nelle scuole (in USA è già così), l’affidabilità finanziaria per la concessione di crediti, assicurazioni sanitarie ecc.

Dopo aver firmato lo studio sui pregiudizi del riconoscimento facciale, la scienziata ha fondato l’Algorithmic Justice League, un'organizzazione che identifica e combatte il pregiudizio nel software.

La sua ricerca, trattata in oltre 40 paesi, ha sostenuto la necessità della giustizia algoritmica al World Economic Forum e alle Nazioni Unite.

La scienziata fa parte del Global Tech Panel convocato dal vicepresidente della Commissione europea per consigliare i leader mondiali e i dirigenti tecnologici sui modi per ridurre i danni causati dall’AI.

Alla fine del 2018, ha lanciato il Safe Face Pledge, il primo accordo che vieta l’applicazione scorretta della tecnologia di analisi e riconoscimento facciale.

Per la rivista Fortune, Joy Buolamwini è “la coscienza della rivoluzione AI”, una definizione molto appropriata perchè la questione su come garantire uguali opportunità e proteggere le libertà civili degli individui di fronte all'AI è sempre più importante.

Per approfondire sulle pioniere dell’AI: “Scienziate nel tempo. Più di 200 biografie”, Ledizioni 2023.

Sara Sesti
Matematica, ricercatrice in storia della scienza
Collabora con l'Università delle donne di Milano
facebook.com/scienziateneltempo/

empty alt

In Adriatico sono tornate le mucillagini

In Adriatico sono tornate le mucillagini la cui composizione potei analizzare, tra primi, nel...
empty alt

Illegittimo affidare il controllo della prestazione lavorativa a un investigatore

Con ordinanza n. 17004/24, pubblicata il 20 giugno 2024, la Corte di cassazione - sezione Lavoro – ha...
empty alt

Dall’Antitrust cartellino rosso alla Figc

Dopo l'inattesa eliminazione della nazionale italiana di calcio dagli Europei, una nuova tegola si è...
empty alt

“Fremont”, film esistenzialista dalle venature surreali

Fremont, regia di Babak Jalali, con Anaita Wali Zada (Donya), Gregg Turkington (Dr. Anthony),...
empty alt

Pescara, città giovane e “moderna”. Non è città per giovani

Chi scrive ha i suoi 74 anni e non pretende in nessun modo di farsi interprete di questioni che...
empty alt

“Il grande libro del folklore islandese”, antropologia di leggende e fiabe norrene

Il grande libro del folklore islandese - Leggende e fiabe dell terra del ghiaccio, di Roberto...

Ti piace l'informazione del Foglietto?

Se ti piace quello che leggi, puoi aiutarci a continuare il nostro lavoro sostenendoci con quanto pensi valga l'informazione che hai ricevuto. Anche il costo di un caffè!

SOSTIENICI
Back To Top