Algoritmes antidiscriminació

/, Data Science/Algoritmes antidiscriminació

Algoritmes antidiscriminació

Per què si busques a Google Imatges la paraula “Policia” a la majoria d’imatges només apareixen homes i a les imatges que apareixen dones vesteixen de forma provocadora? Per què molts resultats de recerques de minories ètniques mostren imatges negatives?

Els algoritmes i els recomanadors Big Data formen part del nostre dia a dia. Per mitjà de l’anàlisi de la informació sobre els nostres gustos, opinions i comportaments són capaços de determinar els mitjans i els productes que consumim. Fins i tot, ens ajuden a cercar parella.

La seva influència també arriba al món offline: l’analítica de dades pot ajudar a determinar el millor candidat per a un lloc de treball o la concessió d’una hipoteca. Que el teu codi postal indiqui que vius en un barri amb una renda per càpita baixa pot ser una dada objectiva que jugui en contra teva a l’hora d’aprovar un préstec hipotecari.

algoritmes_antidiscriminacio

Una mostra dels resultats de cerca a Google imatges per la paraula “policia”

Sara Hajian és investigadora a la unitat d’investigació a Data Science de Eurecat. Explica que avui els recomanadors artificials prenen més decisions que abans prenien els humans. I afegeix: “Tot i que una decisió presa per un algoritme estic feta d’acord amb criteris objectius, pot suposar una discriminació no intencionada. Les màquines aprenen dels nostres prejudicis i estereotips“.

La investigació a Data Science ofereix la possibilitat de mitigar la discriminació per defecte per fomentar l’antidiscriminació per disseny en el desenvolupament de nous algoritmes. O dit d’una altra manera. “Es tracta de desenvolupar algoritmes que evitin que el nostre mòbil només suggereixi continguts estereotipats al rol femení pel sol fet de detectar que l’usuari del dispositiu és una dona“, explica.

sara hajian

Sara Hajian és investigadora de la Unitat de recerca en Data Science d’Eurecat

Hajian està especialitzada en el desenvolupament d’algoritmes antidiscriminació per disseny, és a dir, ja integrat. Recentment ha publicat l’estudi “Algorithmic Bias: From Discrimination Discovery to Fairness-aware Data Mining” que va presentar al DataBeersBcn el mes de novembre. Hajin també va participar a la sessió “Algorithmic Gender Discrimination, Sexism and Data (In)Equalities” de la conferència Computers, Privacy & Data Protection que va tenir lloc a Brussel·les el 25 de gener per mostrar els resultats de la seva recerca.

El treball proposa una metodologia en 3 fases per al tractament de dades.

La solució, pas a pas
A la fase de preprocessament de la informació, l’estratègia utilitzada consisteix a controlar la distorsió del conjunt de dades. “A la pràctica, suposa eliminar dades sensibles de potenciar la discriminació com el codi postal, el gènere o la raça perquè no es puguin extreure models de decisió que discriminin”, explica.

Un cop tenim les dades, cal fer una aproximació ètica que integri l’antidiscriminació per disseny. Això suposa modificar els algoritmes de mineria de dades perquè no continguin decisions injustes.

A la tercera fase, es proposen tasques de postprocessament dels models d’extracció de dades obtingudes en comptes de netejar el conjunt de dades original o canviar els algoritmes de mineria de dades.

“D’aquesta manera, començarem realment a treballar en models antidiscriminació. La personalització és bona però fins a cert punt perquè potser els nostres interessos no s’ajusten al dels rols majoritaris“, conclou Hajian.

By | 2017-03-09T09:21:39+00:00 març 8th, 2017|Blog, Data Science|0 Comentaris

Deixeu un comentari

Ets humà? * Time limit is exhausted. Please reload CAPTCHA.

Do NOT follow this link or you will be banned from the site!