Inicio Web. Facebook enfrenta otra demanda por anuncios discriminatorios

Facebook enfrenta otra demanda por anuncios discriminatorios

Facebook está enfrentando otra demanda por permitir a los anunciantes filtrar publicidad de vivienda y productos financieros por raza, género y edad

Un grupo de demandantes afirman que en Facebook permite a los anunciantes discriminar por edad, género y raza a la hora de ofrecer publicidad de ciertos servicios financieros, tales como cuentas bancarias, seguros, inversiones o préstamos, ya que este tipo de anuncios no le aparecen las mujeres y personas mayores con la misma frecuencia que al resto de los usuarios. Según la demanda, Facebook persiste en este tipo de discriminación, a pesar de que la compañía aseguró hace unos meses que tomaría medidas al respecto.

El pasado mes de marzo, el Gobierno Federal acusó a la compañía por discriminación en la publicidad relacionada con la vivienda. “Facebook está discriminando a las personas en base quiénes son y dónde viven”, aseguró el secretario del Departamento de Vivienda y Desarrollo Urbano, Ben Carson, en un comunicado.

La situación saltó tras una investigación publicada por el medio estadounidense ProPublica en 2016, que encontró que una herramienta de Facebook podía utilizarse para excluir a los usuarios negros y latinos de que se les mostraran ciertos anuncios inmobiliarios, algo que no permite la ley.

Según la ley Federal de Vivienda Justa, es ilegal publicar un anuncio con respecto a la venta o alquiler de una vivienda que indique cualquier preferencia, limitación o discriminación por motivos de raza, color, religión, sexo, discapacidad, estado familiar u origen nacional.

La red social anunció entonces que tomaría medidas al respecto, pero, un año más tarde, la nueva investigación del medio norteamericano mostró que las medidas de control aún no eran del todo eficaces.

Ahora, los demandantes alegan que la empresa sigue permitiendo que las compañías de servicios financieros filtren los anuncios por edad y género, lo que supondría una violación de la ley de derechos civiles de California. “Internet no es un lugar donde se pueda discriminar a las personas por su edad o género, particularmente en las oportunidades de servicios financieros, aseguró a Reuters Peter Romer- Friedman, representante de los demandantes. “Sería como si General Motors se negara a ofrecer a las mujeres o a los mayores las mismas características en un coche que a los hombres o a los jóvenes”.

La legislación estadounidense establece que incluso las exclusiones no intencionadas, como las generadas por una inteligencia artificial, pueden ser penados, con lo que una aplicación de alquiler vivienda cuyo algoritmo excluya a las minorías podría considerarse ilegal.

Sin embargo, el pasado mes de agosto se planteó una reforma para que solo se consideren aquellas aplicaciones que introducen directamente parámetros discriminatorios en el algoritmo.

El problema no se encuentra solo en las características más o menos sesgados de los datos de entrada, sino en el hecho de que el propio sistema de aprendizaje automático también puede generar sesgos, ya que “incluye una serie de opciones y prácticas, desde la metodología de evaluación hasta la definición del modelo, que pueden conducir a efectos no deseados. El aprendizaje automático no solo se basa en la muestra entrada, sino en las decisiones que toman en base a esos datos”, afirma Liliana Arroyo, investigadora del Instituto de Innovación Social de ESADE, “Como es algo automatizado creemos que son neutras, pero la realidad es que los algoritmos son ideología”.

“Los algoritmos hacen lo que hemos hecho siempre, pero de una forma automática y a una escala mucho mayor, por lo que el impacto que tiene es mucho más grande”, concluye Arroyo.