¿Facebook todavía vende anuncios discriminatorios?

En mayo, una agencia de atención médica de Wisconsin, Tenderness Health Care, publicó un anuncio de trabajo en Facebook buscando trabajadores de atención personal.

Según la ventana emergente "¿Por qué veo este anuncio?" De Facebook, cuando la agencia compró el anuncio, le pidió a Facebook que no se lo mostrara a nadie mayor de 54 años. Y le pidieron a Facebook que lo mostrara específicamente a personas que tienen "afinidad multicultural afroamericana". Facebook, aparentemente, cumplió.

¿El problema? La ley federal prohíbe a los empleadores discriminar por motivos de edad y raza, incluso en la publicidad de puestos vacantes.

Cuando The Markup llamó la atención de Facebook sobre el anuncio, la compañía lo eliminó, según Tom Channick, un portavoz de Facebook. (El CEO de Tenderness, Julio Fernandez, no respondió a las solicitudes de comentarios de The Markup).

Esta no es la primera vez que se acusa a Facebook de permitir la discriminación en su plataforma.

Grupos de derechos civiles han acusado a Facebook de violar las leyes federales contra la discriminación y han presentado al menos cinco demandas contra la empresa, que culminaron en un acuerdo histórico el año pasado. En él, Facebook acordó cambiar sus prácticas que permitían a los anunciantes excluir a personas de ciertos géneros, edades y "afinidades multiculturales" para que no vieran anuncios de vivienda, trabajo y servicios financieros. (Facebook no recopila datos sobre la raza de los usuarios, pero hasta hace poco tenía una categoría de "afinidad multicultural", que no definía claramente).

La compañía todavía está defendiendo otra demanda, presentada por las autoridades federales de vivienda.

La mayor parte de los problemas legales se centraron en la forma en que funciona gran parte de la publicidad en línea, incluida la de Facebook. A diferencia de muchos anuncios impresos y primeros anuncios de Internet, que aparecían junto al contenido relacionado, la publicidad de Facebook se dirige a las personas.

El tesoro de datos detallados de Facebook sobre sus usuarios permite a las empresas que publicitan todo, desde trabajos hasta jeans, elegir de un extenso menú de características e intereses demográficos al elegir quién ve sus anuncios, y eso le ha ganado a la compañía miles de millones de dólares año tras año.

Facebook ha defendido esa práctica, argumentando que las empresas podrían utilizar legítimamente la segmentación basada en la edad para adaptar sus mensajes o para llegar a grupos subrepresentados. Sus políticas escritas prohíben la discriminación, ha dicho.

Y la focalización a veces puede ser inocua. Un local de hip-hop para más de 21 años en Atlanta podría tener buenas razones para no querer gastar dinero en publicidad dirigida a jóvenes de 18 años, personas que viven en Nueva York o personas cuyo comportamiento en línea no revela interés en el hip-hop.

Pero hay circunstancias en las que dirigir un anuncio basado en las características de una persona es ilegal. Las leyes federales prohíben la discriminación en la vivienda, el empleo y los servicios financieros, en particular, en los anuncios de viviendas. Estas regulaciones se impusieron después de décadas de propietarios y vecindarios que prohibieron a los inquilinos y propietarios de viviendas de minorías e inmigrantes; empleadores que discriminan por motivos de raza, género y sexualidad; y acreedores que venden productos financieros y tasas de préstamos incobrables a las minorías.

"Ayudar a prevenir la discriminación en los anuncios de oportunidades de empleo es un área en la que lideramos la industria", dijo el portavoz de Facebook, Channick, en un correo electrónico.

Entonces, ¿por qué The Markup aún pudo encontrar un anuncio de trabajo discriminatorio? Channick no lo diría.

La empresa utiliza controles automatizados para limitar cuándo y cómo los anunciantes pueden orientar anuncios en función de la edad y el género, de acuerdo con su acuerdo civil.

Channick no respondió a una pregunta sobre si los controles automatizados de Facebook siempre funcionan.

Facebook había prohibido el uso de categorías "multiculturales" para la segmentación en anuncios de empleo. Pero esas categorías fueron utilizadas por otros tipos de anuncios de grupos civiles y de derechos al voto, grupos de defensa de la salud centrados en los negros, políticos de ambos lados del pasillo y anunciantes comerciales.

Una semana después de que The Markup se pusiera en contacto con Facebook, Facebook anunció que eliminaría por completo las categorías de afinidad multicultural después de años de debate interno.

Además de permitir que los anunciantes se dirijan a audiencias específicas, algunos críticos dicen que Facebook discrimina por sí solo al publicar esos anuncios. Eso es lo que argumenta el Departamento de Vivienda y Desarrollo Urbano en su demanda.

El algoritmo de Facebook tiene sus propios sesgos Una vez que un anunciante elige su público objetivo, el algoritmo de Facebook toma sus propias decisiones sobre a qué usuario específico dentro del público objetivo mostrar un anuncio.

El objetivo de ese algoritmo, ha dicho Facebook, es tratar de predecir qué personas podrían estar interesadas en el anuncio, en función de su actividad en Facebook y los datos demográficos que puede obtener de sus páginas personales, incluida la edad, el género y otros factores.

"Facebook no le está dando al usuario lo que el usuario quiere; Facebook le está dando al usuario lo que cree que quiere un estereotipo demográfico", escribió el Comité de Abogados por los Derechos Civiles Bajo la Ley en un expediente judicial .

En 2019, investigadores de la Northeastern University y el grupo de defensa de los derechos civiles digitales Upturn publicaron docenas de sus propios anuncios, todos dirigidos a la misma audiencia amplia, y descubrieron que Facebook mostraba los anuncios que buscaban contratar secretarias principalmente para mujeres.

No está claro si Facebook programó sus algoritmos para mostrar el anuncio de trabajo de secretaria a una mujer determinada porque ella misma hizo algo para expresar su interés en el trabajo de secretaria o simplemente porque era mujer.

Un equipo de la Universidad Carnegie Mellon analizó recientemente anuncios de la vida real para cosas como trabajos, vivienda y crédito que se incluyeron (a veces por error) en el archivo de anuncios políticos de Facebook disponible públicamente. Los anuncios se publicaron antes y después del cambio de política de Facebook.

"Para prácticamente todos los tipos de anuncios de crédito que hemos analizado", dijo Sara Kingsley, Ph.D. estudiante que dirigió esa investigación, "los hombres tienden a ser un porcentaje mayor" de las personas a las que se les muestra el anuncio.

Los anuncios de vivienda y empleo, dijo, iban desproporcionadamente a las mujeres. Pero los anuncios individuales pueden variar ampliamente:

Las cosas que Facebook puede considerar puntos de datos inocuos pueden tener una correlación tan fuerte con la edad, el género o la raza que "el algoritmo ve las circunstancias de las mujeres negras mayores, que son el resultado de la discriminación y la inequidad sistémicas, y malinterpreta esas circunstancias como preferencias", David Brody , dijo un abogado del Comité de Abogados por los Derechos Civiles Bajo la Ley, en un correo electrónico.

“Entonces, la próxima vez que el algoritmo encuentre un usuario que coincida con las cualidades de una mujer negra mayor, imputará esas supuestas preferencias a ese usuario y en el proceso reforzará el patrón de discriminación sistémica”, dijo

¿Qué ha hecho Facebook al respecto?

El acuerdo de Facebook de 2019 con grupos de derechos civiles requirió que implementara nuevas reglas, como exigir a los anunciantes que hagan clic en un botón para autoinformar anuncios de vivienda, trabajo y crédito. Luego, Facebook elimina ciertas opciones de orientación demográfica del menú de opciones de ese anuncio.

Y Facebook comenzó a exigir a los anunciantes que aceptaran un acuerdo que prometía no discriminar. La compañía también prometió investigar el sesgo en sus algoritmos. Pero los investigadores y los activistas de los derechos civiles dicen que están frustrados porque la empresa no ha publicado ningún hallazgo. Según se informa, un estudio interno encontró sesgos en contra de los usuarios que habían sido categorizados como miembros de la categoría afroamericana de "afinidad multicultural". Facebook hizo ajustes pero cerró la investigación adicional porque se suponía que esa categoría no representaba la raza, datos que Facebook no recopiló de sus usuarios.

"Han optado por no recopilar esos datos porque no quieren encender las luces y ver cuántas cucarachas hay en la habitación", dijo Brody.

Hace solo unas semanas, Facebook creó equipos para estudiar los prejuicios raciales en sus plataformas.

Espera, ¿no es ilegal la discriminación? La ley de California prohíbe la discriminación "intencional" en lugares de "alojamiento público", incluidos los sitios web. Una demanda pendiente en un tribunal federal en el norte de California argumenta que los anuncios de Facebook violan esa ley porque los resultados de los algoritmos tratan a las personas de manera diferente en función de características como la edad y el sexo.

"Mira, ellos escribieron el algoritmo", dijo Brody a The Markup. “Nadie sabe cómo funciona el algoritmo excepto ellos. Son responsables de todo lo que hace el algoritmo ". (Facebook se negó a comentar sobre la demanda, pero en documentos judiciales ha negado haber infringido la ley).

Las leyes federales también prohíben la discriminación, pero la ley federal también protege a las empresas de tecnología como Facebook de la responsabilidad sobre el contenido de sus plataformas, específicamente la Sección 230 (c) de la Ley de Decencia en las Comunicaciones, que en esencia dice que los sitios web no son responsables de lo que dicen otras personas. en sus sitios.

La respuesta legal de Facebook a la demanda de alojamiento público en California invoca la Sección 230, esencialmente diciendo que la empresa no puede ser demandada por los anuncios en su plataforma, una cuestión legal que aún no se ha resuelto.

El senador demócrata Mark Warner, en un comunicado enviado a The Markup, calificó el argumento de Facebook en la lucha contra la demanda de alojamiento público como un "uso indebido de la Sección 230". Es "uno de los ejemplos más apremiantes de por qué necesitamos reformar esta ley anticuada", dijo. “Los fundamentos del excepcionalismo de Internet no deben obstaculizar la defensa de principios de larga data de equidad y no discriminación.