Description: Facebook's ad moderation system involving algorithms failed to flag hateful language and violating content such as calls for killings for ads in English and Swahili.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook users speaking Swahili , Facebook users speaking English y Facebook users.
Estadísticas de incidentes
ID
393
Cantidad de informes
1
Fecha del Incidente
2021-12-08
Editores
Khoa Lam
Applied Taxonomies
Clasificaciones de la Taxonomía CSETv1
Detalles de la TaxonomíaIncident Number
The number of the incident in the AI Incident Database.
393
Clasificaciones de la Taxonomía CSETv1_Annotator-1
Detalles de la TaxonomíaIncident Number
The number of the incident in the AI Incident Database.
393
Informes del Incidente
Cronología de Informes
apnews.com · 2022
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Facebook está permitiendo que el discurso de odio violento se escape de sus controles en Kenia como lo ha hecho en otros países, según un nuevo informe de los grupos sin fines de lucro Global Witness y Foxglove.
Es la tercera prueba de este…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents