Fin/Tech

Według badań sztucznej inteligencji, mniejszości częściej używają „mowy nienawiści”? Sprawdzamy

Zdjęcie: Racist blocks / Creative Commons 3 - CC BY-SA 3.0, alphastockimages.com

Naukowcy z prestiżowego University of Cornell stworzyli specjalny algorytm sztucznej inteligencji do wykrywania mowy nienawiści w internecie

Specjalny algorytm AI miał za zadanie wykrywanie i zwalczanie mowy nienawiści w sieci, głównie w social mediach. System identyfikował wpisy na Twitterze jako „rasistowskie” lub „seksistowskie” na podstawie użytych obraźliwych słów, następnie flagował je i zbierał do bazy danych.

W badaniu opublikowanym w maju naukowcy z Cornell podali, że systemy znacznie częściej „flagują” tweety Afroamerykanów niż białych.

Sensacja? Nie do końca. Przyglądając się bliżej użytej metodzie, okazuje się że do weryfikacji mowy nienawiści używano słów „nigga” oraz „bitch„.

Ocenianie rasizmu i seksizmu czarnej społeczności amerykańskiej na podstawie nigga i bitch ?
Dosyć średni pomysł, Plażo.

źródło:
https://arxiv.org/pdf/1905.12516.pdf

Exit mobile version