Fin/Tech
Według badań sztucznej inteligencji, mniejszości częściej używają „mowy nienawiści”? Sprawdzamy

Naukowcy z prestiżowego University of Cornell stworzyli specjalny algorytm sztucznej inteligencji do wykrywania mowy nienawiści w internecie
Specjalny algorytm AI miał za zadanie wykrywanie i zwalczanie mowy nienawiści w sieci, głównie w social mediach. System identyfikował wpisy na Twitterze jako „rasistowskie” lub „seksistowskie” na podstawie użytych obraźliwych słów, następnie flagował je i zbierał do bazy danych.
W badaniu opublikowanym w maju naukowcy z Cornell podali, że systemy znacznie częściej „flagują” tweety Afroamerykanów niż białych.
Sensacja? Nie do końca. Przyglądając się bliżej użytej metodzie, okazuje się że do weryfikacji mowy nienawiści używano słów „nigga” oraz „bitch„.
Ocenianie rasizmu i seksizmu czarnej społeczności amerykańskiej na podstawie nigga i bitch ?
Dosyć średni pomysł, Plażo.