Article_top

Алгоритмите на Facebook за засичане на езика на омразата работят все по-ефективно и повече, хвалят се от компанията. Каква е точността на тези системи с изкуствен интелект обаче продължава да бъде мистерия, разказва Wired.

От май 2018 г. хората на Зукърбърг съобщават за това как прилагат "стандартите на общността", или правилата на социалната мрежа на всяко тримесечие от годината. В последното се съобщава, че компанията е премахнала 9,6 млн. елемента съдържание за първата четвърт на 2020 г. Това е нов рекорд и увеличение с 3,9 млн. от последната четвърт на 2019 г.

Както става ясно, 88,8% от това съдържание е установено от специалните алгоритми на компанията, за които се говори от началото на десетилетието. Модераторите премахват едва 11,2% от съдържанието с омраза.

Това, което Facebook не дава като данни, е колко подобно съдържание пропуска и колко съдържание бива изтрито по погрешка от алгоритмите.

Има данни, че въпреки повечето потребители, които са оспорвали решения, налице са по-малко връщания на изтрито съдържание. Компанията призна, че пандемията и намаленият състав в офисите са наложили промяна на начина на обжалване.

Според много анализатори и потребители алгоритмите на социалната мрежа изпускат много постове, изразяващи омраза, според други пък се трият немалко невинни съобщения.

Засега е ясно, че няма достатъчно данни, за да знаем дали Facebook реално напредва в борбата си с езика на омразата и дали "умните" инструменти не водят до цензура.

 
Снимка БГНЕС

Алгоритмите на Facebook за засичане на езика на омразата работят все по-ефективно и повече, хвалят се от компанията. Каква е точността на тези системи с изкуствен интелект обаче продължава да бъде мистерия, разказва Wired.

От май 2018 г. хората на Зукърбърг съобщават за това как прилагат "стандартите на общността", или правилата на социалната мрежа на всяко тримесечие от годината. В последното се съобщава, че компанията е премахнала 9,6 млн. елемента съдържание за първата четвърт на 2020 г. Това е нов рекорд и увеличение с 3,9 млн. от последната четвърт на 2019 г.

Както става ясно, 88,8% от това съдържание е установено от специалните алгоритми на компанията, за които се говори от началото на десетилетието. Модераторите премахват едва 11,2% от съдържанието с омраза.

Това, което Facebook не дава като данни, е колко подобно съдържание пропуска и колко съдържание бива изтрито по погрешка от алгоритмите.

Има данни, че въпреки повечето потребители, които са оспорвали решения, налице са по-малко връщания на изтрито съдържание. Компанията призна, че пандемията и намаленият състав в офисите са наложили промяна на начина на обжалване.

Според много анализатори и потребители алгоритмите на социалната мрежа изпускат много постове, изразяващи омраза, според други пък се трият немалко невинни съобщения.

Засега е ясно, че няма достатъчно данни, за да знаем дали Facebook реално напредва в борбата си с езика на омразата и дали "умните" инструменти не водят до цензура.

Коментари

Същите алгоритми имат и 90% фалшиви позитиви,

като дори не е ясно дали това са "фалшиви позитиви" или реална политика, която после се оправдава с "грешки".

Например, точно по времето, когато пропагандата на неонацитата от републиканската администрация на САЩ пуснаха поредния исторически фалшификат, че войната срещу нацистка Германия била спечелена от Щатите, фейса масово забраняваше акалнти, които публикуваха под фалшивата новина доказателства за това чия армия всъщност е превзела Берлин :)

Ясно е като бял ден, че става дума за координирана пропагандно-цензорска систма, а не за "грешки".

Хубавото е, че във фейса останаха само олигофрените и троловете.

Най

Следвайте ни

 
 

Още по темата

Още от категорията

Анкета

Кои от икономическите мерки на правителството за справяне с кризата одобрявате?