Ad Config - Website header

 

Article_top

Трябва да си подготвен за всичко, ако работиш като модератор във Facebook. Това разказва Сара Катс, която прекарва осем месеца на тази позиция в социалната мрежа през 2016 г. Работата й е да преглежда сигналите за неподходящо съдържание, подадени от потребители на мрежата, и да решава кои публикации трябва да бъдат свалени.

"Сблъскваме се основно с порнография", разказва тя пред радио Би Би Си. "Политиката на компанията е по-стриктна относно премахването на порнографско съдържание, отколкото към сцени на насилие."

Модераторите имат по-малко от минута да преценят дали една публикация отговаря на правилата за ползване на мрежата или не.

"Мениджърите ни позволяваха да работим не повече от осем часа на ден. За това време трябваше да преглеждаме по 8000 поста, тоест по 1000 на час", разказва Катс, която описва работата си като "много напрегната".

Като най-шокиращото съдържание, на което е попадала, тя описва видеоклип с детска порнография.

"Изглеждаше сякаш възрастен им казва какво да правят. Най-смущаващото беше, че знаех, че е истинско."

Когато тя е започнала работа, от компанията не предлагат психологическа помощ за служителите.

"Предупреждават те за това, което ще правиш, но предупреждението е различно от това наистина да видиш подобни неща", разказва Сара. "Някои хора мислят, че могат да се справят, но всъщност не могат... или се оказва по-лошо, отколкото са очаквали."

Тя казва още, че сред най-трудните й задачи е била да открива първоизточниците на подобни пуликации, които циркулират из мрежата.

Много често се срещат и "потресаващи сцени на насилие", разказва тя.

Сара Катс разказва и за опита си с фалшивите новини.

"Виждахме много статии, които бяха докладвани от потребители, но не си спомням шефовете да са ни казали да проверяваме фактите в някоя история. Монотонна работа е и накрая свикваш да разпознаваш кое е спам и кое не е."

"Бих ли препоръчала тази работа? Ако можете да си намерите друга, по-добре го направете", заключава Сара.

Facebook все по-често използва изкуствен интелект за разпознаване на съдържание, което противоречи на правилата на социалната мрежа. Това обаче създава проблеми, защото изкуственият интелект не може да разбира контекста на думи или изрази. Затова за социалната мрежа работят около 7000 души, които вършат работа като тази на Сара Катс.

"Нашите модератори играят крючова роля за това Facebook да е безопасен. Работата им е много тежка и затова правим всичко, за да ги подкрепяме", се казва в изявление на социалната мрежа. "Предлагаме редовни обучения, съвети и психологическа подкрепа на всички наши служители."

 

Трябва да си подготвен за всичко, ако работиш като модератор във Facebook. Това разказва Сара Катс, която прекарва осем месеца на тази позиция в социалната мрежа през 2016 г. Работата й е да преглежда сигналите за неподходящо съдържание, подадени от потребители на мрежата, и да решава кои публикации трябва да бъдат свалени.

"Сблъскваме се основно с порнография", разказва тя пред радио Би Би Си. "Политиката на компанията е по-стриктна относно премахването на порнографско съдържание, отколкото към сцени на насилие."

Модераторите имат по-малко от минута да преценят дали една публикация отговаря на правилата за ползване на мрежата или не.

"Мениджърите ни позволяваха да работим не повече от осем часа на ден. За това време трябваше да преглеждаме по 8000 поста, тоест по 1000 на час", разказва Катс, която описва работата си като "много напрегната".

Като най-шокиращото съдържание, на което е попадала, тя описва видеоклип с детска порнография.

"Изглеждаше сякаш възрастен им казва какво да правят. Най-смущаващото беше, че знаех, че е истинско."

Когато тя е започнала работа, от компанията не предлагат психологическа помощ за служителите.

"Предупреждават те за това, което ще правиш, но предупреждението е различно от това наистина да видиш подобни неща", разказва Сара. "Някои хора мислят, че могат да се справят, но всъщност не могат... или се оказва по-лошо, отколкото са очаквали."

Тя казва още, че сред най-трудните й задачи е била да открива първоизточниците на подобни пуликации, които циркулират из мрежата.

Много често се срещат и "потресаващи сцени на насилие", разказва тя.

Сара Катс разказва и за опита си с фалшивите новини.

"Виждахме много статии, които бяха докладвани от потребители, но не си спомням шефовете да са ни казали да проверяваме фактите в някоя история. Монотонна работа е и накрая свикваш да разпознаваш кое е спам и кое не е."

"Бих ли препоръчала тази работа? Ако можете да си намерите друга, по-добре го направете", заключава Сара.

Facebook все по-често използва изкуствен интелект за разпознаване на съдържание, което противоречи на правилата на социалната мрежа. Това обаче създава проблеми, защото изкуственият интелект не може да разбира контекста на думи или изрази. Затова за социалната мрежа работят около 7000 души, които вършат работа като тази на Сара Катс.

"Нашите модератори играят крючова роля за това Facebook да е безопасен. Работата им е много тежка и затова правим всичко, за да ги подкрепяме", се казва в изявление на социалната мрежа. "Предлагаме редовни обучения, съвети и психологическа подкрепа на всички наши служители."

Коментари

Най

Следвайте ни

 
 

Още по темата

Още от категорията

Анкета

Одобрявате ли съживяването на проекта за АЕЦ „Белене“?