няколко

Facebook ще наеме още 3000 души, за да проверява за неподходящо съдържание в социалната мрежа. Той обаче отказва да говори за това как точно те оценяват неподходящи публикации.

Какво се случва, когато съобщите на Facebook, че публикация, която смятате за неподходяща и трябва да бъде изтрита? Само вашият компютърен алгоритъм ще оцени ли вашия отчет? Не.

Само някои администратори някъде в Индия обмислят ли такива доклади? Не.

Ще помогне ли, ако убедите повече хора да докладват и за публикацията? Не.

Промени ли Facebook нещо, което Kotlebovci загубиха през април за голяма част от своите Facebook страници? Не.

Можем ли да сме абсолютно сигурни в горните отговори? Не.

Служителите на Facebook отдавна отказват да разкрият как тяхната социална мрежа оценява проблемно съдържание на техните сайтове. Отговорите им са неясни и уклончиви. Въпреки това, от различни намеци и улики, които се появиха в обществеността през последните месеци, ние се опитахме да опишем как Facebook решава, как да се справя с мразещи публикации и защо копира грешки.

Броят на докладите няма значение

Когато Denník N картографира 140 страници във Facebook, контролирани от семейство Котлеб през февруари, никой не знаеше, че след няколко седмици голяма част от медийния им арсенал ще се разпадне - на 4 април Facebook блокира временно рецесионния сайт Zomri, който често осмива словашките фашисти, и феновете му започнаха да отмъщават. Уебсайтът на ĽSNS постепенно е паднал и днес вече не е наличен 37. Съществува и официалният уебсайт ĽSNS, който е имал повече от 80 000 фенове, уебсайтът на Мариан Котлеб, Милан Мазурек или Милан Урик.

Ако съберем броя на феновете, които Kotlebovci са имали на блокираните сайтове, стигаме до общ брой над 313 000. Не е броят на уникалните хора, а само общият брой фенове, припокриването между тези страници може да бъде доста голямо. Въпреки това това е огромен брой и голям удар за маркетинга на парламентарната партия. За един месец тя загуби повече от половината от феновете си.

Facebook блокира рецесионната страница на Zomri, феновете започнаха ответни мерки срещу бойлерите

Помогна ли това, че много хора едновременно съобщаваха за приноса на Kotlebovci, така че те бяха по-скоро в очите на администраторите? Представителите на Facebook не отговориха директно. През февруари обаче те все още твърдяха пред европейските неправителствени организации, че броят на докладите на профил, страница или публикация няма реално въздействие.

„Всеки доклад преминава през оценка и няма значение дали петима души или един човек съобщават за същото, решението не се променя“, каза Мирка Груфова от Фондация „Отворено общество“, която беше на среща на НПО с Facebook. Той добавя, че ако едно и също съдържание се докладва повече от веднъж и администраторите многократно решат, че е добре, тогава по-нататъшното докладване на публикацията няма да достигне до служителите на Facebook. „Той автоматично получава отрицателен отговор.“

Grófová, от името на Фондация „Отворено общество“, взе участие в обучението заедно с още около петдесет души от организации с нестопанска цел от цяла Европа. Обучението беше съсредоточено главно върху темата за ефективни кампании и ефективна комуникация във Facebook, но участниците научиха и нещо за това как протича процесът на оценка на докладваните приноси.

Блогърът Ян Бенчик получава редица заплахи и агресивни съобщения. Facebook не вижда проблем в тях.

Отчитането на страници и профили е неефективно

Информацията, която Facebook публикува досега, показва, че е много по-ефективно да се докладват проблемни публикации (статуси, изображения, видеоклипове, връзки), отколкото целият потребителски профил или Facebook страница. „Хората, които оценяват отчетите, имат време в един отчет само в единици секунди. Така че нямат време да се занимават с по-дълбок контекст “, казва Груфова. „Ако се съобщава за сайт или профил, те по принцип само оценяват дали заглавието, снимката на профила, описанието на профила и снимката на корицата съдържат нещо, което нарушава техните стандарти. Но те вече нямат достъп до самото съдържание, нямат капацитета да го направят. "

Администраторите могат да преглеждат конкретни публикации по-бързо и ако повече от един профил се копират под един профил, администраторите могат да го анулират изцяло.

Това вероятно се е случило с Котлебовец през април. Когато много хора започнаха да докладват за публикациите си, те също предупредиха администраторите за наистина проблематично съдържание, което очевидно беше пренебрегвано дълго време. Когато за кратко време Facebook изтри страницата за нарушение, тя веднага блокира цялата страница.

Това е само хипотеза и ние не знаем със сигурност дали наистина е вярна. Facebook е абсолютно непрозрачен по тези въпроси. Миналия юни, например, той блокира няколко страници на МСП всеки ден. Въпреки че всички те са възстановени, редакторите все още не знаят причината за блокадата. „Facebook никога не ни даде никакво мнение и нямаме представа какво можеше да стои зад блока“, казва Томаш Цвиткович, главен редактор на уебсайта sme.sk.

„Успяхме да разрешим само цялата ситуация, защото ни помогна рекламна агенция, която има бизнес контакт във Facebook“, обяснява Czwitkovics. „Считаме процедурата във Facebook за още по-неправилна, защото комуникирахме директно с представители на Facebook и представителя на PR, които ни обещаха, че ще разрешат проблема.“

Facebook блокира акаунта на активиста Юрай Сматан за три дни заради критичен коментар за Котлебовци.

Словаците също са сред администраторите, но те не оценяват цялото словашко съдържание

Решенията на Facebook често създават впечатление, че компанията дори няма администратори, които говорят словашки и разбират местния контекст. Facebook обаче твърди, че в него работят и хора, които могат да оценяват публикации, написани на словашки език. „Работим усилено, за да гарантираме внимателното разглеждане на контекста на цялото съобщено съдържание, поради което имаме хиляди хора, работещи по целия свят 24 часа в денонощието, седем дни в седмицата. Те са готови да помогнат на хората, които се нуждаят от нашата помощ, на повече от 30 езика, включително хора, които говорят словашки “, каза говорител на Facebook за Централна и Източна Европа.

Колко хора от Словакия оценяват докладваното съдържание? Къде се намират? Оценяват ли всички публикации на словашки? Възможно ли е да ги срещнете лично? Това са въпроси, на които компанията вече не е отговорила и е изпращала уклончиви отговори или неясни фрази само при напомняне.

На срещи с нестопански организации представителите на Facebook казаха, че словашките администратори трябва да бъдат базирани в Дъблин. „Словашките вестници се оценяват от словашки модератори. Според тях те имат алгоритми, които сортират всички постове и определят кой ще бъде назначен. Те решават въз основа на няколко фактора, като държавата, която имате във вашия профил, езика, който сте изброили, езика на профила, който се отчита ... Това се оценява и след това приносът се възлага на човек, който трябва да разбере език ", каза Граф.

Словашките администратори не оценяват цялото съдържание на словашки език, а само публикации, за които езикът на публикацията е ключов. Графично представеното насилие или изображения със сексуално съдържание не се сортират по език. По всяка вероятност словашките администратори дори не оценяват реалността на някои акаунти.

Докато във Франция, например, Facebook наскоро отмени 30 000 фалшиви акаунта, които разпространяват фалшиви съобщения, дезинформация и нежелана поща, у нас също пренебрегва очевидно фалшиви акаунти, които се появяват под имена като Ficovolič Prašivý или Soudružka Hodvábna. Когато съобщава за такива акаунти, Facebook само ще пише, че профилите не нарушават стандартите на Общността.

В същото време обаче Facebook създава проблеми на хората, които се появяват с истинските си имена. „Един ден Facebook реши да се бори хората да имат свои собствени имена. Един от критериите, според който машината ще прецени, че това е измислено име, е да провери символите, използвани в името. Очевидно те са задали просто правило, че ако потребителят е от държава, името му трябва да съдържа само символи от азбуката на езика, който е официален в тази държава “, обяснява Радо Ондржейкичек, автор на Циничното чудовище. „Така че, когато намериха„ ř “от мое име и разбраха, че не е„ ř “на словашки, те го оцениха като фалшив профил.“

Ondřejíček трябваше да промени името си и да спази правилото, че чуждестранните символи не са разрешени. Така че днес той се появява във Facebook под думи, които нямат нищо общо с името му. „Но тъй като те не съдържат„ чужди “знаци или чужди знаци, Facebook с радост го прие.“

Блогърът Само Марек има подобен опит. „Един ден ми хрумна, че ми беше съобщено, че името ми не е истинско и че трябва да го редактирам, както и да предоставя доказателство за самоличност.“ Затова Само трябваше да смени името си на Самуел във Facebook и той трябваше да изпрати сканирано Лична карта към Facebook.

Facebook ни писа миналата седмица, че акаунтът на име Macko Uško не е нарушил правилата.

Очевидно фалшиви акаунти. Администраторите на Facebook не откриха нарушения.

Администрираха в Берлин

Съобщава се, че във Facebook работят 4500 души, които следят съдържанието и го премахват при нарушаване на правилата. Тази седмица компанията обяви, че ще наеме още 3000 души по целия свят.

Компанията е под нарастващ натиск. Например германското министерство на правосъдието предлага закон, който може да наложи глоба до 50 милиона евро на онлайн компании, ако те не се борят достатъчно с речта на омразата. Facebook обаче не предоставя на германската общественост и журналисти повече информация за това как да вземат решения, когато разглеждат проблематично съдържание. Той също така коментира колко квалифицирани са администраторите за работата си.

През декември 2016 г. Süddeutsche Zeitung получи информация за това как работят базираните в Берлин администратори на Facebook. Уважаваният немски всекидневник пише, че там работят около 600 души. Те не работят директно за Facebook, те са наети от Arvato. Заплатата им трябва да е малко над законовия минимум. Повечето от служителите не говорят немски, а администраторите в Берлин оценяват вноските наред с други неща на арабски, турски, италиански и френски. Хората, избягали преди войната в Сирия, също трябва да работят в екипа.

Администраторите, които са най-ниски в йерархията, трябва да оценяват приблизително 2000 публикации на ден. Други, които преглеждат съдържанието на видеоклиповете, разполагат с около осем секунди, за да решат дали да запазят или изтрият публикацията.

Германски журналисти също съобщават, че администраторите в Берлин се оплакват от преумора, стрес и говорят за психичните проблеми, които ги карат да бъдат ежедневно изложени на екстремно и шокиращо съдържание в Интернет, включително изтезания, убийства и малтретиране на деца. Компанията не им предоставя никаква професионална помощ и оставя на тях да се справят с психологическите последици от работата си.

Подобни резервации не са нови. Още през 2014 г. списание Wired публикува доклад за това как изглежда работата на модераторите на социални мрежи във Филипините. „Всички са напълно изтощени за три до пет месеца“, каза бившият модератор на YouTube. Психолог, който предоставя съвети на филипинските компании, казва, че това, което изпитват администраторите, е подобно на посттравматичното стресово разстройство, което войниците изпитват след завръщането си от война.

Wired описа, че именно във Филипините много компании са намерили евтина работна ръка за справяне с проблематично съдържание. Някога страната е била американска колония, близка в културно отношение до американците, така че местният персонал може да прецени какво е обидно за американците.

Facebook твърди, че не толерира атаки срещу конкретни хора. Администраторите обаче решиха да не нарушават подобни правила.

Защитени категории

Facebook има собствена дефиниция за свобода на словото, вътрешните й правила казват какво точно може да се изтрие и какво може да остане онлайн. „Facebook категорично отказва да коментира как са възникнали тези правила“, пише Süddeutsche Zeitung.

Германският ежедневник получава части от вътрешни документи, въз основа на които администраторите на Facebook трябва да вземат решения. Компанията е определила т.нар защитена категория. Ако публикацията съдържа защитена категория и атака, това е реч на омразата, която трябва да бъде премахната.

Facebook определя защитени категории въз основа на пол, религия, националност, полова идентичност, раса, етническа принадлежност или сексуална ориентация. Следователно в документите се посочва, че религиозните групи трябва да бъдат защитени, но не и самите религии. Същото важи и за националностите. "Говоренето откровено за Франция или Германия обикновено е разрешено, а осъждането на хората въз основа на тяхната националност не е позволено."

Правилата също така гласят, че ако комбинирате защитена категория с друга защитена категория, защитената категория (напр. Ирландки) ще бъде пресъздадена и атаките срещу нея трябва да бъдат премахнати. Ако обаче комбинирате защитена категория с незащитена категория, ще бъде създадена незащитена категория. Например „тийнейджъри“ са незащитена категория; следователно, ако някой напише, че ирландските тийнейджъри са глупави, публикацията не трябва да се изтрива.

Вътрешният документ също така посочва, че не е позволено да се пише „шибани мюсюлмани“, защото това е атака срещу религиозна група, но Facebook вече не вижда проблема с фразата „шибани мигранти“, тъй като мигрантите са просто „квазизащитени категория ".

Всички интервюирани от репортерите на Süddeutsche Zeitung администратори потвърдиха, че правилата, по които те са взели решения, са строги, неясни и често се променят. „Практически е невъзможно да се разберат правилата. Казах на шефа си: „Това е лудост! Картината е пълна с кръв и бруталност, никой не бива да я вижда. “Но той каза:„ Това е само вашето мнение. Трябва да опитате и да помислите какво иска Facebook. От нас се очаква да мислим като машини.

Миналата седмица администраторите на Facebook писаха, че снимка, изпращаща доза автомат на ромите, не нарушава правилата.

Изкуственият интелект може да ми помогне

През март британската BBC разкри, че Facebook също има проблем с премахването на сексуални изображения на деца. От 100 докладвани публикации Facebook премахна само 18. В същото време бяха докладвани пет акаунта на педофили, нито един от които не беше отменен.

Настъпи странен момент, когато впоследствие Facebook съобщи на полицията журналисти от Би Би Си, защото директно му изпратиха примери за изображения, които не бяха изтрити. Разглеждането и споделянето на педофилски изображения е незаконно във Великобритания и Facebook следва указанията на Британската национална наказателна агенция (NCA). Репортерите е трябвало да изпращат на компаниите връзки към незаконно съдържание, което Facebook не е премахнал, а не самото съдържание.

Facebook все по-често заявява, че разработва и подобрява изкуствения интелект, което трябва да му помогне да премахне проблемното съдържание. Марк Зукърбърг също определи това като един от основните си приоритети в отворено писмо. Хората не могат да контролират всичко. Facebook има 1,94 милиарда активни месечни потребители, а в Словакия броят им се оценява на над 2,3 милиона. Всяка минута в мрежата се публикуват 400 000 нови публикации и 180 милиона коментара под публични публикации от известни личности и марки.

Хоакин Кандела, ръководител на приложното машинно обучение във Facebook през май 2016 г., каза пред TechCrunch, че Facebook вече е имал повече неподходящи изображения, открити от софтуера, отколкото хората по това време.

Кандела обясни на Mashable, че се опитват да разработят алгоритъм, който ще може да открива и изтегля неподходящи публикации, преди някой да ги види. „Имаме много снимки, които са обидни или отвратителни. През последните няколко години работим усилено, за да излезем от режим, при който разчитаме на хората да ни съобщават за атакуващи изображения и след това да ги оценяват един по един, до режим, в който разполагаме с компютърна система, която премахва такива изображения, преди някой да ги види. "

Той вижда проблем в оригиналната система, защото докато изтеглят проблемното изображение от модераторите, щетите вече са причинени, тъй като междувременно хиляди хора могат да го видят.

През последните месеци те ще се съсредоточат и върху развитието на изкуствен интелект, който ще може да търси неподходящи видеоклипове на живо. Facebook също започва да има проблеми с тях, тъй като предаванията на живо от самонараняване, изнасилване или дори самоубийство се разпространяват. Кандела обаче заяви през декември 2016 г., че този изкуствен интелект все още е в етап на изследване.

Добавено 22.5.2017: Вестник "Гардиън" се е сдобил с десетки документи, които Facebook следва, когато изтрива съдържание. Правилата говорят за насилие, омраза, порнография, расизъм и самонараняване.