Отправих предложение на “Фейсбук” да са по-конкретни в причините за налагане на ограничение, заяви още евродепутатът от ГЕРБ/ЕНП
- Какъв е основният проблем по отношение на модерацията на онлайн съдържанието в социалните платформи, г-жо Майдел?
- Основният проблем е, че големите социални платформи като “Фейсбук” и “Туитър” не искат да разберат ролята си на нови социални регулатори и идващите с това отговорности. Те са постигнали положение, в което съдържанието в тях оформя в голяма степен общественото мнение по важни въпроси, включително за работата и решенията на институциите. Това означава, че модерацията на съдържанието на тези платформи е от огромно значение и обществен интерес. А както все по-често виждаме, модерацията на български език е със спорно качество, ниска прозрачност и неработещи механизми за обжалване и обратна връзка.
С войната в Украйна значението на модерацията в социалните платформи по тази тема става дори въпрос на национална сигурност за България. До мен постоянно достига информация за трудно обясними ограничения и блокиране на профили, и то най-вече на обществени фигури, критикуващи руската агресия в Украйна. А откровено злонамерена дезинформация, съвпадаща с гледната точка на Кремъл, сякаш остава често без модераторска намеса.
- Какви разговори се водят в тази посока на европейско ниво?
- След липсата на самоинициатива за по-прозрачно и отговорно поведение от онлайн платформите, миналата година приехме европейско законодателство в тази посока. Бях част от преговорния екип на Европарламента по Акта за цифровите услуги, т.нар. DSA (Digital Services Act). Този регламент задължава онлайн платформите да бъдат много по-прозрачни и да публикуват доклади с информация като процес и инструменти за модерация, брой модератори за всеки език, тяхната квалификация, както и какво съдържание и как е било модерирано. Платформите се задължават да предвидят и механизъм за обжалване от потребители.
Проблемът е, че за големи платформи като фейсбук, тези задължения влизат в сила чак в средата на 2023 г., а от нарастващото недоволство от модерирането във фейсбук се оказва, че информацията, която ще трябва да се предоставя по този регламент, не отговаря на нуждите на обществото и няма да реши проблема. Затова и се ангажирах лично с намирането на по-бързо и ефективно решение чрез директен контакт с платформите, организирайки някаква форма на диалог между тях и българската общественост.
- В анализа си за “24 часа” през декември споменахте, че през лятото сте поканили представители на “Фейсбук” и “Ютуб” за разговори с гражданското общество в България, но тогава сякаш са останали повече въпроси, отколкото отговори. Кои са първите въпроси, на които трябва да се намери отговор?
- Технологиите работят в полза на обществото, когато има високо доверие в тях. Най-важните въпроси за модерацията на по-малки езици като българския са какви са процесите и ресурсите – как и от кого се извършва. Разбира се, не говорим за конкретни имена на хора, а за партньори на “Фейсбук”, за брой служители, тяхната квалификация, но и тяхната възможност да ограничават и блокират съдържание или само да отбелязват като рисково. Полезно е да се знае и какъв процент от съдържанието се проверява от изкуствен интелект и какъв - от хора, както и има ли профили на обществени фигури или страници от България, които се наблюдават по-обстойно.
Също така е важно да се установи устойчив и пряк канал за комуникация между българските институции и “Фейсбук”, за да може да се реагира в зачестилите в последните месеци случаи на информационна атака с дезинформация.
Ключово е и кои и колко са проверителите на факти, които работят с фейсбук за всеки език. След организираната от мен среща в София през юни, има напредък в това отношение и очаквам фейсбук скоро да има и втори партньор за проверка на фактите на български език. Това е фундаментално важно за обективността и доверието на процеса.
- С представителите на кои социални платформи сте се срещали от юни насам и какъв е бил фокусът на разговорите?
- Концентрирам се върху платформите с най-голяма популярност и значение за българското общество – “Фейсбук” и “Ютюб”. Осъзнавам, че за частни компании от такъв мащаб секциите на български език са малки от бизнес гледна точка. От няколко години в разговори с представители на платформите ги предупреждавам, че сериозен проблем ще изникне именно в секции като българската, а не с някой от големите световни езици, тъй като ресурсите на тези компании – човешки и изкуствен интелект, са на по-високо ниво за по-разпространените езици.
Затова на първо място се стремя да убедя представителите им какъв е проблемът и защо е толкова важно да се вземат някакви мерки. Не става въпрос просто дали някой е блокиран за 3 дни, а за това кой и по какъв начин решава чий глас може да се чува и чий – не. И съответно как може да се установи някакъв механизъм за обратна връзка, за обжалване, който да не оставя усещане за “глас в пустиня”.
С екипа ми предоставяме на представителите на “Фейсбук” фрапантни примери за съмнения за двоен стандарт при модерацията на съдържание на български, които са споделени с нас от обществени фигури. Целта е да сме максимално конкретни и ясни.
- Поеха ли се някакви конкретни ангажименти за прозрачността при модерирането на съдържанието в социалните платформи?
- На последната ми среща с мениджър от “Фейсбук” поставих няколко конкретни искания, с които мисля, че ще подобрим ефективността и прозрачността на модерацията. Важно е да сме реалисти и да не изискваме в такъв формат някакви кардинални промени на бизнес модел или алгоритми на тези компании, защото тогава ще загубим интереса им за разговор. Тези промени се постигат с рамково законодателство на ниво ЕС, а в случая целта ни е да постигнем бързи подобрения с реален ефект, да се види промяна в поведението на тези платформи и погледът им към секции като българската.
Ще дам два примера. На първо място предложих им освен информация за самия процес по модериране – кога е автоматичен, от изкуствен интелект, и кога зад действието седи човек, да споделят информация и за т.нар. ранкиране на профили. Всички знаем за примери, когато даден човек бива блокиран много по-често и за наглед все по-безобидно съдържание, от други. Дори има примери, когато само профилът, който е споделил съдържание, бива ограничен, а човекът, който го е публикувал първоначално, не е модериран. Затова платформите трябва да обяснят как ранкират профилите и страниците – дали има такива с по-висок риск от публикуване на съдържание, нарушаващо Стандартите на общността, и до какви последици води това, как се попада или излиза от такъв списък и т.н. Важно е да се знае и дали се ранкират групи, защото те са предпочитан канал за координирана информационна атака, а в някои от тях има десетки хиляди потребители и трябва да бъдат наблюдавани внимателно като публичните постове извън групи.
Вторият пример за предложение, което отправих до фейсбук, е да бъдат по-конкретни в посочване на причината за налагането на ограничение. Ако профилът ви бъде блокиран, получавате съобщение коя секция на Стандартите на общността сте нарушили – да кажем, Омразна реч или Насилие и подстрекателство. Но стандартите имат детайлно описание и подгрупи за всяка секция. Например омразната реч има подкатегории – дехуманизираща реч; изразяване на отхвърляне; изразяване на презрение и други. Ако тази по-детайлна информация се споделя, когато дадено съдържание се блокира, тогава ще се засили неимоверно усещането за задълбочено и мотивирано решение за модерация, а не ограничаване на общо основание и без аргументация.
- А представителите на онлайн платформите от своя страна изразиха ли мнение за проблема с модерирането на съдържанието в общества като нашето, където езикът е по-особен?
- Определено започват да схващат, че имаме реален и доста мащабен проблем, а не самоцелно заяждане с тях или популизъм. Проблемът е да ги накараме да погледнат отвъд финансовите си отчети и да разберат, че ако се ангажират с повече прозрачност и ефективност в модерацията на по-малки езици, това ще увеличи доверието в тях и ще направи взаимодействието им с регулаторите по-предвидимо и ще намали риска да бъдат глобявани.
И докато подборът на партньори и кадри, които да помагат на платформите за модерация, е важен, но труден за регулиране от институциии, то платформите дължат обяснение на широката общественост за процесите си за модериране. И далеч не е достатъчно да публикуват кратко видео или неясен текст някъде в Стандартите на общността. Трябва да се ангажират с лично присъствие, възможност за диалог и въпроси с българските институции и общественост. Затова съм им отправила покана да организираме техническо събитие с модератори и проверители на факти, дори и не от България, които на място да представят по-задълбочени обяснения и прозрачност на процесите.
- В България нашумя такъв случай - голяма аутсорсинг компания бе упрекната за тенденциозно модериране. Казусът с модерирането на съдържанието кои държави засяга първо?
- Категорично не подкрепям начина, по който се постави въпросът и се разкри информация за служители на въпросната компания. Но случаят е показателен, че казусът с неработещата модерация на фейсбук на български е все по-високо в общетсвения дневен ред. Ако не бъде решен, той може да ескалира и да се стигне до физическо насилие, обществено неподчинение и други злощастни сцени. В разговорите ми с колеги разбирам, че ситуацията с модерацията е сходна и в други европейски страни с по-малки езици като Словакия, Румъния и други.
Затова и исканията ми от Фейсбук са универсални и могат да се приложат за всяка езикова секция. Другото условие е постоянство и настойчивост. Затова продължавам да се занимава с този проблем и ще посветя голяма част от усилията си през 2023 г.
Ева Майдел е родена през 1986 г. в София. Бакалавър по международни отношения в университета “Джон Кабот” в Рим. Специализира в Харвардския и Оксфордския университет. От 2014 г. е евродепутат от групата на ЕНП/ГЕРБ. Член на комисията по промишленост, изследвания и енергетика и на специалната комисия по въпросите на изкуствения интелект. Заместник в комисията по икономически и парични въпроси.