У мінулы аўторак стваральнік кампаніі Meta заявіў аб тым, што перастае прымяняць незалежныя фактчэкінгавыя рэсурсы. З гэтага часу ў ЗША інструментам мадэрацыі кантэнту ў Facebook, Instagram, WhatsApp і Threads будзе Community Notes, або “незалежныя нататкі”. Паводле Марка Цукерберга, гэтыя змены “вернуць вольнасць слова”, бо “фактчэкеры сталі занадта перадузятымі”. Як адбываецца мадэрацыя зместу ў гэтых і іншых сацыяльных сетках, і ці можна лічыць такія спробы эфектыўнымі?
Ручная верыфікацыя ў мінулым
Незалежныя фактчэкеры з’явіліся ў сацыяльных сетках пасля хвалі фэйкаў падчас прэзідэнцкіх выбараў у ЗША ў 2016-ым годзе. Іх асноўная задача палягала на праверцы інфармацыі і пазначэнні недакладных заяваў спецыяльнай паметай.
Візуал: https://mashable.com/article/facebook-fake-news-calling-out
Асноўным тэхнічным недахопам такой праверкі быў працяглы час верыфікацыі. Праверка аднаго паста займала некалькі дзён, і пакуль памета пра непраўдзівую навіну з’яўлялася на публікацыі, яе ўжо маглі ўбачыць тысячы ці нават мільёны людзей. У сетцы X (былым Twitter) дзейнічала падобная сістэма праверкі інфармацыі.
Пост Дональда Трампа ў Twitter пра тое, што каронавірус не нясе небяспекі. Над допісам незалежныя фактчэкеры адзначылі, што пост распаўсюджвае патэнцыйна небяспечную інфармацыю. Візуал: Nexstar Media
Дэмакратычная праверка інфармацыі
Цяпер у Facebook будзе выкарыстоўвацца мадэль “нататак суполкі” (Community Notes), якая з’яўляецца асноўнай формай мадэрацыі ў сетцы X.
Раней, да выкупу Twitter Іланам Маскам, каментары ад карыстальнікаў служылі дадатковым, а не асноўным інструментам фільтрацыі небяспечнага кантэнту. Цяпер гэта адзіны спосаб незалежнай мадэрацыі на платформе. Фактычна кожны карыстальнік можа прапанаваць дадатковую інфармацыю пра пост. Як заяўляе сама кампанія, удзельнікі не займаюцца праверкай дакладнасці інфармацыі, а толькі дадаюць “карысны кантэкст” для іншых карыстальнікаў.
У параўнанні са староннімі фактчэкерамі, Community Notes ахопліваюць больш пастоў і хутчэй з’яўляюцца пад публікацыямі. Аднак дадзены спосаб верыфікацыі інфармацыі мае шэраг недахопаў.
Па-першае, як і мадэрацыя з дапамогай незалежных фактчэкераў, працэс верыфікацыі інфармацыі, які ажыццяўляецца звычайнымі карыстальнікамі X, займае шмат часу. Нататкі пад супярэчлівымі пастамі з’яўляюцца праз некалькі дзён пасля таго, як тыя ўжо “завірусіліся”.
Па-другое, карыстальнікі з рознымі пазіцыямі па супярэчлівых пытаннях не могуць пагадзіцца наконт праўдзівасці інфармацыі. У выніку пасты на “складаныя” тэмы часта застаюцца без верыфікацыі, бо карыстальнікі не могуць прыйсці да згоды аб карыснасці заўвагі з-за розных палітычных поглядаў. Паводле падлікаў, менш чым 10 % прапанаваных Community Notes у выніку з’яўляюцца на абразлівых пастах, а яшчэ менш — на публікацыях, якія тычацца далікатных тэмаў, такіх як іміграцыя ці аборты.
Пасля прыходу Ілана Маска ў Twitter пост з фэйкавай інфармацыяй ад Дональда Трампа ніяк не пазначаны
У выніку мадэль нататак у X, а ў хуткім часе і ў Facebook, фактычна зводзіць на нішто незалежную праверку фактаў і заахвочвае карыстальнікаў самастойна правяраць інфармацыю.
ШІ (пакуль не) лепшая за людзей у пошуку фэйкаў
У некаторых сацыяльных сетках для мадэрацыі кантэнту выкарыстоўваецца штучны інтэлект.
Так, у TikTok каманда мадэратараў налічвае каля 40 000 чалавек. Яны ўручную мадэруюць відэа перад тым, як ролікі становяцца “віруснымі”. Але для больш эфектыўнай мадэрацыі кампанія пачала выкарыстоўваць штучны інтэлект.
З аднаго боку, гэта робіць фільтраванне кантэнту больш хуткім і эфектыўным, але з другога боку выклікае пытанні наконт этычнасці такой працы. Фактычна ШІ не замяняе працы жывых людзей, якім часта даводзіцца ўсё роўна праглядаць траўматычны кантэнт. Адным з прыкладаў такіх відэа з’яўляюцца брутальныя відэа з забойствамі, грабяжом ці гвалтам.
Да таго ж мадэрацыя кантэнту на платформе не выглядае больш эфектыўнай, чым на іншых пляцоўках. Напрыклад, нягледзячы на дадатковыя меры, TikTok працягвае распаўсюджваць шмат старых відэа, вырваных з кантэксту, якія выдаюцца за свежыя падзеі. Акрамя таго, ацаніць эфектыўнасць мадэрацыі ў TikTok складана з-за асаблівасцяў алгарытму платформы.
У адрозненне ад Facebook ці X, TikTok не выкарыстоўвае метаду “цэнтралізаванай стужкі”, а дзеліць увесь кантэнт на адаптаваную пад кожнага карыстальніка стужку [For You Feed]. Гэта прыводзіць да таго, што розныя відэа могуць “завірусіцца” ў розных супольнасцях. У выніку фэйкавы кантэнт з TikTok можа трапляць на платформы з меншай ступенню мадэрацыі, напрыклад у Telegram.
Будучыня мадэрацыі кантэнту ў руках саміх карыстальнікаў
Пытанне свабоды слова ў дэмакратычных краінах стаіць не менш востра, чым у аўтакратыях. Стаўленне да мадэрацыі кантэнту ў інтэрнэце можа быць розным. Кампаніі, як правіла, імкнуцца пазбегнуць адказнасці за кантэнт, які публікуюць карыстальнікі.
З цягам часу гэта можа прывесці да яшчэ большага распаўсюджання фэйкаў, але адначасова і пашырыць так званую свабоду слова ў публікацыях. Так ці інакш, адказнасць за праверку анлайн-фактаў будзе ўсё больш пераходзіць на звычайных карыстальнікаў.
Extra: 2 рэсурсы для самастойнай праверкі інфармацыі ў сацсетках
- https://provereno.media/ — найлепшы фактчэкінгавы сайт на расейскай мове, на якім публікуюць агляды дэзынфармацыі і маніпулятыўных публікацый. Праект з’яўляецца часткай Міжнароднай фактчэкінгавай сеткі;
- https://investigatebel.org/fakenews — беларускі фактчэкінгавы праект ад Беларускага расследавальніцкага цэнтра, у якім правяраюць замежныя і беларускія навіны. Праект таксама з’яўляецца часткай Міжнароднай фактчэкінгавай сеткі.