„Facebook“ dabar naudoja dirbtinį intelektą, kad rūšiuotų turinį, kad būtų greitesnis moderavimas
Dar šiek tiek mašininio mokymosi moderavimo mišinyje

„Facebook“ visada aiškiai pasakė, kad nori, kad dirbtinis intelektas atliktų daugiau moderavimo pareigų savo platformose. Šiandien ji paskelbė apie savo paskutinį žingsnį link šio tikslo: mašininį mokymąsi paveda už savo moderavimo eilę.
Štai kaip moderavimas veikia „Facebook“. Žinutės, kurios, kaip manoma, pažeidžia įmonės taisykles (kurios apima viską nuo šlamšto iki neapykantos kalbos ir smurtą šlovinančio turinio), pažymimos naudotojų arba mašininio mokymosi filtrų. Kai kurie labai aiškūs atvejai sprendžiami automatiškai (atsakymai gali būti susiję, pavyzdžiui, su įrašo pašalinimu ar paskyros blokavimu), o likusieji patenka į eilę, kurią peržiūri žmonių moderatoriai.
rąstų kelionė
„Facebook“ dirba apie 15 000 šių moderatorių visame pasaulyje, o anksčiau jis buvo kritikuojamas dėl nepakankamo šių darbuotojų palaikymo, įdarbinimosąlygos, galinčios sukelti traumą. Jų darbas yra rūšiuoti pažymėtus įrašus ir priimti sprendimus, ar jie nepažeidžia įvairios įmonės politikos.
Anksčiau moderatoriai įrašus peržiūrėdavo daugmaž chronologiškai, tvarkydami juos tokia tvarka, apie kurią pranešta. Dabar „Facebook“ sako norinti įsitikinti, kad svarbiausi įrašai yra matomi pirmiausia, ir naudoja mašininį mokymąsi. Ateityje šiai eilei rūšiuoti bus naudojama įvairių mašininio mokymosi algoritmų sujungimas, prioritetizuojant įrašus pagal tris kriterijus: jų virusiškumą, sunkumą ir tikimybę, kad jie pažeidžia taisykles.


Tiksliai, kaip šie kriterijai yra pasverti, nėra aišku, tačiau „Facebook“ teigia, kad pirmiausia reikia kovoti su žalingiausiais įrašais. Taigi, kuo virusiškesnis įrašas (tuo labiau jis dalijamasi ir matomas), tuo greičiau jis bus tvarkomas. Tas pats pasakytina apie posto sunkumą. „Facebook“ sako, kad svarbiausiais skelbia įrašus, susijusius su realia žala. Tai gali reikšti turinį, susijusį su terorizmu, vaikų išnaudojimu ar savęs žalojimu. Tuo tarpu tokie pranešimai kaip šlamštas, kurie erzina, bet nėra traumuojantys, reitinguojami kaip mažiausiai svarbūs.
Visi turinio pažeidimai vis tiek bus nuodugniai peržiūrėti žmonių
Visi turinio pažeidimai vis tiek bus nuodugniai peržiūrimi žmonių, tačiau mes naudosime šią sistemą, kad geriau nustatytume šio proceso prioritetus, - spaudos instruktažo metu žurnalistams sakė Ryanas Barnesas, „Facebook“ bendruomenės vientisumo komandos produktų vadovas.
„Facebook“ pasidalijo tam tikra informacija apie tai, kaip jos mašininio mokymosi filtrai analizuoja įrašuspraeityje. Šios sistemos apima modelį, pavadintą WPIE, kuris reiškia viso įrašo vientisumo įterpimą ir vertina turinį, kaip „Facebook“ vadina holistiniu požiūriu.
overwatch baptiste
Tai reiškia, kad algoritmai vertina įvairius elementus bet kuriame konkretaus įrašo etape, bandydami išsiaiškinti, ką vaizdas, antraštė, plakatas ir kt. Atskleidžia kartu. Jei kas nors sako, kad parduoda visą partiją specialių skanėstų, kartu su nuotrauka, kokia turi būti kepinių rūšis, ar jie kalba apie Ryžių Krispies kvadratus ar valgomuosius? Tam tikrų žodžių naudojimas antraštėje (kaip stiprus) gali pakreipti sprendimą vienaip ar kitaip.

Anksčiau „Facebook“ naudojo dirbtinį intelektą savo platformoms moderuoti, todėl kritikai pastebėjo, kad dirbtinis intelektas neturi žmogaus galimybių spręsti daugelio internetinių ryšių konteksto. Ypač tokiomis temomis kaip klaidinga informacija, patyčios ir priekabiavimas, kompiuteriui gali būti beveik neįmanoma žinoti, į ką jis žiūri.
„Facebook“ Chrisas Palowas, bendrovės sąveikos vientisumo komandos programinės įrangos inžinierius, sutiko, kad dirbtinis intelektas turi savo ribas, tačiau žurnalistams sakė, kad ši technologija vis tiek gali atlikti svarbų vaidmenį pašalinant nepageidaujamą turinį. Sistema skirta tuokti dirbtinį intelektą ir tikrintojus, kad būtų padaryta mažiau visapusiškų klaidų, sakė Palow. Dirbtinis intelektas niekada nebus tobulas.
Paklaustas, kiek procentų pranešimų įmonės mašininio mokymosi sistemos klasifikuoja neteisingai, Palowas nepateikė tiesioginio atsakymo, tačiau pažymėjo, kad „Facebook“ leidžia automatinėms sistemoms veikti be žmogaus priežiūros tik tada, kai jos yra tokios pat tikslios kaip ir žmonių apžvalgininkų. Pasak jo, automatinių veiksmų kartelė yra labai aukšta. Nepaisant to, „Facebook“ nuolat prideda daugiau AI prie moderavimo mišinio.
Pataisymas: Ankstesnė šio straipsnio versija neteisingai suteikė Chriso Palowo vardą kaip Chrisą Parlową. Mes apgailestaujame dėl klaidos.