Az emberek hajlamosabbak kedvelni a Facebookot és a TikTokot, ha olyan tartalmakkal találkoznak, amelyekkel elégedetlenkedhetnek.

által K Sandor

A közösségi média tartalomkezelése és a felhasználói elköteleződés

A közösségi média platformok, mint például a Facebook és a TikTok, dinamikusan alakítják a felhasználói élményeket, különösen abban a tekintetben, hogy milyen típusú tartalmakat tesznek elérhetővé. A BBC hivatalos forrásokra hivatkozva arról számolt be, hogy az algoritmusok kifejlesztésével a cégek rájöttek: a provokatív és felháborító tartalmak jelentősen növelik az elköteleződést, így ennek érdekében egyre több káros tartalmat engedélyeztek a hírfolyamokban.

Helyzetértékelés a Meta és TikTok stratégiáiban

A Meta, amely a Facebook és az Instagram tulajdonosa, belső információk alapján kockázatos döntéseket hozott, hogy versenyben maradhasson a TikTokkal. Az egyik mérnök szerint a felső vezetés utasította a tartalmak engedélyezésére, ami lehetővé tette, hogy az algoritmusokba belekerüljenek nőgyűlölő posztok és összeesküvés-elméletek is.

Ehhez hasonlóan a TikTok egy alkalmazottja felfedte, hogy a vállalat politikai ügyekre vonatkozó panaszokat előnyben részesít, ezzel próbálva megőrizni a jó kapcsolatokat a politikai szereplőkkel, elkerülendő a szigorúbb szabályozásokat vagy letiltásokat. Az egyik esetben egy politikust gúnyoltak, miközben egy fiatal lány internetes zaklatásáról szóló panaszt figyelmen kívül hagytak.

A TikTok és Instagram válasza a versenytárs kihívásaira

A TikTok iránti növekvő kereslet többek között az Instagram Reels elindításához vezetett 2020-ban. A Meta, hogy lépést tartson a piaccal, 700 új fejlesztőt alkalmazott, de a gyermekek védelmével és a politikai integritással foglalkozó szakemberek bevonását elutasította. A BBC által megszerzett belső kutatás szerint a Reels felhasználói kommentekben szignifikánsan magasabb arányban fordulnak elő zaklatások és gyűlöletbeszéd, mint az Instagram hagyományos platformján.

Kockázatos döntések és a Meta válasza

Matt Motyl, a Meta szenior mérnöke, dokumentumokban bizonyította, hogy a cég tudatában van annak, hogy algoritmusainak működése milyen károkat okozhat. Kijelentette, hogy a biztonsági részlegnek a Reelsért felelős csapat beleegyezését kellett kérnie bármely új funkció vagy termék bevezetéséhez, amely a felhasználók biztonságát növelhette volna. Az ösztönzők miatt a csapatok visszatartották a biztonságosabb megoldások piacra dobását, mivel a mérgező tartalmak nagyobb figyelmet vonzanak, mint a biztonságos alternatívák.

Válaszok a panaszokra és a cégek helyzete

A Meta reagálása a felmerült panaszokra az volt, hogy tagadták, hogy szándékosan ösztönöznék a káros tartalmak terjesztését anyagi haszonszerzés érdekében. A TikTok viszont úgy vélte, hogy ezek az állítások kitaláltak, hangsúlyozva, hogy folyamatosan fektetnek be olyan technológiákba, amelyek minimalizálják a káros tartalmak megjelenését a platformon.

Ruofan Ding, aki a TikTok gépi tanulási mérnöke volt, megerősítette, hogy a biztonságos rendszerek kiépítése nem egyszerű, és hogy a mérnökök nem befolyásolják közvetlenül a tartalmakat. A káros tartalmak eltávolításáért más csapat felel, akiknek feladata, hogy a platformon előforduló veszélyes tartalmak ne terjedhessenek el.

A piaci részesedés növelése és a határeseti tartalmak

A TikTok algoritmusát gyakran módosították, hogy növeljék a piaci részesedésüket. Ennek következtében sok határeseti tartalom, mint például nőgyűlölő, rasszista vagy szexualizált bejegyzések, nyerhetett teret, különösen a régi felhasználók számára. A határeseti tartalom fogalma általában a káros, de törvényes tartalmakat fedi le, amelyek a közönséget megosztó hatással bírnak.

A Facebook korábbi kommunikációja is arra utalt, hogy a szélsőséges tartalmakkal sokkal könnyebb interakciókat generálni, amit a vállalat saját kutatásai is alátámasztottak. Az ezzel kapcsolatos felvetések, miszerint biztonságosabbá kellene tenni az algoritmusokat, a cégnél attól tartanak, hogy csökkenteni fogják a felhasználók aktivitását és a reklámbevételeiket.

Ezt is kedvelheted