A közösségi média javítása szinte lehetetlen feladatnak tűnik; sokkal inkább az alapoktól kellene újra megalkotni ezt a platformot.


Egy nemrégiben napvilágot látott tanulmány rávilágít arra, hogy bármennyire is nyilvánvalóak a felmerülő problémák, a mesterséges intelligencia még inkább fokozza ezeket. Az érdemi előrelépéshez viszont elengedhetetlen lenne, hogy alaposan felülvizsgáljuk a platformarchitektúra alapvető működési mechanizmusait.

A közösségi platformokat már olyan mértékben meghatározza a félretájékoztatás és a gyűlöletbeszéd, hogy az egész koncepció jórészt működésképtelenné vált. Az üzemeltetők legfőbb célja a hirdetési bevételek növelése, de az elköteleződést maximalizáló algoritmusok lényegében a felháborodást és a konfliktusokat is erősítik a véleménybuborékoknak vagy visszhangkamráknak nevezett terekben. Ráadásul az Amszterdami Egyetem kutatói szerint ez jó eséllyel így is marad: az Ars Technica nemrég számolt be arról a kísérletről, amelyben MI-chatbotokkal népesítettek be szimulált közösségi oldalakat, és megvizsgálták, hogy ilyen keretek között lehet-e még bármit tenni a társadalmi károk, így a polarizáció és a konstruktív vita eróziója ellen.

A "generatív társadalmi szimuláció" során az OpenAI GPT-4o modelljére épülő ágensek posztolhattak, újraposztolhattak és követhettek is másokat a "társadalmilag változatos szintetikus platformokon", és az így létrehozott hálózatok is olyan dokumentált diszfunkciókat mutattak, mint az említett pártos visszhangkamrák, a szűk csoportok koncentrált befolyása vagy a megosztó hangok felerősödése. A kutatók különféle beavatkozásokat teszteltek, de csak szerény javulást, sőt esetenként még tovább romló eredményeket tapasztaltak. Szerintük ez arra utal, hogy a problémák a reaktív elköteleződés és a hálózati növekedés visszacsatolásában gyökereznek, így az érdemi reformhoz a platformarchitektúra alapvető dinamikáját kell újragondolni.

Saját maguk alatt vágják a fát.

Ez a helyzet nyilvánvalóan ellentmond a közösségi hálózatok üzemeltetői által tett ígéreteknek, amelyek folyamatosan egy olyan nyilvános tér megteremtéséről beszélnek, ahol a politikai diskurzusok konstruktívan zajlanak. Petter Törnberg, a kutatás vezetője, rámutat arra, hogy a mesterséges intelligencia alkalmazása sem kínál igazi megoldást, mivel annak korlátai és elfogultsága továbbra is fennállnak. Az Ars Technica cikkében is hangsúlyozza, hogy a mérgező tartalom nem csupán jelen van, hanem aktívan formálja a hálózati struktúrákat, amelyekben a bejegyzések csupán egy kis része éri el a legnagyobb láthatóságot. Ez a jelenség még inkább felerősödik a generatív MI által, amelyet már most is sokan arra használnak, hogy maximalizálják a figyelmet, amit tartalmaik a közösségi platformok monetizációs rendszerében elérhetnek.

Törnberg véleménye szerint elképzelhetetlen, hogy a hagyományos közösségi média struktúrák meg tudják őrizni relevanciájukat a felhasználók által keresett tartalomrobbanás idején. Egyre inkább világossá válik, hogy a fiatalok, akik különösen aktívan keresnek hiteles márkákat és zárt közösségeket, nem találnak megoldást a problémáikra a jelenlegi keretek között. Korábbi kutatása során a professzor arra is rámutatott, hogy amikor az emberek olyan témákban kommunikálnak, ahol a vélemények eltérnek a politikai nézeteiktől, ez nem váltja ki a pártos identitásukat. Ez a megállapítás arra enged következtetni, hogy a közösségi média ajánlási algoritmusai is ezen az alapon működhetnének, azonban a legújabb tanulmány eredményei azt sugallják, hogy ez csupán felszínes megoldás lenne a komplex problémákra.

Related posts