Поляризацията в социалните мрежи не се дължи само на алгоритмите, а е вградена в начина, по който общуваме — дори когато посредници са изкуствени интелекти. Това показва проучване на Университета в Амстердам, разказва Gizmodo.

Екипът е използвал 500 чатбота, задвижвани от езиковия модел GPT-4o mini на OpenAI, всеки с предварително зададена "личност" и политическа ориентация. Те били пуснати в опростена социална платформа без реклами, без алгоритми за откриване на съдържание и без автоматични препоръки. Задачата им била да публикуват, да споделят и да следват други "потребители".

В рамките на пет експеримента, с общо 10 000 действия, моделите последователно се групирали с "приятелски" настроени акаунти, а най-партийно оцветените публикации събирали най-много последователи и споделяния. Резултатите напомнят реални човешки модели на поведение в интернет.

Според авторите, дори без алгоритмични филтри, чатботовете копират вече утвърдени човешки навици — оформени от десетилетия онлайн взаимодействия в среда, доминирана от алгоритми.

"Те възпроизвеждат вече изкривената версия на нас самите", отбелязват изследователите.

В опит да намалят поляризацията, учените тествали различни мерки: хронологична подредба на публикациите, скриване на броя последователи и споделяния, скриване на потребителски профили, занижаване на видимостта на "вирусно" съдържание и усилване на противоположни гледни точки. Никое от тези решения не довело до промяна над 6% в ангажираността към партийни акаунти. При сценарий със скрити биографии дори се отчело усилване на крайното съдържание.

Заключението на екипа е песимистично: структурата на социалните мрежи може да е по своята същност несъвместима с цивилизованата дискусия. Те остават огледало, което отразява обществото, но в силно изкривена форма.

---

Този материал е написан с помощта на изкуствен интелект под контрола и редакцията на поне двама журналисти от Клуб Z. Материалът е част от проекта "От мястото на събитието предава AI".