„Ще работя неуморно да ви поддържам информирани, докато текстове бъдат въвеждани в системата ми.“

По този начин новият холограмен водещ на китайската информационна агенция „Синхуа“ се представи на публиката по време на Световната конференция за интернет управление миналия ноември.

Дигиталният журналист, разработен с помощта на изкуствен интелект, е първият по рода си на планетата според „Синхуа“. Но за медийната индустрия отдавна беше ясно, че автоматизираната журналистика ще заема все по-централна роля в модерния свят.

Робожурналисти

Алгоритмите, създаващи привлекателни истории, дават причини за ентусиазъм на новинарските организации. Мнозина реагираха скептично, когато „Асошиейтед прес“ започна да разчита на изкуствен интелект, за да отразява бейзбол и да превръща корпоративни доклади в класически репортажи. Превъртете лентата с няколко години и вече изглежда почти невъзможно да откриете голяма медия, която не експериментира със свой собствен новинарски бот.

От гледна точка на бизнеса това е повече от логично. Ботовете, наричани още „робожурналисти“, са удобни, евтини и не се оплакват, когато ги накараш да напишат статия в ранните часове на съботната сутрин.

Освен това са бързи. През 2015-а подкастът Planet Money на американското обществено радио (NPR) организира състезание между един от най-уважаваните си журналисти и алгоритъм. Едва ли е изненада, че алгоритъмът спечели. Надпреварата дори не беше оспорвана.

И все пак, въпреки че на пръв поглед изглеждат безпогрешни, ботовете са уязвими към неточности също както човешките си предшественици. В новинарската индустрия една от най-скъпите грешки е да нанесеш обида. Кой обаче трябва да поеме съдебна отговорност, когато бот публикува твърдение, уронващо нечия репутация? Американски експерти в областта на правото и технологиите вярват, че е дошъл моментът да решим този въпрос.

Осъзнат избор

Благодарение на поредица от повратни решения на Висшия съд на Съединените щати журналистите в страната са силно защитени от Първата поправка. Обществени фигури не могат да получат компенсация за обида, преди да докажат, че авторът съзнателно е публикувал лъжа или безразсъдно е пренебрегнал истината.

 „Това просто не работи особено добре, когато става дума за алгоритъм, - казва Лириса Лидски, декан на правния факултет на Университета на Мисури. - Защото е трудно да говорим за знанието, което един алгоритъм може да има, или дали алгоритъм е действал безразсъдно.“

Ботовете не правят осъзнати избори, когато произвеждат съдържание. Те работят въз основа на код, написан от хора. Но програмистите невинаги могат да предвидят всяка една дума, която алгоритъмът ще реши да напише. Особено ако в процеса на разработване е включено машинно самообучение.

„Когато подобни дела започнат да се появяват и да бъдат оспорвани, на обществото ще трябва да бъде обяснено как работят алгоритмите и какви решения се взимат при тяхното моделиране“, казва Лидски.

Въпреки че ботът не може да действа съзнателно, неговият дизайнер може. Робожурналистите оставят впечатление, че са обективни, но хората често вграждат собствените си предразсъдъци в автоматизирани системи. Това носи потенциален риск за издателите.

Кой е виновен?

„Новинарските организации ще трябва да бъдат изключително внимателни кого наемат да разработва подобни технологии, - казва Ейми Кристин Сандърс, професор по медийно право в Тексаския университет в Остин. - Понякога сме виждали медиите да казват: „Не разбираме особено добре технологията, но мислим, че е удобна и готина“. Това не е защита.“

Сандърс е един от тримата учени, които наскоро публикуваха изследване, подчертаващо колко сложно е да прецениш кой трябва да носи отговорност, когато алгоритъм е обвинен в обида. От друга страна, Сандърс вярва, че тези дела не са по-различни от онези за продуктова неизправност:

„Не само един човек е отговорен за произвеждането на, да кажем, отварачка за консерви. И законът е намерил начини, ако тази отварачка не работи, както трябва, и нарани някого, да решава подобни случаи.“

Създаването на алгоритъм, подобно на повечето продукти, също изисква усилия от страна на повече от един човек. Читателят няма да открие имената им в автоматично произведена статия за разлика от такава, написана от истински човек. Затова определянето на точен виновник е сложна задача.

Соченето с пръст обаче така или иначе не помага особено. Във всеки случай онзи, който ще носи отговорност за разпространяване на невярна информация, вероятно ще бъде новинарската организация като цяло. Затова издателите трябва преди всичко да мислят как изобщо да не стигат до такива ситуации.

За водещите международни медии това е особено важен въпрос. Що се отнася до американските издатели например, въпреки че Първата поправка им осигурява отлична защита у дома, невинността им може да се окаже съществено по-трудна за доказване в други части на света.

С отношението си към социалните медии Европейския съюз демонстрира, че макар демокрацията да е обща ценност от двете страни на Атлантика, свободата на словото подлежи на различни интерпретации.

Европейската комисия постави под напрежение американските технологични гиганти да премахват съдържание от платформите си и да се грижат по-добре за потребителските данни. В случай на обида, нанесена от алгоритъм, новинарските организации вероятно ще понесат по-голяма отговорност в Европа, отколкото в Америка.

Традиции и прозрачност

За да се предпазят от потенциални щети, издателите може би ще трябва да върнат доверието си в човешката преценка. Алгоритъмът може да замести репортера до някаква степен. Но Сандърс вярва, че не може да замести редактора.

„Виждаме големи новинарски организации като „Ню Йорк таймс“ да свиват редакторските си отдели, премахвайки този защитен слой. Това не трябва да се случва. Това е първата защитна линия на всяка медия срещу съдебно дело“, казва Сандърс.

Радикалната прозрачност е друга необходима мярка, която изданията трябва да предприемат, според Джеймс Гордън, старши редактор в журналистическия институт „Рейнолдс“ в Университета на Мисури:

„Да публикуваш кода си, да го направиш достъпен за всички, да обясниш целта му – това е много важно.“

Гордън вярва, че новинарският бизнес трябва да действа внимателно, когато взима революционни решения за журналистиката:

„От моята гледна точка, да забавим ход не е задължително нещо лошо. Това, за което трябва всички да мислим повече, е как технологиите се внедряват в живота на хората и какво влияние имат. Именно този разговор се води в момента от цялата технологична индустрия.“

Изкуствен интелект, истински последици

От перспективата на българските медии и техните аудитории робожурналистите може би изглеждат твърде непонятно, почти извънземно, явление. В действителност обаче алгоритми отдавна определят преобладаващата част от съдържанието, което поглъщаме в мрежата, било то в YouTube, Facebook или Netflix. Въпрос на време е новинарски бюлетини, не просто разпространявани, а произведени от изкуствен интелект, също да заемат постоянно място в ежедневието ни.

Отчитайки, че подобна технология е пряко свързана с броя потребители, владеещи определен език, за създателите на робожурналисти понастоящем едва ли е приоритет да ги научат на български. За добро или за лошо, това означава, че в близко бъдеще е малко вероятно у нас репортерите от плът и кръв да бъдат застрашени от изобретателни ботове.

Подготовката за неизбежната промяна обаче остава, ако не спешна, то наложителна задача. Неотдавна Европейския съюз започна да обсъжда изграждането на правна рамка с цел да изясни отговорността на алгоритмите в модерното общество. В това отношение Стария континент изпревари с няколко крачки Съединените щати, обръщайки внимание на проблем, който крие особено хлъзгави подводни камъни.

Ако искат да се предпазят от главоболия, за журналисти и читатели ще бъде разумно да започнат да възприемат машините като потенциални автори на оригинално съдържание. Да, трудно е да си представим, че робот някога ще държи „Пулицър“. Но това съвсем не е задължително условие, за да влияеш на обществените нагласи.

----

* Този материал е създаден по проект "Генерация Z".