Едномесечен експеримент повдигна сериозни въпроси за надеждността на генеративния изкуствен интелект като източник на новини, след като чатботът Gemini на Google е бил засечен да измисля цели медии и да разпространява неверни информации. За резултатите първо съобщи изданието The Conversation, което стои зад разследването.
То е проведено от университетски преподавател по журналистика със специализация в компютърните науки. В рамките на четири седмици той е тествал седем генеративни AI системи – Gemini, ChatGPT, Claude, Copilot, Grok, DeepSeek и Aria. Всеки ден инструментите са получавали една и съща задача: да посочат и обобщят петте най-важни новини от Квебек, да ги подредят по значимост и да предоставят директни линкове към статиите като източници.

Най-фрапиращият случай е свързан с Gemini, който е „създал“ несъществуваща медия – examplefictif.ca – и е публикувал фалшив репортаж за стачка на шофьори на ученически автобуси в Квебек през септември 2025 г. В действителност прекъсването на транспорта е било причинено от изтеглянето на електрически автобуси на Lion Electric заради технически проблем.
Това обаче не е единичен инцидент. В общо 839 отговора, събрани по време на експеримента, AI системите често са цитирали въображаеми източници, давали са неработещи или непълни интернет адреси или са представяли погрешно реални журналистически публикации. Само 37% от отговорите са съдържали пълен и валиден линк към легитимен източник.
Според Digital News Report на Reuters Institute 6% от канадците са разчитали на генеративен изкуствен интелект за новини през 2024 г. Когато подобни инструменти „халюцинират“ факти, изопачават информация или измислят изводи, рискът от разпространение на дезинформация нараства – особено когато отговорите звучат уверено и без ясни предупреждения.

Анализът показва още, че по-малко от половината от новинарските резюмета са били напълно точни. В много случаи информацията е била частично вярна, но подвеждаща. Наблюдавани са и т.нар. „генеративни заключения“, при които AI добавя твърдения, че дадена тема е „възобновила обществени дебати“ или „е изострила напрежението“, без подобни оценки да присъстват в оригиналните материали.
Отделни инструменти са изкривявали реални новини, включително за отношението към търсещи убежище, резултати от големи спортни събития, социологически данни или лични обстоятелства на публични фигури. По оценка на авторите това показва, че генеративният AI все още трудно прави разлика между коректно обобщаване и създаване на несъществуващ контекст.
---
Този материал е написан с помощта на изкуствен интелект под контрола и редакцията на поне двама журналисти от Клуб Z. Материалът е част от проекта "От мястото на събитието предава AI".

Още по темата
- Тайван издаде заповед за арест на шефа на OnePlus - производител на смартфони
- Столичният инспекторат: Над 134 т отпадъци са извозени от "Слатина" и "Подуяне" за ден
- Терзиев ще оправя канализацията в 8 района на София - "не се вижда, но липсата й се усеща от всеки"
- Правителства натискат ЕС да назначи преговарящ за Украйна
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни