От ноември миналата година технологичният сайт CNET експериментира със статии, генерирани от изкуствен интелект, съобщиха от редакционния екип. Целта е било да се провери може ли това да мине незабелязано.
На практика никой не е установил нещо особено в 75 статии, генерирани от все по-популярните невронни мрежи. Важно е да се отбележи, че статиите са генерирани по задание от професионални журналисти и са обработени от опитни редактори.
Поради това от медията отбелязват, че е по-правилно да се нарекат "статии с помощ от изкуствен интелект". И отсега нататък всички такива ще бъдат маркирани с изричен надпис:
"Тази история беше подпомогната от AI машина и прегледана, проверена и редактирана от нашия редакционен екип."
От медията подчертават, че винаги са опитвали да разучават новите технологии отвътре, което е наложило подобен експеримент - за да разберат могат ли наистина да бъдат полезни и етични някои употреби на изкуствен интелект в журналистиката.
Когато става дума за чисто информационни статии, с малко помощ от редактори изкуственият интелект се справя много добре. Така остава повече време на журналистите да се фокусират върху аналитични материали, ревюта, истории и гледни точки, с които един алгоритъм (засега) не може да борави.
И други организации вече ползват изкуствен интелект за една или друга цел - и това може да е напълно етично, стига да са прозрачни с употребата му, заключва редакционния екип.
Още по темата
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни