Генеративният изкуствен интелект може да увреди доверието в обществото и дори да предизвика войни. Тази апокалиптична теза формулира в изявление съвместно с местния вестник "Йомиури Шимбун" японският телеком NTT, четвъртата най-голяма телекомуникационна компания в света. Според тях нужни не просто регулации, а екосистема, с която AI да контролира други AI системи.
"Има опасения, че в най-лошия сценарий демокрацията и социалният ред могат да се сринат, което да доведе до войни”, твърдят двете организации.
NTT и "Йомиури Шимбун" започнаха съвместно изследване за употребата и управлението на генеративните модели с изкуствен интелект миналата есен. Основният извод е, че езиковите модели са много неточни, а същевременно все по-достъпни.
Но няма и как да се върне часовникът назад - генеративният AI вече се ползва активно и спирането на това би довело до спад на производителността. Ключово е да има сериозни регулации за употребата на AI по отношение на основополагащи стълбове на обществото - като изборите и сигурността.
Сред идеите им за такива са задължително обучение на учениците за предимствата и недостатъците на генеративния AI, нови закони за авторско право и интелектуална собственост, както и етикетиране на оригиналното съдържание. Япония все още няма подобна стратегия, за разлика от наченки на такава в ЕС и САЩ.
Позицията е изненадваща за технологична компания - повечето в бранша приемат AI с отворени обятия.
Още по темата
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни