И юристите вече активно ползват изкуствен интелект - но това може да доведе до сериозни проблеми, показва съдебен процес в САЩ.

При разглеждането на частен иск на гражданин срещу авиокомпания, един от адвокатите на ищеца представил редица дела като правни прецеденти в подкрепа на своята теза. 

Има само един проблем с тях - те не съществуват.

Адвокатът е Стивън Шварц, юрист от фирмата Левидоу, Левидоу и Оберман, с дългогодишен опит. След оспорване на доказателствата, той изпраща клетвена декларация до съда, в която признава, че е използвал ChatGPT за целта. И че е попитал чатбота дали делата са истински - и е получил уверението, че всички могат да бъдат открити в "признати правни бази данни".

Чатботът всъщност е известен със склонността да си измисля - и да лъже. Той не е търсачка и макар че може да дава базова информация за много области на човешкото познание, често прави големи грешки в специализирани сфери.

Шварц твърди, че за пръв път ползва изкуствен интелект и няма да го прави в бъдеще, без да е абсолютно сигурен в автентичността на информацията. Едва ли ще му се размине безнаказано - съдията вече определи изслушване през юни, за да се разгледат възможни наказания за подаване на фалшиви решения, с фалшиви цитати по време на дело. 

А авиокомпанията поиска прекратяване на делото заради гафа - засега обаче то продължава.

В ИТ средите вече имат термин за случаите, в които езиков модел почва да лъже и да си измисля - с висока увереност. Наричат го "халюцинации" и се работи усилено за неговото отстраняване. То обаче е свързано креативността на изкуствения интелект.