Доскоро доминираше идеята, че колкото по-голям е изкуственият интелект (AI), толкова по-умен е той. И наистина - най-новите езикови модели на компании като OpenAI (ChatGPT), Meta, Google и DeepSeek използват стотици милиарди параметри - цифрови „врътки“, които се настройват по време на обучението и изграждат връзки между различни парчета информация.

Колкото повече такива параметри има, толкова по-добре моделът разпознава логика, смисъл и контекст. Затова тези гигантски модели могат да превеждат, да пишат стихове, да обясняват ядрена физика и да пишат код – често по-добре от хората.

Но… това чудо си има цена.

Цената на „всезнаещия“ AI

Обучението на така наречените големи езикови модели (LLMs) изисква огромни количества енергия и изчислителна мощ. Например, Google е похарчила над 190 милиона долара, за да обучи своя флагмански модел Gemini 1.0 Ultra. А за всяко ваше запитване към ChatGPT – казано просто – се харчи 10 пъти повече ток, отколкото за обикновено търсене в Google, по данни на Electric Power Research Institute.

Тъй като високите разходи и енергийният отпечатък стават проблем, учените и технологичните гиганти вече търсят алтернатива – по-малки, по-ефективни и целенасочени модели. IBM, Microsoft, Google и самата OpenAI вече пуснаха така наречените малки езикови модели (Small Language Models или SLMs), които използват не стотици, а няколко милиарда параметри.

„За много задачи, модел с 8 милиарда параметри е напълно достатъчен“, обяснява Зико Колтър, компютърен учен от Университета „Карнеги Мелън“.

Какво могат малките модели?

Малките AI системи не са подходящи за всичко – няма да ви напишат роман или да измислят ново лекарство. Но са идеални за конкретни приложения, като:

  • чатботове в здравеопазването
  • съкращаване и обобщаване на разговори
  • работа в умни устройства
  • автоматизирани отговори на често задавани въпроси

Най-важното: те могат да работят дори от лаптоп или телефон, без да изискват мощни сървъри.

Как се обучават?

За да станат ефективни, малките AI модели използват две хитри техники:

1. Дестилация на знание (Knowledge distillation)

Представете си, че големият модел е учител, а малкият – ученик. Големият „помага“ на малкия, като му подава висококачествени, добре подбрани данни, вместо хаотичен текст от интернет. Така малкият се обучава по-бързо, по-ефективно и с по-малко ресурси.

2. "Подрязване" (Pruning)

Това е процес на „отсичане“ на излишни елементи от модела, подобно на това как човешкият мозък се усъвършенства с възрастта, като елиминира ненужни връзки. Методът е известен още от 1989 г. като „оптимално мозъчно увреждане“ – термин, използван иронично от пионера Ян Льокун (Meta), който показал, че до 90% от параметрите в един AI могат да бъдат премахнати без загуба на ефективност.

Разбира се, тези методи имат и недостатъци - грешките на големия модел се пренасят върху малкия при дестилацията, а "подрязването" може да се окаже прекалено.

Защо това има значение?

Малките модели не само че са по-евтини и по-леки – те са и по-разбираеми. При тях може по-лесно да се проследи как и защо взимат дадено решение, което помага на учени и инженери да тестват идеи и да създават по-етични и предсказуеми алгоритми.

Големите AI ще продължат да са нужни за универсални задачи – мултифункционални чатботове, генератори на изображения, изследване на нови лекарства. Но в повечето случаи, малките ще са по-практични и достатъчни.

„Тези ефективни модели спестяват пари, време и компютърни ресурси“, казва Лешем Чошен от MIT-IBM AI Lab.

***

Този материал е написан с помощта на изкуствен интелект под контрола и редакцията на поне двама журналисти от Клуб Z. Материалът е част от проекта "От мястото на събитието предава AI".