
Доскоро доминираше идеята, че колкото по-голям е изкуственият интелект (AI), толкова по-умен е той. И наистина - най-новите езикови модели на компании като OpenAI (ChatGPT), Meta, Google и DeepSeek използват стотици милиарди параметри - цифрови „врътки“, които се настройват по време на обучението и изграждат връзки между различни парчета информация.

Колкото повече такива параметри има, толкова по-добре моделът разпознава логика, смисъл и контекст. Затова тези гигантски модели могат да превеждат, да пишат стихове, да обясняват ядрена физика и да пишат код – често по-добре от хората.
Но… това чудо си има цена.
Цената на „всезнаещия“ AI
Обучението на така наречените големи езикови модели (LLMs) изисква огромни количества енергия и изчислителна мощ. Например, Google е похарчила над 190 милиона долара, за да обучи своя флагмански модел Gemini 1.0 Ultra. А за всяко ваше запитване към ChatGPT – казано просто – се харчи 10 пъти повече ток, отколкото за обикновено търсене в Google, по данни на Electric Power Research Institute.
Тъй като високите разходи и енергийният отпечатък стават проблем, учените и технологичните гиганти вече търсят алтернатива – по-малки, по-ефективни и целенасочени модели. IBM, Microsoft, Google и самата OpenAI вече пуснаха така наречените малки езикови модели (Small Language Models или SLMs), които използват не стотици, а няколко милиарда параметри.
„За много задачи, модел с 8 милиарда параметри е напълно достатъчен“, обяснява Зико Колтър, компютърен учен от Университета „Карнеги Мелън“.
Какво могат малките модели?
Малките AI системи не са подходящи за всичко – няма да ви напишат роман или да измислят ново лекарство. Но са идеални за конкретни приложения, като:
- чатботове в здравеопазването
- съкращаване и обобщаване на разговори
- работа в умни устройства
- автоматизирани отговори на често задавани въпроси
Най-важното: те могат да работят дори от лаптоп или телефон, без да изискват мощни сървъри.

Как се обучават?
За да станат ефективни, малките AI модели използват две хитри техники:
1. Дестилация на знание (Knowledge distillation)
Представете си, че големият модел е учител, а малкият – ученик. Големият „помага“ на малкия, като му подава висококачествени, добре подбрани данни, вместо хаотичен текст от интернет. Така малкият се обучава по-бързо, по-ефективно и с по-малко ресурси.
2. "Подрязване" (Pruning)
Това е процес на „отсичане“ на излишни елементи от модела, подобно на това как човешкият мозък се усъвършенства с възрастта, като елиминира ненужни връзки. Методът е известен още от 1989 г. като „оптимално мозъчно увреждане“ – термин, използван иронично от пионера Ян Льокун (Meta), който показал, че до 90% от параметрите в един AI могат да бъдат премахнати без загуба на ефективност.
Разбира се, тези методи имат и недостатъци - грешките на големия модел се пренасят върху малкия при дестилацията, а "подрязването" може да се окаже прекалено.
Защо това има значение?
Малките модели не само че са по-евтини и по-леки – те са и по-разбираеми. При тях може по-лесно да се проследи как и защо взимат дадено решение, което помага на учени и инженери да тестват идеи и да създават по-етични и предсказуеми алгоритми.

Големите AI ще продължат да са нужни за универсални задачи – мултифункционални чатботове, генератори на изображения, изследване на нови лекарства. Но в повечето случаи, малките ще са по-практични и достатъчни.
„Тези ефективни модели спестяват пари, време и компютърни ресурси“, казва Лешем Чошен от MIT-IBM AI Lab.
***
Този материал е написан с помощта на изкуствен интелект под контрола и редакцията на поне двама журналисти от Клуб Z. Материалът е част от проекта "От мястото на събитието предава AI".

Още по темата
- Зукърбърг може да бъде принуден да продаде Instagram след антитръстово дело
- AI на Мъск на мушка: ЕС разследва X за ползване на лични данни при обучението на Grok
- Как се пада в звезда - "Джеймс Уеб" разкрива неочакван сценарий за края на една планета
- "Американски iPhone": възможен ли е и колко би струвал?
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни