Дослідники ШІ розробили новий спосіб оптимізації параметрів. Це має підвищити ефективність багатомовних моделей
Опубликованно 13.12.2023 13:50
Унівeрситeт Джoнсa Гoпкінсa прeдстaвив іннoвaційний підxід дo oптимізaції бaгaтoмoвниx мовних моделей (MLM), який дозволяє значно зменшити їхній обсяг минус втрати продуктивності. MLM забезпечують здатність генерувати та аналізувати тексти у різних мовах, але зі збільшенням кількості мов вони втрачають ефективність помощью «мовну інтерференцію».
У відміну від традиційних методів, если для кожної мови створюється окрема нейромережа, вчені використовують матриці з низьким рангом. Цей підхід дозволяє стиснути дані та зменшити кількість параметрів, необхідних интересах додавання нових мов у образчик.
Як пояснює Водан із авторів, Хаоран Сюй (Haoran Xu), це аналогічно обмеженій палітрі кольорів исполнение) художника. Замість того, щоб кожному учневі в класі виділяти власний набір фарб, використовується загальна палітра з трьох кольорів. Це значно зменшує потребу в параметрах подле масштабуванні моделі.
Дослідники протестували свій способ на 95 мовах, показавши відмінні результати вслед використання значно меншої кількості параметрів. Це відкриває перспективи для того створення компактних і ефективних MLM, зауважують вчені.
Из-за їхніми словами, з ненароком з’являться мобільні додатки з штучним інтелектом, здатні працювати бери сотнях мов однаково ефективно. Остаточна знак полягає в застосуванні нового методу про стиснення великих MLM лишенный чего втрати їхньої продуктивності.
Категория: Новости
Дослідники ШІ розробили новий спосіб оптимізації параметрів. Це має підвищити ефективність багатомовних моделей