Компанія Moments Lab, розробник рішень для пошуку відео на основі штучного інтелекту, презентує MXT-2 на виставці NAB Show 2025. MXT-2 – це остання версія їх нагородженої технології індексації відео на базі ШІ. Цей багатомодальний та генеративний ШІ створює описи відеоконтенту, подібні до людських, значно скорочуючи час, витрачений на пошук у великих бібліотеках відео.

MXT-2 використовує AI-генеріровані метадані з часовими кодами для покращення можливостей пошуку відео. Він може ідентифікувати конкретних людей, місця та логотипи, а також виявляти релевантні моменти залежно від типу контенту. Ця вдосконалена версія має більшу та досконалішу модель ШІ, навчену на ретельно відібраних даних, що забезпечує точніші та природніші описи. Технологія доступна через платформу Moments Lab або її публічний API.

«Ми розробили MXT-2, щоб забезпечити організації глибоким редакторським аналізом та масштабованим пошуком відео», – сказав Філіпп Петіпон, співзасновник та генеральний директор Moments Lab. «На виставці NAB цього року ми особливо раді представити найновіші функції, додані до нашої запатентованої технології індексації на основі ШІ, яка побудована з використанням RAG (retrieval-augmented generation). RAG максимізує створення, повторне використання та перепрофілювання контенту, забезпечуючи відчутний ROI, дозволяючи описувати всі медіабібліотеки природною мовою та, відповідно, здійснювати пошук цією ж мовою».

Moments Lab проведе демонстрації своїх рішень на виставці NAB Show 2025. Крім того, Халіль Гуетарі, інженер-програміст ШІ в Moments Lab, виступить з презентацією «Моделі бачення та мови для покращеного управління архівним відео» на конференції BEIT (5-8 квітня). Ця сесія запланована на понеділок, 7 квітня, 10:40 – 11:00 за тихоокеанським часом у залі W222-W223.