🧠 Ubicomb/MDL-1.0
MDL-1.0 — это первая публичная версия мультимодальной генеративной модели от команды Ubicomb, способной синтезировать визуальные и видео-данные с высокой степенью реалистичности и структурной целостности учитывая контекст и культуру России.
Модель оптимизирована для работы с промптами на русском, рассчитана на креативные пайплайны и кастомные генеративные системы.
🚀 Возможности
- 🎥 Video generation из текстовых или комбинированных описаний
- 🖼️ Image-to-video: анимация статичных изображений
- 🔁 Поддержка loop-friendly видео и сценических переходов
- 🧩 Оптимизирована для кастомной дообучаемости
📸 Примеры вывода
| Video Primer | Description |
|---|---|
| Деревня работа топором | |
| Дети играют в посёлке с мячом | |
| Зимняя сцена , деревня вид на храм | |
| Бабушка наливает чай в блюдце | |
| Мужчина играет на баяне |
🛠️ Как использовать
from transformers import AutoTokenizer, AutoModel
model = AutoModel.from_pretrained("Ubicomb/MDL-1.0")
# Подключение к API генерации или локальному inference (поддержка txt2video / img2video)
⚠️ Инференс пока не активирован через Inference API. Для использования требуется локальный запуск или кастомный endpoint.
📦 Технические детали
| Параметр | Значение |
|---|---|
| Архитектура | Собственная (Ubicomb GEN) |
| Параметров | ~250M |
| Формат модели | PyTorch |
| Поддержка | txt2video, img2video |
| Лицензия | Apache 2.0 |
📚 Области применения
- 🎞️ Видеопроизводство и моушен-дизайн
- 🤖 Edge AI / генерация на устройствах
- 🎨 Визуальные storytelling-системы
⚠️ Ограничения
- Генерация может быть непоследовательной на длинных временных промежутках
- Видео без аудио — аудиосинтез не включён в эту версию
📬 Цитирование
@misc{ubicomb2025mdl,
title={MDL-1.0: Multimodal Generative Model by Ubicomb},
author={Ubicomb AI Team},
year={2025},
howpublished={\url{https://huggingface.co/Ubicomb/MDL-1.0}},
}
🧑💻 Команда
- Ubicomb Research — R&D, архитектура модели
Model tree for Ubicomb/MDL-1.0
Base model
Wan-AI/Wan2.1-T2V-14B