WeDLM — это передовая структура, которая объединяет языковые модели диффузии (DLLMs) со стандартными механизмами причинного внимания для достижения быстрой инференции. Она решает ограничения традиционного автогрессивного генерации, позволяя параллельное декодирование при сохранении высокого качества вывода. Структура предназначена для повышения эффективности языковых моделей, что делает ее подходящей для различных приложений, включая математическое рассуждение и генерацию кода.