WeDLM é uma estrutura de ponta que reconcilia Modelos de Linguagem de Difusão (DLLMs) com mecanismos de atenção causal padrão para alcançar uma inferência rápida. Ela aborda as limitações da geração autorregressiva tradicional, permitindo a decodificação paralela enquanto mantém uma saída de alta qualidade. A estrutura é projetada para aumentar a eficiência dos modelos de linguagem, tornando-a adequada para uma variedade de aplicações, incluindo raciocínio matemático e geração de código.