DeepL nutzt eine spezielle Art von neuronalen Netzen, die als Transformer-Modelle bekannt sind. Diese Modelle wurden erstmals in dem bahnbrechenden Paper "Attention is All You Need" von Vaswani et al. im Jahr 2017 vorgestellt. Transformer-Modelle verwenden eine Mechanismus namens "Self-Attention", der es ihnen ermöglicht, den Kontext von Wörtern in einem Satz besser zu verstehen, indem sie die Beziehungen zwischen allen Wörtern im Satz gleichzeitig berücksichtigen. Mehr Informationen zu Transformer-Modellen findest du hier: [Attention is All You Need](https://arxiv.org/abs/1706.03762).