От простого к сложному. Сначала без attention(LSTM), потом с attention.
Есть примеры решения данной задачи.
На выходе должно получиться 3 проекта:
LSTM, LSTM с attention, и реализация 1706.03762.
Нужно понимать, что происходит в коде, и как работает архитектура encoder-decoder.
Деньги плачу за компетентность, а не копипасту с чата gpt.
Работаю через БС. Нужен чистый код. Без лишних сущностей.