当前位置: 代码迷 >> 综合 >> seq2seq:rnn+attention的机器翻译实战 有代码+数据 可直接运行
  详细解决方案

seq2seq:rnn+attention的机器翻译实战 有代码+数据 可直接运行

热度:14   发布时间:2023-12-26 09:12:28.0

问题:

结构图:

问题一:

怎么处理长短不一的情况:padding到最大长度

问题二:

padding的部分在计算attention的时候要加入mask机制 来处理

模型图

  数据处理

from __future__ import unicode_literals, print_function, division
from io import open
import unicodedata
import string
import re
import random
import torch
import torch.nn as nn
from torch import optim
import torch.nn.functional as F
import numpy as np
import re
import tensorflow as tf
import matplotlib.pyplot as plt
import matplotlib.ticker as ticker
from sklearn.model_selection import train_test_split
from tqdm import tqdm
import jieba
from nltk.translate.bleu_score import sentence_bleu
from opencc import OpenCC# 处理英文句子
  相关解决方案