使用循环神经网络 (RNN) 和 LSTM 以及 Python 中的 TensorFlow 和 Keras 框架构建深度学习模型以生成人类可读的文本。
Python如何构建文本生成器?Recurrent Neural Networks(RNN多个)是分类问题非常强大的序列模型。然而,在本教程中,我们要做一些不同的事情,我们将使用RNN作为生成模型,这意味着它们可以学习问题的序列,然后为问题域生成全新的序列。
阅读本教程后,你将结合Python构建文本生成器示例,学习如何在 Python 中使用TensorFlow和Keras构建可以生成文本(逐字符)的LSTM模型。
TensorFlow 2和Keras构建文本生成器:在文本生成中,我们向模型展示了许多训练示例,以便它可以学习输入和输出之间的模式。每个输入是一个字符序列,输出是下一个单个字符。例如,假设我们要训练句子"python is a great language",第一个样本的输入是"python is a great langua",输出将是"g"。第二个样本输入将是“ython is a great languag”,输出是“e”,依此类推,直到我们遍历整个数据集。我们需要向模型展示尽可能多的示例,以便做出合理的预测。
相关:
如何使用 Tensorflow 2 和 Keras 在 Python 中执行文本分类。
入门让我们安装本教程所需的依赖项:
pip3 install tensorflow==2.0.1 numpy requests tqdm
导入所有内容:
import tensorflow as tf
import numpy as np
import os
import pickle
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, LSTM, Dropout
from string import punctuation
准备数据集Python构建文本生成器示例:我们将使用一本可免费下载的书籍作为本教程的数据集:Lewis Carroll 的 Alice's Adventures in Wonderland。但是你可以使用任何你想要的书籍/语料库。
这些代码行将下载它并将其保存在一个文本文件中:
import requests
content = requests.get("http://www.gutenberg.org/cache/epub/11/pg11.txt").text
open("data/wonderland.txt", "w", encoding="utf-8").write(content)
只需确保你的当前目录中存在一个名为“data”的文件夹。
现在让我们定义我们的参数并尝试清理这个数据集:
sequence_length = 100
BATCH_SIZE = 128
EPOCHS = 30
# dataset file path
FILE_PATH = "data/wonderland.txt"
BASENAME = os.path.basename(FILE_PATH)
# read the data
text = open(FILE_PATH, encoding="utf-8").read()
# remove caps, comment this code if you want uppercase characters as well
text = text.lower()
# remove punctuation
text = text.translate(str.maketrans("", "", punctuation))
Python如何构建文本生成器?上面的代码通过删除大写字符和标点符号以及将两个连续的换行符替换为一个,从而减少了我们的词汇量,以便更好、更快地进行训练。如果你希望保留逗号、句点和冒号,只需定义你自己的
punctuation
字符串变量。让我们打印一些关于数据集的统计信息:
# print some stats
n_chars = len(text)
vocab = ''.join(sorted(set(text)))
print("unique_chars:", vocab)
n_unique_chars = len(vocab)
print("Number of characters:", n_chars)
print("Number of unique characters:", n_unique_chars)
【如何在Python中使用TensorFlow 2和Keras构建文本生成器()】输出:
unique_chars:
0123456789abcdefghijklmnopqrstuvwxyz
Number of characters: 154207
Number of unique characters: 39
复制现在我们成功加载并清理了数据集,我们需要一种将这些字符转换为整数的方法,有很多 Keras 和 Scikit-Learn 实用程序可以做到这一点,但我们将在 Python 中手动进行。
由于我们将vocab作为我们的词汇表,其中包含我们数据集的所有唯一字符,我们可以制作两个字典,将每个字符映射到一个整数,反之亦然:
# dictionary that converts characters to integers
char2int = {c: i for i, c in enumerate(vocab)}
# dictionary that converts integers to characters
int2char = {i: c for i, c in enumerate(vocab)}
让我们将它们保存到一个文件中(以便稍后在文本生成中检索它们):
# save these dictionaries for later generation
pickle.dump(char2int, open(f"{BASENAME}-char2int.pickle", "wb"))
pickle.dump(int2char, open(f"{BASENAME}-int2char.pickle", "wb"))
TensorFlow 2和Keras构建文本生成器:现在让我们对我们的数据集进行编码,换句话说,我们要将每个字符转换为其相应的整数:
# convert all text into integers
encoded_text = np.array([
char2int[
c] for c in text])
复制由于我们想为更大的数据集扩展我们的代码,我们需要使用
tf.data
API来有效地处理数据集,因此,让我们tf.data.Dataset
在这个encoded_text
数组上创建一个对象:# construct tf.data.Dataset object
char_dataset = tf.data.Dataset.from_tensor_slices(encoded_text)
太棒了,现在这个
char_dataset
对象有这个数据集的所有字符,让我们尝试打印第一个字符:# print first 5 characters
for char in char_dataset.take(8):
print(char.numpy(), int2char[
char.numpy()])
这将取前8 个字符并将它们连同它们的整数表示一起打印出来:
38
27 p
29 r
26 o
21 j
16 e
14 c
太好了,现在我们需要构建我们的序列,正如前面提到的,我们希望每个输入样本都是一个长度的字符序列,
sequence_length
并且输出是下一个字符的单个字符。幸运的是,我们必须使用tf.data.Dataset
的batch()方法将字符收集在一起:# build sequences by batching
sequences = char_dataset.batch(2*sequence_length + 1, drop_remainder=True)# print sequences
for sequence in sequences.take(2):
print(''.join([
int2char[
i] for i in sequence.numpy()]))
你可能会注意到,我使用了每个样本的2*sequence_length +1大小,你很快就会明白我为什么这样做,检查输出:
project gutenbergs alices adventures in wonderland by lewis carrollthis ebook is for the use of anyone anywhere at no cost and with
almost no restrictions whatsoeveryou may copy it give it away orreuse it under the terms of the project gutenberg license included
with this ebook or online at wwwgutenbergorg
...
<
SNIPPED>
你注意到我已经使用
int2char
之前构建的字典将整数序列转换为普通文本。现在你知道每个样本是如何表示的,让我们准备输入和目标,我们需要一种方法将单个样本(字符序列)转换为多个(输入,目标)样本。幸运的是,flat_map()方法正是我们所需要的,它需要一个回调函数来循环我们所有的数据样本:
def split_sample(sample):
# example :
# sequence_length is 10
# sample is "python is a great pro" (21 length)
# ds will equal to ('python is ', 'a') encoded as integers
ds = tf.data.Dataset.from_tensors((sample[
:sequence_length], sample[
sequence_length]))
for i in range(1, (len(sample)-1) // 2):
# first (input_, target) will be ('ython is a', ' ')
# second (input_, target) will be ('thon is a ', 'g')
# third (input_, target) will be ('hon is a g', 'r')
# and so on
input_ = sample[
i: i+sequence_length]
target = sample[
i+sequence_length]
# extend the dataset with these samples by concatenate() method
other_ds = tf.data.Dataset.from_tensors((input_, target))
ds = ds.concatenate(other_ds)
return ds# prepare inputs and targets
dataset = sequences.flat_map(split_sample)
为了更好地理解上述代码的工作原理,让我们举个例子:假设我们有一个序列长度为 10(太小但很好解释),
sample
参数是一个21 个字符的序列(记住2*sequence_length+ 1
) 以整数编码,为方便起见,让我们假设它没有编码,说它是“python is a great pro”。现在我们要生成的第一个数据样本将是以下输入和目标元组('python is ', 'a'),第二个是('ython is a', ' '),第三个是('thon is a ', 'g')等。我们对所有样本都这样做,最后,我们会看到我们显着增加了训练样本的数量。我们使用ds.concatenate()方法将这些样本加在一起。
Python构建文本生成器示例 - 在我们构建了我们的样本之后,让我们对输入和标签(目标)进行单热编码:
def one_hot_samples(input_, target):
# onehot encode the inputs and the targets
# Example:
# if character 'd' is encoded as 3 and n_unique_chars = 5
# result should be the vector: [
0, 0, 0, 1, 0], since 'd' is the 4th character
return tf.one_hot(input_, n_unique_chars), tf.one_hot(target, n_unique_chars)
我们使用方便的map()方法对数据集上的每个样本进行单热编码,tf.one_hot()方法完成了我们的预期。让我们尝试打印前两个数据样本及其形状:
# print first 2 samples
for element in dataset.take(2):
print("Input:", ''.join([
int2char[
np.argmax(char_vector)] for char_vector in element[
0].numpy()]))
print("Target:", int2char[
np.argmax(element[
1].numpy())])
print("Input shape:", element[
0].shape)
print("Target shape:", element[
1].shape)
print("="*50, "\n")
这是第二个元素的输出:
Input: project gutenbergs alices adventures in wonderland by lewis carrollthis ebook is for the use of an
Target: y
Input shape: (100, 39)
Target shape: (39,)
所以每个输入元素的形状为(序列长度,词汇大小),在这种情况下,有39 个唯一字符,100 个是序列长度。输出的形状是一个单热编码的一维向量。
注意:如果你使用不同的数据集和/或使用其他字符过滤机制,你将看到不同的词汇量,每个问题都有自己的领域。例如,我也用它来生成 Python 代码,它有 92 个唯一字符,那是因为我应该允许一些 Python 代码所需的标点符号。
最后,我们重复、洗牌和批处理我们的数据集:
# repeat, shuffle and batch the dataset
ds = dataset.repeat().shuffle(1024).batch(BATCH_SIZE, drop_remainder=True)
我们将可选设置为
drop_remainder
,True
以便我们可以消除大小小于 的剩余样本BATCH_SIZE
。构建模型现在让我们构建模型,它基本上有两个 LSTM 层,具有任意数量的128 个LSTM 单元。尝试尝试不同的模型架构,你可以随心所欲!
输出层是一个全连接层,有39 个单元,其中每个神经元对应一个字符(每个字符出现的概率)。
model = Sequential([
LSTM(256, input_shape=(sequence_length, n_unique_chars), return_sequences=True),
Dropout(0.3),
LSTM(256),
Dense(n_unique_chars, activation="softmax"),
])
我们在这里使用Adam 优化器,我建议你尝试不同的优化器。
建立模型后,让我们打印摘要并编译它:
# define the model path
model_weights_path = f"results/{BASENAME}-{sequence_length}.h5"
model.summary()
model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=[
"accuracy"])
训练模型TensorFlow 2和Keras构建文本生成器:现在让我们训练模型:
# make results folder if does not exist yet
if not os.path.isdir("results"):
os.mkdir("results")
# train the model
model.fit(ds, steps_per_epoch=(len(encoded_text) - sequence_length) // BATCH_SIZE, epochs=EPOCHS)
# save the model
model.save(model_weights_path)
我们输入了我们之前准备的Dataset对象,由于该
model
对象不知道数据集中有很多样本,因此我们指定了steps_per_epoch
参数,该参数设置为训练样本数除以批量大小。运行上面的代码后,它应该开始训练,它看起来像这样:
Train for 6473 steps
...
<
SNIPPED>Epoch 29/30
6473/6473 [
==============================] - 486s 75ms/step - loss: 0.8728 - accuracy: 0.7509
Epoch 30/30
2576/6473 [
==========>...................] - ETA: 4:56 - loss: 0.8063 - accuracy: 0.7678
这将需要几个小时,具体取决于你的硬件,尝试将batch_size增加到256以加快训练速度。
训练结束后,结果文件夹中应该会出现一个新文件,即模型训练的权重。
生成新文本Python如何构建文本生成器?有趣的部分来了,现在我们已经成功构建并训练了模型,我们如何生成新文本?
让我们导入必要的模块(如果你在单个笔记本上,则不必这样做):
import numpy as np
import pickle
import tqdm
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, LSTM, Dropout, Activation
import ossequence_length = 100
# dataset file path
FILE_PATH = "data/wonderland.txt"
# FILE_PATH = "data/python_code.py"
BASENAME = os.path.basename(FILE_PATH)
我们需要一个示例文本来开始生成,这将取决于你的问题,你可以从训练数据中提取句子以使其表现更好,但我将尝试编写本书的新章节:
seed = "chapter xiii"
让我们加载字典,将每个整数映射到一个字符,反之亦然,我们之前在数据准备阶段保存过:
# load vocab dictionaries
char2int = pickle.load(open(f"{BASENAME}-char2int.pickle", "rb"))
int2char = pickle.load(open(f"{BASENAME}-int2char.pickle", "rb"))
vocab_size = len(char2int)
再次构建模型:
# building the model
model = Sequential([
LSTM(256, input_shape=(sequence_length, vocab_size), return_sequences=True),
Dropout(0.3),
LSTM(256),
Dense(vocab_size, activation="softmax"),
])
现在我们需要加载最佳模型权重集:
# load the optimal weights
model.load_weights(f"results/{BASENAME}-{sequence_length}.h5")
让我们开始生成:
s = seed
n_chars = 400
# generate 400 characters
generated = ""
for i in tqdm.tqdm(range(n_chars), "Generating text"):
# make the input sequence
X = np.zeros((1, sequence_length, vocab_size))
for t, char in enumerate(seed):
X[
0, (sequence_length - len(seed)) + t, char2int[
char]] = 1
# predict the next character
predicted = model.predict(X, verbose=0)[
0]
# converting the vector to an integer
next_index = np.argmax(predicted)
# converting the integer to a character
next_char = int2char[
next_index]
# add the character to results
generated += next_char
# shift seed and the predicted character
seed = seed[
1:] + next_charprint("Seed:", s)
print("Generated text:")
print(generated)
我们在这里所做的只是从种子文本开始,构建输入序列,然后预测下一个字符。之后,我们通过移除第一个字符并添加预测的最后一个字符来移动输入序列。这给了我们一个稍微改变的输入序列,它的长度仍然等于我们序列长度的大小。
然后我们将这个更新的输入序列输入到模型中以预测另一个字符,重复这个过程N次将生成一个包含N 个字符的文本。
Python构建文本生成器示例 - 这是一个有趣的文本生成:
Seed: chapter xiii
Generated Text:
ded of and alice as it go on and the court
well you wont you wouldncopy thing
there was not a long to growing anxiously any only a low every cant
go on a litter which was proves of any only here and the things and the mort meding and the mort and alice was the things said to herself i cant remeran as if i can repeat eften to alice any of great offf its archive of and alice and a cancur as the mo
Python如何构建文本生成器?明明是英文啊!但正如你可能注意到的,大多数句子没有任何意义,这是由于多种原因。主要原因之一是数据集仅在很少的样本上进行训练。此外,模型架构不是最佳的,其他最先进的架构(例如GPT-2和BERT)往往会大大优于这一架构。
但请注意,这不仅限于英文文本,你可以使用任何类型的文本。事实上,一旦拥有足够多的代码行,你甚至可以生成 Python 代码。
TensorFlow 2和Keras构建文本生成器总结太好了,我们完成了。现在你知道如何:
- 在 TensorFlow 和 Keras 中制作 RNN 作为生成模型。
- 使用tf.data API清理文本和构建 TensorFlow 输入管道。
- 在文本序列上训练 LSTM 网络。
- 调整模型的性能。
- 通过删除稀有字符来减少词汇量。
- 使用更多 LSTM 单元添加更多 LSTM 和Dropout 层,甚至添加双向层。
- 调整一些超参数,例如批量大小、优化器甚至
sequence_length
,看看哪个效果最好。 - 训练更多的时代。
- 使用更大的数据集。
推荐阅读
- 如何在Python中使用Tensorflow 2和Keras制作图像分类器()
- 如何在Python中使用TensorFlow和迁移学习实现图像分类()
- Python如何将语音转换为文本(详细实现指南)
- 图像文本识别(Python中的光学字符识别 (OCR)实现)
- 如何在Python中使用OpenCV和K-Means聚类进行图像分割()
- 英特尔+AMD联合打造的酷睿平台有多强?
- 3000元奔腾G5400配GTX1050Ti基础设置推荐
- APU性能比较究竟谁厉害?是否省钱看这里!
- Matlab R2016b 64位下载与安装激活图文详细教程