Skip to content
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
366 changes: 366 additions & 0 deletions doc/fluid/api_cn/data/data_reader_cn.rst
Original file line number Diff line number Diff line change
@@ -0,0 +1,366 @@
#################
Data Reader
#################


.. _cn_api_paddle_data_reader_datafeeder:

DataFeeder
==================================

.. py:class:: paddle.fluid.data_feeder.DataFeeder(feed_list, place, program=None)


DataFeeder将读卡器返回的数据转换为可以输入Executor和ParallelExecutor的数据结构。读卡器通常返回一个小批量数据条目列表。列表中的每个数据条目都是一个样本。每个样本都是具有一个或多个特征的列表或元组。

简单用法如下:

**代码示例**

.. code-block:: python

place = fluid.CPUPlace()
img = fluid.layers.data(name='image', shape=[1, 28, 28])
label = fluid.layers.data(name='label', shape=[1], dtype='int64')
feeder = fluid.DataFeeder([img, label], fluid.CPUPlace())
result = feeder.feed([([0] * 784, [9]), ([1] * 784, [1])])


如果您想在使用多个GPU训练模型时预先将数据单独输入GPU端,可以使用decorate_reader函数。


**代码示例**

.. code-block:: python

place=fluid.CUDAPlace(0)
feeder = fluid.DataFeeder(place=place, feed_list=[data, label])
reader = feeder.decorate_reader(
paddle.batch(flowers.train(), batch_size=16))


参数:
- **feed_list** (list) – 将输入模型的变量或变量的名称。
- **place** (Place) – place表示将数据输入CPU或GPU,如果要将数据输入GPU,请使用fluid.CUDAPlace(i)(i表示GPU的ID),如果要将数据输入CPU,请使用fluid.CPUPlace()。
- **program** (Program) –将数据输入的Program,如果Program为None,它将使用default_main_program() 。默认值None.

抛出异常: ``ValueError`` – 如果某些变量未在Program中出现


**代码示例**

.. code-block:: python

# ...
place = fluid.CPUPlace()
feed_list = [
main_program.global_block().var(var_name) for var_name in feed_vars_name
] # feed_vars_name is a list of variables' name.
feeder = fluid.DataFeeder(feed_list, place)
for data in reader():
outs = exe.run(program=main_program,
feed=feeder.feed(data))



.. py:method:: feed(iterable)

根据feed_list和iterable,将输入转换成一个数据结构,该数据结构可以输入Executor和ParallelExecutor。

参数:
- **iterable** (list|tuple) – 输入的数据

返回: 转换结果

返回类型: dict



.. py:method:: feed_parallel(iterable, num_places=None)

需要多个mini-batches。每个mini-batch都将提前在每个设备上输入。

参数:
- **iterable** (list|tuple) – 输入的数据
- **num_places** (int) – 设备编号,默认值为None。

返回: 转换结果

返回类型: dict



.. note::

设备数量和mini-batches数量必须一致。

.. py:method:: decorate_reader(reader, multi_devices, num_places=None, drop_last=True)

将输入数据转换成读卡器返回的多个mini-batches。每个mini-batch

参数:
- **reader** (function) – reader是可以生成数据的函数
- **multi_devices** (bool) – 是否用多个设备
- **num_places** (int) – 如果multi_devices是True, 你可以指定GPU的使用数量, 如果multi_devices是None, 会使用当前机器的所有GPU ,默认值None。
- **drop_last** (bool) – 如果最后一个batch的大小小于batch_size,是否删除最后一个batch,默认值True。

返回: 转换结果

返回类型: dict

引起异常: ValueError – 如果drop_last为False并且数据批不适合设备。


.. _cn_api_paddle_data_reader_reader:

Reader
==================================

在训练和测试时,PaddlePaddle需要读取数据。为了简化用户编写数据读取代码的工作,我们定义了

- reader是一个读取数据(从文件、网络、随机数生成器等)并生成数据项的函数。
- reader creator是返回reader函数的函数。
- reader decorator是一个函数,它接受一个或多个读卡器,并返回一个读卡器。
- batch reader是一个函数,它读取数据(从读卡器、文件、网络、随机数生成器等)并生成一批数据项。


Data Reader Interface
------------------------------------

的确,数据阅读器不必是读取和生成数据项的函数,它可以是任何不带参数的函数来创建一个iterable(任何东西都可以被用于 ``for x in iterable`` ):

.. code-block:: python

iterable = data_reader()

从iterable生成的元素应该是单个数据条目,而不是mini batch。数据输入可以是单个项目,也可以是项目的元组,但应为 `支持的类型 <http://www.paddlepaddle.org/doc/ui/data_provider/pydataprovider2.html?highlight=dense_vector#input-types>`_ (如, numpy 1d array of float32, int, list of int)


单项目数据读取器创建者的示例实现:

.. code-block:: python

def reader_creator_random_image(width, height):
def reader():
while True:
yield numpy.random.uniform(-1, 1, size=width*height)
return reader


多项目数据读取器创建者的示例实现:

.. code-block:: python

def reader_creator_random_image_and_label(width, height, label):
def reader():
while True:
yield numpy.random.uniform(-1, 1, size=width*height), label
return reader

.. py:function:: paddle.reader.map_readers(func, *readers)

创建使用每个数据读取器的输出作为参数输出函数返回值的数据读取器。

参数:
- **func** - 使用的函数. 函数类型应为(Sample) => Sample
- **readers** - 其输出将用作func参数的读卡器。

类型:callable

返回: 被创建数据的读取器

返回类型: callable


.. py:function:: paddle.reader.buffered(reader, size)

创建缓冲数据读取器。

缓冲数据读卡器将读取数据条目并将其保存到缓冲区中。只要缓冲区不为空,就将继续从缓冲数据读取器读取数据。

参数:
- **reader** (callable) - 要读取的数据读取器
- **size** (int) - 最大缓冲


返回:缓冲数据的读取器


.. py:function:: paddle.reader.compose(*readers, **kwargs)

创建一个数据读卡器,其输出是输入读卡器的组合。

如果输入读卡器输出以下数据项:(1,2)3(4,5),则组合读卡器将输出:(1,2,3,4,5)

参数:
- **readers** - 将被组合的多个读取器
- **check_alignment** (bool) - 如果为True,将检查输入读卡器是否正确对齐。如果为False,将不检查对齐,将丢弃跟踪输出。默认值True。

返回:新的数据读取器

引起异常: ``ComposeNotAligned`` – 读卡器的输出不一致。 当check_alignment设置为False,不会升高。



.. py:function:: paddle.reader.chain(*readers)

创建一个数据读卡器,其输出是链接在一起的输入数据读卡器的输出。

如果输入读卡器输出以下数据条目:[0,0,0][1,1,1][2,2,2],链接读卡器将输出:[0,0,0,1,1,1,2,2,2]

参数:
- **readers** – 输入的数据

返回: 新的数据读取器

返回类型: callable


.. py:function:: paddle.reader.shuffle(reader, buf_size)

创建数据读取器,该阅读器的数据输出将被无序排列。

由原始读卡器创建的迭代器的输出将被缓冲到shuffle缓冲区,然后进行打乱。打乱缓冲区的大小由参数buf_size决定。

参数:
- **reader** (callable) – 输出会被打乱的原始读卡器
- **buf_size** (int) – 打乱缓冲器的大小

返回: 输出会被打乱的读卡器

返回类型: callable



.. py:function:: paddle.reader.firstn(reader, n)

限制读卡器可以返回的最大样本数。

参数:
- **reader** (callable) – 要读取的数据读取器
- **n** (int) – 返回的最大样本数

返回: 装饰读卡器

返回类型: callable




.. py:function:: paddle.reader.xmap_readers(mapper, reader, process_num, buffer_size, order=False)



.. py:class:: paddle.reader.PipeReader(command, bufsize=8192, file_type='plain')


PipeReader通过流从一个命令中读取数据,将它的stdout放到管道缓冲区中,并将其重定向到解析器进行解析,然后根据需要的格式生成数据。


您可以使用标准Linux命令或调用其他Program来读取数据,例如通过HDFS、CEPH、URL、AWS S3中读取:

**代码示例**

.. code-block:: python

def example_reader():
for f in myfiles:
pr = PipeReader("cat %s"%f)
for l in pr.get_line():
sample = l.split(" ")
yield sample


.. py:method:: get_line(cut_lines=True, line_break='\n')

param cut_lines:
cut buffer to lines

type cut_lines: bool

param line_break:
line break of the file, like

or

type line_break:
string

return: one line or a buffer of bytes

rtype: string



.. py:function:: paddle.reader.multiprocess_reader(readers, use_pipe=True, queue_size=1000)

多进程读卡器使用python多进程从读卡器中读取数据,然后使用multi process.queue或multi process.pipe合并所有数据。进程号等于输入读卡器的编号,每个进程调用一个读卡器。

multiprocess.queue需要/dev/shm的rw访问权限,某些平台不支持。

您需要首先创建多个读卡器,这些读卡器应该相互独立,这样每个进程都可以独立工作。

**代码示例**

.. code-block:: python

reader0 = reader(["file01", "file02"])
reader1 = reader(["file11", "file12"])
reader1 = reader(["file21", "file22"])
reader = multiprocess_reader([reader0, reader1, reader2],
queue_size=100, use_pipe=False)



.. py:class::paddle.reader.Fake

Fake读卡器将缓存它读取的第一个数据,并将其输出data_num次。它用于缓存来自真实阅读器的数据,并将其用于速度测试。

参数:
- **reader** – 原始读取器
- **data_num** – 读卡器产生数据的次数

返回: 一个Fake读取器


**代码示例**

.. code-block:: python

def reader():
for i in range(10):
yield i

fake_reader = Fake()(reader, 100)


Creator包包含一些简单的reader creator,可以在用户Program中使用。



.. py:function:: paddle.reader.creator.np_array(x)

如果是numpy向量,则创建一个生成x个元素的读取器。或者,如果它是一个numpy矩阵,创建一个生成x行元素的读取器。或由最高维度索引的任何子超平面。

参数:
- **x** – 用于创建读卡器的numpy数组

返回: 从x创建的数据读取器


.. py:function:: paddle.reader.creator.text_file(path)

创建从给定文本文件逐行输出文本的数据读取器。将删除每行的行尾的(‘\n’)。

路径:文本文件的路径

返回: 文本文件的数据读取器


.. py:function:: paddle.reader.creator.recordio(paths, buf_size=100)

从给定的recordio文件路径创建数据读卡器,用“,”分隔“,支持全局模式。

路径:recordio文件的路径,可以是字符串或字符串列表。

返回: recordio文件的数据读取器
1 change: 1 addition & 0 deletions doc/fluid/api_cn/index_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -22,3 +22,4 @@ API
regularizer_cn.rst
transpiler_cn.rst
data/dataset_cn.rst
data/data_reader_cn.rst