From 2cb4211e8a8faa3a556be23249b2c3261c2b8e7e Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Tue, 29 Mar 2022 17:18:51 +0800 Subject: [PATCH 001/107] fix api docs stype --- docs/api/paddle/CPUPlace_cn.rst | 3 +- docs/api/paddle/CUDAPinnedPlace_cn.rst | 3 +- docs/api/paddle/CUDAPlace_cn.rst | 7 +- docs/api/paddle/DataParallel_cn.rst | 41 +- docs/api/paddle/Model_cn.rst | 118 +- docs/api/paddle/NPUPlace_cn.rst | 7 +- docs/api/paddle/ParamAttr_cn.rst | 11 +- docs/api/paddle/Tensor_cn.rst | 1541 ++++++++++++----- docs/api/paddle/add_n_cn.rst | 11 +- docs/api/paddle/addmm_cn.rst | 15 +- docs/api/paddle/allclose_cn.rst | 11 +- docs/api/paddle/amp/GradScaler_cn.rst | 57 +- docs/api/paddle/amp/auto_cast_cn.rst | 4 +- docs/api/paddle/amp/decorate_cn.rst | 4 +- docs/api/paddle/argsort_cn.rst | 11 +- docs/api/paddle/asin_cn.rst | 15 +- docs/api/paddle/assign_cn.rst | 11 +- docs/api/paddle/atan_cn.rst | 15 +- .../api/paddle/autograd/PyLayerContext_cn.rst | 24 +- docs/api/paddle/autograd/PyLayer_cn.rst | 38 +- docs/api/paddle/autograd/backward_cn.rst | 11 +- docs/api/paddle/bernoulli_cn.rst | 11 +- docs/api/paddle/bincount_cn.rst | 8 +- docs/api/paddle/bitwise_and_cn.rst | 11 +- docs/api/paddle/bitwise_not_cn.rst | 11 +- docs/api/paddle/bitwise_or_cn.rst | 11 +- docs/api/paddle/bitwise_xor_cn.rst | 11 +- docs/api/paddle/callbacks/Callback_cn.rst | 59 +- .../api/paddle/callbacks/EarlyStopping_cn.rst | 7 +- docs/api/paddle/callbacks/LRScheduler_cn.rst | 7 +- .../paddle/callbacks/ModelCheckpoint_cn.rst | 7 +- .../api/paddle/callbacks/ProgBarLogger_cn.rst | 7 +- .../paddle/callbacks/ReduceLROnPlateau_cn.rst | 7 +- docs/api/paddle/callbacks/VisualDL_cn.rst | 7 +- docs/api/paddle/cast_cn.rst | 15 +- docs/api/paddle/ceil_cn.rst | 15 +- docs/api/paddle/chunk_cn.rst | 7 +- docs/api/paddle/clip_cn.rst | 15 +- docs/api/paddle/concat_cn.rst | 11 +- docs/api/paddle/conj_cn.rst | 11 +- docs/api/paddle/cos_cn.rst | 11 +- docs/api/paddle/cosh_cn.rst | 11 +- docs/api/paddle/device/XPUPlace_cn.rst | 7 +- docs/api/paddle/device/cuda/Event_cn.rst | 34 +- docs/api/paddle/device/cuda/Stream_cn.rst | 49 +- .../paddle/device/cuda/current_stream_cn.rst | 11 +- .../paddle/device/cuda/device_count_cn.rst | 7 +- .../paddle/device/cuda/stream_guard_cn.rst | 7 +- .../api/paddle/device/cuda/synchronize_cn.rst | 11 +- .../paddle/device/get_cudnn_version_cn.rst | 7 +- docs/api/paddle/device/get_device_cn.rst | 7 +- .../device/is_compiled_with_cinn_cn.rst | 7 +- .../device/is_compiled_with_cuda_cn.rst | 7 +- .../paddle/device/is_compiled_with_npu_cn.rst | 7 +- .../device/is_compiled_with_rocm_cn.rst | 7 +- .../paddle/device/is_compiled_with_xpu_cn.rst | 7 +- docs/api/paddle/device/set_device_cn.rst | 11 +- docs/api/paddle/diag_cn.rst | 4 +- docs/api/paddle/diagflat_cn.rst | 4 +- docs/api/paddle/diagonal_cn.rst | 4 +- docs/api/paddle/diff_cn.rst | 4 +- docs/api/paddle/disable_static_cn.rst | 11 +- docs/api/paddle/dist_cn.rst | 15 +- .../paddle/distributed/InMemoryDataset_cn.rst | 98 +- .../api/paddle/distributed/ParallelEnv_cn.rst | 32 +- .../paddle/distributed/QueueDataset_cn.rst | 22 +- .../fleet/DistributedStrategy_cn.rst | 122 +- .../api/paddle/distributed/fleet/Fleet_cn.rst | 185 +- .../fleet/PaddleCloudRoleMaker_cn.rst | 13 +- .../fleet/UserDefinedRoleMaker_cn.rst | 13 +- .../paddle/distributed/fleet/UtilBase_cn.rst | 51 +- .../distributed/fleet/utils/HDFSClient_cn.rst | 112 +- .../distributed/fleet/utils/LocalFS_cn.rst | 100 +- docs/api/paddle/distributed/get_group_cn.rst | 3 +- docs/api/paddle/distributed/new_group_cn.rst | 3 +- docs/api/paddle/distributed/wait_cn.rst | 3 +- .../paddle/distribution/Categorical_cn.rst | 63 +- .../paddle/distribution/Distribution_cn.rst | 12 +- docs/api/paddle/distribution/Normal_cn.rst | 63 +- docs/api/paddle/distribution/Uniform_cn.rst | 51 +- docs/api/paddle/empty_cn.rst | 11 +- docs/api/paddle/empty_like_cn.rst | 11 +- docs/api/paddle/enable_static_cn.rst | 7 +- docs/api/paddle/equal_all_cn.rst | 15 +- docs/api/paddle/equal_cn.rst | 15 +- docs/api/paddle/erf_cn.rst | 11 +- docs/api/paddle/exp_cn.rst | 15 +- docs/api/paddle/eye_cn.rst | 15 +- docs/api/paddle/flatten_cn.rst | 19 +- docs/api/paddle/flip_cn.rst | 19 +- docs/api/paddle/floor_cn.rst | 15 +- docs/api/paddle/fluid/DataFeedDesc_cn.rst | 40 +- docs/api/paddle/fluid/DataFeeder_cn.rst | 52 +- .../paddle/fluid/clip/ErrorClipByValue_cn.rst | 7 +- .../fluid/clip/set_gradient_clip_cn.rst | 11 +- .../api/paddle/fluid/create_lod_tensor_cn.rst | 15 +- .../fluid/create_random_int_lodtensor_cn.rst | 15 +- .../paddle/fluid/cuda_pinned_places_cn.rst | 15 +- docs/api/paddle/fluid/data_cn.rst | 15 +- .../fluid/dataset/DatasetFactory_cn.rst | 13 +- .../fluid/dataset/InMemoryDataset_cn.rst | 152 +- .../paddle/fluid/dataset/QueueDataset_cn.rst | 87 +- .../dygraph/BilinearTensorProduct_cn.rst | 19 +- .../fluid/dygraph/Conv2DTranspose_cn.rst | 19 +- docs/api/paddle/fluid/dygraph/Conv2D_cn.rst | 23 +- .../fluid/dygraph/Conv3DTranspose_cn.rst | 19 +- docs/api/paddle/fluid/dygraph/Conv3D_cn.rst | 19 +- docs/api/paddle/fluid/dygraph/Dropout_cn.rst | 11 +- .../api/paddle/fluid/dygraph/Embedding_cn.rst | 15 +- docs/api/paddle/fluid/dygraph/GRUCell_cn.rst | 37 +- docs/api/paddle/fluid/dygraph/GRUUnit_cn.rst | 19 +- .../api/paddle/fluid/dygraph/GroupNorm_cn.rst | 15 +- docs/api/paddle/fluid/dygraph/LSTMCell_cn.rst | 37 +- .../paddle/fluid/dygraph/LambdaDecay_cn.rst | 24 +- .../api/paddle/fluid/dygraph/LayerNorm_cn.rst | 11 +- docs/api/paddle/fluid/dygraph/Linear_cn.rst | 19 +- .../fluid/dygraph/MultiStepDecay_cn.rst | 24 +- docs/api/paddle/fluid/dygraph/NCE_cn.rst | 19 +- docs/api/paddle/fluid/dygraph/PRelu_cn.rst | 16 +- docs/api/paddle/fluid/dygraph/Pool2D_cn.rst | 15 +- .../fluid/dygraph/ReduceLROnPlateau_cn.rst | 28 +- .../api/paddle/fluid/dygraph/StepDecay_cn.rst | 24 +- docs/api/paddle/fluid/dygraph/TreeConv_cn.rst | 19 +- docs/api/paddle/fluid/dygraph/enabled_cn.rst | 13 +- .../fluid/dygraph/prepare_context_cn.rst | 15 +- .../paddle/fluid/dygraph/save_dygraph_cn.rst | 11 +- .../fluid/evaluator/ChunkEvaluator_cn.rst | 35 +- .../fluid/evaluator/DetectionMAP_cn.rst | 29 +- .../fluid/evaluator/EditDistance_cn.rst | 26 +- docs/api/paddle/fluid/get_flags_cn.rst | 7 +- .../initializer/ConstantInitializer_cn.rst | 11 +- .../paddle/fluid/initializer/Constant_cn.rst | 5 +- .../fluid/initializer/MSRAInitializer_cn.rst | 11 +- docs/api/paddle/fluid/initializer/MSRA_cn.rst | 5 +- .../paddle/fluid/initializer/Normal_cn.rst | 51 +- .../initializer/NumpyArrayInitializer_cn.rst | 15 +- .../fluid/initializer/TruncatedNormal_cn.rst | 5 +- .../paddle/fluid/initializer/Uniform_cn.rst | 39 +- .../paddle/fluid/initializer/Xavier_cn.rst | 5 +- docs/api/paddle/fluid/io/PyReader_cn.rst | 44 +- .../fluid/io/get_program_parameter_cn.rst | 15 +- .../io/get_program_persistable_vars_cn.rst | 15 +- docs/api/paddle/fluid/io/load_params_cn.rst | 7 +- .../paddle/fluid/io/load_persistables_cn.rst | 7 +- docs/api/paddle/fluid/io/load_vars_cn.rst | 15 +- docs/api/paddle/fluid/io/save_params_cn.rst | 11 +- .../paddle/fluid/io/save_persistables_cn.rst | 11 +- docs/api/paddle/fluid/io/save_vars_cn.rst | 15 +- docs/api/paddle/fluid/io/shuffle_cn.rst | 12 +- .../paddle/fluid/layers/BasicDecoder_cn.rst | 33 +- .../paddle/fluid/layers/Categorical_cn.rst | 27 +- .../paddle/fluid/layers/DecodeHelper_cn.rst | 35 +- docs/api/paddle/fluid/layers/Decoder_cn.rst | 38 +- .../api/paddle/fluid/layers/DynamicRNN_cn.rst | 102 +- docs/api/paddle/fluid/layers/GRUCell_cn.rst | 37 +- .../fluid/layers/GreedyEmbeddingHelper_cn.rst | 42 +- docs/api/paddle/fluid/layers/IfElse_cn.rst | 4 +- docs/api/paddle/fluid/layers/LSTMCell_cn.rst | 37 +- .../layers/MultivariateNormalDiag_cn.rst | 27 +- docs/api/paddle/fluid/layers/Normal_cn.rst | 51 +- docs/api/paddle/fluid/layers/RNNCell_cn.rst | 32 +- .../fluid/layers/SampleEmbeddingHelper_cn.rst | 21 +- docs/api/paddle/fluid/layers/StaticRNN_cn.rst | 69 +- docs/api/paddle/fluid/layers/Switch_cn.rst | 7 +- .../paddle/fluid/layers/TrainingHelper_cn.rst | 42 +- docs/api/paddle/fluid/layers/Uniform_cn.rst | 39 +- docs/api/paddle/fluid/layers/While_cn.rst | 10 +- .../fluid/layers/adaptive_pool2d_cn.rst | 16 +- .../fluid/layers/adaptive_pool3d_cn.rst | 16 +- .../fluid/layers/add_position_encoding_cn.rst | 15 +- .../paddle/fluid/layers/affine_channel_cn.rst | 15 +- .../paddle/fluid/layers/affine_grid_cn.rst | 15 +- .../fluid/layers/anchor_generator_cn.rst | 15 +- docs/api/paddle/fluid/layers/argmax_cn.rst | 15 +- docs/api/paddle/fluid/layers/argmin_cn.rst | 15 +- docs/api/paddle/fluid/layers/argsort_cn.rst | 15 +- .../paddle/fluid/layers/array_length_cn.rst | 15 +- .../api/paddle/fluid/layers/array_read_cn.rst | 15 +- .../paddle/fluid/layers/array_write_cn.rst | 15 +- .../layers/autoincreased_step_counter_cn.rst | 15 +- .../paddle/fluid/layers/beam_search_cn.rst | 15 +- .../fluid/layers/beam_search_decode_cn.rst | 15 +- .../fluid/layers/bipartite_match_cn.rst | 15 +- docs/api/paddle/fluid/layers/box_clip_cn.rst | 15 +- docs/api/paddle/fluid/layers/box_coder_cn.rst | 15 +- .../layers/box_decoder_and_assign_cn.rst | 15 +- docs/api/paddle/fluid/layers/bpr_loss_cn.rst | 15 +- docs/api/paddle/fluid/layers/brelu_cn.rst | 15 +- .../paddle/fluid/layers/center_loss_cn.rst | 15 +- .../fluid/layers/collect_fpn_proposals_cn.rst | 15 +- docs/api/paddle/fluid/layers/concat_cn.rst | 11 +- .../layers/continuous_value_model_cn.rst | 15 +- .../paddle/fluid/layers/cosine_decay_cn.rst | 7 +- .../paddle/fluid/layers/create_array_cn.rst | 15 +- .../layers/create_py_reader_by_data_cn.rst | 15 +- .../paddle/fluid/layers/create_tensor_cn.rst | 15 +- docs/api/paddle/fluid/layers/crop_cn.rst | 19 +- .../paddle/fluid/layers/cross_entropy_cn.rst | 11 +- .../fluid/layers/ctc_greedy_decoder_cn.rst | 15 +- docs/api/paddle/fluid/layers/cumsum_cn.rst | 15 +- docs/api/paddle/fluid/layers/data_cn.rst | 15 +- .../fluid/layers/deformable_conv_cn.rst | 19 +- .../layers/deformable_roi_pooling_cn.rst | 15 +- .../fluid/layers/density_prior_box_cn.rst | 15 +- .../fluid/layers/detection_output_cn.rst | 15 +- docs/api/paddle/fluid/layers/diag_cn.rst | 15 +- .../layers/distribute_fpn_proposals_cn.rst | 15 +- .../paddle/fluid/layers/double_buffer_cn.rst | 15 +- docs/api/paddle/fluid/layers/dropout_cn.rst | 15 +- .../paddle/fluid/layers/dynamic_gru_cn.rst | 15 +- .../paddle/fluid/layers/dynamic_lstm_cn.rst | 15 +- .../paddle/fluid/layers/dynamic_lstmp_cn.rst | 15 +- .../paddle/fluid/layers/edit_distance_cn.rst | 15 +- .../fluid/layers/elementwise_add_cn.rst | 21 +- .../fluid/layers/elementwise_div_cn.rst | 21 +- .../fluid/layers/elementwise_floordiv_cn.rst | 21 +- .../fluid/layers/elementwise_max_cn.rst | 18 +- .../fluid/layers/elementwise_min_cn.rst | 18 +- .../fluid/layers/elementwise_mod_cn.rst | 21 +- .../fluid/layers/elementwise_pow_cn.rst | 15 +- .../fluid/layers/elementwise_sub_cn.rst | 21 +- docs/api/paddle/fluid/layers/elu_cn.rst | 15 +- docs/api/paddle/fluid/layers/embedding_cn.rst | 15 +- docs/api/paddle/fluid/layers/equal_cn.rst | 15 +- docs/api/paddle/fluid/layers/expand_as_cn.rst | 19 +- docs/api/paddle/fluid/layers/expand_cn.rst | 19 +- .../fluid/layers/exponential_decay_cn.rst | 15 +- docs/api/paddle/fluid/layers/eye_cn.rst | 11 +- docs/api/paddle/fluid/layers/fc_cn.rst | 15 +- .../paddle/fluid/layers/fill_constant_cn.rst | 15 +- .../fluid/layers/filter_by_instag_cn.rst | 15 +- docs/api/paddle/fluid/layers/flatten_cn.rst | 19 +- .../api/paddle/fluid/layers/fsp_matrix_cn.rst | 15 +- docs/api/paddle/fluid/layers/gather_cn.rst | 11 +- docs/api/paddle/fluid/layers/gather_nd_cn.rst | 11 +- .../fluid/layers/gaussian_random_cn.rst | 15 +- docs/api/paddle/fluid/layers/gelu_cn.rst | 15 +- .../fluid/layers/generate_mask_labels_cn.rst | 15 +- .../layers/generate_proposal_labels_cn.rst | 15 +- .../fluid/layers/generate_proposals_cn.rst | 15 +- .../get_tensor_from_selected_rows_cn.rst | 15 +- .../paddle/fluid/layers/greater_equal_cn.rst | 15 +- .../paddle/fluid/layers/greater_than_cn.rst | 15 +- .../paddle/fluid/layers/grid_sampler_cn.rst | 15 +- docs/api/paddle/fluid/layers/gru_unit_cn.rst | 15 +- .../paddle/fluid/layers/hard_shrink_cn.rst | 11 +- .../paddle/fluid/layers/hard_sigmoid_cn.rst | 15 +- .../api/paddle/fluid/layers/hard_swish_cn.rst | 15 +- docs/api/paddle/fluid/layers/hash_cn.rst | 15 +- docs/api/paddle/fluid/layers/hsigmoid_cn.rst | 15 +- .../api/paddle/fluid/layers/huber_loss_cn.rst | 15 +- .../paddle/fluid/layers/im2sequence_cn.rst | 15 +- .../paddle/fluid/layers/image_resize_cn.rst | 19 +- .../fluid/layers/image_resize_short_cn.rst | 15 +- .../paddle/fluid/layers/inplace_abn_cn.rst | 15 +- .../fluid/layers/inverse_time_decay_cn.rst | 15 +- .../paddle/fluid/layers/iou_similarity_cn.rst | 15 +- docs/api/paddle/fluid/layers/isfinite_cn.rst | 11 +- .../api/paddle/fluid/layers/kldiv_loss_cn.rst | 15 +- .../paddle/fluid/layers/l2_normalize_cn.rst | 7 +- .../paddle/fluid/layers/label_smooth_cn.rst | 15 +- .../api/paddle/fluid/layers/leaky_relu_cn.rst | 15 +- .../api/paddle/fluid/layers/less_equal_cn.rst | 15 +- docs/api/paddle/fluid/layers/less_than_cn.rst | 15 +- .../fluid/layers/linear_chain_crf_cn.rst | 15 +- .../fluid/layers/linear_lr_warmup_cn.rst | 15 +- .../fluid/layers/locality_aware_nms_cn.rst | 15 +- .../api/paddle/fluid/layers/lod_append_cn.rst | 15 +- docs/api/paddle/fluid/layers/lod_reset_cn.rst | 19 +- docs/api/paddle/fluid/layers/lrn_cn.rst | 19 +- docs/api/paddle/fluid/layers/lstm_cn.rst | 15 +- docs/api/paddle/fluid/layers/lstm_unit_cn.rst | 19 +- .../fluid/layers/margin_rank_loss_cn.rst | 19 +- docs/api/paddle/fluid/layers/matmul_cn.rst | 15 +- .../api/paddle/fluid/layers/matrix_nms_cn.rst | 11 +- docs/api/paddle/fluid/layers/maxout_cn.rst | 19 +- docs/api/paddle/fluid/layers/mean_cn.rst | 15 +- .../fluid/layers/merge_selected_rows_cn.rst | 15 +- docs/api/paddle/fluid/layers/mish_cn.rst | 11 +- docs/api/paddle/fluid/layers/mse_loss_cn.rst | 15 +- docs/api/paddle/fluid/layers/mul_cn.rst | 15 +- .../paddle/fluid/layers/multiclass_nms_cn.rst | 15 +- .../fluid/layers/natural_exp_decay_cn.rst | 15 +- .../api/paddle/fluid/layers/noam_decay_cn.rst | 15 +- docs/api/paddle/fluid/layers/not_equal_cn.rst | 15 +- docs/api/paddle/fluid/layers/one_hot_cn.rst | 15 +- docs/api/paddle/fluid/layers/ones_cn.rst | 11 +- docs/api/paddle/fluid/layers/ones_like_cn.rst | 15 +- docs/api/paddle/fluid/layers/pad2d_cn.rst | 11 +- docs/api/paddle/fluid/layers/pad_cn.rst | 15 +- .../fluid/layers/pad_constant_like_cn.rst | 15 +- .../fluid/layers/piecewise_decay_cn.rst | 11 +- .../paddle/fluid/layers/pixel_shuffle_cn.rst | 19 +- .../fluid/layers/polygon_box_transform_cn.rst | 15 +- .../fluid/layers/polynomial_decay_cn.rst | 15 +- docs/api/paddle/fluid/layers/pool2d_cn.rst | 23 +- docs/api/paddle/fluid/layers/pool3d_cn.rst | 23 +- docs/api/paddle/fluid/layers/prior_box_cn.rst | 15 +- .../api/paddle/fluid/layers/prroi_pool_cn.rst | 15 +- .../api/paddle/fluid/layers/psroi_pool_cn.rst | 15 +- docs/api/paddle/fluid/layers/py_reader_cn.rst | 15 +- .../paddle/fluid/layers/random_crop_cn.rst | 15 +- docs/api/paddle/fluid/layers/range_cn.rst | 12 +- docs/api/paddle/fluid/layers/rank_loss_cn.rst | 19 +- docs/api/paddle/fluid/layers/read_file_cn.rst | 15 +- .../api/paddle/fluid/layers/reduce_all_cn.rst | 15 +- .../api/paddle/fluid/layers/reduce_any_cn.rst | 15 +- .../api/paddle/fluid/layers/reduce_max_cn.rst | 15 +- .../paddle/fluid/layers/reduce_mean_cn.rst | 15 +- .../api/paddle/fluid/layers/reduce_min_cn.rst | 15 +- .../paddle/fluid/layers/reduce_prod_cn.rst | 15 +- .../api/paddle/fluid/layers/reduce_sum_cn.rst | 15 +- docs/api/paddle/fluid/layers/relu6_cn.rst | 15 +- docs/api/paddle/fluid/layers/relu_cn.rst | 15 +- .../layers/reorder_lod_tensor_by_rank_cn.rst | 15 +- docs/api/paddle/fluid/layers/reshape_cn.rst | 15 +- .../fluid/layers/resize_bilinear_cn.rst | 11 +- .../paddle/fluid/layers/resize_nearest_cn.rst | 15 +- .../fluid/layers/resize_trilinear_cn.rst | 11 +- .../layers/retinanet_detection_output_cn.rst | 15 +- .../layers/retinanet_target_assign_cn.rst | 15 +- docs/api/paddle/fluid/layers/reverse_cn.rst | 15 +- docs/api/paddle/fluid/layers/rnn_cn.rst | 16 +- docs/api/paddle/fluid/layers/roi_align_cn.rst | 15 +- .../layers/roi_perspective_transform_cn.rst | 15 +- docs/api/paddle/fluid/layers/roi_pool_cn.rst | 15 +- .../fluid/layers/rpn_target_assign_cn.rst | 15 +- .../paddle/fluid/layers/sampling_id_cn.rst | 15 +- docs/api/paddle/fluid/layers/scatter_cn.rst | 11 +- docs/api/paddle/fluid/layers/selu_cn.rst | 15 +- .../fluid/layers/sequence_concat_cn.rst | 15 +- .../paddle/fluid/layers/sequence_conv_cn.rst | 15 +- .../fluid/layers/sequence_enumerate_cn.rst | 15 +- .../fluid/layers/sequence_expand_as_cn.rst | 15 +- .../fluid/layers/sequence_expand_cn.rst | 15 +- .../fluid/layers/sequence_first_step_cn.rst | 15 +- .../fluid/layers/sequence_last_step_cn.rst | 15 +- .../paddle/fluid/layers/sequence_pad_cn.rst | 15 +- .../paddle/fluid/layers/sequence_pool_cn.rst | 15 +- .../fluid/layers/sequence_reshape_cn.rst | 15 +- .../fluid/layers/sequence_reverse_cn.rst | 15 +- .../fluid/layers/sequence_scatter_cn.rst | 15 +- .../paddle/fluid/layers/sequence_slice_cn.rst | 15 +- .../fluid/layers/sequence_softmax_cn.rst | 15 +- .../paddle/fluid/layers/sequence_unpad_cn.rst | 15 +- .../fluid/layers/shuffle_channel_cn.rst | 15 +- .../sigmoid_cross_entropy_with_logits_cn.rst | 15 +- .../fluid/layers/sigmoid_focal_loss_cn.rst | 15 +- docs/api/paddle/fluid/layers/sign_cn.rst | 15 +- .../fluid/layers/similarity_focus_cn.rst | 15 +- docs/api/paddle/fluid/layers/size_cn.rst | 11 +- docs/api/paddle/fluid/layers/smooth_l1_cn.rst | 15 +- docs/api/paddle/fluid/layers/soft_relu_cn.rst | 15 +- docs/api/paddle/fluid/layers/softmax_cn.rst | 15 +- .../api/paddle/fluid/layers/softshrink_cn.rst | 15 +- .../paddle/fluid/layers/space_to_depth_cn.rst | 19 +- docs/api/paddle/fluid/layers/split_cn.rst | 11 +- docs/api/paddle/fluid/layers/squeeze_cn.rst | 15 +- docs/api/paddle/fluid/layers/ssd_loss_cn.rst | 15 +- docs/api/paddle/fluid/layers/stack_cn.rst | 15 +- .../paddle/fluid/layers/strided_slice_cn.rst | 19 +- docs/api/paddle/fluid/layers/sum_cn.rst | 15 +- docs/api/paddle/fluid/layers/sums_cn.rst | 15 +- docs/api/paddle/fluid/layers/swish_cn.rst | 15 +- .../paddle/fluid/layers/target_assign_cn.rst | 15 +- .../teacher_student_sigmoid_loss_cn.rst | 15 +- .../layers/tensor_array_to_tensor_cn.rst | 15 +- .../fluid/layers/thresholded_relu_cn.rst | 15 +- docs/api/paddle/fluid/layers/topk_cn.rst | 15 +- .../paddle/fluid/layers/uniform_random_cn.rst | 15 +- docs/api/paddle/fluid/layers/unique_cn.rst | 15 +- .../fluid/layers/unique_with_counts_cn.rst | 15 +- docs/api/paddle/fluid/layers/unsqueeze_cn.rst | 15 +- docs/api/paddle/fluid/layers/warpctc_cn.rst | 15 +- docs/api/paddle/fluid/layers/where_cn.rst | 15 +- docs/api/paddle/fluid/layers/yolo_box_cn.rst | 19 +- .../paddle/fluid/layers/yolov3_loss_cn.rst | 19 +- docs/api/paddle/fluid/layers/zeros_cn.rst | 11 +- .../api/paddle/fluid/layers/zeros_like_cn.rst | 15 +- docs/api/paddle/fluid/metrics/Accuracy_cn.rst | 35 +- docs/api/paddle/fluid/metrics/Auc_cn.rst | 35 +- .../fluid/metrics/ChunkEvaluator_cn.rst | 35 +- .../fluid/metrics/CompositeMetric_cn.rst | 35 +- .../paddle/fluid/metrics/DetectionMAP_cn.rst | 29 +- .../paddle/fluid/metrics/EditDistance_cn.rst | 26 +- .../paddle/fluid/metrics/MetricBase_cn.rst | 47 +- .../api/paddle/fluid/metrics/Precision_cn.rst | 26 +- docs/api/paddle/fluid/metrics/Recall_cn.rst | 26 +- docs/api/paddle/fluid/nets/glu_cn.rst | 15 +- .../paddle/fluid/nets/img_conv_group_cn.rst | 15 +- .../nets/scaled_dot_product_attention_cn.rst | 19 +- .../fluid/nets/sequence_conv_pool_cn.rst | 15 +- .../fluid/nets/simple_img_conv_pool_cn.rst | 15 +- docs/api/paddle/fluid/one_hot_cn.rst | 15 +- .../fluid/optimizer/MomentumOptimizer_cn.rst | 44 +- .../fluid/optimizer/SGDOptimizer_cn.rst | 42 +- .../api/paddle/fluid/profiler/profiler_cn.rst | 11 +- .../fluid/profiler/reset_profiler_cn.rst | 3 +- .../fluid/profiler/start_profiler_cn.rst | 11 +- .../fluid/profiler/stop_profiler_cn.rst | 11 +- docs/api/paddle/fluid/reader/PyReader_cn.rst | 44 +- docs/api/paddle/fluid/require_version_cn.rst | 15 +- docs/api/paddle/fluid/set_flags_cn.rst | 7 +- .../DistributeTranspilerConfig_cn.rst | 15 +- .../transpiler/DistributeTranspiler_cn.rst | 74 +- .../paddle/fluid/transpiler/HashName_cn.rst | 23 +- docs/api/paddle/full_cn.rst | 11 +- docs/api/paddle/full_like_cn.rst | 8 +- docs/api/paddle/gather_cn.rst | 3 +- docs/api/paddle/gather_nd_cn.rst | 11 +- docs/api/paddle/get_cuda_rng_state_cn.rst | 11 +- docs/api/paddle/get_default_dtype_cn.rst | 11 +- docs/api/paddle/get_flags_cn.rst | 11 +- docs/api/paddle/grad_cn.rst | 15 +- docs/api/paddle/greater_equal_cn.rst | 15 +- docs/api/paddle/histogram_cn.rst | 15 +- docs/api/paddle/imag_cn.rst | 11 +- docs/api/paddle/in_dynamic_mode_cn.rst | 11 +- docs/api/paddle/increment_cn.rst | 3 +- docs/api/paddle/incubate/ModelAverage_cn.rst | 12 +- .../fused_multi_head_attention_cn.rst | 4 +- docs/api/paddle/index_sample_cn.rst | 3 +- docs/api/paddle/index_select_cn.rst | 3 +- docs/api/paddle/inner_cn.rst | 8 +- docs/api/paddle/io/BatchSampler_cn.rst | 15 +- docs/api/paddle/io/ChainDataset_cn.rst | 11 +- docs/api/paddle/io/ComposeDataset_cn.rst | 11 +- docs/api/paddle/io/DataLoader_cn.rst | 44 +- docs/api/paddle/io/Dataset_cn.rst | 3 +- .../paddle/io/DistributedBatchSampler_cn.rst | 22 +- docs/api/paddle/io/IterableDataset_cn.rst | 9 +- docs/api/paddle/io/Sampler_cn.rst | 15 +- docs/api/paddle/io/SequenceSampler_cn.rst | 15 +- docs/api/paddle/io/TensorDataset_cn.rst | 15 +- .../paddle/io/WeightedRandomSampler_cn.rst | 15 +- docs/api/paddle/io/random_split_cn.rst | 11 +- docs/api/paddle/is_empty_cn.rst | 11 +- docs/api/paddle/is_tensor_cn.rst | 11 +- docs/api/paddle/jit/ProgramTranslator_cn.rst | 76 +- docs/api/paddle/jit/TracedLayer_cn.rst | 32 +- docs/api/paddle/jit/TranslatedLayer_cn.rst | 19 +- docs/api/paddle/jit/set_code_level_cn.rst | 7 +- docs/api/paddle/jit/set_verbosity_cn.rst | 7 +- docs/api/paddle/jit/to_static_cn.rst | 7 +- docs/api/paddle/kron_cn.rst | 11 +- docs/api/paddle/less_equal_cn.rst | 15 +- docs/api/paddle/less_than_cn.rst | 15 +- docs/api/paddle/linalg/cholesky_cn.rst | 15 +- docs/api/paddle/linalg/cholesky_solve_cn.rst | 8 +- docs/api/paddle/linalg/cond_cn.rst | 8 +- docs/api/paddle/linalg/cov_cn.rst | 8 +- docs/api/paddle/linalg/det_cn.rst | 8 +- docs/api/paddle/linalg/eig_cn.rst | 8 +- docs/api/paddle/linalg/eigh_cn.rst | 8 +- docs/api/paddle/linalg/eigvalsh_cn.rst | 8 +- docs/api/paddle/linalg/lstsq_cn.rst | 8 +- docs/api/paddle/linalg/lu_cn.rst | 8 +- docs/api/paddle/linalg/lu_unpack_cn.rst | 8 +- docs/api/paddle/linalg/matrix_power_cn.rst | 4 +- docs/api/paddle/linalg/multi_dot_cn.rst | 4 +- docs/api/paddle/linalg/pinv_cn.rst | 4 +- docs/api/paddle/linalg/qr_cn.rst | 8 +- docs/api/paddle/linalg/slogdet_cn.rst | 8 +- docs/api/paddle/linalg/solve_cn.rst | 4 +- docs/api/paddle/linalg/svd_cn.rst | 8 +- .../api/paddle/linalg/triangular_solve_cn.rst | 4 +- docs/api/paddle/linspace_cn.rst | 11 +- docs/api/paddle/log10_cn.rst | 15 +- docs/api/paddle/log1p_cn.rst | 11 +- docs/api/paddle/log_cn.rst | 11 +- docs/api/paddle/logical_and_cn.rst | 11 +- docs/api/paddle/logical_not_cn.rst | 15 +- docs/api/paddle/logical_or_cn.rst | 11 +- docs/api/paddle/logical_xor_cn.rst | 11 +- docs/api/paddle/logit_cn.rst | 4 +- docs/api/paddle/masked_select_cn.rst | 15 +- docs/api/paddle/matmul_cn.rst | 4 +- docs/api/paddle/meshgrid_cn.rst | 15 +- docs/api/paddle/metric/Auc_cn.rst | 16 +- docs/api/paddle/metric/Metric_cn.rst | 12 +- docs/api/paddle/metric/Precision_cn.rst | 16 +- docs/api/paddle/metric/Recall_cn.rst | 16 +- docs/api/paddle/mm_cn.rst | 11 +- docs/api/paddle/multinomial_cn.rst | 15 +- docs/api/paddle/multiplex_cn.rst | 11 +- docs/api/paddle/nn/BatchNorm1D_cn.rst | 11 +- docs/api/paddle/nn/BatchNorm2D_cn.rst | 11 +- docs/api/paddle/nn/BatchNorm3D_cn.rst | 11 +- docs/api/paddle/nn/BatchNorm_cn.rst | 11 +- docs/api/paddle/nn/BeamSearchDecoder_cn.rst | 133 +- docs/api/paddle/nn/BiRNN_cn.rst | 7 +- .../api/paddle/nn/ClipGradByGlobalNorm_cn.rst | 7 +- docs/api/paddle/nn/ClipGradByNorm_cn.rst | 7 +- docs/api/paddle/nn/ClipGradByValue_cn.rst | 7 +- docs/api/paddle/nn/Conv1DTranspose_cn.rst | 7 +- docs/api/paddle/nn/Conv1D_cn.rst | 14 +- docs/api/paddle/nn/Conv2DTranspose_cn.rst | 11 +- docs/api/paddle/nn/Conv2D_cn.rst | 17 +- docs/api/paddle/nn/Conv3DTranspose_cn.rst | 11 +- docs/api/paddle/nn/Conv3D_cn.rst | 17 +- docs/api/paddle/nn/CosineSimilarity_cn.rst | 11 +- docs/api/paddle/nn/Embedding_cn.rst | 15 +- docs/api/paddle/nn/Flatten_cn.rst | 11 +- docs/api/paddle/nn/GRUCell_cn.rst | 7 +- docs/api/paddle/nn/GRU_cn.rst | 7 +- docs/api/paddle/nn/GroupNorm_cn.rst | 11 +- docs/api/paddle/nn/Hardsigmoid_cn.rst | 4 +- docs/api/paddle/nn/Hardswish_cn.rst | 4 +- docs/api/paddle/nn/InstanceNorm1D_cn.rst | 11 +- docs/api/paddle/nn/InstanceNorm2D_cn.rst | 11 +- docs/api/paddle/nn/InstanceNorm3D_cn.rst | 11 +- docs/api/paddle/nn/KLDivLoss_cn.rst | 7 +- docs/api/paddle/nn/LSTMCell_cn.rst | 7 +- docs/api/paddle/nn/LSTM_cn.rst | 7 +- docs/api/paddle/nn/LayerDict_cn.rst | 49 +- docs/api/paddle/nn/LayerList_cn.rst | 31 +- docs/api/paddle/nn/LayerNorm_cn.rst | 11 +- docs/api/paddle/nn/Layer_cn.rst | 205 ++- docs/api/paddle/nn/Linear_cn.rst | 11 +- docs/api/paddle/nn/MSELoss_cn.rst | 11 +- docs/api/paddle/nn/Maxout_cn.rst | 4 +- docs/api/paddle/nn/MultiHeadAttention_cn.rst | 7 +- docs/api/paddle/nn/Pad1D_cn.rst | 11 +- docs/api/paddle/nn/Pad2D_cn.rst | 11 +- docs/api/paddle/nn/Pad3D_cn.rst | 11 +- docs/api/paddle/nn/ParameterList_cn.rst | 11 +- docs/api/paddle/nn/RNNCellBase_cn.rst | 8 +- docs/api/paddle/nn/RNN_cn.rst | 7 +- docs/api/paddle/nn/Sequential_cn.rst | 11 +- docs/api/paddle/nn/SimpleRNNCell_cn.rst | 7 +- docs/api/paddle/nn/SimpleRNN_cn.rst | 7 +- docs/api/paddle/nn/SyncBatchNorm_cn.rst | 18 +- .../paddle/nn/TransformerDecoderLayer_cn.rst | 7 +- docs/api/paddle/nn/TransformerDecoder_cn.rst | 7 +- .../paddle/nn/TransformerEncoderLayer_cn.rst | 7 +- docs/api/paddle/nn/TransformerEncoder_cn.rst | 7 +- docs/api/paddle/nn/Transformer_cn.rst | 29 +- docs/api/paddle/nn/Unfold_cn.rst | 7 +- docs/api/paddle/nn/Upsample_cn.rst | 4 +- .../api/paddle/nn/UpsamplingBilinear2D_cn.rst | 15 +- docs/api/paddle/nn/UpsamplingNearest2D_cn.rst | 15 +- docs/api/paddle/nn/ZeroPad2D_cn.rst | 4 +- docs/api/paddle/nn/dynamic_decode_cn.rst | 16 +- .../paddle/nn/functional/affine_grid_cn.rst | 11 +- .../paddle/nn/functional/batch_norm_cn.rst | 11 +- docs/api/paddle/nn/functional/celu_cn.rst | 4 +- .../nn/functional/class_center_sample_cn.rst | 15 +- docs/api/paddle/nn/functional/conv1d_cn.rst | 11 +- .../nn/functional/conv1d_transpose_cn.rst | 11 +- docs/api/paddle/nn/functional/conv2d_cn.rst | 11 +- .../nn/functional/conv2d_transpose_cn.rst | 11 +- docs/api/paddle/nn/functional/conv3d_cn.rst | 19 +- .../nn/functional/conv3d_transpose_cn.rst | 19 +- .../nn/functional/cosine_similarity_cn.rst | 15 +- .../paddle/nn/functional/diag_embed_cn.rst | 11 +- .../api/paddle/nn/functional/dice_loss_cn.rst | 11 +- docs/api/paddle/nn/functional/elu_cn.rst | 4 +- .../api/paddle/nn/functional/embedding_cn.rst | 15 +- .../paddle/nn/functional/gather_tree_cn.rst | 11 +- docs/api/paddle/nn/functional/gelu_cn.rst | 4 +- docs/api/paddle/nn/functional/glu_cn.rst | 4 +- .../paddle/nn/functional/grid_sample_cn.rst | 15 +- .../paddle/nn/functional/hardsigmoid_cn.rst | 4 +- .../api/paddle/nn/functional/hardswish_cn.rst | 4 +- .../paddle/nn/functional/instance_norm_cn.rst | 11 +- .../paddle/nn/functional/interpolate_cn.rst | 15 +- .../paddle/nn/functional/label_smooth_cn.rst | 11 +- .../paddle/nn/functional/layer_norm_cn.rst | 11 +- docs/api/paddle/nn/functional/log_loss_cn.rst | 11 +- .../nn/functional/margin_cross_entropy_cn.rst | 15 +- docs/api/paddle/nn/functional/maxout_cn.rst | 4 +- docs/api/paddle/nn/functional/mse_loss_cn.rst | 4 +- .../api/paddle/nn/functional/normalize_cn.rst | 4 +- .../paddle/nn/functional/npair_loss_cn.rst | 11 +- docs/api/paddle/nn/functional/one_hot_cn.rst | 11 +- docs/api/paddle/nn/functional/pad_cn.rst | 15 +- docs/api/paddle/nn/functional/relu6_cn.rst | 4 +- docs/api/paddle/nn/functional/selu_cn.rst | 4 +- .../softmax_with_cross_entropy_cn.rst | 15 +- docs/api/paddle/nn/functional/softplus_cn.rst | 4 +- .../paddle/nn/functional/softshrink_cn.rst | 4 +- docs/api/paddle/nn/functional/softsign_cn.rst | 4 +- .../nn/functional/sparse_attention_cn.rst | 8 +- .../nn/functional/square_error_cost_cn.rst | 11 +- .../paddle/nn/functional/tanhshrink_cn.rst | 4 +- docs/api/paddle/nn/functional/unfold_cn.rst | 11 +- docs/api/paddle/nn/functional/upsample_cn.rst | 15 +- docs/api/paddle/nn/initializer/Assign_cn.rst | 11 +- .../api/paddle/nn/initializer/Bilinear_cn.rst | 7 +- .../api/paddle/nn/initializer/Constant_cn.rst | 11 +- .../nn/initializer/KaimingNormal_cn.rst | 11 +- .../nn/initializer/KaimingUniform_cn.rst | 11 +- docs/api/paddle/nn/initializer/Normal_cn.rst | 11 +- .../nn/initializer/TruncatedNormal_cn.rst | 7 +- docs/api/paddle/nn/initializer/Uniform_cn.rst | 11 +- .../paddle/nn/initializer/XavierNormal_cn.rst | 11 +- .../nn/initializer/XavierUniform_cn.rst | 11 +- .../initializer/set_global_initializer_cn.rst | 11 +- .../paddle/nn/utils/remove_weight_norm_cn.rst | 11 +- docs/api/paddle/nn/utils/spectral_norm_cn.rst | 7 +- docs/api/paddle/nn/utils/weight_norm_cn.rst | 11 +- docs/api/paddle/no_grad_cn.rst | 3 +- docs/api/paddle/nonzero_cn.rst | 3 +- docs/api/paddle/not_equal_cn.rst | 15 +- docs/api/paddle/numel_cn.rst | 11 +- docs/api/paddle/optimizer/Adadelta_cn.rst | 42 +- docs/api/paddle/optimizer/Adagrad_cn.rst | 7 +- docs/api/paddle/optimizer/AdamW_cn.rst | 42 +- docs/api/paddle/optimizer/Adam_cn.rst | 42 +- docs/api/paddle/optimizer/Adamax_cn.rst | 42 +- docs/api/paddle/optimizer/Lamb_cn.rst | 42 +- docs/api/paddle/optimizer/Momentum_cn.rst | 30 +- docs/api/paddle/optimizer/Optimizer_cn.rst | 42 +- docs/api/paddle/optimizer/RMSProp_cn.rst | 48 +- docs/api/paddle/optimizer/SGD_cn.rst | 30 +- .../optimizer/lr/CosineAnnealingDecay_cn.rst | 25 +- .../optimizer/lr/ExponentialDecay_cn.rst | 25 +- .../optimizer/lr/InverseTimeDecay_cn.rst | 25 +- .../paddle/optimizer/lr/LRScheduler_cn.rst | 31 +- .../paddle/optimizer/lr/LambdaDecay_cn.rst | 25 +- .../paddle/optimizer/lr/LinearWarmup_cn.rst | 25 +- .../paddle/optimizer/lr/MultiStepDecay_cn.rst | 25 +- .../optimizer/lr/MultiplicativeDecay_cn.rst | 25 +- .../optimizer/lr/NaturalExpDecay_cn.rst | 25 +- docs/api/paddle/optimizer/lr/NoamDecay_cn.rst | 25 +- .../paddle/optimizer/lr/PiecewiseDecay_cn.rst | 25 +- .../optimizer/lr/PolynomialDecay_cn.rst | 25 +- .../optimizer/lr/ReduceOnPlateau_cn.rst | 24 +- docs/api/paddle/optimizer/lr/StepDecay_cn.rst | 25 +- docs/api/paddle/outer_cn.rst | 8 +- docs/api/paddle/prod_cn.rst | 11 +- docs/api/paddle/profiler/Profiler_cn.rst | 38 +- docs/api/paddle/profiler/RecordEvent_cn.rst | 14 +- docs/api/paddle/randperm_cn.rst | 4 +- docs/api/paddle/rank_cn.rst | 11 +- docs/api/paddle/real_cn.rst | 11 +- docs/api/paddle/reciprocal_cn.rst | 11 +- docs/api/paddle/regularizer/L1Decay_cn.rst | 12 +- docs/api/paddle/regularizer/L2Decay_cn.rst | 12 +- docs/api/paddle/reshape_cn.rst | 11 +- docs/api/paddle/roll_cn.rst | 3 +- docs/api/paddle/round_cn.rst | 11 +- docs/api/paddle/rsqrt_cn.rst | 11 +- docs/api/paddle/scale_cn.rst | 11 +- docs/api/paddle/scatter_nd_add_cn.rst | 15 +- docs/api/paddle/scatter_nd_cn.rst | 15 +- docs/api/paddle/seed_cn.rst | 11 +- docs/api/paddle/set_cuda_rng_state_cn.rst | 11 +- docs/api/paddle/set_default_dtype_cn.rst | 11 +- docs/api/paddle/set_flags_cn.rst | 11 +- docs/api/paddle/shape_cn.rst | 11 +- docs/api/paddle/shard_index_cn.rst | 11 +- docs/api/paddle/sign_cn.rst | 15 +- docs/api/paddle/sin_cn.rst | 11 +- docs/api/paddle/sinh_cn.rst | 11 +- docs/api/paddle/slice_cn.rst | 15 +- docs/api/paddle/sort_cn.rst | 11 +- docs/api/paddle/sqrt_cn.rst | 11 +- docs/api/paddle/square_cn.rst | 15 +- docs/api/paddle/squeeze_cn.rst | 3 +- docs/api/paddle/stack_cn.rst | 3 +- docs/api/paddle/stanh_cn.rst | 4 +- docs/api/paddle/static/BuildStrategy_cn.rst | 59 +- docs/api/paddle/static/CompiledProgram_cn.rst | 14 +- .../paddle/static/ExecutionStrategy_cn.rst | 20 +- docs/api/paddle/static/Executor_cn.rst | 56 +- .../static/ExponentialMovingAverage_cn.rst | 11 +- docs/api/paddle/static/InputSpec_cn.rst | 62 +- .../paddle/static/IpuCompiledProgram_cn.rst | 14 +- docs/api/paddle/static/IpuStrategy_cn.rst | 88 +- .../api/paddle/static/ParallelExecutor_cn.rst | 37 +- docs/api/paddle/static/Print_cn.rst | 11 +- docs/api/paddle/static/Program_cn.rst | 133 +- docs/api/paddle/static/Variable_cn.rst | 132 +- .../paddle/static/WeightNormParamAttr_cn.rst | 7 +- docs/api/paddle/static/accuracy_cn.rst | 11 +- docs/api/paddle/static/append_backward_cn.rst | 19 +- docs/api/paddle/static/auc_cn.rst | 11 +- .../paddle/static/create_global_var_cn.rst | 15 +- .../api/paddle/static/create_parameter_cn.rst | 11 +- docs/api/paddle/static/data_cn.rst | 11 +- .../static/deserialize_persistables_cn.rst | 11 +- .../paddle/static/deserialize_program_cn.rst | 11 +- docs/api/paddle/static/device_guard_cn.rst | 7 +- docs/api/paddle/static/global_scope_cn.rst | 11 +- docs/api/paddle/static/gradients_cn.rst | 15 +- docs/api/paddle/static/load_cn.rst | 11 +- docs/api/paddle/static/load_from_file_cn.rst | 11 +- .../paddle/static/load_inference_model_cn.rst | 15 +- .../paddle/static/load_program_state_cn.rst | 11 +- docs/api/paddle/static/name_scope_cn.rst | 7 +- docs/api/paddle/static/nn/batch_norm_cn.rst | 11 +- .../static/nn/bilinear_tensor_product_cn.rst | 11 +- docs/api/paddle/static/nn/case_cn.rst | 19 +- docs/api/paddle/static/nn/conv2d_cn.rst | 15 +- .../paddle/static/nn/conv2d_transpose_cn.rst | 15 +- docs/api/paddle/static/nn/conv3d_cn.rst | 11 +- .../paddle/static/nn/conv3d_transpose_cn.rst | 11 +- docs/api/paddle/static/nn/crf_decoding_cn.rst | 11 +- docs/api/paddle/static/nn/data_norm_cn.rst | 15 +- .../api/paddle/static/nn/deform_conv2d_cn.rst | 15 +- docs/api/paddle/static/nn/embedding_cn.rst | 15 +- .../api/paddle/static/nn/instance_norm_cn.rst | 15 +- docs/api/paddle/static/nn/layer_norm_cn.rst | 11 +- .../paddle/static/nn/multi_box_head_cn.rst | 18 +- docs/api/paddle/static/nn/nce_cn.rst | 15 +- docs/api/paddle/static/nn/prelu_cn.rst | 11 +- docs/api/paddle/static/nn/row_conv_cn.rst | 11 +- .../paddle/static/nn/sequence_reverse_cn.rst | 3 +- .../paddle/static/nn/sequence_softmax_cn.rst | 3 +- docs/api/paddle/static/nn/switch_case_cn.rst | 19 +- .../paddle/static/normalize_program_cn.rst | 15 +- docs/api/paddle/static/program_guard_cn.rst | 10 +- docs/api/paddle/static/py_func_cn.rst | 14 +- docs/api/paddle/static/save_cn.rst | 11 +- .../paddle/static/save_inference_model_cn.rst | 11 +- docs/api/paddle/static/save_to_file_cn.rst | 11 +- docs/api/paddle/static/scope_guard_cn.rst | 11 +- .../static/serialize_persistables_cn.rst | 15 +- .../paddle/static/serialize_program_cn.rst | 15 +- .../paddle/static/set_program_state_cn.rst | 11 +- docs/api/paddle/strided_slice_cn.rst | 11 +- docs/api/paddle/sum_cn.rst | 11 +- docs/api/paddle/t_cn.rst | 11 +- docs/api/paddle/tanh_cn.rst | 15 +- docs/api/paddle/tensordot_cn.rst | 11 +- docs/api/paddle/to_tensor_cn.rst | 15 +- docs/api/paddle/tolist_cn.rst | 3 +- docs/api/paddle/trace_cn.rst | 4 +- docs/api/paddle/transpose_cn.rst | 15 +- docs/api/paddle/uniform_cn.rst | 15 +- docs/api/paddle/unique_cn.rst | 11 +- docs/api/paddle/unique_consecutive_cn.rst | 11 +- docs/api/paddle/unstack_cn.rst | 11 +- .../utils/cpp_extension/CUDAExtension_cn.rst | 8 +- .../utils/cpp_extension/CppExtension_cn.rst | 8 +- .../cpp_extension/get_build_directory_cn.rst | 7 +- .../paddle/utils/cpp_extension/load_cn.rst | 8 +- .../paddle/utils/cpp_extension/setup_cn.rst | 8 +- docs/api/paddle/utils/deprecated_cn.rst | 8 +- .../download/get_weights_path_from_url_cn.rst | 11 +- .../paddle/utils/unique_name/generate_cn.rst | 11 +- .../api/paddle/utils/unique_name/guard_cn.rst | 11 +- .../paddle/utils/unique_name/switch_cn.rst | 11 +- docs/api/paddle/version/cuda_cn.rst | 4 +- docs/api/paddle/version/cudnn_cn.rst | 4 +- docs/api/paddle/version/show_cn.rst | 4 +- .../vision/datasets/DatasetFolder_cn.rst | 7 +- .../paddle/vision/datasets/ImageFolder_cn.rst | 7 +- .../api/paddle/vision/ops/DeformConv2D_cn.rst | 7 +- .../paddle/vision/ops/deform_conv2d_cn.rst | 11 +- docs/api/paddle/vision/ops/yolo_loss_cn.rst | 4 +- docs/api/paddle/where_cn.rst | 15 +- docs/api/paddle/zeros_cn.rst | 15 +- 754 files changed, 10297 insertions(+), 4200 deletions(-) diff --git a/docs/api/paddle/CPUPlace_cn.rst b/docs/api/paddle/CPUPlace_cn.rst index 890773e73bd..d37af84a988 100644 --- a/docs/api/paddle/CPUPlace_cn.rst +++ b/docs/api/paddle/CPUPlace_cn.rst @@ -10,7 +10,8 @@ CPUPlace ``CPUPlace`` 是一个设备描述符,指定 ``CPUPlace`` 则 ``Tensor`` 将被自动分配在该设备上,并且模型将会运行在该设备上。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/CUDAPinnedPlace_cn.rst b/docs/api/paddle/CUDAPinnedPlace_cn.rst index daa087d97de..01fc2a86b5b 100644 --- a/docs/api/paddle/CUDAPinnedPlace_cn.rst +++ b/docs/api/paddle/CUDAPinnedPlace_cn.rst @@ -11,7 +11,8 @@ CUDAPinnedPlace ``CUDAPinnedPlace`` 是一个设备描述符,它所指代的页锁定内存由 CUDA 函数 ``cudaHostAlloc()`` 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝。 有关 CUDA 的数据转移和 ``pinned memory``,参见 `官方文档 `_ 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/CUDAPlace_cn.rst b/docs/api/paddle/CUDAPlace_cn.rst index ce71392da78..2d589595431 100644 --- a/docs/api/paddle/CUDAPlace_cn.rst +++ b/docs/api/paddle/CUDAPlace_cn.rst @@ -16,10 +16,13 @@ CUDAPlace 可以通过 ``CUDA_VISIBLE_DEVICES`` 环境变量限制程序能够使用的 GPU 设备,程序启动时会遍历当前的可见设备,并从 0 开始为这些设备编号。 如果没有设置 ``CUDA_VISIBLE_DEVICES``,则默认所有的设备都是可见的,此时逻辑编号与实际编号是相同的。 -参数: +参数 +:::::::::::: + - **id** (int,可选) - GPU的设备ID。如果为 ``None``,则默认会使用 id 为 0 的设备。默认值为 ``None``。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/DataParallel_cn.rst b/docs/api/paddle/DataParallel_cn.rst index 3c79ed0e8a0..e42a0f610f3 100644 --- a/docs/api/paddle/DataParallel_cn.rst +++ b/docs/api/paddle/DataParallel_cn.rst @@ -22,57 +22,74 @@ DataParallel 其中 ``demo.py`` 脚本的代码可以是下面的示例代码。 -参数: +参数 +:::::::::::: + - **Layer** (Layer) - 需要通过数据并行方式执行的模型。 - **strategy** (ParallelStrategy,可选) - (deprecated) 数据并行的策略,包括并行执行的环境配置。默认为None。 - **comm_buffer_size** (int,可选) - 它是通信调用(如NCCLAllReduce)时,参数梯度聚合为一组的内存大小(MB)。默认值:25。 - **last_comm_buffer_size** (float,可选)它限制通信调用中最后一个缓冲区的内存大小(MB)。减小最后一个通信缓冲区的大小有助于提高性能。默认值:1。默认值:1 - **find_unused_parameters** (bool, 可选) 是否在模型forward函数的返回值的所有张量中,遍历整个向后图。对于不包括在loss计算中的参数,其梯度将被预先标记为ready状态用于后续多卡间的规约操作。请注意,模型参数的所有正向输出必须参与loss的计算以及后续的梯度计算。 否则,将发生严重错误。请注意,将find_unused_parameters设置为True会影响计算性能, 因此,如果确定所有参数都参与了loss计算和自动反向图的构建,请将其设置为False。默认值:False。 -返回:支持数据并行的 ``Layer`` +返回 +:::::::::::: +支持数据并行的 ``Layer`` -返回类型:Layer实例 +返回类型 +:::::::::::: +Layer实例 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.DataParallel:dp-example .. Note:: 目前数据并行不支持PyLayer自定义算子。如有此类需求,推荐先使用no_sync接口暂停多卡通信,然后在优化器前手动实现梯度同步;具体实现过程可参考下述示例。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.DataParallel:dp-pylayer-example .. py:function:: no_sync() 用于暂停梯度同步的上下文管理器。在no_sync()中参数梯度只会在模型上累加;直到with之外的第一个forward-backward,梯度才会被同步。 -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.DataParallel.no_sync -.. py:method:: state_dict(destination=None, include_sublayers=True) +方法 +:::::::::::: +state_dict(destination=None, include_sublayers=True) +''''''''' 获取当前层及其子层的所有parameters和持久的buffers。并将所有parameters和buffers存放在dict结构中。 -参数: +**参数** + - **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数和持久的buffers都将存放在 ``destination`` 中。 默认值:None。 - **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。 -返回:dict, 包含所有parameters和持久的buffers的dict +**返回** +dict, 包含所有parameters和持久的buffers的dict **代码示例** COPY-FROM: paddle.DataParallel.state_dict -.. py:method:: set_state_dict(state_dict, use_structured_name=True) +set_state_dict(state_dict, use_structured_name=True) +''''''''' 根据传入的 ``state_dict`` 设置parameters和持久的buffers。 所有parameters和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。 -参数: +**参数** + - **state_dict** (dict) - 包含所有parameters和可持久性buffers的dict。 - **use_structured_name** (bool, 可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。 -返回:无 +**返回** +无 **代码示例** diff --git a/docs/api/paddle/Model_cn.rst b/docs/api/paddle/Model_cn.rst index ccbc675b561..38d8d72fb0d 100644 --- a/docs/api/paddle/Model_cn.rst +++ b/docs/api/paddle/Model_cn.rst @@ -99,14 +99,19 @@ train_batch(inputs, labels=None) 在一个批次的数据上进行训练。 -参数: +参数 +:::::::::::: + - **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray``。 - **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。 -返回:如果没有定义评估函数,则返回包含了训练损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 +返回 +:::::::::::: +如果没有定义评估函数,则返回包含了训练损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -138,15 +143,22 @@ eval_batch(inputs, labels=None) 在一个批次的数据上进行评估。 -参数: +参数 +:::::::::::: + - **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。 - **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。 -返回:如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 +返回 +:::::::::::: +如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 -返回类型:list +返回类型 +:::::::::::: +list -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -179,14 +191,21 @@ predict_batch(inputs) 在一个批次的数据上进行测试。 -参数: +参数 +:::::::::::: + - **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。 -返回:一个列表,包含了模型的输出。 +返回 +:::::::::::: +一个列表,包含了模型的输出。 -返回类型:list +返回类型 +:::::::::::: +list -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -219,13 +238,18 @@ save(path, training=True) 将模型的参数和训练过程中优化器的信息保存到指定的路径,以及推理所需的参数与文件。如果training=True,所有的模型参数都会保存到一个后缀为 ``.pdparams`` 的文件中。 所有的优化器信息和相关参数,比如 ``Adam`` 优化器中的 ``beta1`` , ``beta2`` ,``momentum`` 等,都会被保存到后缀为 ``.pdopt``。如果优化器比如SGD没有参数,则该不会产生该文件。如果training=False,则不会保存上述说的文件。只会保存推理需要的参数文件和模型文件。 -参数: +参数 +:::::::::::: + - **path** (str) - 保存的文件名前缀。格式如 ``dirname/file_prefix`` 或者 ``file_prefix`` 。 - **training** (bool,可选) - 是否保存训练的状态,包括模型参数和优化器参数等。如果为False,则只保存推理所需的参数与文件。默认值:True。 -返回:None +返回 +:::::::::::: +None -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -275,14 +299,19 @@ load(path, skip_mismatch=False, reset_optimizer=False) 从指定的文件中载入模型参数和优化器参数,如果不想恢复优化器参数信息,优化器信息文件可以不存在。需要注意的是:参数名称的检索是根据保存模型时结构化的名字,当想要载入参数进行迁移学习时要保证预训练模型和当前的模型的参数有一样结构化的名字。 -参数: +参数 +:::::::::::: + - **path** (str) - 保存参数或优化器信息的文件前缀。格式如 ``path.pdparams`` 或者 ``path.pdopt`` ,后者是非必要的,如果不想恢复优化器信息。 - **skip_mismatch** (bool) - 是否需要跳过保存的模型文件中形状或名称不匹配的参数,设置为 ``False`` 时,当遇到不匹配的参数会抛出一个错误。默认值:False。 - **reset_optimizer** (bool) - 设置为 ``True`` 时,会忽略提供的优化器信息文件。否则会载入提供的优化器信息。默认值:False。 -返回:None +返回 +:::::::::::: +None -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -309,9 +338,12 @@ parameters(*args, **kwargs) 返回一个包含模型所有参数的列表。 -返回:在静态图中返回一个包含 ``Parameter`` 的列表,在动态图中返回一个包含 ``ParamBase`` 的列表。 +返回 +:::::::::::: +在静态图中返回一个包含 ``Parameter`` 的列表,在动态图中返回一个包含 ``ParamBase`` 的列表。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -332,7 +364,9 @@ prepare(optimizer=None, loss=None, metrics=None, amp_configs=None) 配置模型所需的部件,比如优化器、损失函数和评价指标。 -参数: +参数 +:::::::::::: + - **optimizer** (Optimizer) - 当训练模型的,该参数必须被设定。当评估或测试的时候,该参数可以不设定。默认值:None。 - **loss** (Loss) - 当训练模型的,该参数必须被设定。默认值:None。 - **metrics** (Metric|list[Metric]) - 当该参数被设定时,所有给定的评估方法会在训练和测试时被运行,并返回对应的指标。默认值:None。 @@ -344,7 +378,9 @@ fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_fr 训练模型。当 ``eval_data`` 给定时,会在 ``eval_freq`` 个 ``epoch`` 后进行一次评估。 -参数: +参数 +:::::::::::: + - **train_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。 - **eval_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。当给定时,会在每个 ``epoch`` 后都会进行评估。默认值:None。 - **batch_size** (int) - 训练数据或评估数据的批大小,当 ``train_data`` 或 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。 @@ -359,9 +395,12 @@ fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_fr - **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``train_data`` 和 ``eval_data`` 都为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:0。 - **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。该参数不给定时,默认会插入 ``ProgBarLogger`` 和 ``ModelCheckpoint`` 这两个实例。默认值:None。 -返回:None +返回 +:::::::::::: +None -**代码示例**: +代码示例 +:::::::::::: 1. 使用Dataset训练,并设置batch_size的例子。 @@ -447,7 +486,9 @@ evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbac 在输入数据上,评估模型的损失函数值和评估指标。 -参数: +参数 +:::::::::::: + - **eval_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。 - **batch_size** (int) - 训练数据或评估数据的批大小,当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。 - **log_freq** (int) - 日志打印的频率,多少个 ``step`` 打印一次日志。默认值:1。 @@ -455,9 +496,12 @@ evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbac - **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:True。 - **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。该参数不给定时,默认会插入 ``ProgBarLogger`` 和 ``ModelCheckpoint`` 这两个实例。默认值:None。 -返回:dict, key是 ``prepare`` 时Metric的的名称,value是该Metric的值。 +返回 +:::::::::::: +dict, key是 ``prepare`` 时Metric的的名称,value是该Metric的值。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -484,16 +528,21 @@ predict(test_data, batch_size=1, num_workers=0, stack_outputs=False, callbacks=N 在输入数据上,预测模型的输出。 -参数: +参数 +:::::::::::: + - **test_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。 - **batch_size** (int) - 训练数据或评估数据的批大小,当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。 - **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:True。 - **stack_outputs** (bool) - 是否将输出进行堆叠。默认值:False。 - **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。默认值:None。 -返回:模型的输出。 +返回 +:::::::::::: +模型的输出。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -539,14 +588,19 @@ summary(input_size=None, batch_size=None, dtype=None) 打印网络的基础结构和参数信息。 -参数: +参数 +:::::::::::: + - **input_size** (tuple|InputSpec|list[tuple|InputSpec,可选) - 输入张量的大小。如果网络只有一个输入,那么该值需要设定为tuple或InputSpec。如果模型有多个输入。那么该值需要设定为list[tuple|InputSpec],包含每个输入的shape。如果该值没有设置,会将 ``self._inputs`` 作为输入。默认值:None。 - **batch_size** (int,可选) - 输入张量的批大小。默认值:None。 - **dtypes** (str,可选) - 输入张量的数据类型,如果没有给定,默认使用 ``float32`` 类型。默认值:None。 -返回:字典:包含网络全部参数的大小和全部可训练参数的大小。 +返回 +:::::::::::: +字典:包含网络全部参数的大小和全部可训练参数的大小。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/NPUPlace_cn.rst b/docs/api/paddle/NPUPlace_cn.rst index 6d917e7d263..182afc83c2e 100644 --- a/docs/api/paddle/NPUPlace_cn.rst +++ b/docs/api/paddle/NPUPlace_cn.rst @@ -10,9 +10,12 @@ NPUPlace ``dev_id`` 不同的 ``NPUPlace`` 所对应的内存不可相互访问。 这里编号指的是显卡实际的编号,而不是显卡的逻辑编号。 -参数: +参数 +:::::::::::: + - **id** (int,可选) - NPU的设备ID。 -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.NPUPlace \ No newline at end of file diff --git a/docs/api/paddle/ParamAttr_cn.rst b/docs/api/paddle/ParamAttr_cn.rst index 3c2d29c86a2..532dc27ec26 100644 --- a/docs/api/paddle/ParamAttr_cn.rst +++ b/docs/api/paddle/ParamAttr_cn.rst @@ -14,7 +14,9 @@ ParamAttr 创建一个参数属性对象,用户可设置参数的名称、初始化方式、学习率、正则化规则、是否需要训练、梯度裁剪方式、是否做模型平均等属性。 -参数: +参数 +:::::::::::: + - **name** (str,可选) - 参数的名称。默认值为None,表示框架自动创建参数的名称。 - **initializer** (Initializer,可选) - 参数的初始化方式。默认值为None,表示权重参数采用Xavier初始化方式,偏置参数采用全0初始化方式。 - **learning_rate** (float,可选) - 参数的学习率。实际参数的学习率等于全局学习率乘以参数的学习率,再乘以learning rate schedule的系数。 @@ -25,10 +27,13 @@ ParamAttr - **do_model_average** (bool,可选) - 是否做模型平均。默认值为True。仅在 :ref:`ExponentialMovingAverage` 下使用。 - **need_clip** (bool,可选) - 参数是否需要进行梯度裁剪。默认值为True,表示该参数的梯度会根据优化器中设置的裁剪规则进行裁剪。 -返回: 表示参数属性的对象。 +返回 +:::::::::::: + 表示参数属性的对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/Tensor_cn.rst b/docs/api/paddle/Tensor_cn.rst index 53b132c0367..40e7844d03b 100755 --- a/docs/api/paddle/Tensor_cn.rst +++ b/docs/api/paddle/Tensor_cn.rst @@ -17,7 +17,8 @@ clear_grad 将当前Tensor的梯度设为0。仅适用于具有梯度的Tensor,通常我们将其用于参数,因为其他临时Tensor没有梯度。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -40,7 +41,8 @@ dtype 查看一个Tensor的数据类型,支持:'bool','float16','float32','float64','uint8','int8','int16','int32','int64' 类型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -53,7 +55,8 @@ grad 查看一个Tensor的梯度,数据类型为numpy\.ndarray。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -70,7 +73,8 @@ is_leaf 判断Tensor是否为叶子Tensor。对于stop_gradient为True的Tensor,它将是叶子Tensor。对于stop_gradient为False的Tensor, 如果它是由用户创建的,它也会是叶子Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -94,7 +98,8 @@ item(*args) 将Tensor中特定位置的元素转化为Python标量,如果未指定位置,则该Tensor必须为单元素Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -125,7 +130,8 @@ name 查看一个Tensor的name,Tensor的name是其唯一标识符,为python的字符串类型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -138,7 +144,8 @@ ndim 查看一个Tensor的维度,也称作rank。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -152,7 +159,8 @@ persistable 查看一个Tensor的persistable属性,该属性为True时表示持久性变量,持久性变量在每次迭代之后都不会删除。模型参数、学习率等Tensor,都是 持久性变量。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -168,7 +176,8 @@ place 其与GPU之间具有更高的读写效率,并且支持异步传输,这对网络整体性能会有进一步提升,但其缺点是分配空间过多时可能会降低主机系统的性能, 因为其减少了用于存储虚拟内存数据的可分页内存。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -181,7 +190,8 @@ shape 查看一个Tensor的shape,shape是Tensor的一个重要的概念,其描述了tensor在每个维度上的元素数量。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -195,7 +205,8 @@ stop_gradient 查看一个Tensor是否计算并传播梯度,如果stop_gradient为True,则该Tensor不会计算梯度,并会阻绝Autograd的梯度传播。 反之,则会计算梯度并传播梯度。用户自行创建的的Tensor,默认是True,模型参数的stop_gradient都为False。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -206,36 +217,52 @@ stop_gradient abs(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_abs` angle(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_angle` acos(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_acos` add(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_add` @@ -247,90 +274,130 @@ Inplace 版本的 :ref:`cn_api_tensor_add` API,对输入 `x` 采用 Inplace add_n(inputs, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_add_n` addmm(x, y, beta=1.0, alpha=1.0, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_addmm` all(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_all` allclose(y, rtol=1e-05, atol=1e-08, equal_nan=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_allclose` isclose(x, y, rtol=1e-05, atol=1e-08, equal_nan=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_isclose` any(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_any` argmax(axis=None, keepdim=False, dtype=int64, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_argmax` argmin(axis=None, keepdim=False, dtype=int64, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_argmin` argsort(axis=-1, descending=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_argsort` asin(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_asin` @@ -339,15 +406,22 @@ astype(dtype) 将Tensor的类型转换为 ``dtype`` ,并返回一个新的Tensor。 -参数: +参数 +:::::::::::: + - **dtype** (str) - 转换后的dtype,支持'bool','float16','float32','float64','int8','int16', 'int32','int64','uint8'。 -返回:类型转换后的新的Tensor +返回 +:::::::::::: +类型转换后的新的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -358,9 +432,13 @@ astype(dtype) atan(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_atan` @@ -369,15 +447,20 @@ backward(grad_tensor=None, retain_graph=False) 从当前Tensor开始计算反向的神经网络,传导并计算计算图中Tensor的梯度。 -参数: +参数 +:::::::::::: + - **grad_tensor** (Tensor, optional) - 当前Tensor的初始梯度值。如果 ``grad_tensor`` 是None, 当前Tensor 的初始梯度值将会是值全为1.0的Tensor;如果 ``grad_tensor`` 不是None,必须和当前Tensor有相同的长度。默认值:None。 - **retain_graph** (bool, optional) - 如果为False,反向计算图将被释放。如果在backward()之后继续添加OP, 需要设置为True,此时之前的反向计算图会保留。将其设置为False会更加节省内存。默认值:False。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -408,81 +491,117 @@ backward(grad_tensor=None, retain_graph=False) bincount(weights=None, minlength=0) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_bincount` bitwise_and(y, out=None, name=None) ::::::::: -返回:按位与运算后的结果 +返回 +:::::::::::: +按位与运算后的结果 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_bitwise_and` bitwise_not(out=None, name=None) ::::::::: -返回:按位取反运算后的结果 +返回 +:::::::::::: +按位取反运算后的结果 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_bitwise_not` bitwise_or(y, out=None, name=None) ::::::::: -返回:按位或运算后的结果 +返回 +:::::::::::: +按位或运算后的结果 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_bitwise_or` bitwise_xor(y, out=None, name=None) ::::::::: -返回:按位异或运算后的结果 +返回 +:::::::::::: +按位异或运算后的结果 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_bitwise_xor` bmm(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_bmm` broadcast_to(shape, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_expand` ,API功能相同。 cast(dtype) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_cast` ceil(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_ceil` @@ -494,18 +613,26 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_ceil` API,对输入 `x` 采用 Inp cholesky(upper=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_cholesky` chunk(chunks, axis=0, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_chunk` @@ -514,9 +641,12 @@ clear_gradient() 清除当前Tensor的梯度。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -538,9 +668,13 @@ clear_gradient() clip(min=None, max=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_clip` @@ -554,9 +688,12 @@ clone() 复制当前Tensor,并且保留在原计算图中进行梯度传导。 -返回:clone后的Tensor +返回 +:::::::::::: +clone后的Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -583,27 +720,39 @@ clone() concat(axis=0, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_concat` conj(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_conj` cos(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_cos` @@ -612,11 +761,14 @@ cosh(name=None) 对该Tensor中的每个元素求双曲余弦。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_cosh` -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -633,9 +785,12 @@ cpu() 如果当前Tensor已经在CPU上,则不会发生任何拷贝。 -返回:拷贝到CPU上的Tensor +返回 +:::::::::::: +拷贝到CPU上的Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -648,9 +803,13 @@ cpu() cross(y, axis=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_linalg_cross` @@ -661,13 +820,18 @@ cuda(device_id=None, blocking=False) 如果当前Tensor已经在GPU上,且device_id为None,则不会发生任何拷贝。 -参数: +参数 +:::::::::::: + - **device_id** (int, optional) - 目标GPU的设备Id,默认为None,此时为当前Tensor的设备Id,如果当前Tensor不在GPU上,则为0。 - **blocking** (bool, optional) - 如果为False并且当前Tensor处于固定内存上,将会发生主机到设备端的异步拷贝。否则,会发生同步拷贝。默认为False。 -返回:拷贝到GPU上的Tensor +返回 +:::::::::::: +拷贝到GPU上的Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -683,9 +847,13 @@ cuda(device_id=None, blocking=False) cumsum(axis=None, dtype=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_cumsum` @@ -694,9 +862,13 @@ deg2rad(x, name=None) 将元素从度的角度转换为弧度 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_deg2rad` @@ -705,9 +877,12 @@ detach() 返回一个新的Tensor,从当前计算图分离。 -返回:与当前计算图分离的Tensor。 +返回 +:::::::::::: +与当前计算图分离的Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -722,18 +897,26 @@ detach() diagonal(offset=0, axis1=0, axis2=1, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_diagonal` digamma(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_digamma` @@ -742,7 +925,8 @@ dim() 查看一个Tensor的维度,也称作rank。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -753,36 +937,52 @@ dim() dist(y, p=2) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_linalg_dist` divide(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_divide` dot(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_linalg_dot` diff(x, n=1, axis=-1, prepend=None, append=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_diff` @@ -791,9 +991,12 @@ element_size() 返回Tensor单个元素在计算机中所分配的 ``bytes`` 数量。 -返回:整数int +返回 +:::::::::::: +整数int -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -816,36 +1019,52 @@ element_size() equal(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_equal` equal_all(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_equal_all` erf(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_erf` exp(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_exp` @@ -857,18 +1076,26 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_exp` API,对输入 `x` 采用 Inpl expand(shape, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_expand` expand_as(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_expand_as` @@ -883,15 +1110,20 @@ exponential_(lam=1.0, name=None) f(x) = \lambda e^{-\lambda x} -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,数据类型为 float32/float64。 - **lam** (float) - 指数分布的 :math:`\lambda` 参数。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回:原Tensor +返回 +:::::::::::: +原Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -906,9 +1138,13 @@ exponential_(lam=1.0, name=None) eigvals(y, name=None) ::::::::: -返回:输入矩阵的特征值 +返回 +:::::::::::: +输入矩阵的特征值 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_eigvals` @@ -916,14 +1152,19 @@ fill_(x, value, name=None) ::::::::: 以value值填充Tensor x中所有数据。对x的原地Inplace修改。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 需要修改的原始Tensor。 - **value** (float) - 以输入value值修改原始Tensor元素。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回:修改原始Tensor x的所有元素为value以后的新的Tensor。 +返回 +:::::::::::: +修改原始Tensor x的所有元素为value以后的新的Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -936,13 +1177,18 @@ zero_(x, name=None) ::::::::: 以 0 值填充Tensor x中所有数据。对x的原地Inplace修改。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 需要修改的原始Tensor。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回:修改原始Tensor x的所有元素为 0 以后的新的Tensor。 +返回 +:::::::::::: +修改原始Tensor x的所有元素为 0 以后的新的Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -957,16 +1203,21 @@ fill_diagonal_(x, value, offset=0, wrap=False, name=None) 输入Tensor x维度至少是2维,当维度大于2维时要求所有维度值相等。 当维度等于2维时,两个维度可以不等,且此时wrap选项生效,详见wrap参数说明。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 需要修改对角线元素值的原始Tensor。 - **value** (float) - 以输入value值修改原始Tensor对角线元素。 - **offset** (int, optional) - 所选取对角线相对原始主对角线位置的偏移量,正向右上方偏移,负向左下方偏移,默认为0。 - **wrap** (bool, optional) - 对于2维Tensor,height>width时是否循环填充,默认为False。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回:修改原始Tensor x的对角线元素为value以后的新的Tensor。 +返回 +:::::::::::: +修改原始Tensor x的对角线元素为value以后的新的Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -984,7 +1235,9 @@ fill_diagonal_tensor(x, y, offset=0, dim1=0, dim2=1, name=None) 其中输入Tensor y的维度要求是:最后一个维度与dim1、dim2指定的对角线维度相同,其余维度与输入Tensor x其余维度相同,且先后顺序一致。 例如,有输入Tensor x,x.shape = (2,3,4,5)时, 若dim1=2,dim2=3,则y.shape=(2,3,4); 若dim1=1,dim2=2,则y.shape=(2,5,3); -参数: +参数 +:::::::::::: + - **x** (Tensor) - 需要填充局部对角线区域的原始Tensor。 - **y** (Tensor) - 需要被填充到原始Tensor x对角线区域的输入Tensor。 - **offset** (int, optional) - 选取局部区域对角线位置相对原始主对角线位置的偏移量,正向右上方偏移,负向左下方偏移,默认为0。 @@ -992,9 +1245,12 @@ fill_diagonal_tensor(x, y, offset=0, dim1=0, dim2=1, name=None) - **dim2** (int, optional) - 指定对角线所参考第二个维度,默认为1。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回:将y的值填充到输入Tensor x对角线区域以后所组合成的新Tensor。 +返回 +:::::::::::: +将y的值填充到输入Tensor x对角线区域以后所组合成的新Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1008,7 +1264,8 @@ fill_diagonal_tensor_(x, y, offset=0, dim1=0, dim2=1, name=None) Inplace 版本的 :ref:`cn_api_fill_diagonal_tensor` API,对输入 `x` 采用 Inplace 策略 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1020,9 +1277,13 @@ Inplace 版本的 :ref:`cn_api_fill_diagonal_tensor` API,对输入 `x` 采用 flatten(start_axis=0, stop_axis=-1, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_flatten` @@ -1034,27 +1295,39 @@ Inplace 版本的 :ref:`cn_api_paddle_flatten` API,对输入 `x` 采用 Inplac flip(axis, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_flip` rot90(k=1, axis=[0, 1], name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_rot90` floor(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_floor` @@ -1066,36 +1339,52 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_floor` API,对输入 `x` 采用 In floor_divide(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_floor_divide` floor_mod(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor mod函数的别名,请参考 :ref:`cn_api_tensor_mod` gather(index, axis=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_gather` gather_nd(index, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_gather_nd` @@ -1104,7 +1393,9 @@ gcd(x, y, name=None) 计算两个输入的按元素绝对值的最大公约数 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor 请参考 :ref:`cn_api_paddle_tensor_gcd` @@ -1113,10 +1404,15 @@ gradient() 与 ``Tensor.grad`` 相同,查看一个Tensor的梯度,数据类型为numpy\.ndarray。 -返回:该Tensor的梯度 -返回类型:numpy\.ndarray +返回 +:::::::::::: +该Tensor的梯度 +返回类型 +:::::::::::: +numpy\.ndarray -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1129,18 +1425,26 @@ gradient() greater_equal(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_greater_equal` greater_than(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_greater_than` @@ -1148,126 +1452,182 @@ greater_than(y, name=None) histogram(bins=100, min=0, max=0) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_histogram` imag(name=None) ::::::::: -返回:包含原复数Tensor的虚部数值 +返回 +:::::::::::: +包含原复数Tensor的虚部数值 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_imag` is_floating_point(x) ::::::::: -返回:判断输入Tensor的数据类型是否为浮点类型 +返回 +:::::::::::: +判断输入Tensor的数据类型是否为浮点类型 -返回类型:bool +返回类型 +:::::::::::: +bool 请参考 :ref:`cn_api_tensor_is_floating_point` increment(value=1.0, in_place=True) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_increment` index_sample(index) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_search_index_sample` index_select(index, axis=0, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_search_index_select` repeat_interleave(repeats, axis=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_repeat_interleave` inv(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_inv` is_empty(cond=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_is_empty` isfinite(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_isfinite` isinf(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_isinf` isnan(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_isnan` kthvalue(k, axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_kthvalue` kron(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_kron` @@ -1276,268 +1636,386 @@ lcm(x, y, name=None) 计算两个输入的按元素绝对值的最小公倍数 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor 请参考 :ref:`cn_api_paddle_tensor_lcm` less_equal(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_less_equal` less_than(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_less_than` lgamma(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_lgamma` log(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_log` log10(name=None) ::::::::: -返回:以10为底数,对当前Tensor逐元素计算对数。 +返回 +:::::::::::: +以10为底数,对当前Tensor逐元素计算对数。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_math_log10` log2(name=None) ::::::::: -返回:以2为底数,对当前Tensor逐元素计算对数。 +返回 +:::::::::::: +以2为底数,对当前Tensor逐元素计算对数。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_math_log2` log1p(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_log1p` logical_and(y, out=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_logical_and` logical_not(out=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_logical_not` logical_or(y, out=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_logical_or` logical_xor(y, out=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_logical_xor` logsumexp(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_math_logsumexp` masked_select(mask, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_masked_select` matmul(y, transpose_x=False, transpose_y=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_matmul` matrix_power(x, n, name=None) ::::::::: -返回:经过矩阵幂运算后的Tensor +返回 +:::::::::::: +经过矩阵幂运算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_matrix_power` max(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_max` amax(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_amax` maximum(y, axis=-1, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_maximum` mean(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_mean` median(axis=None, keepdim=False, name=None) ::::::::: -返回:沿着 ``axis`` 进行中位数计算的结果 +返回 +:::::::::::: +沿着 ``axis`` 进行中位数计算的结果 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_median` min(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_min` amin(axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_amin` minimum(y, axis=-1, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_minimum` mm(mat2, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_mm` mod(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_mod` mode(axis=-1, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_mode` multiplex(index) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_multiplex` multiply(y, axis=-1, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_multiply` mv(vec, name=None) ::::::::: -返回:当前Tensor向量 ``vec`` 的乘积 +返回 +:::::::::::: +当前Tensor向量 ``vec`` 的乘积 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_mv` @@ -1546,7 +2024,8 @@ ndimension() 查看一个Tensor的维度,也称作rank。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -1557,45 +2036,65 @@ ndimension() neg(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_neg` nonzero(as_tuple=False) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_search_nonzero` norm(p=fro, axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_norm` not_equal(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_not_equal` numel(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_numel` @@ -1604,10 +2103,15 @@ numpy() 将当前Tensor转化为numpy\.ndarray。 -返回:Tensor转化成的numpy\.ndarray。 -返回类型:numpy\.ndarray +返回 +:::::::::::: +Tensor转化成的numpy\.ndarray。 +返回类型 +:::::::::::: +numpy\.ndarray -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1626,9 +2130,12 @@ pin_memory(y, name=None) 如果当前Tensor已经在固定内存上,则不会发生任何拷贝。 -返回:拷贝到固定内存上的Tensor +返回 +:::::::::::: +拷贝到固定内存上的Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1641,27 +2148,39 @@ pin_memory(y, name=None) pow(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_math_pow` prod(axis=None, keepdim=False, dtype=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_prod` quantile(q, axis=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_quantile` @@ -1670,36 +2189,52 @@ rad2deg(x, name=None) 将元素从弧度的角度转换为度 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_rad2deg` rank() ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_rank` real(name=None) ::::::::: -返回:Tensor,包含原复数Tensor的实部数值 +返回 +:::::::::::: +Tensor,包含原复数Tensor的实部数值 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_real` reciprocal(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_reciprocal` @@ -1721,14 +2256,21 @@ register_hook(hook) hook(grad) -> Tensor or None -参数: +参数 +:::::::::::: + - **hook** (function) - 一个需要注册到 Tensor.grad 上的 hook 函数 -返回:一个能够通过调用其 ``remove()`` 方法移除所注册 hook 的对象 +返回 +:::::::::::: +一个能够通过调用其 ``remove()`` 方法移除所注册 hook 的对象 -返回类型:TensorHookRemoveHelper +返回类型 +:::::::::::: +TensorHookRemoveHelper -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1770,18 +2312,26 @@ register_hook(hook) remainder(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor mod函数的别名,请参考 :ref:`cn_api_tensor_mod` reshape(shape, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_reshape` @@ -1793,27 +2343,39 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_reshape` API,对输入 `x` 采用 reverse(axis, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_reverse` roll(shifts, axis=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_manipulation_roll` round(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_round` @@ -1825,9 +2387,13 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_round` API,对输入 `x` 采用 In rsqrt(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_rsqrt` @@ -1839,9 +2405,13 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_rsqrt` API,对输入 `x` 采用 In scale(scale=1.0, bias=0.0, bias_after_scale=True, act=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_scale` @@ -1853,9 +2423,13 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_unsqueeze` API,对输入 `x` 采 scatter(index, updates, overwrite=True, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_cn_scatter` @@ -1867,18 +2441,26 @@ Inplace 版本的 :ref:`cn_api_paddle_cn_scatter` API,对输入 `x` 采用 Inp scatter_nd(updates, shape, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_scatter_nd` scatter_nd_add(index, updates, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_scatter_nd_add` @@ -1887,10 +2469,13 @@ set_value(value) 设置当前Tensor的值。 -参数: +参数 +:::::::::::: + - **value** (Tensor|np.ndarray) - 需要被设置的值,类型为Tensor或者numpy\.array。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1904,12 +2489,16 @@ set_value(value) linear.weight.set_value(custom_weight) # change existing weight out = linear(input) # call with different weight -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor shard_index(index_num, nshards, shard_id, ignore_value=-1) ::::::::: -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_shard_index` @@ -1917,18 +2506,26 @@ shard_index(index_num, nshards, shard_id, ignore_value=-1) sign(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_sign` sin(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_sin` @@ -1937,7 +2534,8 @@ sinh(name=None) 对该Tensor中逐个元素求双曲正弦。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -1950,45 +2548,65 @@ sinh(name=None) size() ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_size` slice(axes, starts, ends) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_slice` sort(axis=-1, descending=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_sort` split(num_or_sections, axis=0, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_split` sqrt(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_sqrt` @@ -2000,18 +2618,26 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_sqrt` API,对输入 `x` 采用 Inp square(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_square` squeeze(axis=None, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_squeeze` @@ -2023,45 +2649,65 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_squeeze` API,对输入 `x` 采用 stack(axis=0, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_stack` stanh(scale_a=0.67, scale_b=1.7159, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_stanh` std(axis=None, unbiased=True, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_std` strided_slice(axes, starts, ends, strides) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_strided_slice` subtract(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_subtract` @@ -2073,27 +2719,39 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_subtract` API,对输入 `x` 采 sum(axis=None, dtype=None, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_sum` t(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_t` tanh(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_tan` @@ -2105,81 +2763,117 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_tan` API,对输入 `x` 采用 Inpl tile(repeat_times, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_tile` tolist() ::::::::: -返回:Tensor对应结构的list +返回 +:::::::::::: +Tensor对应结构的list -返回类型:python list +返回类型 +:::::::::::: +python list 请参考 :ref:`cn_api_paddle_tolist` topk(k, axis=None, largest=True, sorted=True, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_topk` trace(offset=0, axis1=0, axis2=1, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_trace` transpose(perm, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_transpose` triangular_solve(b, upper=True, transpose=False, unitriangular=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_triangular_solve` trunc(name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_trunc` tensordot(y, axes=2, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensordot` unbind(axis=0) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_unbind` @@ -2188,7 +2882,9 @@ uniform_(min=-1.0, max=1.0, seed=0, name=None) Inplace版本的 :ref:`cn_api_tensor_uniform`, 返回一个从均匀分布采样的随机数填充的Tensor。输出Tensor将被置于输入x的位置。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 待被随机数填充的输入Tensor。 - **min** (float|int, optional) - 生成随机数的下界, min包含在该范围内。默认为-1.0。 - **max** (float|int, optional) - 生成随机数的上界,max不包含在该范围内。默认为1.0。 @@ -2196,11 +2892,16 @@ Inplace版本的 :ref:`cn_api_tensor_uniform`, 返回一个从均匀分布采样 注意如果seed不为0,该操作每次将生成同一个随机值。默认为0。 - **name** (str, optional) - 默认值为None。通常用户不需要设置这个属性。更多信息请参见 :ref:`api_guide_Name` 。 -返回:由服从范围在[min, max)的均匀分布的随机数所填充的输入Tensor x。 +返回 +:::::::::::: +由服从范围在[min, max)的均匀分布的随机数所填充的输入Tensor x。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -2216,18 +2917,26 @@ Inplace版本的 :ref:`cn_api_tensor_uniform`, 返回一个从均匀分布采样 unique(return_index=False, return_inverse=False, return_counts=False, axis=None, dtype=int64, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_unique` unsqueeze(axis, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_unsqueeze` @@ -2239,54 +2948,78 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_unsqueeze` API,对输入 `x` 采 unstack(axis=0, num=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_fluid_layers_unstack` var(axis=None, unbiased=True, keepdim=False, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_cn_var` where(y, name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_where` multi_dot(x, name=None) ::::::::: -返回:多个矩阵相乘后的Tensor +返回 +:::::::::::: +多个矩阵相乘后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_multi_dot` solve(x, y name=None) ::::::::: -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_linalg_solve` logit(eps=None, name=None) ::::::::: -返回:计算logit后的Tensor +返回 +:::::::::::: +计算logit后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_tensor_logit` @@ -2295,9 +3028,13 @@ lerp(x, y, weight, name=None) 基于给定的 weight 计算 x 与 y 的线性插值 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_lerp` @@ -2310,9 +3047,13 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_lerp` API,对输入 `x` 采用 In is_complex() ::::::::: -返回:判断输入 tensor 的数据类型是否为复数类型 +返回 +:::::::::::: +判断输入 tensor 的数据类型是否为复数类型 -返回类型:bool +返回类型 +:::::::::::: +bool 请参考 :ref:`cn_api_paddle_is_complex` @@ -2320,9 +3061,13 @@ is_complex() is_integer() ::::::::: -返回:判断输入 tensor 的数据类型是否为整数类型 +返回 +:::::::::::: +判断输入 tensor 的数据类型是否为整数类型 -返回类型:bool +返回类型 +:::::::::::: +bool 请参考 :ref:`cn_api_paddle_is_integer` @@ -2331,9 +3076,13 @@ take_along_axis(arr, index, axis) 基于输入索引矩阵, 沿着指定axis从arr矩阵里选取1d切片。索引矩阵必须和arr矩阵有相同的维度, 需要能够broadcast与arr矩阵对齐。 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_take_along_axis` @@ -2342,9 +3091,13 @@ put_along_axis(arr, index, value, axis, reduce="assign") 基于输入index矩阵, 将输入value沿着指定axis放置入arr矩阵。索引矩阵和value必须和arr矩阵有相同的维度, 需要能够broadcast与arr矩阵对齐。 -返回:计算后的Tensor +返回 +:::::::::::: +计算后的Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 请参考 :ref:`cn_api_paddle_tensor_put_along_axis` diff --git a/docs/api/paddle/add_n_cn.rst b/docs/api/paddle/add_n_cn.rst index 8992957b716..17ce19c68d0 100644 --- a/docs/api/paddle/add_n_cn.rst +++ b/docs/api/paddle/add_n_cn.rst @@ -40,14 +40,19 @@ add_n output = [[8, 10, 12], [14, 16, 18]] -参数: +参数 +:::::::::::: + - **inputs** (Tensor|list(Tensor)) - 输入的一至多个Tensor。如果输入了多个Tensor,则不同Tensor的shape和数据类型应保持一致。数据类型支持:float32,float64,int32,int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor, 输入 ``inputs`` 求和后的结果,shape和数据类型与 ``inputs`` 一致。 +返回 +:::::::::::: +Tensor, 输入 ``inputs`` 求和后的结果,shape和数据类型与 ``inputs`` 一致。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/addmm_cn.rst b/docs/api/paddle/addmm_cn.rst index 08e66321cfb..40ceebcd646 100644 --- a/docs/api/paddle/addmm_cn.rst +++ b/docs/api/paddle/addmm_cn.rst @@ -16,7 +16,9 @@ addmm .. math:: out = alpha * x * y + beta * input -参数: +参数 +:::::::::::: + - **input** (Tensor):输入Tensor input,数据类型支持float32, float64。 - **x** (Tensor):输入Tensor x,数据类型支持float32, float64。 - **y** (Tensor):输入Tensor y,数据类型支持float32, float64。 @@ -24,12 +26,17 @@ addmm - **beta** (float,可选):乘以input的标量,数据类型支持float32, float64,默认值为1.0。 - **name** (str,可选):具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:计算得到的Tensor。Tensor数据类型与输入input数据类型一致。 +返回 +:::::::::::: +计算得到的Tensor。Tensor数据类型与输入input数据类型一致。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/allclose_cn.rst b/docs/api/paddle/allclose_cn.rst index cd3ca3ed10c..0cc62147a86 100644 --- a/docs/api/paddle/allclose_cn.rst +++ b/docs/api/paddle/allclose_cn.rst @@ -12,7 +12,9 @@ allclose 该API的行为类似于 :math:`numpy.allclose` ,即当两个待比较Tensor的所有元素均在一定容忍误差范围内视为相等则该API返回True值。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64。 - **y** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64。 - **rtol** (float,可选) - 相对容忍误差,默认值为1e-5。 @@ -20,9 +22,12 @@ allclose - **equal_nan** (bool,可选) - 如果设置为True,则两个NaN数值将被视为相等,默认值为False。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:计算得到的布尔类型单值Tensor。 +返回 +:::::::::::: +计算得到的布尔类型单值Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 48481559b64..404c585768e 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -66,7 +66,8 @@ scale(var) **返回:**缩放后的Tensor或者原Tensor。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -98,7 +99,8 @@ minimize(optimizer, *args, **kwargs) - **args** - 参数,将会被传递给 ``optimizer.minimize()`` 。 - **kwargs** - 关键词参数,将会被传递给 ``optimizer.minimize()`` 。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -128,7 +130,8 @@ step(optimizer) **参数:** - **optimizer** (Optimizer) - 用于更新参数的优化器。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -152,7 +155,8 @@ update() 更新缩放比例。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -181,7 +185,8 @@ unscale_(optimizer) **参数:** - **optimizer** (Optimizer) - 用于更新参数的优化器。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -208,7 +213,8 @@ is_enable() **返回:**bool,采用loss scaling策略返回True,否则返回False。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -230,7 +236,8 @@ is_use_dynamic_loss_scaling() **返回:**bool,动态调节loss scaling缩放比例返回True,否则返回False。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -252,7 +259,8 @@ get_init_loss_scaling() **返回:**float,初始化的loss scaling缩放比例。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -275,7 +283,8 @@ set_init_loss_scaling(new_init_loss_scaling) **参数:** - **new_init_loss_scaling** (float) - 用于更新缩放比例的参数。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -299,7 +308,8 @@ get_incr_ratio() **返回:**float,增大loss scaling时使用的乘数。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -322,7 +332,8 @@ set_incr_ratio(new_incr_ratio) **参数:** - **new_incr_ratio** (float) - 用于更新增大loss scaling时使用的乘数,该值需>1.0。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -346,7 +357,8 @@ get_decr_ratio() **返回:**float,缩小loss scaling时使用的乘数。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -369,7 +381,8 @@ set_decr_ratio(new_decr_ratio) **参数:** - **new_decr_ratio** (float) - 用于更新缩小loss scaling时使用的乘数,该值需<1.0。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -393,7 +406,8 @@ get_incr_every_n_steps() **返回:**int,参数incr_every_n_steps。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -416,7 +430,8 @@ set_incr_every_n_steps(new_incr_every_n_steps) **参数:** - **new_incr_every_n_steps** (int) - 用于更新参数incr_every_n_steps。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -440,7 +455,8 @@ get_decr_every_n_nan_or_inf() **返回:**int,参数decr_every_n_nan_or_inf。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -463,7 +479,8 @@ set_decr_every_n_nan_or_inf(new_decr_every_n_nan_or_inf) **参数:** - **new_decr_every_n_nan_or_inf** (int) - 用于更新参数decr_every_n_nan_or_inf。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -487,7 +504,8 @@ state_dict() **返回:**dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -510,7 +528,8 @@ load_state_dict(state_dict) **参数:** - **state_dict** (dict) - 用于设置或更新GradScaler对象的属性参数,dict需要是``GradScaler.state_dict()``的返回值。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/amp/auto_cast_cn.rst b/docs/api/paddle/amp/auto_cast_cn.rst index ad30ffcd1ed..3f3912b7443 100644 --- a/docs/api/paddle/amp/auto_cast_cn.rst +++ b/docs/api/paddle/amp/auto_cast_cn.rst @@ -12,7 +12,9 @@ auto_cast 混合精度训练提供两种模式:``O1``代表采用黑名名单策略的混合精度训练;``O2``代表纯float16训练,除自定义黑名单和不支持float16的算子之外,全部使用float16计算。 -参数: +参数 +:::::::::::: + ::::::::: - **enable** (bool, 可选) - 是否开启自动混合精度。默认值为True。 - **custom_white_list** (set|list, 可选) - 自定义算子白名单。这个名单中的算子在支持float16计算时会被认为是数值安全的,并且对性能至关重要。如果设置了白名单,该名单中的算子会使用float16计算。 diff --git a/docs/api/paddle/amp/decorate_cn.rst b/docs/api/paddle/amp/decorate_cn.rst index e54a1a5b96d..fd80cf01e99 100644 --- a/docs/api/paddle/amp/decorate_cn.rst +++ b/docs/api/paddle/amp/decorate_cn.rst @@ -11,7 +11,9 @@ decorate 通过该函数可为支持master weight策略的优化器开启master weight策略,以保证训练精度。通过 ``save_dtype`` 可指定 ``paddle.save`` 和 ``paddle.jit.save`` 存储的网络参数数据类型。 -参数: +参数 +:::::::::::: + ::::::::: - **models** (Layer|list of Layer) - 网络模型。在``O2``模式下,输入的模型参数将由float32转为float16。 - **optimizers** (Optimizer|list of Optimizer, 可选) - 优化器,默认值为None,若传入优化器或由优化器组成的list列表,将依据master_weight对优化器的master_weight属性进行设置。 diff --git a/docs/api/paddle/argsort_cn.rst b/docs/api/paddle/argsort_cn.rst index 1ab6e7fc081..f55ff8d8475 100644 --- a/docs/api/paddle/argsort_cn.rst +++ b/docs/api/paddle/argsort_cn.rst @@ -9,16 +9,21 @@ argsort 对输入变量沿给定轴进行排序,输出排序好的数据的相应索引,其维度和输入相同。默认升序排列,如果需要降序排列设置 ``descending=True`` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的多维 ``Tensor`` ,支持的数据类型:float32、float64、int16、int32、int64、uint8。 - **axis** (int,可选) - 指定对输入Tensor进行运算的轴, ``axis`` 的有效范围是[-R, R),R是输入 ``x`` 的Rank, ``axis`` 为负时与 ``axis`` +R 等价。默认值为0。 - **descending** (bool,可选) - 指定算法排序的方向。如果设置为True,算法按照降序排序。如果设置为False或者不设置,按照升序排序。默认值为False。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor, 排序后索引信息(与 ``x`` 维度信息一致),数据类型为int64。 +返回 +:::::::::::: +Tensor, 排序后索引信息(与 ``x`` 维度信息一致),数据类型为int64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/asin_cn.rst b/docs/api/paddle/asin_cn.rst index f9b8a4d2e66..d27290bb4c0 100644 --- a/docs/api/paddle/asin_cn.rst +++ b/docs/api/paddle/asin_cn.rst @@ -13,15 +13,22 @@ arcsine函数。 .. math:: out = sin^{-1}(x) -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64、float16。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/assign_cn.rst b/docs/api/paddle/assign_cn.rst index 4bc9ba1665d..1268c88ab74 100644 --- a/docs/api/paddle/assign_cn.rst +++ b/docs/api/paddle/assign_cn.rst @@ -10,14 +10,19 @@ assign 该OP将输入Tensor或numpy数组拷贝至输出Tensor。 -参数: +参数 +:::::::::::: + - **x** (Tensor|np.ndarray|list|tuple|scalar) - 输入Tensor,或numpy数组,或由基本数据组成的list/tuple,或基本数据,支持数据类型为float32, float64, int32, int64和bool。注意:由于当前框架的protobuf传输数据限制,float64数据会被转化为float32数据。 - **output** (Tensor,可选) - 输出Tensor。如果为None,则创建一个新的Tensor作为输出Tensor,默认值为None。 -返回:输出Tensor,形状、数据类型、数据值和 ``x`` 一致。 +返回 +:::::::::::: +输出Tensor,形状、数据类型、数据值和 ``x`` 一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/atan_cn.rst b/docs/api/paddle/atan_cn.rst index 3ca9860948e..582ae43b0b3 100644 --- a/docs/api/paddle/atan_cn.rst +++ b/docs/api/paddle/atan_cn.rst @@ -13,15 +13,22 @@ arctangent函数。 .. math:: out = tan^{-1}(x) -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64、float16。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/autograd/PyLayerContext_cn.rst b/docs/api/paddle/autograd/PyLayerContext_cn.rst index 6d30a13fb8d..97f3d597a66 100644 --- a/docs/api/paddle/autograd/PyLayerContext_cn.rst +++ b/docs/api/paddle/autograd/PyLayerContext_cn.rst @@ -8,7 +8,8 @@ PyLayerContext ``PyLayerContext`` 对象能够辅助 :ref:`cn_api_autograd_PyLayer` 实现某些功能。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -31,21 +32,24 @@ PyLayerContext return grad -.. py:method:: save_for_backward(self, *tensors) +方法 +:::::::::::: +save_for_backward(self, *tensors) +''''''''' 用于暂存 ``backward`` 需要的 ``Tensor`` ,在 ``backward`` 中调用 ``saved_tensor`` 获取这些 ``Tensor`` 。 .. note:: 这个API只能被调用一次,且只能在 ``forward`` 中调用。 -参数 -:::::::::: +**参数** - **tensors** (list of Tensor) - 需要被暂存的 ``Tensor`` -返回:None +**返回** +None -**示例代码** +**代码示例** .. code-block:: python @@ -69,14 +73,16 @@ PyLayerContext return grad -.. py:method:: saved_tensor(self, *tensors) +saved_tensor(self, *tensors) +''''''''' 获取被 ``save_for_backward`` 暂存的 ``Tensor`` 。 -返回:如果调用 ``save_for_backward`` 暂存了一些 ``Tensor`` ,则返回这些 ``Tensor`` ,否则,返回 None。 +**返回** +如果调用 ``save_for_backward`` 暂存了一些 ``Tensor`` ,则返回这些 ``Tensor`` ,否则,返回 None。 -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/autograd/PyLayer_cn.rst b/docs/api/paddle/autograd/PyLayer_cn.rst index 23120ddc629..b4243f648be 100644 --- a/docs/api/paddle/autograd/PyLayer_cn.rst +++ b/docs/api/paddle/autograd/PyLayer_cn.rst @@ -16,7 +16,8 @@ Paddle通过创建 ``PyLayer`` 子类的方式实现Python端自定义算子, 构建完自定义算子后,通过 ``apply`` 运行算子。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -52,18 +53,21 @@ Paddle通过创建 ``PyLayer`` 子类的方式实现Python端自定义算子, print(data.grad) -.. py:method:: forward(ctx, *args, **kwargs) +方法 +:::::::::::: +forward(ctx, *args, **kwargs) +''''''''' ``forward`` 函数必须被子类重写,它的第一个参数是 :ref:`cn_api_autograd_PyLayerContext` 的对象,其他输入参数的类型和数量任意。 -参数 -:::::::::: +**参数** - **\*args** (tuple) - 自定义算子的输入 - **\*\*kwargs** (dict) - 自定义算子的输入 -返回:Tensor或至少包含一个Tensor的list/tuple +**返回** +Tensor或至少包含一个Tensor的list/tuple -**示例代码** +**代码示例** .. code-block:: python @@ -86,18 +90,19 @@ Paddle通过创建 ``PyLayer`` 子类的方式实现Python端自定义算子, return grad -.. py:method:: backward(ctx, *args, **kwargs) +backward(ctx, *args, **kwargs) +''''''''' ``backward`` 函数的作用是计算梯度,它必须被子类重写,其第一个参数为 :ref:`cn_api_autograd_PyLayerContext` 的对象,其他输入参数为 ``forward`` 输出 ``Tensor`` 的梯度。它的输出 ``Tensor`` 为 ``forward`` 输入 ``Tensor`` 的梯度。 -参数 -:::::::::: +**参数** - **\*args** (tuple) - ``forward`` 输出 ``Tensor`` 的梯度。 - **\*\*kwargs** (dict) - ``forward`` 输出 ``Tensor`` 的梯度。 -返回: ``forward`` 输入 ``Tensor`` 的梯度。 +**返回** + ``forward`` 输入 ``Tensor`` 的梯度。 -**示例代码** +**代码示例** .. code-block:: python @@ -120,18 +125,19 @@ Paddle通过创建 ``PyLayer`` 子类的方式实现Python端自定义算子, return grad -.. py:method:: apply(cls, *args, **kwargs) +apply(cls, *args, **kwargs) +''''''''' 构建完自定义算子后,通过 ``apply`` 运行算子。 -参数 -:::::::::: +**参数** - **\*args** (tuple) - 自定义算子的输入 - **\*\*kwargs** (dict) - 自定义算子的输入 -返回:Tensor或至少包含一个Tensor的list/tuple +**返回** +Tensor或至少包含一个Tensor的list/tuple -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/autograd/backward_cn.rst b/docs/api/paddle/autograd/backward_cn.rst index 2973fe4e563..b305aa88c25 100644 --- a/docs/api/paddle/autograd/backward_cn.rst +++ b/docs/api/paddle/autograd/backward_cn.rst @@ -8,15 +8,20 @@ backward 计算给定的 Tensors 的反向梯度。 -参数: +参数 +:::::::::::: + - **tensors** (list[Tensor]) – 将要计算梯度的Tensors列表。 Tensors中不能包含有相同的Tensor。 - **grad_tensors** (None|list[Tensor|None], 可选) – ``tensors`` 的初始梯度值。如果非None, 必须和 ``tensors`` 有相同的长度, 并且如果其中某一Tensor元素为None,则该初始梯度值为填充1.0 的默认值;如果是None,所有的 ``tensors`` 的初始梯度值为填充1.0 的默认值。默认值:None。 - **retain_graph** (bool,可选) – 如果为False,反向计算图将被释放。如果在backward()之后继续添加OP, 需要设置为True,此时之前的反向计算图会保留。将其设置为False会更加节省内存。默认值:False。 -返回:None +返回 +:::::::::::: +None -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/bernoulli_cn.rst b/docs/api/paddle/bernoulli_cn.rst index 7035273befe..cb5b1209fec 100644 --- a/docs/api/paddle/bernoulli_cn.rst +++ b/docs/api/paddle/bernoulli_cn.rst @@ -10,15 +10,20 @@ bernoulli .. math:: out_i \sim Bernoulli(p = x_i) -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的概率值。数据类型为 ``float32`` 、``float64`` . - **name** (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回: +返回 +:::::::::::: + Tensor:伯努利分布的随机Tensor,形状和数据类型为与输入 ``x`` 相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/bincount_cn.rst b/docs/api/paddle/bincount_cn.rst index 427d0912421..40858f244c3 100644 --- a/docs/api/paddle/bincount_cn.rst +++ b/docs/api/paddle/bincount_cn.rst @@ -7,7 +7,9 @@ bincount 统计输入张量中每个元素出现的次数,如果传入weights张量则每次计数加一时会乘以weights张量对应的值 -参数: +参数 +:::::::::::: + :::::::::::: - **x** (Tensor) - 输入Tensor。必须是一维Tensor,其中元素必须大于等于0,数据类型为int32, int64。 @@ -15,7 +17,9 @@ bincount - **minlength** (int, 可选) - 输出Tensor的最小长度,如果大于输入Tensor中的最大值,则多出的位置补0。该值必须大于等于0。默认为0。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + :::::::::::: Tensor,维度为1。 diff --git a/docs/api/paddle/bitwise_and_cn.rst b/docs/api/paddle/bitwise_and_cn.rst index 2fe3f4d2123..f533b09bd71 100644 --- a/docs/api/paddle/bitwise_and_cn.rst +++ b/docs/api/paddle/bitwise_and_cn.rst @@ -13,14 +13,19 @@ bitwise_and .. note:: ``paddle.bitwise_and`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **y** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **out** (Tensor,可选)- 输出的结果 `Tensor` ,是与输入数据类型相同的 N-D `Tensor` 。默认值为None,此时将创建新的Tensor来保存输出结果。 -返回: ``按位与`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 +返回 +:::::::::::: + ``按位与`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/bitwise_not_cn.rst b/docs/api/paddle/bitwise_not_cn.rst index 8a9362536e6..57012c5041b 100644 --- a/docs/api/paddle/bitwise_not_cn.rst +++ b/docs/api/paddle/bitwise_not_cn.rst @@ -13,13 +13,18 @@ bitwise_not .. note:: ``paddle.bitwise_not`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **out** (Tensor,可选)- 输出的结果 `Tensor` ,是与输入数据类型相同的 N-D `Tensor` 。默认值为None,此时将创建新的Tensor来保存输出结果。 -返回: ``按位取反`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 +返回 +:::::::::::: + ``按位取反`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/bitwise_or_cn.rst b/docs/api/paddle/bitwise_or_cn.rst index dee373a9178..8e7bedd75dd 100644 --- a/docs/api/paddle/bitwise_or_cn.rst +++ b/docs/api/paddle/bitwise_or_cn.rst @@ -13,14 +13,19 @@ bitwise_or .. note:: ``paddle.bitwise_or`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **y** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **out** (Tensor,可选)- 输出的结果 `Tensor` ,是与输入数据类型相同的 N-D `Tensor` 。默认值为None,此时将创建新的Tensor来保存输出结果。 -返回: ``按位或`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 +返回 +:::::::::::: + ``按位或`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/bitwise_xor_cn.rst b/docs/api/paddle/bitwise_xor_cn.rst index 9d0f44c8b9a..144deea4aae 100644 --- a/docs/api/paddle/bitwise_xor_cn.rst +++ b/docs/api/paddle/bitwise_xor_cn.rst @@ -13,14 +13,19 @@ bitwise_xor .. note:: ``paddle.bitwise_xor`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **y** (Tensor)- 输入的 N-D `Tensor` ,数据类型为:bool,uint8,int8,int16,int32,int64。 - **out** (Tensor,可选)- 输出的结果 `Tensor` ,是与输入数据类型相同的 N-D `Tensor` 。默认值为None,此时将创建新的Tensor来保存输出结果。 -返回: ``按位异或`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 +返回 +:::::::::::: + ``按位异或`` 运算后的结果 ``Tensor`` , 数据类型与 ``x`` 相同。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/callbacks/Callback_cn.rst b/docs/api/paddle/callbacks/Callback_cn.rst index 1e871d9c90e..0fa5a7722fa 100644 --- a/docs/api/paddle/callbacks/Callback_cn.rst +++ b/docs/api/paddle/callbacks/Callback_cn.rst @@ -7,7 +7,8 @@ Callback ``Callback`` 是一个基类,用于实现用户自定义的callback。如果想使用除 :ref:`EarlyStopping <_cn_api_paddle_callbacks_EarlyStopping>` 外的自定义策略终止训练,可以通过在自定义的callback类中设置 ``model.stop_training=True`` 来实现。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -49,7 +50,9 @@ on_train_begin(logs=None) 在训练的一开始调用。 -参数: +参数 +:::::::::::: + - **logs** (dict|None): 日志信息是dict或None. on_train_end(logs=None) @@ -57,7 +60,9 @@ on_train_end(logs=None) 在训练的结束调用。 -参数: +参数 +:::::::::::: + - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及'batch_size'。 @@ -66,7 +71,9 @@ on_eval_begin(logs=None) 在评估阶段的一开始调用。 -参数: +参数 +:::::::::::: + - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'steps'和'metrics'。'steps'是验证集的总共步长数, 'metrics'是一个list[str], 包含'loss'和所设置的paddle.metric.Metric的名字。 on_eval_end(logs=None) @@ -74,7 +81,9 @@ on_eval_end(logs=None) 在评估阶段的结束调用。 -参数: +参数 +:::::::::::: + - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及'batch_size'。 @@ -83,7 +92,9 @@ on_predict_begin(logs=None) 在推理阶段的一开始调用。 -参数: +参数 +:::::::::::: + - **logs** (dict|None): 日志信息是dict或None。 @@ -92,7 +103,9 @@ on_predict_end(logs=None) 在推理阶段的结束调用。 -参数: +参数 +:::::::::::: + - **logs** (dict|None): 日志信息是dict或None。 @@ -101,7 +114,9 @@ on_epoch_begin(epoch, logs=None) 在每个epoch的一开始调用。 -参数: +参数 +:::::::::::: + - **epoch** (int): epoch的索引。 - **logs** (dict|None): 日志信息是None。 @@ -110,7 +125,9 @@ on_epoch_end(epoch, logs=None) 在每个epoch的结束调用。 -参数: +参数 +:::::::::::: + - **epoch** (int): epoch的索引。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及'batch_size'。 @@ -120,7 +137,9 @@ on_train_batch_begin(step, logs=None) 在训练阶段每个batch的开始调用。 -参数: +参数 +:::::::::::: + - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的是None。 @@ -130,7 +149,9 @@ on_train_batch_end(step, logs=None) 在训练阶段每个batch的结束调用。 -参数: +参数 +:::::::::::: + - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及当前'batch_size'。 @@ -140,7 +161,9 @@ on_eval_batch_begin(step, logs=None) 在评估阶段每个batch的开始调用。 -参数: +参数 +:::::::::::: + - **step** (int): 评估步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的是None。 @@ -149,7 +172,9 @@ on_eval_batch_end(step, logs=None) 在评估阶段每个batch的结束调用。 -参数: +参数 +:::::::::::: + - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及当前'batch_size'。 @@ -158,7 +183,9 @@ on_predict_batch_begin(step, logs=None) 在推理阶段每个batch的开始调用。 -参数: +参数 +:::::::::::: + - **step** (int): 推理步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. @@ -167,6 +194,8 @@ on_predict_batch_end(step, logs=None) 在推理阶段每个batch的结束调用。 -参数: +参数 +:::::::::::: + - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. diff --git a/docs/api/paddle/callbacks/EarlyStopping_cn.rst b/docs/api/paddle/callbacks/EarlyStopping_cn.rst index 4d49ec4a75a..d7ba1a102e5 100644 --- a/docs/api/paddle/callbacks/EarlyStopping_cn.rst +++ b/docs/api/paddle/callbacks/EarlyStopping_cn.rst @@ -7,7 +7,9 @@ EarlyStopping 在模型评估阶段,模型效果如果没有提升,``EarlyStopping`` 会通过设置 ``model.stop_training=True`` 让模型提前停止训练。 -参数: +参数 +:::::::::::: + - **monitor** (str,可选) - 监控量。该量作为模型是否停止学习的监控指标。默认值:'loss'。 - **mode** (str,可选) - 可以是'auto'、'min'或者'max'。在min模式下,模型会在监控量的值不再减少时停止训练;max模式下,模型会在监控量的值不再增加时停止训练;auto模式下,实际的模式会从 ``monitor`` 推断出来。如果 ``monitor`` 中有'acc',将会认为是max模式,其它情况下,都会被推断为min模式。默认值:'auto'。 - **patience** (int,可选) - 多少个epoch模型效果未提升会使模型提前停止训练。默认值:0。 @@ -16,7 +18,8 @@ EarlyStopping - **baseline** (int|float,可选) - 监控量的基线。如果模型在训练 ``patience`` 个epoch后效果对比基线没有提升,将会停止训练。如果是None,代表没有基线。默认值:None。 - **save_best_model** (bool,可选) - 是否保存效果最好的模型(监控量的值最优)。文件会保存在 ``fit`` 中传入的参数 ``save_dir`` 下,前缀名为best_model,默认值: True。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/callbacks/LRScheduler_cn.rst b/docs/api/paddle/callbacks/LRScheduler_cn.rst index e32e58c1a65..a4cf00f7cb9 100644 --- a/docs/api/paddle/callbacks/LRScheduler_cn.rst +++ b/docs/api/paddle/callbacks/LRScheduler_cn.rst @@ -7,12 +7,15 @@ LRScheduler ``LRScheduler`` 是一个学习率回调函数。 -参数: +参数 +:::::::::::: + - **by_step** (bool,可选) - 是否每个step都更新学习率。默认值:True。 - **by_epoch** (bool,可选) - 是否每个epoch都更新学习率。默认值:False。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/callbacks/ModelCheckpoint_cn.rst b/docs/api/paddle/callbacks/ModelCheckpoint_cn.rst index cdeec1acac5..9488ade1891 100644 --- a/docs/api/paddle/callbacks/ModelCheckpoint_cn.rst +++ b/docs/api/paddle/callbacks/ModelCheckpoint_cn.rst @@ -9,12 +9,15 @@ ModelCheckpoint 子方法可以参考基类。 -参数: +参数 +:::::::::::: + - **save_freq** (int,可选) - 间隔多少个epoch保存模型。默认值:1。 - **save_dir** (int,可选) - 保存模型的文件夹。如果不设定,将不会保存模型。默认值:None。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/callbacks/ProgBarLogger_cn.rst b/docs/api/paddle/callbacks/ProgBarLogger_cn.rst index dfd93eee42c..8539eeef13b 100644 --- a/docs/api/paddle/callbacks/ProgBarLogger_cn.rst +++ b/docs/api/paddle/callbacks/ProgBarLogger_cn.rst @@ -7,7 +7,9 @@ ProgBarLogger ``ProgBarLogger`` 是一个日志回调类,用来打印损失函数和评估指标。支持静默模式、进度条模式、每次打印一行三种模式,详细的参考下面参数注释。 -参数: +参数 +:::::::::::: + - **log_freq** (int,可选) - 损失值和指标打印的频率。默认值:1。 - **verbose** (int,可选) - 打印信息的模式。设置为0时,不打印信息; 设置为1时,使用进度条的形式打印信息;设置为2时,使用行的形式打印信息。 @@ -15,7 +17,8 @@ ProgBarLogger 默认值:2。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/callbacks/ReduceLROnPlateau_cn.rst b/docs/api/paddle/callbacks/ReduceLROnPlateau_cn.rst index 16883018d06..93dbab68b92 100644 --- a/docs/api/paddle/callbacks/ReduceLROnPlateau_cn.rst +++ b/docs/api/paddle/callbacks/ReduceLROnPlateau_cn.rst @@ -7,7 +7,9 @@ ReduceLROnPlateau 该回调函数会在评估指标停止改善时,降低学习率。模型通常会因学习率降低2-10倍而受益。因此监视一个评价指标,如果这个指标在几个epoch内没有改善,就降低学习率。 -参数: +参数 +:::::::::::: + - **monitor** (str,可选) - 监视的指标名称。默认值:'loss'。 - **factor** (float,可选) - 学习率减小的因子。 `new_lr = lr * factor` 。默认值:0.1。 - **patience** (int,可选) - 多少个epoch监视的指标没有提升后就减小学习率。默认值:10。 @@ -18,7 +20,8 @@ ReduceLROnPlateau - **min_lr** (int,可选) - 学习率减小后的下限。默认值:0。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/callbacks/VisualDL_cn.rst b/docs/api/paddle/callbacks/VisualDL_cn.rst index 6cb8b83f2f5..d88a0decf80 100644 --- a/docs/api/paddle/callbacks/VisualDL_cn.rst +++ b/docs/api/paddle/callbacks/VisualDL_cn.rst @@ -7,11 +7,14 @@ VisualDL ``VisualDL`` 是一个visualdl( `飞桨可视化分析工具 `_ )的回调类。该类将训练过程中的损失值和评价指标储存至日志文件中后,启动面板即可查看可视化结果。 -参数: +参数 +:::::::::::: + - **log_dir** (str) - 输出日志保存的路径。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/cast_cn.rst b/docs/api/paddle/cast_cn.rst index f083a920488..1096a0ac224 100644 --- a/docs/api/paddle/cast_cn.rst +++ b/docs/api/paddle/cast_cn.rst @@ -10,15 +10,22 @@ cast 该OP将 ``x`` 的数据类型转换为 ``dtype`` 并输出。支持输出和输入的数据类型相同。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的多维Tensor或LoDTensor,支持的数据类型为:bool、float16、float32、float64、uint8、int32、int64。 - **dtype** (str|np.dtype) - 输出Tensor的数据类型。支持的数据类型为:bool、float16、float32、float64、int8、int32、int64、uint8。 -返回:Tensor或LoDTensor,维度与 ``x`` 相同,数据类型为 ``dtype`` +返回 +:::::::::::: +Tensor或LoDTensor,维度与 ``x`` 相同,数据类型为 ``dtype`` -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/ceil_cn.rst b/docs/api/paddle/ceil_cn.rst index 5402fe77ea6..42570ad7842 100644 --- a/docs/api/paddle/ceil_cn.rst +++ b/docs/api/paddle/ceil_cn.rst @@ -15,15 +15,22 @@ ceil -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64 、float16。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/chunk_cn.rst b/docs/api/paddle/chunk_cn.rst index 4dabe0ce8ae..18be32a9bd7 100644 --- a/docs/api/paddle/chunk_cn.rst +++ b/docs/api/paddle/chunk_cn.rst @@ -13,10 +13,13 @@ chunk - **axis** (int|Tensor,可选) - 整数或者形状为[1]的Tensor,数据类型为int32或int64。表示需要分割的维度。如果 ``axis < 0`` ,则划分的维度为 ``rank(x) + axis`` 。默认值为0。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:分割后的Tensor列表。 +返回 +:::::::::::: +分割后的Tensor列表。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/clip_cn.rst b/docs/api/paddle/clip_cn.rst index 0197bf65131..0aa8930975d 100644 --- a/docs/api/paddle/clip_cn.rst +++ b/docs/api/paddle/clip_cn.rst @@ -14,17 +14,24 @@ clip Out = MIN(MAX(x, min), max) -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64。 - min (float32|Tensor, 可选) - 裁剪的最小值,输入中小于该值的元素将由该元素代替,若参数为空,则不对输入的最小值做限制。数据类型可以是float32或形状为[1]的Tensor,类型可以为int32,float32,float64,默认值为None。 - max (float32|Tensor, 可选) - 裁剪的最大值,输入中大于该值的元素将由该元素代替,若参数为空,则不对输入的最大值做限制。数据类型可以是float32或形状为[1]的Tensor,类型可以为int32,float32,float64,默认值为None。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/concat_cn.rst b/docs/api/paddle/concat_cn.rst index dc3a1c30b0c..8d23ef494f8 100644 --- a/docs/api/paddle/concat_cn.rst +++ b/docs/api/paddle/concat_cn.rst @@ -8,15 +8,20 @@ concat 该OP对输入沿 ``axis`` 轴进行联结,返回一个新的Tensor。 -参数: +参数 +:::::::::::: + - **x** (list|tuple) - 待联结的Tensor list或者Tensor tuple ,支持的数据类型为:bool、float16、float32、float64、int32、int64、uint8, ``x`` 中所有Tensor的数据类型应该一致。 - **axis** (int|Tensor,可选) - 指定对输入 ``x`` 进行运算的轴,可以是整数或者形状为[1]的Tensor,数据类型为int32或者int64。 ``axis`` 的有效范围是[-R, R),R是输入 ``x`` 中Tensor的维度, ``axis`` 为负值时与 :math:`axis + R` 等价。默认值为0。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:联结后的Tensor ,数据类型和 ``x`` 中的Tensor相同。 +返回 +:::::::::::: +联结后的Tensor ,数据类型和 ``x`` 中的Tensor相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/conj_cn.rst b/docs/api/paddle/conj_cn.rst index 0117c0e58b8..ed48ddfabbd 100644 --- a/docs/api/paddle/conj_cn.rst +++ b/docs/api/paddle/conj_cn.rst @@ -8,15 +8,20 @@ conj 该OP是逐元素计算Tensor的共轭运算。 -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的复数值的Tensor,数据类型为:complex64、complex128、float32、float64、int32 或int64。 - name (str,可选) - 默认值为None。一般无需用户设置。更多信息请参见 :ref:`api_guide_Name`。 -返回: +返回 +:::::::::::: + - out (Tensor) - 输入的共轭。形状和数据类型与输入一致。如果tensor元素是实数类型,如float32、float64、int32、或者int64,返回值和输入相同。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/cos_cn.rst b/docs/api/paddle/cos_cn.rst index aa13b281637..ffdbcde7f60 100644 --- a/docs/api/paddle/cos_cn.rst +++ b/docs/api/paddle/cos_cn.rst @@ -16,13 +16,18 @@ cos out = cos(x) -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64 、float16。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/cosh_cn.rst b/docs/api/paddle/cosh_cn.rst index 91fa897a441..7a93ed3c8de 100644 --- a/docs/api/paddle/cosh_cn.rst +++ b/docs/api/paddle/cosh_cn.rst @@ -16,13 +16,18 @@ cosh out = \frac{exp(x)+exp(-x)}{2} -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64 、float16。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/XPUPlace_cn.rst b/docs/api/paddle/device/XPUPlace_cn.rst index 23d0aa37c07..e2151c8579d 100644 --- a/docs/api/paddle/device/XPUPlace_cn.rst +++ b/docs/api/paddle/device/XPUPlace_cn.rst @@ -13,9 +13,12 @@ XPUPlace 每个 ``XPUPlace`` 有一个 ``dev_id`` (设备id)来表明当前的 ``XPUPlace`` 所代表的显卡编号,编号从 0 开始。 ``dev_id`` 不同的 ``XPUPlace`` 所对应的内存不可相互访问。 -参数: +参数 +:::::::::::: + - **id** (int,可选) - XPU的设备ID。如果为 ``None``,则默认会使用 id 为 0 的设备。默认值为 ``None``。 -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.device.XPUPlace diff --git a/docs/api/paddle/device/cuda/Event_cn.rst b/docs/api/paddle/device/cuda/Event_cn.rst index 28e5c7805a8..c69081d6b42 100644 --- a/docs/api/paddle/device/cuda/Event_cn.rst +++ b/docs/api/paddle/device/cuda/Event_cn.rst @@ -7,14 +7,19 @@ Event CUDA event的句柄。 -参数: +参数 +:::::::::::: + - **enable_timing** (bool, 可选) - Event 是否需要统计时间。默认值为False。 - **blocking** (bool, 可选) - wait()函数是否被阻塞。默认值为False。 - **interprocess** (bool, 可选) - Event是否能在进程间共享。默认值为False。 -返回:None +返回 +:::::::::::: +None -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -23,14 +28,18 @@ CUDA event的句柄。 event = paddle.device.cuda.Event() -.. py:method:: record(CUDAStream=None) +方法 +:::::::::::: +record(CUDAStream=None) +''''''''' 记录event 到给定的stream。 -参数: +**参数** + - **stream** (CUDAStream, 可选) - CUDA stream的句柄。如果为None,stream为当前的stream。默认值为False。 -**代码示例**: +**代码示例** .. code-block:: python @@ -39,13 +48,15 @@ CUDA event的句柄。 event = paddle.device.cuda.Event() event.record() -.. py:method:: query() +query() +''''''''' 查询event的状态。 -返回: 一个boolean 变量,用于标识当前event 获取的所有任务是否被完成。 +**返回** + 一个boolean 变量,用于标识当前event 获取的所有任务是否被完成。 -**代码示例**: +**代码示例** .. code-block:: python @@ -55,11 +66,12 @@ CUDA event的句柄。 is_done = event.query() -.. py:method:: synchronize() +synchronize() +''''''''' 等待当前event 完成。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/device/cuda/Stream_cn.rst b/docs/api/paddle/device/cuda/Stream_cn.rst index 278d0b4719e..ac13e2b56c6 100644 --- a/docs/api/paddle/device/cuda/Stream_cn.rst +++ b/docs/api/paddle/device/cuda/Stream_cn.rst @@ -7,12 +7,15 @@ Stream CUDA stream的句柄。 -参数: +参数 +:::::::::::: + - **device** (paddle.CUDAPlace()|int|None, 可选) - 希望分配stream的设备。如果是None或者负数,则设备为当前的设备。如果是正数,则必须小于设备的个数。默认值为None。 - **priority** (int|None, 可选) - stream的优先级。优先级可以为1(高优先级)或者2(正常优先级)。如果优先级为None,优先级为2(正常优先级)。默认值为None。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -24,14 +27,18 @@ CUDA stream的句柄。 -.. py:method:: wait_event(event) +方法 +:::::::::::: +wait_event(event) +''''''''' 使所有将来提交到stream的任务等待event中已获取的任务。 -参数: +**参数** + - **event** (CUDAEvent) - 要等待的event。 -**代码示例**: +**代码示例** .. code-block:: python @@ -42,15 +49,17 @@ CUDA stream的句柄。 s.wait_event(event) -.. py:method:: wait_stream(stream) +wait_stream(stream) +''''''''' 和给定的stream 保持同步。 -参数: +**参数** + - **stream** (CUDAStream) - 要同步的stream。 -**代码示例**: +**代码示例** .. code-block:: python @@ -61,13 +70,15 @@ CUDA stream的句柄。 s1.wait_stream(s2) -.. py:method:: query() +query() +''''''''' 返回stream 中所有的操作是否完成的状态。 -返回: 一个boolean 值。 +**返回** + 一个boolean 值。 -**代码示例**: +**代码示例** .. code-block:: python @@ -76,11 +87,12 @@ CUDA stream的句柄。 s = paddle.device.cuda.Stream(paddle.CUDAPlace(0), 1) is_done = s.query() -.. py:method:: synchronize() +synchronize() +''''''''' 等待所有的stream的任务完成。 -**代码示例**: +**代码示例** .. code-block:: python @@ -89,16 +101,19 @@ CUDA stream的句柄。 s = paddle.device.cuda.Stream(paddle.CUDAPlace(0), 1) s.synchronize() -.. py:method:: record_event(event=None) +record_event(event=None) +''''''''' 标记一个CUDA event 到当前stream中。 -参数: +**参数** + - **event** (CUDAEvent,可选) - 要标记的event。如果event 为None,新建一个event。默认值为None。 -返回: 被标记的event。 +**返回** + 被标记的event。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/device/cuda/current_stream_cn.rst b/docs/api/paddle/device/cuda/current_stream_cn.rst index a9ba6d5f61e..b6372114416 100644 --- a/docs/api/paddle/device/cuda/current_stream_cn.rst +++ b/docs/api/paddle/device/cuda/current_stream_cn.rst @@ -8,11 +8,16 @@ current_stream 通过device 返回当前的CUDA stream。 -参数: +参数 +:::::::::::: + - **device** (paddle.CUDAPlace()|int, 可选) - 希望获取stream的设备或者设备ID。如果为None,则为当前的设备。默认值为None。 -返回: CUDAStream, 设备的stream +返回 +:::::::::::: + CUDAStream, 设备的stream -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.device.cuda.current_stream diff --git a/docs/api/paddle/device/cuda/device_count_cn.rst b/docs/api/paddle/device/cuda/device_count_cn.rst index 3e0b1313e9a..cbb82031abd 100644 --- a/docs/api/paddle/device/cuda/device_count_cn.rst +++ b/docs/api/paddle/device/cuda/device_count_cn.rst @@ -7,10 +7,13 @@ device_count 返回值是int,表示当前程序可用的GPU数量。 -返回: 返回一个整数,表示当前程序可用的GPU数量。 +返回 +:::::::::::: + 返回一个整数,表示当前程序可用的GPU数量。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/cuda/stream_guard_cn.rst b/docs/api/paddle/device/cuda/stream_guard_cn.rst index b011e8eba7c..e30313d4bfb 100644 --- a/docs/api/paddle/device/cuda/stream_guard_cn.rst +++ b/docs/api/paddle/device/cuda/stream_guard_cn.rst @@ -8,8 +8,11 @@ stream_guard 可以切换当前的CUDA stream为输入指定的stream。 -参数: +参数 +:::::::::::: + - **stream** (paddle.device.cuda.Stream) - 指定的CUDA stream。如果为None,则不进行stream流切换。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.device.cuda.stream_guard diff --git a/docs/api/paddle/device/cuda/synchronize_cn.rst b/docs/api/paddle/device/cuda/synchronize_cn.rst index 8f058c84209..51ef6a7170d 100644 --- a/docs/api/paddle/device/cuda/synchronize_cn.rst +++ b/docs/api/paddle/device/cuda/synchronize_cn.rst @@ -8,11 +8,16 @@ synchronize 等待给定的CUDA 设备上的计算完成。 -参数: +参数 +:::::::::::: + - **device** (paddle.CUDAPlace()|int, 可选) - 设备或者设备ID。如果为None,则为当前的设备。默认值为None。 -返回:None +返回 +:::::::::::: +None -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.device.cuda.synchronize diff --git a/docs/api/paddle/device/get_cudnn_version_cn.rst b/docs/api/paddle/device/get_cudnn_version_cn.rst index 42d8f7e4f12..7e6d6b94a39 100644 --- a/docs/api/paddle/device/get_cudnn_version_cn.rst +++ b/docs/api/paddle/device/get_cudnn_version_cn.rst @@ -8,9 +8,12 @@ get_cudnn_version 此函数返回cudnn的版本。 返回值是int,它表示cudnn版本。 例如,如果返回7600,则表示cudnn的版本为7.6。 -返回:返回一个整数,表示cudnn的版本。 +返回 +:::::::::::: +返回一个整数,表示cudnn的版本。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/get_device_cn.rst b/docs/api/paddle/device/get_device_cn.rst index 6fed0dc8f7a..7a82de161ac 100644 --- a/docs/api/paddle/device/get_device_cn.rst +++ b/docs/api/paddle/device/get_device_cn.rst @@ -8,9 +8,12 @@ get_device 该功能返回当前程序运行的全局设备,返回的是一个类似于 ``cpu``、 ``gpu:x``、 ``xpu:x``、 ``mlu:x`` 或者 ``npu:x`` 字符串,如果没有设置全局设备,当cuda可用的时候返回 ``gpu:0`` ,当cuda不可用的时候返回 ``cpu`` 。 -返回:返回当前程序运行的全局设备。 +返回 +:::::::::::: +返回当前程序运行的全局设备。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/is_compiled_with_cinn_cn.rst b/docs/api/paddle/device/is_compiled_with_cinn_cn.rst index 29f416c0061..533988976e5 100644 --- a/docs/api/paddle/device/is_compiled_with_cinn_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_cinn_cn.rst @@ -7,9 +7,12 @@ is_compiled_with_cinn 检查 ``whl`` 包是否可以被用来在 CINN 上运行模型。 -返回:bool,支持CINN则为True,否则为False。 +返回 +:::::::::::: +bool,支持CINN则为True,否则为False。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/is_compiled_with_cuda_cn.rst b/docs/api/paddle/device/is_compiled_with_cuda_cn.rst index 4f5da848fdb..23f9d7fbad2 100644 --- a/docs/api/paddle/device/is_compiled_with_cuda_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_cuda_cn.rst @@ -10,9 +10,12 @@ is_compiled_with_cuda 检查 ``whl`` 包是否可以被用来在GPU上运行模型 -返回:bool, 支持GPU则为True,否则为False。 +返回 +:::::::::::: +bool, 支持GPU则为True,否则为False。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/is_compiled_with_npu_cn.rst b/docs/api/paddle/device/is_compiled_with_npu_cn.rst index 1cf466cf3ad..dff5b282b39 100644 --- a/docs/api/paddle/device/is_compiled_with_npu_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_npu_cn.rst @@ -7,9 +7,12 @@ is_compiled_with_npu 检查 ``whl`` 包是否可以被用来在 NPU 上运行模型。 -返回:bool, 支持NPU则为True,否则为False。 +返回 +:::::::::::: +bool, 支持NPU则为True,否则为False。 -**示例代码** +代码示例 +:::::::::::: COPY-FROM: paddle.device.is_compiled_with_npu diff --git a/docs/api/paddle/device/is_compiled_with_rocm_cn.rst b/docs/api/paddle/device/is_compiled_with_rocm_cn.rst index 2bcabf49fb5..0865e79890f 100644 --- a/docs/api/paddle/device/is_compiled_with_rocm_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_rocm_cn.rst @@ -10,9 +10,12 @@ is_compiled_with_rocm 检查 ``whl`` 包是否可以被用来在AMD或海光GPU(ROCm)上运行模型 -返回:bool,支持GPU(ROCm)则为True,否则为False。 +返回 +:::::::::::: +bool,支持GPU(ROCm)则为True,否则为False。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/device/is_compiled_with_xpu_cn.rst b/docs/api/paddle/device/is_compiled_with_xpu_cn.rst index 14105bb4fa4..09bf0afc73e 100644 --- a/docs/api/paddle/device/is_compiled_with_xpu_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_xpu_cn.rst @@ -10,8 +10,11 @@ is_compiled_with_xpu 检查 ``whl`` 包是否可以被用来在Baidu Kunlun XPU上运行模型 -返回:bool,支持Baidu Kunlun XPU则为True,否则为False。 +返回 +:::::::::::: +bool,支持Baidu Kunlun XPU则为True,否则为False。 -**示例代码** +代码示例 +:::::::::::: COPY-FROM: paddle.device.is_compiled_with_xpu diff --git a/docs/api/paddle/device/set_device_cn.rst b/docs/api/paddle/device/set_device_cn.rst index 9e4cc6ec5c8..3ad75ca5a9d 100644 --- a/docs/api/paddle/device/set_device_cn.rst +++ b/docs/api/paddle/device/set_device_cn.rst @@ -8,12 +8,17 @@ set_device Paddle支持包括CPU和GPU在内的多种设备运行,设备可以通过字符串标识符表示,此功能可以指定OP运行的全局设备。 -参数: +参数 +:::::::::::: + - **device** (str)- 此参数确定特定的运行设备,它可以是 ``cpu``、 ``gpu``、 ``xpu``、 ``mlu``、 ``npu``、 ``gpu:x``、 ``xpu:x``、 ``mlu:x`` 或者是 ``npu:x`` 。其中, ``x`` 是GPU、 XPU、 MLU 或者是 NPU 的编号。当 ``device`` 是 ``cpu`` 的时候, 程序在CPU上运行, 当device是 ``gpu:x`` 的时候,程序在GPU上运行, 当device是 ``mlu:x`` 的时候,程序在MLU上运行, 当device是 ``npu:x`` 的时候,程序在NPU上运行。 -返回:Place, 设置的Place。 +返回 +:::::::::::: +Place, 设置的Place。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/diag_cn.rst b/docs/api/paddle/diag_cn.rst index 203a5800c25..dc1a8bb68a0 100644 --- a/docs/api/paddle/diag_cn.rst +++ b/docs/api/paddle/diag_cn.rst @@ -10,7 +10,9 @@ diag 如果 ``x`` 是矩阵(2-D张量),则提取 ``x`` 的对角线元素,以1-D张量返回。 -参数 ``offset`` 控制对角线偏移量: +参数 +:::::::::::: +``offset`` 控制对角线偏移量: - 如果 ``offset`` = 0,则为主对角线。 - 如果 ``offset`` > 0,则为上对角线。 diff --git a/docs/api/paddle/diagflat_cn.rst b/docs/api/paddle/diagflat_cn.rst index dbb6e276b9d..149829fe1c2 100644 --- a/docs/api/paddle/diagflat_cn.rst +++ b/docs/api/paddle/diagflat_cn.rst @@ -10,7 +10,9 @@ diagflat 如果 ``x`` 是大于等于二维的张量,则返回一个二维方阵,其对角线元素为 ``x`` 在连续维度展开得到的一维张量的元素。 -参数 ``offset`` 控制对角线偏移量: +参数 +:::::::::::: +``offset`` 控制对角线偏移量: - 如果 ``offset`` = 0,则为主对角线。 - 如果 ``offset`` > 0,则为上对角线。 diff --git a/docs/api/paddle/diagonal_cn.rst b/docs/api/paddle/diagonal_cn.rst index 0bda32e3666..f61dc078657 100644 --- a/docs/api/paddle/diagonal_cn.rst +++ b/docs/api/paddle/diagonal_cn.rst @@ -12,7 +12,9 @@ diagonal 如果输入的维度大于 2D,则返回由对角线元素组成的数组,其中对角线从由 axis1 和 axis2 指定的二维平面中获得。默认由输入的前两维组成获得对角线的 2D 平面。 -参数 `offset` 确定从指定的二维平面中获取对角线的位置: +参数 +:::::::::::: +`offset` 确定从指定的二维平面中获取对角线的位置: - 如果 offset = 0,则取主对角线。 - 如果 offset > 0,则取主对角线右上的对角线。 diff --git a/docs/api/paddle/diff_cn.rst b/docs/api/paddle/diff_cn.rst index 53bd5f30243..469f2bd61e1 100644 --- a/docs/api/paddle/diff_cn.rst +++ b/docs/api/paddle/diff_cn.rst @@ -13,7 +13,9 @@ diff .. note:: 高阶的前向差值可以通过递归的方式进行计算,目前只支持 n=1。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 待计算前向差值的输入 `Tensor`。 diff --git a/docs/api/paddle/disable_static_cn.rst b/docs/api/paddle/disable_static_cn.rst index 1db8c794080..4749e77d877 100644 --- a/docs/api/paddle/disable_static_cn.rst +++ b/docs/api/paddle/disable_static_cn.rst @@ -11,12 +11,17 @@ disable_static 该接口关闭静态图模式。可通过 :ref:`cn_api_paddle_enable_static` 开启静态图模式。 -参数: +参数 +:::::::::::: + - **place** (paddle.CPUPlace|paddle.CUDAPlace,可选) - 动态图运行时的设备。默认值为 ``None`` , 此时,会根据paddle的版本自动判断。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/dist_cn.rst b/docs/api/paddle/dist_cn.rst index abb5c39864b..b223805ae9a 100644 --- a/docs/api/paddle/dist_cn.rst +++ b/docs/api/paddle/dist_cn.rst @@ -46,16 +46,23 @@ z (4-D Tensor): 8 x 7 x 6 x 5 .. math:: ||z||_{p}=(\sum_{i=1}^{m}|z_i|^p)^{\frac{1}{p}} -参数: +参数 +:::::::::::: + - **x** (Tensor): 1-D 到 6-D Tensor,数据类型为float32或float64。 - **y** (Tensor): 1-D 到 6-D Tensor,数据类型为float32或float64。 - **p** (float, optional): 用于设置需要计算的范数,数据类型为float32或float64。默认值为2. -返回: `(x-y)` 的 `p` 范数。 +返回 +:::::::::::: + `(x-y)` 的 `p` 范数。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/distributed/InMemoryDataset_cn.rst b/docs/api/paddle/distributed/InMemoryDataset_cn.rst index 41b2c4108aa..90c04f30f29 100644 --- a/docs/api/paddle/distributed/InMemoryDataset_cn.rst +++ b/docs/api/paddle/distributed/InMemoryDataset_cn.rst @@ -10,7 +10,8 @@ InMemoryDataset InMemoryDataset,它将数据加载到内存中,并在训练前随机整理数据。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -18,7 +19,10 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 paddle.enable_static() dataset = paddle.distributed.InMemoryDataset() -.. py:method:: init(**kwargs) +方法 +:::::::::::: +init(**kwargs) +''''''''' **注意:** @@ -26,7 +30,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 对InMemoryDataset的实例进行配置初始化。 -参数: +**参数** + - **kwargs** - 可选的关键字参数,由调用者提供, 目前支持以下关键字配置。 - **batch_size** (int) - batch size的大小. 默认值为1。 - **thread_num** (int) - 用于训练的线程数, 默认值为1。 @@ -38,7 +43,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 - **download_cmd** (str) - 数据下载pipe命令。 pipe命令只能使用UNIX的pipe命令, 默认为"cat"。 -返回:None。 +**返回** +None。 **代码示例** @@ -92,7 +98,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 os.remove("./test_queue_dataset_run_a.txt") os.remove("./test_queue_dataset_run_b.txt") -.. py:method:: _init_distributed_settings(**kwargs) +_init_distributed_settings(**kwargs) +''''''''' **注意:** @@ -101,7 +108,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 对InMemoryDataset的实例进行分布式训练相关配置的初始化。 -参数: +**参数** + - **kwargs** - 可选的关键字参数,由调用者提供, 目前支持以下关键字配置。 - **merge_size** (int) - 通过样本id来设置合并,相同id的样本将会在shuffle之后进行合并,你应该在一个data生成器里面解析样本id。merge_size表示合并的最小数量,默认值为-1,表示不做合并。 - **parse_ins_id** (bool) - 是否需要解析每条样的id,默认值为False。 @@ -111,7 +119,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 - **fea_eval** (bool) - 设置特征打乱特征验证模式,来修正特征级别的重要性, 特征打乱需要 ``fea_eval`` 被设置为True. 默认值为False。 - **candidate_size** (int) - 特征打乱特征验证模式下,用于随机化特征的候选池大小. 默认值为10000。 -返回:None。 +**返回** +None。 **代码示例** @@ -135,7 +144,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 candidate_size=10000) -.. py:method:: update_settings(**kwargs) +update_settings(**kwargs) +''''''''' **注意:** @@ -143,7 +153,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 对InMemoryDataset的实例通过init和_init_distributed_settings初始化的配置进行更新。 -参数: +**参数** + - **kwargs** - 可选的关键字参数,由调用者提供, 目前支持以下关键字配置。 - **batch_size** (int) - batch size的大小. 默认值为1。 - **thread_num** (int) - 用于训练的线程数, 默认值为1。 @@ -161,7 +172,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 - **fea_eval** (bool) - 设置特征打乱特征验证模式,来修正特征级别的重要性, 特征打乱需要 ``fea_eval`` 被设置为True. 默认值为False。 - **candidate_size** (int) - 特征打乱特征验证模式下,用于随机化特征的候选池大小. 默认值为10000。 -返回:None。 +**返回** +None。 **代码示例** @@ -185,7 +197,8 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 candidate_size=10000) dataset.update_settings(batch_size=2) -.. py:method:: load_into_memory() +load_into_memory() +''''''''' **注意:** @@ -193,7 +206,7 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 向内存中加载数据。 -**代码示例**: +**代码示例** .. code-block:: python @@ -217,14 +230,16 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 dataset.set_filelist(filelist) dataset.load_into_memory() -.. py:method:: preload_into_memory(thread_num=None) +preload_into_memory(thread_num=None) +''''''''' 向内存中以异步模式加载数据。 -参数: +**参数** + - **thread_num** (int) - 异步加载数据时的线程数。 -**代码示例**: +**代码示例** .. code-block:: python @@ -249,11 +264,12 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 dataset.preload_into_memory() dataset.wait_preload_done() -.. py:method:: wait_preload_done() +wait_preload_done() +''''''''' 等待 ``preload_into_memory`` 完成。 -**代码示例**: +**代码示例** .. code-block:: python @@ -278,11 +294,12 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 dataset.preload_into_memory() dataset.wait_preload_done() -.. py:method:: local_shuffle() +local_shuffle() +''''''''' 局部shuffle。加载到内存的训练样本进行单机节点内部的打乱 -**代码示例**: +**代码示例** .. code-block:: python @@ -307,11 +324,12 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 dataset.load_into_memory() dataset.local_shuffle() -.. py:method:: global_shuffle(fleet=None, thread_num=12) +global_shuffle(fleet=None, thread_num=12) +''''''''' 全局shuffle。只能用在分布式模式(单机多进程或多机多进程)中。您如果在分布式模式中运行,应当传递fleet而非None。 -**代码示例**: +**代码示例** .. code-block:: python @@ -336,15 +354,17 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 dataset.load_into_memory() dataset.global_shuffle() -参数: +**参数** + - **fleet** (Fleet) – fleet单例。默认为None。 - **thread_num** (int) - 全局shuffle时的线程数。 -.. py:method:: release_memory() +release_memory() +''''''''' 当数据不再使用时,释放InMemoryDataset内存数据。 -**代码示例**: +**代码示例** .. code-block:: python @@ -375,19 +395,22 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 exe.train_from_dataset(main_program, dataset) dataset.release_memory() -.. py:method:: get_memory_data_size(fleet=None) +get_memory_data_size(fleet=None) +''''''''' 用户可以调用此函数以了解加载进内存后所有workers中的样本数量。 .. note:: 该函数可能会导致性能不佳,因为它具有barrier。 -参数: +**参数** + - **fleet** (Fleet) – fleet对象。 -返回:内存数据的大小。 +**返回** +内存数据的大小。 -**代码示例**: +**代码示例** .. code-block:: python @@ -413,19 +436,22 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 print dataset.get_memory_data_size() -.. py:method:: get_shuffle_data_size(fleet=None) +get_shuffle_data_size(fleet=None) +''''''''' 获取shuffle数据大小,用户可以调用此函数以了解局域/全局shuffle后所有workers中的样本数量。 .. note:: 该函数可能会导致局域shuffle性能不佳,因为它具有barrier。但其不影响局域shuffle。 -参数: +**参数** + - **fleet** (Fleet) – fleet对象。 -返回:shuffle数据的大小。 +**返回** +shuffle数据的大小。 -**代码示例**: +**代码示例** .. code-block:: python @@ -452,14 +478,16 @@ InMemoryDataset,它将数据加载到内存中,并在训练前随机整理 dataset.global_shuffle() print dataset.get_shuffle_data_size() -.. py:method:: slots_shuffle(slots) +slots_shuffle(slots) +''''''''' 该方法是在特征层次上的一个打乱方法,经常被用在有着较大缩放率实例的稀疏矩阵上,为了比较metric,比如auc,在一个或者多个有着baseline的特征上做特征打乱来验证特征level的重要性。 -参数: +**参数** + - **slots** (list[string]) - 要打乱特征的集合 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/ParallelEnv_cn.rst b/docs/api/paddle/distributed/ParallelEnv_cn.rst index 83b7373dbda..39c476e91d8 100644 --- a/docs/api/paddle/distributed/ParallelEnv_cn.rst +++ b/docs/api/paddle/distributed/ParallelEnv_cn.rst @@ -45,14 +45,16 @@ ParallelEnv 属性 :::::::::::: -.. py:attribute:: rank +属性 +:::::::::::: +rank +''''''''' 当前训练进程的编号。 此属性的值等于环境变量 `PADDLE_TRAINER_ID` 的值。默认值是0。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -64,14 +66,14 @@ ParallelEnv # The rank is 0 -.. py:attribute:: world_size +world_size +''''''''' 参与训练进程的数量,一般也是训练所使用GPU卡的数量。 此属性的值等于环境变量 `PADDLE_TRAINERS_NUM` 的值。默认值为1。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -83,14 +85,14 @@ ParallelEnv # The world_size is 4 -.. py:attribute:: device_id +device_id +''''''''' 当前用于并行训练的GPU的编号。 此属性的值等于环境变量 `FLAGS_selected_gpus` 的值。默认值是0。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -102,14 +104,14 @@ ParallelEnv # The device id are 1 -.. py:attribute:: current_endpoint +current_endpoint +''''''''' 当前训练进程的终端节点IP与相应端口,形式为(机器节点IP:端口号)。例如:127.0.0.1:6170。 此属性的值等于环境变量 `PADDLE_CURRENT_ENDPOINT` 的值。默认值为空字符串""。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -121,14 +123,14 @@ ParallelEnv # The current endpoint are 127.0.0.1:6170 -.. py:attribute:: trainer_endpoints +trainer_endpoints +''''''''' 当前任务所有参与训练进程的终端节点IP与相应端口,用于在NCCL2初始化的时候建立通信,广播NCCL ID。 此属性的值等于环境变量 `PADDLE_TRAINER_ENDPOINTS` 的值。默认值为空字符串""。 -代码示例 -::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/QueueDataset_cn.rst b/docs/api/paddle/distributed/QueueDataset_cn.rst index e585e3cc245..cdbfb116969 100644 --- a/docs/api/paddle/distributed/QueueDataset_cn.rst +++ b/docs/api/paddle/distributed/QueueDataset_cn.rst @@ -11,14 +11,18 @@ QueueyDataset QueueyDataset是流式处理数据使用Dataset类。与InmemoryDataset继承自同一父类,用于单机训练,不支持分布式大规模参数服务器相关配置和shuffle。此类由paddle.distributed.QueueDataset直接创建。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python import paddle dataset = paddle.distributed.QueueDataset() -.. py:method:: init(**kwargs) +方法 +:::::::::::: +init(**kwargs) +''''''''' **注意:** @@ -26,7 +30,8 @@ QueueyDataset是流式处理数据使用Dataset类。与InmemoryDataset继承自 对QueueDataset的实例进行配置初始化。 -参数: +**参数** + - **kwargs** - 可选的关键字参数,由调用者提供, 目前支持以下关键字配置。 - **batch_size** (int) - batch size的大小. 默认值为1。 - **thread_num** (int) - 用于训练的线程数, 默认值为1。 @@ -38,7 +43,8 @@ QueueyDataset是流式处理数据使用Dataset类。与InmemoryDataset继承自 - **download_cmd** (str) - 数据下载pipe命令。 pipe命令只能使用UNIX的pipe命令, 默认为"cat"。 -返回:None。 +**返回** +None。 **代码示例** @@ -95,11 +101,12 @@ QueueyDataset是流式处理数据使用Dataset类。与InmemoryDataset继承自 os.remove("./test_queue_dataset_run_b.txt") -.. py:method:: set_filelist(filelist) +set_filelist(filelist) +''''''''' 在当前的worker中设置文件列表。 -**代码示例**: +**代码示例** .. code-block:: python @@ -139,5 +146,6 @@ QueueyDataset是流式处理数据使用Dataset类。与InmemoryDataset继承自 os.remove("./test_queue_dataset_run_b.txt") -参数: +**参数** + - **filelist** (list[string]) - 文件列表 diff --git a/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst b/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst index e0cb36c62a4..a7588484c07 100755 --- a/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst +++ b/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst @@ -10,11 +10,14 @@ DistributedStrategy 属性 :::::::::::: -.. py:attribute:: save_to_prototxt +属性 +:::::::::::: +save_to_prototxt +''''''''' 序列化当前的DistributedStrategy,并且保存到output文件中 -**示例代码** +**代码示例** .. code-block:: python @@ -26,24 +29,26 @@ DistributedStrategy strategy.save_to_prototxt("dist_strategy.prototxt") -.. py:attribute:: load_from_prototxt +load_from_prototxt +''''''''' 加载已经序列化过的DistributedStrategy文件,并作为初始化DistributedStrategy返回 -**示例代码** +**代码示例** import paddle.distributed.fleet as fleet strategy = fleet.DistributedStrategy() strategy.load_from_prototxt("dist_strategy.prototxt") -.. py:attribute:: execution_strategy +execution_strategy +''''''''' `Post Local SGD `__ 配置DistributedStrategy中的 `ExecutionStrategy `_ -**示例代码** +**代码示例** .. code-block:: python @@ -57,11 +62,12 @@ DistributedStrategy strategy.execution_strategy = exe_strategy -.. py:attribute:: build_strategy +build_strategy +''''''''' 配置DistributedStrategy中的 `BuildStrategy `_ -**示例代码** +**代码示例** .. code-block:: python @@ -80,11 +86,12 @@ DistributedStrategy strategy.build_strategy = build_strategy -.. py:attribute:: auto +auto +''''''''' 表示是否启用自动并行策略。此功能目前是实验性功能。目前,自动并行只有在用户只设置auto,不设置其它策略时才能生效。具体请参考示例代码。默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -101,11 +108,12 @@ DistributedStrategy optimizer = fleet.distributed_optimizer(optimizer, strategy) -.. py:attribute:: recompute +recompute +''''''''' 是否启用Recompute来优化内存空间,默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -120,7 +128,8 @@ DistributedStrategy } -.. py:attribute:: recompute_configs +recompute_configs +''''''''' 设置Recompute策略的配置。目前来讲,用户使用Recompute策略时,必须配置 checkpoints 参数。 @@ -131,11 +140,12 @@ DistributedStrategy **checkpoint_shape(list):** 该参数仅在 offload 开启时需要设置,用来指定 checkpoints 的各维度大小。目前offload 需要所有checkpoints 具有相同的 shape,并且各维度是确定的(不支持 -1 维度)。 -.. py:attribute:: pipeline +pipeline +''''''''' 是否启用Pipeline并行。目前,主要实现单机多GPU间的Pipeline并行和多机间的数据并行。Pipeline信息由用户定义程序中的device_guard确定。 -**示例代码** +**代码示例** .. code-block:: python @@ -144,13 +154,14 @@ DistributedStrategy strategy.pipeline = True -.. py:attribute:: pipeline_configs +pipeline_configs +''''''''' 设置Pipeline策略的配置。Pipeline策略下,神经网络的不同层在不同的GPU设备。相邻的GPU设备间有用于同步隐层Tensor的队列。Pipeline并行包含多种生产者-消费者形式的硬件对,如GPU-CPU、CPU-GPU、GPU-XPU。加速PIpeline并行的最佳方式是减少Tensor队列中的Tensor大小,这样生产者可以更快的为下游消费者提供数据。 **micro_batch_size (int):** 每个用户定义的mini-batch中包含的更小的micro-batch的数量。 -**示例代码** +**代码示例** .. code-block:: python @@ -160,14 +171,15 @@ DistributedStrategy strategy.pipeline_configs = {"micro_batch_size": 12} -.. py:attribute:: gradient_merge +gradient_merge +''''''''' 梯度累加,是一种大Batch训练的策略。添加这一策略后,模型的参数每过 **k_steps** 步更新一次, **k_steps** 是用户定义的步数。在不更新参数的步数里,Paddle只进行前向、反向网络的计算; 在更新参数的步数里,Paddle执行优化网络,通过特定的优化器(比如SGD、Adam), 将累加的梯度应用到模型参数上。 -**示例代码** +**代码示例** .. code-block:: python @@ -176,7 +188,8 @@ DistributedStrategy strategy.gradient_merge = True strategy.gradient_merge_configs = {"k_steps": 4, "avg": True} -.. py:attribute:: gradient_merge_configs +gradient_merge_configs +''''''''' 设置 **distribute_strategy** 策略的配置。 @@ -188,11 +201,12 @@ DistributedStrategy - **avg**: 梯度求平均 -.. py:attribute:: lars +lars +''''''''' 是否使用LARS optimizer,默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -206,7 +220,8 @@ DistributedStrategy "exclude_from_weight_decay": ["batch_norm", ".b"], } -.. py:attribute:: lars_configs +lars_configs +''''''''' 设置LARS优化器的参数。用户可以配置 lars_coeff,lars_weight_decay,epsilon,exclude_from_weight_decay 参数。 @@ -219,11 +234,12 @@ DistributedStrategy **epsilon(float):** 一个小的浮点值,目的是维持数值稳定性,避免 lars 公式中的分母为零。 默认值是 0. -.. py:attribute:: lamb +lamb +''''''''' 是否使用LAMB optimizer,默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -235,7 +251,8 @@ DistributedStrategy 'exclude_from_weight_decay': [], } -.. py:attribute:: lamb_configs +lamb_configs +''''''''' 设置LAMB优化器的参数。用户可以配置 lamb_weight_decay,exclude_from_weight_decay 参数。 @@ -244,10 +261,11 @@ DistributedStrategy **exclude_from_weight_decay(list[str]):** 不应用 weight decay 的 layers 的名字列表,某一layer 的name 如果在列表中,这一layer 的 lamb_weight_decay将被置为 0. 默认值是 None. -.. py:attribute:: localsgd +localsgd +''''''''' 是否使用LocalSGD optimizer,默认值:False。更多的细节请参考 `Don't Use Large Mini-Batches, Use Local SGD `__ -**示例代码** +**代码示例** .. code-block:: python @@ -256,10 +274,11 @@ DistributedStrategy strategy.localsgd = True # by default this is false -.. py:attribute:: localsgd_configs +localsgd_configs +''''''''' 设置LocalSGD优化器的参数。用户可以配置k_steps和begin_step参数。 -**示例代码** +**代码示例** .. code-block:: python @@ -273,10 +292,11 @@ DistributedStrategy **begin_step(int):** 指定从第几个step之后进行local SGD算法,默认值1。 -.. py:attribute:: adaptive_localsgd +adaptive_localsgd +''''''''' 是否使用AdaptiveLocalSGD optimizer,默认值:False。更多的细节请参考`Adaptive Communication Strategies to Achieve the Best Error-Runtime Trade-off in Local-Update SGD `__ -**示例代码** +**代码示例** .. code-block:: python @@ -284,10 +304,11 @@ DistributedStrategy strategy = fleet.DistributedStrategy() strategy.adaptive_localsgd = True # by default this is false -.. py:attribute:: adaptive_localsgd_configs +adaptive_localsgd_configs +''''''''' 设置AdaptiveLocalSGD优化器的参数。用户可以配置init_k_steps和begin_step参数。 -**示例代码** +**代码示例** .. code-block:: python @@ -301,11 +322,12 @@ DistributedStrategy **begin_step(int):** 指定从第几个step之后进行Adaptive LocalSGD算法,默认值1。 -.. py:attribute:: amp +amp +''''''''' 是否启用自动混合精度训练。默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -313,7 +335,8 @@ DistributedStrategy strategy = fleet.DistributedStrategy() strategy.amp = True # by default this is false -.. py:attribute:: amp_configs +amp_configs +''''''''' 设置自动混合精度训练配置。为避免梯度inf或nan,amp会根据梯度值自动调整loss scale值。目前可以通过字典设置以下配置。 @@ -333,7 +356,7 @@ DistributedStrategy **custom_black_list(list[str]):** 用户自定义OP禁止fp16执行的黑名单。 -**示例代码** +**代码示例** .. code-block:: python @@ -344,11 +367,12 @@ DistributedStrategy "init_loss_scaling": 32768, "custom_white_list": ['conv2d']} -.. py:attribute:: dgc +dgc +''''''''' 是否启用深度梯度压缩训练。更多信息请参考[Deep Gradient Compression](https://arxiv.org/abs/1712.01887)。 默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -356,7 +380,8 @@ DistributedStrategy strategy = fleet.DistributedStrategy() strategy.dgc = True # by default this is false -.. py:attribute:: dgc_configs +dgc_configs +''''''''' 设置dgc策略的配置。目前用户可配置 rampup_begin_step,rampup_step,sparsity参数。 @@ -368,7 +393,7 @@ DistributedStrategy **sparsity(list[float]):** 从梯度张量中获取top个重要元素,比率为(1-当前稀疏度)。默认值为[0.999]。\ 例如:如果sparsity为[0.99, 0.999],则将传输top [1%, 0.1%]的重要元素。 -**示例代码** +**代码示例** .. code-block:: python @@ -377,11 +402,12 @@ DistributedStrategy strategy.dgc = True strategy.dgc_configs = {"rampup_begin_step": 1252} -.. py:attribute:: fp16_allreduce +fp16_allreduce +''''''''' 是否使用fp16梯度allreduce训练。默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -390,7 +416,8 @@ DistributedStrategy strategy.fp16_allreduce = True # by default this is false -.. py:attribute:: sharding +sharding +''''''''' 是否开启sharding 策略。sharding 实现了[ZeRO: Memory Optimizations Toward Training Trillion Parameter Models](https://arxiv.org/abs/1910.02054) 中 ZeRO-DP 类似的功能,其通过将模型的参数和优化器状态在ranks 间分片来支持更大模型的训练。 @@ -399,7 +426,7 @@ DistributedStrategy 默认值:False -**示例代码** +**代码示例** .. code-block:: python @@ -407,7 +434,8 @@ DistributedStrategy strategy = fleet.DistributedStrategy() strategy.sharding = True -.. py:attribute:: sharding_configs +sharding_configs +''''''''' 设置sharding策略的参数。 diff --git a/docs/api/paddle/distributed/fleet/Fleet_cn.rst b/docs/api/paddle/distributed/fleet/Fleet_cn.rst index 3a158b72fcd..1d68623bdf7 100644 --- a/docs/api/paddle/distributed/fleet/Fleet_cn.rst +++ b/docs/api/paddle/distributed/fleet/Fleet_cn.rst @@ -9,34 +9,40 @@ Fleet Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化后即可快速开始使用飞桨大规模分布式训练 -.. py:method:: init(role_maker=None, is_collective=False, strategy=None) +方法 +:::::::::::: +init(role_maker=None, is_collective=False, strategy=None) +''''''''' 使用RoleMaker或其他配置初始化fleet。 -参数: +**参数** + - **role_maker** (RoleMakerBase) 已初始化好的PaddleCloudRoleMaker或UserDefineRoleMaker - **is_collective** (bool) 在未指定role_maker的情况下,可由init方法自行初始化RoleMaker, is_collective为True则按照collective模式进行创建, is_collective=False则按照ParameterServer模式进行创建 - **strategy** (DistributedStrategy): 分布式训练的额外属性。详情请参阅paddle.distributed.fleet.DistributedStrategy。默认值:None。 -返回:None +**返回** +None -**代码示例1** +**代码示例 1** .. code-block:: python import paddle.distributed.fleet as fleet fleet.init() -**代码示例2** +**代码示例 2** .. code-block:: python import paddle.distributed.fleet as fleet fleet.init(is_collective=True) -**代码示例3** +代码示例3 +:::::::::::: .. code-block:: python @@ -44,7 +50,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 role = fleet.PaddleCloudRoleMaker() fleet.init(role) -**代码示例4** +代码示例4 +:::::::::::: .. code-block:: python @@ -53,11 +60,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.init(strategy=strategy) -.. py:method:: is_first_worker() +is_first_worker() +''''''''' 返回当前节点是否为第一个`worker`节点, 判断当前worker_index是否为0, 如果为0则返回True,否则返回False -返回:True/False +**返回** +True/False **代码示例** @@ -70,11 +79,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 -.. py:method:: worker_index() +worker_index() +''''''''' 返回当前节点的编号, 每个`worker`节点被分配[0, worker_num-1]内的唯一的编码ID -返回:int +**返回** +int **代码示例** @@ -86,11 +97,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.worker_index() -.. py:method:: worker_num() +worker_num() +''''''''' 返回当前全部训练节点中`workjer`节点的个数 -返回:int +**返回** +int **代码示例** @@ -101,11 +114,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.worker_num() -.. py:method:: is_worker() +is_worker() +''''''''' 返回当前节点是否为`worker`节点 -返回:True/False +**返回** +True/False **代码示例** @@ -116,11 +131,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.is_worker() -.. py:method:: worker_endpoints(to_string=False) +worker_endpoints(to_string=False) +''''''''' 返回全部worker节点的ip及端口信息 -返回:list/string +**返回** +list/string **代码示例** @@ -131,7 +148,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.worker_endpoints() -.. py:method:: server_num() +server_num() +''''''''' **注意:** @@ -140,7 +158,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 返回当前全部Server节点的个数 -返回:int +**返回** +int **代码示例** @@ -151,7 +170,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.server_num() -.. py:method:: server_index() +server_index() +''''''''' **注意:** @@ -161,7 +181,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 返回当前节点的编号, 每个`server`节点被分配[0, server_num-1]内的唯一的编码ID -返回:int +**返回** +int **代码示例** @@ -173,7 +194,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.server_index() -.. py:method:: server_endpoints(to_string=False) +server_endpoints(to_string=False) +''''''''' **注意:** @@ -183,7 +205,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 返回全部server节点的ip及端口信息 -返回:list/string +**返回** +list/string **代码示例** @@ -194,7 +217,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.server_endpoints() -.. py:method:: is_server() +is_server() +''''''''' **注意:** @@ -204,7 +228,8 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 返回当前节点是否为`server`节点 -返回:True/False +**返回** +True/False **代码示例** @@ -215,11 +240,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.is_server() -.. py:method:: barrier_worker() +barrier_worker() +''''''''' 调用集合通信功能,强制要求所有的worker在此处相互等待一次 -返回:无 +**返回** +无 **代码示例** @@ -230,11 +257,13 @@ Fleet是飞桨分布式训练统一API, 只需要import fleet并简单初始化 fleet.barrier_worker() -.. py:method:: init_worker() +init_worker() +''''''''' worker节点在训练前的初始化, 包括通信模块, 参数同步等 -返回:无 +**返回** +无 **代码示例** @@ -245,11 +274,13 @@ worker节点在训练前的初始化, 包括通信模块, 参数同步等 fleet.init_worker() -.. py:method:: init_server(*args, **kwargs) +init_server(*args, **kwargs) +''''''''' server节点的初始化, 包括server端参数初始化,模型加载等 -返回:无 +**返回** +无 **代码示例** @@ -260,11 +291,13 @@ server节点的初始化, 包括server端参数初始化,模型加载等 fleet.init_server() -.. py:method:: run_server() +run_server() +''''''''' server节点的运行, 此命令会将ParameterServer的进程启动并常驻直至训练结束 -返回:无 +**返回** +无 **代码示例** @@ -276,11 +309,13 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 fleet.run_server() -.. py:method:: stop_worker() +stop_worker() +''''''''' 停止当前正在运行的worker节点 -返回:无 +**返回** +无 **代码示例** @@ -293,12 +328,14 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 fleet.stop_worker() -.. py:method:: save_inference_model(executor, dirname, feeded_var_names, target_vars, main_program=None, export_for_deployment=True) +save_inference_model(executor, dirname, feeded_var_names, target_vars, main_program=None, export_for_deployment=True) +''''''''' 修剪指定的 ``main_program`` 以构建一个专门用于预测的 ``Inference Program`` ( ``Program`` 含义详见 :ref:`api_guide_Program` )。 所得到的 ``Inference Program`` 及其对应的所>有相关参数均被保存到 ``dirname`` 指定的目录中。 -参数: +**参数** + - **executor** (Executor) – 用于保存预测模型的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **dirname** (str) – 指定保存预测模型结构和参数的文件目录。 - **feeded_var_names** (list[str]) – 字符串列表,包含着Inference Program预测时所需提供数据的所有变量名称(即所有输入变量的名称)。 @@ -308,7 +345,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 只支持设置为True,且默认值为True。 -返回:无 +**返回** +无 **代码示例** @@ -328,17 +366,20 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 fleet.save_inference_model(exe, "dirname", ["feed_varname"], [loss], paddle.static.default_main_program()) -.. py:method:: save_persistables(executor, dirname, main_program=None) +save_persistables(executor, dirname, main_program=None) +''''''''' 保存全量模型参数 -参数: +**参数** + - **executor** (Executor) – 用于保存持久性变量的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **dirname** (str) – 用于储存持久性变量的文件目录。 - **main_program** (Program,可选) – 需要保存持久性变量的Program( ``Program`` 含义详见 :ref:`api_guide_Program` )。如果为None,则使用default_main_Program 。默认值为None>。 -返回:无 +**返回** +无 **代码示例** @@ -357,11 +398,13 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 fleet.save_persistables(exe, "dirname", paddle.static.default_main_program()) -.. py:method:: distributed_optimizer(optimizer, strategy=None) +distributed_optimizer(optimizer, strategy=None) +''''''''' 基于分布式布式并行策略进行模型的拆分及优化。 -参数: +**参数** + - **optimizer** (optimizer) – paddle定义的优化器。 - **strategy** (DistributedStrategy) – 分布式优化器的额外属性。建议在fleet.init()创建。这里的仅仅是为了兼容性。如果这里的参数strategy不是None,则它将覆盖在fleet.init()创建的DistributedStrategy,并在后续的分布式训练中生效。 @@ -378,7 +421,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 optimizer = fleet.distributed_optimizer(optimizer, strategy=strategy) -.. py:method:: distributed_model(model) +distributed_model(model) +''''''''' **注意:** @@ -386,10 +430,12 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 返回分布式数据并行模型。 -参数: +**参数** + model (Layer) - 用户定义的模型,此处模型是指继承动态图Layer的网络。 -返回:分布式数据并行模型,该模型同样继承动态图Layer。 +**返回** +分布式数据并行模型,该模型同样继承动态图Layer。 **代码示例** @@ -440,7 +486,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 adam.step() adam.clear_grad() -.. py:method:: state_dict() +state_dict() +''''''''' **注意:** @@ -448,7 +495,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 以 ``dict`` 返回当前 ``optimizer`` 使用的所有Tensor 。比如对于Adam优化器,将返回 beta1, beta2, momentum 等Tensor。 -返回:dict, 当前 ``optimizer`` 使用的所有Tensor。 +**返回** +dict, 当前 ``optimizer`` 使用的所有Tensor。 **代码示例** @@ -476,7 +524,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 state_dict = adam.state_dict() -.. py:method:: set_state_dict(state_dict) +set_state_dict(state_dict) +''''''''' **注意:** @@ -484,7 +533,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 加载 ``optimizer`` 的Tensor字典给当前 ``optimizer`` 。 -返回:None +**返回** +None **代码示例** @@ -515,7 +565,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 adam.set_state_dict(para_state_dict) -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** @@ -523,10 +574,12 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 手动设置当前 ``optimizer`` 的学习率。 -参数: +**参数** + value (float) - 需要设置的学习率的值。 -返回:None +**返回** +None **代码示例** @@ -565,7 +618,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 # current lr is 0.6 -.. py:method:: get_lr() +get_lr() +''''''''' **注意:** @@ -573,7 +627,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 获取当前步骤的学习率。 -返回:float,当前步骤的学习率。 +**返回** +float,当前步骤的学习率。 @@ -604,7 +659,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 print(lr) # 0.01 -.. py:method:: step() +step() +''''''''' **注意:** @@ -612,7 +668,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 **代码示例** @@ -663,7 +720,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 adam.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -672,7 +730,8 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 清除需要优化的参数的梯度。 -返回:None。 +**返回** +None。 **代码示例** @@ -723,9 +782,13 @@ server节点的运行, 此命令会将ParameterServer的进程启动并常驻直 adam.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameter_list=None, no_grad_set=None) +minimize(loss, startup_program=None, parameter_list=None, no_grad_set=None) +''''''''' -.. py:attribute:: util +属性 +:::::::::::: +util +''''''''' diff --git a/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst b/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst index 809e1c2c303..a8a2ec0f113 100644 --- a/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst +++ b/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst @@ -9,7 +9,8 @@ PaddleCloudRoleMaker是基于从环境变量中获取分布式相关信息进行 它会自动根据用户在环境变量中的配置进行分布式训练环境初始化,目前PaddleCloudRoleMaker支持ParameterServer分布式训练及Collective分布式训练两种模式的初始化。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -29,13 +30,17 @@ PaddleCloudRoleMaker是基于从环境变量中获取分布式相关信息进行 fleet.PaddleCloudRoleMaker(is_collective=False) -.. py:method:: to_string() +方法 +:::::::::::: +to_string() +''''''''' 将当前环境变量以字符串的形式输出 -返回: string +**返回** + string -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst b/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst index 6e6a9402f9b..5a630b74beb 100644 --- a/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst +++ b/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst @@ -9,7 +9,8 @@ UserDefinedRoleMaker是基于从用户自定义的参数中获取分布式相关 它会自动根据用户的自定义配置进行分布式训练环境初始化,目前UserDefinedRoleMaker支持ParameterServer分布式训练及Collective分布式训练两种模式的初始化。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -22,13 +23,17 @@ UserDefinedRoleMaker是基于从用户自定义的参数中获取分布式相关 worker_num=2, server_endpoints=["127.0.0.1:36011", "127.0.0.1:36012"]) -.. py:method:: to_string() +方法 +:::::::::::: +to_string() +''''''''' 将当前环境变量以字符串的形式输出 -返回: string +**返回** + string -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/fleet/UtilBase_cn.rst b/docs/api/paddle/distributed/fleet/UtilBase_cn.rst index 80d999054d2..3cde1152035 100644 --- a/docs/api/paddle/distributed/fleet/UtilBase_cn.rst +++ b/docs/api/paddle/distributed/fleet/UtilBase_cn.rst @@ -6,18 +6,23 @@ UtilBase .. py:class:: paddle.distributed.fleet.UtilBase 分布式训练工具类,主要提供集合通信、文件系统操作等接口。 -.. py:method:: all_reduce(input, mode="sum", comm_world="worker") +方法 +:::::::::::: +all_reduce(input, mode="sum", comm_world="worker") +''''''''' 在指定的通信集合间进行归约操作,并将归约结果返回给集合中每个实例。 -参数: +**参数** + - **input** (list|numpy.array) – 归约操作的输入。 - **mode** (str) - 归约操作的模式,包含求和,取最大值和取最小值,默认为求和归约。 - **comm_world** (str) - 归约操作的通信集合,包含: server集合(“server"),worker集合("worker")及所有节点集合("all"),默认为worker集合。 -返回: +**返回** + - Numpy.array|None: 一个和 `input` 形状一致的numpy数组或None. -**代码示例**: +**代码示例** .. code-block:: python @@ -53,13 +58,15 @@ UtilBase if __name__ == "__main__": train() -.. py:method:: barrier(comm_world="worker") +barrier(comm_world="worker") +''''''''' 在指定的通信集合间进行阻塞操作,以实现集合间进度同步。 -参数: +**参数** + - **comm_world** (str) - 阻塞操作的通信集合,包含: server集合(“server"),worker集合("worker")及所有节点集合("all"),默认为worker集合。 -**代码示例**: +**代码示例** .. code-block:: python @@ -91,17 +98,20 @@ UtilBase if __name__ == "__main__": train() -.. py:method:: all_gather(input, comm_world="worker") +all_gather(input, comm_world="worker") +''''''''' 在指定的通信集合间进行聚合操作,并将聚合的结果返回给集合中每个实例。 -参数: +**参数** + - **input** (int|float) - 聚合操作的输入。 - **comm_world** (str) - 聚合操作的通信集合,包含: server集合(“server"),worker集合("worker")及所有节点集合("all"),默认为worker集合。 -返回: +**返回** + - **output** (List): List格式的聚合结果。 -**代码示例**: +**代码示例** .. code-block:: python @@ -137,7 +147,8 @@ UtilBase if __name__ == "__main__": train() -.. py:method:: get_file_shard(files) +get_file_shard(files) +''''''''' 在数据并行的分布式训练中,获取属于当前训练节点的文件列表。 .. code-block:: text @@ -145,13 +156,15 @@ UtilBase 示例 1: 原始所有文件列表 `files` = [a, b, c ,d, e],训练节点个数 `trainer_num` = 2,那么属于零号节点的训练文件为[a, b, c],属于1号节点的训练文件为[d, e]。 示例 2: 原始所有文件列表 `files` = [a, b],训练节点个数 `trainer_num` = 3,那么属于零号节点的训练文件为[a],属于1号节点的训练文件为[b],属于2号节点的训练文件为[]。 -参数: +**参数** + - **files** (List):原始所有文件列表。 -返回: +**返回** + - List: 属于当前训练节点的文件列表。 -**代码示例**: +**代码示例** .. code-block:: python @@ -171,15 +184,17 @@ UtilBase print(files) # files = ["file1", "file2"] -.. py:method:: print_on_rank(message, rank_id) +print_on_rank(message, rank_id) +''''''''' 在编号为 `rank_id` 的节点上打印指定信息。 -参数: +**参数** + - **message** (str) – 打印内容。 - **rank_id** (int) - 节点编号。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/fleet/utils/HDFSClient_cn.rst b/docs/api/paddle/distributed/fleet/utils/HDFSClient_cn.rst index 39d4b0e2910..fba0ba3fb12 100644 --- a/docs/api/paddle/distributed/fleet/utils/HDFSClient_cn.rst +++ b/docs/api/paddle/distributed/fleet/utils/HDFSClient_cn.rst @@ -6,11 +6,14 @@ HDFSClient .. py:class:: paddle.distributed.fleet.utils.HDFSClient 一个HADOOP文件系统工具类。 -参数: +参数 +:::::::::::: + - **hadoop_home** (str):HADOOP HOME地址。 - **configs** (dict): HADOOP文件系统配置。需包含 `fs.default.name` 和 `hadoop.job.ugi` 这两个字段。 -**示例代码**: +代码示例 +:::::::::::: .. code-block:: python @@ -25,16 +28,21 @@ HDFSClient client = HDFSClient(hadoop_home, configs) client.ls_dir("hdfs:/test_hdfs_client") -.. py:method:: ls_dir(fs_path) +方法 +:::::::::::: +ls_dir(fs_path) +''''''''' 列出 `fs_path` 路径下所有的文件和子目录。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -返回: +**返回** + - Tuple, 一个包含所有子目录和文件名的2-Tuple,格式形如: ([subdirname1, subdirname1, ...], [filename1, filename2, ...])。 -**示例代码**: +**代码示例** .. code-block:: python @@ -49,13 +57,15 @@ HDFSClient client = HDFSClient(hadoop_home, configs) subdirs, files = client.ls_dir("hdfs:/test_hdfs_client") -.. py:method:: mkdirs(fs_path) +mkdirs(fs_path) +''''''''' 创建一个目录。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -**示例代码**: +**代码示例** .. code-block:: python @@ -70,13 +80,15 @@ HDFSClient client = HDFSClient(hadoop_home, configs) client.mkdirs("hdfs:/test_hdfs_client") -.. py:method:: delete(fs_path) +delete(fs_path) +''''''''' 删除HADOOP文件(或目录)。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -**示例代码**: +**代码示例** .. code-block:: python @@ -91,16 +103,19 @@ HDFSClient client = HDFSClient(hadoop_home, configs) client.delete("hdfs:/test_hdfs_client") -.. py:method:: is_file(fs_path) +is_file(fs_path) +''''''''' 判断当前路径是否是一个文件。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -返回: +**返回** + - Bool:若当前路径存在且是一个文件,返回 `True` ,反之则返回 `False` 。 -**示例代码**: +**代码示例** .. code-block:: python @@ -115,16 +130,19 @@ HDFSClient client = HDFSClient(hadoop_home, configs) ret = client.is_file("hdfs:/test_hdfs_client") -.. py:method:: is_dir(fs_path) +is_dir(fs_path) +''''''''' 判断当前路径是否是一个目录。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -返回: +**返回** + - Bool:若当前路径存在且是一个目录,返回 `True` ,反之则返回 `False` 。 -**示例代码**: +**代码示例** .. code-block:: python @@ -139,16 +157,19 @@ HDFSClient client = HDFSClient(hadoop_home, configs) ret = client.is_file("hdfs:/test_hdfs_client") -.. py:method:: is_exist(fs_path) +is_exist(fs_path) +''''''''' 判断当前路径是否存在。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -返回: +**返回** + - Bool:若当前路径存在返回 `True` ,反之则返回 `False` 。 -**示例代码**: +**代码示例** .. code-block:: python @@ -163,14 +184,16 @@ HDFSClient client = HDFSClient(hadoop_home, configs) ret = client.is_exist("hdfs:/test_hdfs_client") -.. py:method:: upload(local_path, fs_path) +upload(local_path, fs_path) +''''''''' 上传本地文件至HADOOP文件系统。 -参数: +**参数** + - **local_path** (str): 本地文件路径。 - **fs_path** (str): HADOOP文件路径。 -**示例代码**: +**代码示例** .. code-block:: python @@ -185,14 +208,16 @@ HDFSClient client = HDFSClient(hadoop_home, configs) client.upload("test_hdfs_client", "hdfs:/test_hdfs_client") -.. py:method:: download(fs_path, local_path) +download(fs_path, local_path) +''''''''' 下载HADOOP文件至本地文件系统。 -参数: +**参数** + - **local_path** (str): 本地文件路径。 - **fs_path** (str): HADOOP文件路径。 -**示例代码**: +**代码示例** .. code-block:: python @@ -208,14 +233,16 @@ HDFSClient client.download("hdfs:/test_hdfs_client", "./") -.. py:method:: touch(fs_path, exist_ok=True) +touch(fs_path, exist_ok=True) +''''''''' 创建一个HADOOP文件。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 - **exist_ok** (bool): 路径已存在时程序是否报错。若 `exist_ok = True`,则直接返回,反之则抛出文件存在的异常,默认不抛出异常。 -**示例代码**: +**代码示例** .. code-block:: python @@ -230,15 +257,17 @@ HDFSClient client = HDFSClient(hadoop_home, configs) client.touch("hdfs:/test_hdfs_client") -.. py:method:: mv(fs_src_path, fs_dst_path, overwrite=False) +mv(fs_src_path, fs_dst_path, overwrite=False) +''''''''' HADOOP系统文件移动。 -参数: +**参数** + - **fs_src_path** (str): 移动前源文件路径名。 - **fs_dst_path** (str): 移动后目标文件路径名。 - **overwrite** (bool): 若目标文件已存在,是否删除进行重写,默认不重写并抛出异常。 -**示例代码**: +**代码示例** .. code-block:: python @@ -253,16 +282,19 @@ HADOOP系统文件移动。 client = HDFSClient(hadoop_home, configs) client.mv("hdfs:/test_hdfs_client", "hdfs:/test_hdfs_client2") -.. py:method:: list_dirs(fs_path) +list_dirs(fs_path) +''''''''' 列出HADOOP文件路径下所有的子目录。 -参数: +**参数** + - **fs_path** (str): HADOOP文件路径。 -返回: +**返回** + - List: 该路径下所有的子目录名。 -**示例代码**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/fleet/utils/LocalFS_cn.rst b/docs/api/paddle/distributed/fleet/utils/LocalFS_cn.rst index a63198a3c25..1a659d9ca47 100644 --- a/docs/api/paddle/distributed/fleet/utils/LocalFS_cn.rst +++ b/docs/api/paddle/distributed/fleet/utils/LocalFS_cn.rst @@ -6,7 +6,8 @@ LocalFS .. py:class:: paddle.distributed.fleet.utils.LocalFS 一个本地文件系统工具类。 -**示例代码**: +代码示例 +:::::::::::: .. code-block:: python from paddle.distributed.fleet.utils import LocalFS @@ -14,16 +15,21 @@ LocalFS client = LocalFS() subdirs, files = client.ls_dir("./") -.. py:method:: ls_dir(fs_path) +方法 +:::::::::::: +ls_dir(fs_path) +''''''''' 列出 `fs_path` 路径下所有的文件和子目录。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -返回: +**返回** + - Tuple, 一个包含所有子目录和文件名的2-Tuple,格式形如: ([subdirname1, subdirname1, ...], [filename1, filename2, ...])。 -**示例代码**: +**代码示例** .. code-block:: python @@ -32,13 +38,15 @@ LocalFS client = LocalFS() subdirs, files = client.ls_dir("./") -.. py:method:: mkdirs(fs_path) +mkdirs(fs_path) +''''''''' 创建一个本地目录。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -**示例代码**: +**代码示例** .. code-block:: python @@ -48,14 +56,16 @@ LocalFS client.mkdirs("test_mkdirs") client.delete("test_mkdirs") -.. py:method:: rename(fs_src_path, fs_dst_path) +rename(fs_src_path, fs_dst_path) +''''''''' 重命名本地文件名。 -参数: +**参数** + - **fs_src_path** (str):重命名前原始文件名。 - **fs_dst_path** (str):新文件名。 -**示例代码**: +**代码示例** .. code-block:: python @@ -69,13 +79,15 @@ LocalFS print(client.is_exists("test_rename_dst")) # True client.delete("test_rename_dst") -.. py:method:: delete(fs_path) +delete(fs_path) +''''''''' 删除本地文件(或目录)。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -**示例代码**: +**代码示例** .. code-block:: python @@ -85,16 +97,19 @@ LocalFS client.mkdirs("test_localFS_mkdirs") client.delete("test_localFS_mkdirs") -.. py:method:: is_file(fs_path) +is_file(fs_path) +''''''''' 判断当前路径是否是一个文件。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -返回: +**返回** + - Bool:若当前路径存在且是一个文件,返回 `True` ,反之则返回 `False` 。 -**示例代码**: +**代码示例** .. code-block:: python @@ -105,16 +120,19 @@ LocalFS print(client.is_file("test_is_file")) # True client.delete("test_is_file") -.. py:method:: is_dir(fs_path) +is_dir(fs_path) +''''''''' 判断当前路径是否是一个目录。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -返回: +**返回** + - Bool:若当前路径存在且是一个目录,返回 `True` ,反之则返回 `False` 。 -**示例代码**: +**代码示例** .. code-block:: python @@ -125,16 +143,19 @@ LocalFS print(client.is_dir("test_is_file")) # True client.delete("test_is_dir") -.. py:method:: is_exist(fs_path) +is_exist(fs_path) +''''''''' 判断当前路径是否存在。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -返回: +**返回** + - Bool:若当前路径存在返回 `True` ,反之则返回 `False` 。 -**示例代码**: +**代码示例** .. code-block:: python @@ -143,14 +164,16 @@ LocalFS client = LocalFS() ret = local_fs.is_exist("test_is_exist") -.. py:method:: touch(fs_path, exist_ok=True) +touch(fs_path, exist_ok=True) +''''''''' 创建一个本地文件。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 - **exist_ok** (bool): 文件路径已存在时程序是否报错。若 `exist_ok = True`,则直接返回,反之则抛出文件存在的异常,默认不抛出异常。 -**示例代码**: +**代码示例** .. code-block:: python @@ -160,15 +183,17 @@ LocalFS client.touch("test_touch") client.delete("test_touch") -.. py:method:: mv(src_path, dst_path, overwrite=False) +mv(src_path, dst_path, overwrite=False) +''''''''' 本地文件移动。 -参数: +**参数** + - **src_path** (str): 移动前源文件路径名。 - **dst_path** (str): 移动后目标文件路径名。 - **overwrite** (bool): 若目标文件已存在,是否删除进行重写,默认不重写并抛出异常。 -**示例代码**: +**代码示例** .. code-block:: python @@ -179,16 +204,19 @@ LocalFS client.mv("test_mv_src", "test_mv_dst") client.delete("test_mv_dst") -.. py:method:: list_dirs(fs_path) +list_dirs(fs_path) +''''''''' 列出本地路径下所有的子目录。 -参数: +**参数** + - **fs_path** (str): 本地文件路径。 -返回: +**返回** + - List: 该路径下所有的子目录名。 -**示例代码**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/distributed/get_group_cn.rst b/docs/api/paddle/distributed/get_group_cn.rst index 0e19b455c75..98e37319af8 100644 --- a/docs/api/paddle/distributed/get_group_cn.rst +++ b/docs/api/paddle/distributed/get_group_cn.rst @@ -15,6 +15,7 @@ get_group ::::::::: Group 通信组实例 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.distributed.get_group diff --git a/docs/api/paddle/distributed/new_group_cn.rst b/docs/api/paddle/distributed/new_group_cn.rst index f787742d209..c7fb122b2a2 100644 --- a/docs/api/paddle/distributed/new_group_cn.rst +++ b/docs/api/paddle/distributed/new_group_cn.rst @@ -19,6 +19,7 @@ new_group ::::::::: Group: 新建的通信组对象 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.distributed.new_group diff --git a/docs/api/paddle/distributed/wait_cn.rst b/docs/api/paddle/distributed/wait_cn.rst index e2600cbf033..78a8adc6560 100644 --- a/docs/api/paddle/distributed/wait_cn.rst +++ b/docs/api/paddle/distributed/wait_cn.rst @@ -19,5 +19,6 @@ wait ::::::::: None -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.distributed.wait diff --git a/docs/api/paddle/distribution/Categorical_cn.rst b/docs/api/paddle/distribution/Categorical_cn.rst index 428b091e56f..3519c247f3b 100644 --- a/docs/api/paddle/distribution/Categorical_cn.rst +++ b/docs/api/paddle/distribution/Categorical_cn.rst @@ -20,11 +20,14 @@ Categorical - :math:`[x = i]` 表示:如果 :math:`x==i` ,则表达式取值为1,否则取值为0。 -参数: +参数 +:::::::::::: + - **logits** (list|numpy.ndarray|Tensor) - 类别分布对应的logits。数据类型为float32或float64。 - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -68,12 +71,18 @@ Categorical 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 指定生成样本的维度。 -返回:预先设计好维度的张量 +返回 +:::::::::::: +预先设计好维度的张量 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 代码示例: @@ -99,12 +108,18 @@ Categorical 相对于另一个类别分布的KL散度 -参数: +参数 +:::::::::::: + - **other** (Categorical) - 输入的另一个类别分布。数据类型为float32。 -返回:相对于另一个类别分布的KL散度, 数据类型为float32 +返回 +:::::::::::: +相对于另一个类别分布的KL散度, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 代码示例: @@ -135,9 +150,13 @@ Categorical 信息熵 -返回:类别分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +类别分布的信息熵, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor 代码示例: @@ -164,12 +183,18 @@ Categorical 同时,如果 ``value`` 是1-D Tensor,那么 ``value`` 会broadcast成与 ``logits`` 具有相同的概率分布数量。 如果 ``value`` 为更高阶Tensor,那么 ``value`` 应该与 ``logits`` 具有相同的概率分布数量。也就是说, ``value[:-1] = logits[:-1]`` 。 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量, 表示选择的类别下标。数据类型为int32或int64。 -返回:给定类别下标的概率 +返回 +:::::::::::: +给定类别下标的概率 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. code-block:: python @@ -192,12 +217,18 @@ Categorical 所选择类别的对数概率 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量, 表示选择的类别下标。数据类型为int32或int64。 -返回:对数概率 +返回 +:::::::::::: +对数概率 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. code-block:: python diff --git a/docs/api/paddle/distribution/Distribution_cn.rst b/docs/api/paddle/distribution/Distribution_cn.rst index 6bf7d504519..f9ca125b827 100644 --- a/docs/api/paddle/distribution/Distribution_cn.rst +++ b/docs/api/paddle/distribution/Distribution_cn.rst @@ -28,21 +28,27 @@ Distribution 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量。 .. py:function:: probs(value) 概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量。 .. py:function:: kl_divergence(other) 两个分布之间的KL散度。 -参数: +参数 +:::::::::::: + - **other** (Distribution) - Distribution的实例。 diff --git a/docs/api/paddle/distribution/Normal_cn.rst b/docs/api/paddle/distribution/Normal_cn.rst index 4ee3697c7d9..881460eb78d 100644 --- a/docs/api/paddle/distribution/Normal_cn.rst +++ b/docs/api/paddle/distribution/Normal_cn.rst @@ -24,12 +24,15 @@ Normal :math:`scale = \sigma` : 标准差。 :math:`Z`: 正态分布常量。 -参数: +参数 +:::::::::::: + - **loc** (int|float|list|numpy.ndarray|Tensor) - 正态分布平均值。数据类型为int、float、list、numpy.ndarray或Tensor。 - **scale** (int|float|list|numpy.ndarray|Tensor) - 正态分布标准差。数据类型为int、float、list、numpy.ndarray或Tensor。 - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -69,13 +72,19 @@ Normal 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回:预先设计好维度的张量, 数据类型为float32 +返回 +:::::::::::: +预先设计好维度的张量, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: entropy() @@ -91,31 +100,47 @@ Normal :math:`scale = \sigma` : 标准差。 -返回:正态分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +正态分布的信息熵, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: log_prob(value) 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回:对数概率, 数据类型与value相同 +返回 +:::::::::::: +对数概率, 数据类型与value相同 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: probs(value) 概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回:概率, 数据类型与value相同 +返回 +:::::::::::: +概率, 数据类型与value相同 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: kl_divergence(other) @@ -140,12 +165,18 @@ Normal :math:`ratio`: 两个标准差之间的比例。 :math:`diff`: 两个平均值之间的差值。 -参数: +参数 +:::::::::::: + - **other** (Normal) - Normal的实例。 -返回:两个正态分布之间的KL散度, 数据类型为float32 +返回 +:::::::::::: +两个正态分布之间的KL散度, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor diff --git a/docs/api/paddle/distribution/Uniform_cn.rst b/docs/api/paddle/distribution/Uniform_cn.rst index 232ae022f67..9cea32dae7e 100644 --- a/docs/api/paddle/distribution/Uniform_cn.rst +++ b/docs/api/paddle/distribution/Uniform_cn.rst @@ -26,12 +26,15 @@ Uniform 参数low和high的维度必须能够支持广播。 -参数: +参数 +:::::::::::: + - **low** (int|float|list|numpy.ndarray|Tensor) - 均匀分布的下边界。数据类型为int、float、list、numpy.ndarray或Tensor。 - **high** (int|float|list|numpy.ndarray|Tensor) - 均匀分布的上边界。数据类型为int、float、list、numpy.ndarray或Tensor。 - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -68,13 +71,19 @@ Uniform 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回:预先设计好维度的张量, 数据类型为float32 +返回 +:::::::::::: +预先设计好维度的张量, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: entropy() @@ -84,31 +93,47 @@ Uniform entropy(low, high) = \log (high - low) -返回:均匀分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +均匀分布的信息熵, 数据类型为float32 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: log_prob(value) 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回:对数概率, 数据类型与value相同 +返回 +:::::::::::: +对数概率, 数据类型与value相同 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor .. py:function:: probs(value) 概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回:概率, 数据类型与value相同 +返回 +:::::::::::: +概率, 数据类型与value相同 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor diff --git a/docs/api/paddle/empty_cn.rst b/docs/api/paddle/empty_cn.rst index fe9363014e1..17bfa0b739b 100644 --- a/docs/api/paddle/empty_cn.rst +++ b/docs/api/paddle/empty_cn.rst @@ -9,14 +9,19 @@ empty 该OP创建形状大小为shape并且数据类型为dtype的Tensor,其中元素值是未初始化的。 -参数: +参数 +:::::::::::: + - **shape** (list|tuple|Tensor) – 指定创建Tensor的形状(shape), 数据类型为int32 或者int64。 - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型,可以是bool, float16, float32, float64, int32, int64。若为None,则输出变量的数据类型为系统全局默认类型,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回:返回一个根据 ``shape`` 和 ``dtype`` 创建并且尚未初始化的Tensor。 +返回 +:::::::::::: +返回一个根据 ``shape`` 和 ``dtype`` 创建并且尚未初始化的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/empty_like_cn.rst b/docs/api/paddle/empty_like_cn.rst index fa1620c947f..8e85f694d16 100644 --- a/docs/api/paddle/empty_like_cn.rst +++ b/docs/api/paddle/empty_like_cn.rst @@ -8,14 +8,19 @@ empty_like 该OP根据 ``x`` 的shape和数据类型 ``dtype`` 创建未初始化的Tensor。如果 ``dtype`` 为None,则Tensor的数据类型与 ``x`` 相同。 -参数: +参数 +:::::::::::: + - **x** (Tensor) – 输入Tensor, 输出Tensor和x具有相同的形状,x的数据类型可以是bool,float16,float32,float64,int32,int64。 - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型,可以是bool,float16,float32,float64,int32,int64。若参数为None,则输出变量的数据类型和输入变量相同,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回:返回一个根据 ``x`` 和 ``dtype`` 创建并且尚未初始化的Tensor。 +返回 +:::::::::::: +返回一个根据 ``x`` 和 ``dtype`` 创建并且尚未初始化的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/enable_static_cn.rst b/docs/api/paddle/enable_static_cn.rst index 6655166c7f5..69110e3135c 100644 --- a/docs/api/paddle/enable_static_cn.rst +++ b/docs/api/paddle/enable_static_cn.rst @@ -11,9 +11,12 @@ enable_static 该接口开启静态图模式。可通过 :ref:`cn_api_paddle_disable_static` 关闭静态图模式。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/equal_all_cn.rst b/docs/api/paddle/equal_all_cn.rst index 05aa07e4a24..810ab73d3f5 100644 --- a/docs/api/paddle/equal_all_cn.rst +++ b/docs/api/paddle/equal_all_cn.rst @@ -11,16 +11,23 @@ equal_all **注:该OP输出的结果不返回梯度。** -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果为Tensor,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果为Tensor,Tensor数据类型为bool。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/equal_cn.rst b/docs/api/paddle/equal_cn.rst index 4e90940eb62..82ab0d750d9 100644 --- a/docs/api/paddle/equal_cn.rst +++ b/docs/api/paddle/equal_cn.rst @@ -9,17 +9,24 @@ equal **注:该OP输出的结果不返回梯度。** -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/erf_cn.rst b/docs/api/paddle/erf_cn.rst index fa473909a6d..979ea0badbd 100644 --- a/docs/api/paddle/erf_cn.rst +++ b/docs/api/paddle/erf_cn.rst @@ -14,15 +14,20 @@ erf .. math:: out = \frac{2}{\sqrt{\pi}} \int_{0}^{x}e^{- \eta^{2}}d\eta -参数: +参数 +:::::::::::: + - **x** (Tensor) - Erf Op 的输入,多维 Tensor 或 LoDTensor,数据类型为 float16, float32 或 float64。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 -返回: +返回 +:::::::::::: + - 多维 Tensor 或 LoDTensor, 数据类型为 float16, float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/exp_cn.rst b/docs/api/paddle/exp_cn.rst index 958eacf03e5..a660150a2af 100644 --- a/docs/api/paddle/exp_cn.rst +++ b/docs/api/paddle/exp_cn.rst @@ -13,15 +13,22 @@ exp .. math:: out = e^x -参数: +参数 +:::::::::::: + - **x** (Tensor) - 该OP的输入为多维Tensor。数据类型为float32,float64。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回:输出为Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/eye_cn.rst b/docs/api/paddle/eye_cn.rst index 31499d789bf..9d0c6f103b6 100644 --- a/docs/api/paddle/eye_cn.rst +++ b/docs/api/paddle/eye_cn.rst @@ -7,20 +7,27 @@ eye 该OP用来构建二维Tensor(主对角线元素为1,其他元素为0)。 -参数: +参数 +:::::::::::: + - **num_rows** (int) - 生成2-D Tensor的行数,数据类型为非负int32。 - **num_columns** (int,可选) - 生成2-D Tensor的列数,数据类型为非负int32。若为None,则默认等于num_rows。 - **dtype** (np.dtype|str, 可选) - 返回Tensor的数据类型,可为float16,float32,float64, int32, int64。若为None, 则默认等于float32。 - **name** (str, 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: ``shape`` 为 [num_rows, num_columns]的Tensor。 +返回 +:::::::::::: + ``shape`` 为 [num_rows, num_columns]的Tensor。 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError``: - 如果 ``dtype`` 的类型不是float16, float32, float64, int32, int64其中之一。 - ``TypeError``: - 如果 ``num_columns`` 不是非负整数或者 ``num_rows`` 不是非负整数。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/flatten_cn.rst b/docs/api/paddle/flatten_cn.rst index cf42c3c5ae1..37d9ffb86a2 100644 --- a/docs/api/paddle/flatten_cn.rst +++ b/docs/api/paddle/flatten_cn.rst @@ -39,21 +39,30 @@ flatten op 根据给定的start_axis 和 stop_axis 将连续的维度展平。 得到: Out.shape = (3 * 100 * 100 * 4) -参数: +参数 +:::::::::::: + - **x** (Tensor) - 多维Tensor, 数据类型可以为float32,float64,int8,int32或int64。 - **start_axis** (int) - flatten展开的起始维度。 - **stop_axis** (int) - flatten展开的结束维度。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: ``Tensor``, 一个 Tensor,它包含输入Tensor的数据,但维度发生变化。输入将按照给定的start_axis 和 stop_axis展开。数据类型与输入x相同。 +返回 +:::::::::::: + ``Tensor``, 一个 Tensor,它包含输入Tensor的数据,但维度发生变化。输入将按照给定的start_axis 和 stop_axis展开。数据类型与输入x相同。 + +返回类型 +:::::::::::: + Tensor -返回类型: Tensor +抛出异常 +:::::::::::: -抛出异常: - ValueError: 如果 x 不是一个Tensor - ValueError: 如果start_axis或者stop_axis不合法 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/flip_cn.rst b/docs/api/paddle/flip_cn.rst index cd2af16af5e..55b966ee06b 100644 --- a/docs/api/paddle/flip_cn.rst +++ b/docs/api/paddle/flip_cn.rst @@ -10,20 +10,29 @@ flip 该OP沿指定轴反转n维tensor. -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入张量。维度为多维,数据类型为bool, int32, int64, float32或float64。 - **axis** (list|tuple|int) - 需要翻转的轴。当axis是int型时, 且axis<0,实际的计算维度为 ndim(x) + axis;axis是list或tuple时,``axis[i] < 0`` 时,实际的计算维度为 ndim(x) + axis[i],其中i为axis的索引。 - **name** (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:在指定axis上翻转后的张量,与输入x数据类型相同。 +返回 +:::::::::::: +在指定axis上翻转后的张量,与输入x数据类型相同。 + +返回类型 +:::::::::::: +Tensor,与输入x数据类型相同。 -返回类型:Tensor,与输入x数据类型相同。 +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - 当输出 ``out`` 和输入 ``x`` 数据类型不一致时候。 - ``ValueError`` - 当参数 ``axis`` 不合法时。 -**代码示例1**: +代码示例 1 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/floor_cn.rst b/docs/api/paddle/floor_cn.rst index f5506324fb0..02e39888321 100644 --- a/docs/api/paddle/floor_cn.rst +++ b/docs/api/paddle/floor_cn.rst @@ -13,15 +13,22 @@ floor .. math:: out = \left \lfloor x \right \rfloor -参数: +参数 +:::::::::::: + - **x** - 该OP的输入为多维Tensor。数据类型必须为float32或float64。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出为Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/DataFeedDesc_cn.rst b/docs/api/paddle/fluid/DataFeedDesc_cn.rst index 572ca0ee582..0c46d6df24e 100644 --- a/docs/api/paddle/fluid/DataFeedDesc_cn.rst +++ b/docs/api/paddle/fluid/DataFeedDesc_cn.rst @@ -52,11 +52,16 @@ DataFeedDesc print(data_feed.desc()) -参数: +参数 +:::::::::::: + - **proto_file** (string) : 包含数据描述的protobuf message的磁盘文件 -.. py:method:: set_batch_size(batch_size) +方法 +:::::::::::: +set_batch_size(batch_size) +''''''''' 该接口用于设置DataFeedDesc中的 :code:`batch_size` 。可以在训练期间调用修改 :code:`batch_size` 。 @@ -86,12 +91,15 @@ DataFeedDesc data_feed = fluid.DataFeedDesc('data.proto') data_feed.set_batch_size(128) -参数: +**参数** + - **batch_size** (int) - 新的批尺寸。 -返回:无 +**返回** +无 -.. py:method:: set_dense_slots(dense_slots_name) +set_dense_slots(dense_slots_name) +''''''''' 将 :code:`dense_slots_name` 指定的slots设置为密集的slot。**注意:默认情况下,所有slots都是稀疏的。** @@ -123,20 +131,24 @@ DataFeedDesc data_feed = fluid.DataFeedDesc('data.proto') data_feed.set_dense_slots(['words']) -参数: +**参数** + - **dense_slots_name** (list(str)) - slot名称的列表,这些slot将被设置为密集的。 -返回:无 +**返回** +无 -.. py:method:: set_use_slots(use_slots_name) +set_use_slots(use_slots_name) +''''''''' 设置一个特定的slot是否用于训练。一个数据集包含了很多特征,通过这个函数可以选择哪些特征将用于指定的模型。 -参数: +**参数** + - **use_slots_name** (list) : 将在训练中使用的slot名列表,类型为list,其中每个元素为一个字符串 -**代码示例:** +**代码示例** .. code-block:: python @@ -167,13 +179,15 @@ DataFeedDesc 默认值是不使用所有slot -.. py:method:: desc() +desc() +''''''''' 返回此DataFeedDesc的protobuf message -返回:一个protobuf message字符串 +**返回** +一个protobuf message字符串 -**代码示例:** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/fluid/DataFeeder_cn.rst b/docs/api/paddle/fluid/DataFeeder_cn.rst index 3960dcb1970..05693a39c77 100644 --- a/docs/api/paddle/fluid/DataFeeder_cn.rst +++ b/docs/api/paddle/fluid/DataFeeder_cn.rst @@ -43,17 +43,22 @@ reader通常返回一个minibatch条目列表。在列表中每一条目都是 -参数: +参数 +:::::::::::: + - **feed_list** (list) – 向模型输入的变量表或者变量表名 - **place** (Place) – place表明是向GPU还是CPU中输入数据。如果想向GPU中输入数据, 请使用 ``fluid.CUDAPlace(i)`` (i 代表 the GPU id);如果向CPU中输入数据, 请使用 ``fluid.CPUPlace()`` - **program** (Program) – 需要向其中输入数据的Program。如果为None, 会默认使用 ``default_main_program()``。 缺省值为None -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` – 如果一些变量不在此 Program 中 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -85,17 +90,23 @@ reader通常返回一个minibatch条目列表。在列表中每一条目都是 fetch_list=[out]) -.. py:method:: feed(iterable) +方法 +:::::::::::: +feed(iterable) +''''''''' 根据feed_list(数据输入表)和iterable(可遍历的数据)提供的信息,将输入数据转成一种特殊的数据结构,使它们可以输入到 ``Executor`` 和 ``ParallelExecutor`` 中。 -参数: +**参数** + - **iterable** (list|tuple) – 要输入的数据 -返回: 转换结果 +**返回** + 转换结果 -返回类型: dict +**返回类型** + dict **代码示例** @@ -116,18 +127,22 @@ reader通常返回一个minibatch条目列表。在列表中每一条目都是 result = feeder.feed(reader()) -.. py:method:: feed_parallel(iterable, num_places=None) +feed_parallel(iterable, num_places=None) +''''''''' 该方法获取的多个minibatch,并把每个minibatch提前输入进各个设备中。 -参数: +**参数** + - **iterable** (list|tuple) – 要输入的数据 - **num_places** (int) – 设备数目。默认为None。 -返回: 转换结果 +**返回** + 转换结果 -返回类型: dict +**返回类型** + dict .. note:: 设备(CPU或GPU)的数目必须等于minibatch的数目 @@ -161,23 +176,28 @@ reader通常返回一个minibatch条目列表。在列表中每一条目都是 exe.run(program=program, feed=list(feeder.feed_parallel(data, place_num)), fetch_list=[]) data = [] -.. py:method:: decorate_reader(reader, multi_devices, num_places=None, drop_last=True) +decorate_reader(reader, multi_devices, num_places=None, drop_last=True) +''''''''' 将reader返回的输入数据batch转换为多个mini-batch,之后每个mini-batch都会被输入进各个设备(CPU或GPU)中。 -参数: +**参数** + - **reader** (fun) – 该参数是一个可以生成数据的函数 - **multi_devices** (bool) – bool型,指明是否使用多个设备 - **num_places** (int) – 如果 ``multi_devices`` 为 ``True`` , 可以使用此参数来设置GPU数目。如果 ``multi_devices`` 为 ``None`` ,该函数默认使用当前训练机所有GPU设备。默认为None。 - **drop_last** (bool) – 如果最后一个batch的大小比 ``batch_size`` 要小,则可使用该参数来指明是否选择丢弃最后一个batch数据。 默认为 ``True`` -返回:转换结果 +**返回** +转换结果 -返回类型: dict +**返回类型** + dict -抛出异常: ``ValueError`` – 如果 ``drop_last`` 值为False并且data batch与设备不匹配时,产生此异常 +**抛出异常** + ``ValueError`` – 如果 ``drop_last`` 值为False并且data batch与设备不匹配时,产生此异常 **代码示例** diff --git a/docs/api/paddle/fluid/clip/ErrorClipByValue_cn.rst b/docs/api/paddle/fluid/clip/ErrorClipByValue_cn.rst index c62a9074285..aac68285a30 100644 --- a/docs/api/paddle/fluid/clip/ErrorClipByValue_cn.rst +++ b/docs/api/paddle/fluid/clip/ErrorClipByValue_cn.rst @@ -16,12 +16,15 @@ ErrorClipByValue - 任何大于max(最大值)的值都被设置为 ``max`` -参数: +参数 +:::::::::::: + - **max** (foat) - 要修剪的最大值。 - **min** (float) - 要修剪的最小值。如果用户没有设置,将被框架默认设置为 ``-max`` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/clip/set_gradient_clip_cn.rst b/docs/api/paddle/fluid/clip/set_gradient_clip_cn.rst index c677a992c46..da9d50995fa 100644 --- a/docs/api/paddle/fluid/clip/set_gradient_clip_cn.rst +++ b/docs/api/paddle/fluid/clip/set_gradient_clip_cn.rst @@ -16,14 +16,19 @@ set_gradient_clip 给指定参数做梯度裁剪。 -参数: +参数 +:::::::::::: + - **clip** (GradientClipBase) - 梯度裁剪的策略,如 :ref:`cn_api_fluid_clip_GradientClipByGlobalNorm` 等,用于描述具体的裁剪方法和属性。 - **param_list** (list(Variable),可选) - 需要裁剪的参数列表,可以是参数或参数名称列表。默认值为None,表示裁剪 ``program`` 中的所有参数。 - **program** (Program,可选) - 参数所在的Program。默认值为None,表示使用 :ref:`cn_api_fluid_default_main_program` 。 -返回: 无。 +返回 +:::::::::::: + 无。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/create_lod_tensor_cn.rst b/docs/api/paddle/fluid/create_lod_tensor_cn.rst index 386b0632f1a..f259fc8f240 100644 --- a/docs/api/paddle/fluid/create_lod_tensor_cn.rst +++ b/docs/api/paddle/fluid/create_lod_tensor_cn.rst @@ -28,16 +28,23 @@ create_lod_tensor 请查阅 :ref:`cn_user_guide_lod_tensor` 了解更多关于LoD的介绍。 -参数: +参数 +:::::::::::: + - **data** (numpy.ndarray|list|LoDTensor) - 表示LoDTensor数据的numpy数组、list或LoDTensor。 - **recursive_seq_lens** (list[list[int]]) - 基于序列长度的LoD信息。 - **place** (CPUPlace|CUDAPlace) - 表示返回的LoDTensor存储在CPU或GPU place中。 -返回: 包含数据信息和序列长度信息的LoDTensor。 +返回 +:::::::::::: + 包含数据信息和序列长度信息的LoDTensor。 -返回类型: LoDTensor +返回类型 +:::::::::::: + LoDTensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/create_random_int_lodtensor_cn.rst b/docs/api/paddle/fluid/create_random_int_lodtensor_cn.rst index 4f17c85af15..f8ec6846dea 100644 --- a/docs/api/paddle/fluid/create_random_int_lodtensor_cn.rst +++ b/docs/api/paddle/fluid/create_random_int_lodtensor_cn.rst @@ -21,18 +21,25 @@ create_random_int_lodtensor 假设我们想创建一个LoDTensor表示序列信息,共包含2个序列,维度分别为[2, 30]和[3, 30],那么序列长度 :code:`recursive_seq_lens` 传入[[2, 3]],:code:`base_shape` 传入[30](即除了序列长度以外的维度)。 最后返回的LoDTensor的维度为[5, 30],其中第一维5为序列总长度,其余维度为 :code:`base_shape` 。 -参数: +参数 +:::::::::::: + - **recursive_seq_lens** (list[list[int]]) - 基于序列长度的LoD信息。 - **base_shape** (list[int]) - 除第一维以外输出结果的维度信息。 - **place** (CPUPlace|CUDAPlace) - 表示返回的LoDTensor存储在CPU或GPU place中。 - **low** (int) - 随机整数的下限值。 - **high** (int) - 随机整数的上限值,必须大于或等于low。 -返回: 包含随机整数数据信息和序列长度信息的LoDTensor,数值范围在[low, high]之间。 +返回 +:::::::::::: + 包含随机整数数据信息和序列长度信息的LoDTensor,数值范围在[low, high]之间。 -返回类型: LoDTensor +返回类型 +:::::::::::: + LoDTensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/cuda_pinned_places_cn.rst b/docs/api/paddle/fluid/cuda_pinned_places_cn.rst index 9c3955b528c..7f3468b6e8f 100644 --- a/docs/api/paddle/fluid/cuda_pinned_places_cn.rst +++ b/docs/api/paddle/fluid/cuda_pinned_places_cn.rst @@ -20,14 +20,21 @@ cuda_pinned_places 关于如何设置任务中使用的GPU设备,具体请查看 fluid. :ref:`cn_api_fluid_cuda_places` 。 -参数: +参数 +:::::::::::: + - **device_count** (int,可选) - 设备数目。默认值为 ``None``。 -返回: ``fluid.CUDAPinnedPlace`` 对象列表。 +返回 +:::::::::::: + ``fluid.CUDAPinnedPlace`` 对象列表。 -返回类型:list[fluid.CUDAPinnedPlace] +返回类型 +:::::::::::: +list[fluid.CUDAPinnedPlace] -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/data_cn.rst b/docs/api/paddle/fluid/data_cn.rst index 14a6ab6ea1d..9ef1928c0c9 100644 --- a/docs/api/paddle/fluid/data_cn.rst +++ b/docs/api/paddle/fluid/data_cn.rst @@ -21,17 +21,24 @@ data 本API创建的变量默认 ``stop_gradient`` 属性为true,这意味这反向梯度不会被传递过这个数据变量。如果用户想传递反向梯度,可以设置 ``var.stop_gradient = False`` 。 -参数: +参数 +:::::::::::: + - **name** (str)- 被创建的变量的名字,具体用法请参见 :ref:`api_guide_Name` 。 - **shape** (list|tuple)- 声明维度信息的list或tuple。 - **dtype** (np.dtype|VarType|str,可选)- 数据类型,支持bool,float16,float32,float64,int8,int16,int32,int64,uint8。默认值为float32。 - **lod_level** (int,可选)- LoDTensor变量的LoD level数,LoD level是PaddlePaddle的高级特性,一般任务中不会需要更改此默认值,关于LoD level的详细适用场景和用法请见 :ref:`cn_user_guide_lod_tensor` 。默认值为0。 -返回:全局变量,可进行数据访问 +返回 +:::::::::::: +全局变量,可进行数据访问 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dataset/DatasetFactory_cn.rst b/docs/api/paddle/fluid/dataset/DatasetFactory_cn.rst index 901d32c2069..4c5c369f7b1 100644 --- a/docs/api/paddle/fluid/dataset/DatasetFactory_cn.rst +++ b/docs/api/paddle/fluid/dataset/DatasetFactory_cn.rst @@ -11,22 +11,27 @@ DatasetFactory DatasetFactory是一个按数据集名称创建数据集的 "工厂",可以创建“QueueDataset”,“InMemoryDataset”或“FileInstantDataset”,默认为“QueueDataset”。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle.fluid as fluid dataset = fluid.DatasetFactory().create_dataset("InMemoryDataset") -.. py:method:: create_dataset(datafeed_class='QueueDataset') +方法 +:::::::::::: +create_dataset(datafeed_class='QueueDataset') +''''''''' 创建“QueueDataset”,“InMemoryDataset” 或 “FileInstantDataset”,默认为“QueueDataset”。 -参数: +**参数** + - **datafeed_class** (str) – datafeed类名,为QueueDataset或InMemoryDataset。默认为QueueDataset。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/fluid/dataset/InMemoryDataset_cn.rst b/docs/api/paddle/fluid/dataset/InMemoryDataset_cn.rst index 7699284c681..b8147e6c9f9 100644 --- a/docs/api/paddle/fluid/dataset/InMemoryDataset_cn.rst +++ b/docs/api/paddle/fluid/dataset/InMemoryDataset_cn.rst @@ -10,20 +10,25 @@ InMemoryDataset InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类由DatasetFactory创建。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python dataset = paddle.fluid.DatasetFactory().create_dataset(“InMemoryDataset”) -.. py:method:: set_queue_num(queue_num) +方法 +:::::::::::: +set_queue_num(queue_num) +''''''''' 设置 ``Dataset`` 输出队列数量,训练进程会从队列中获取数据。 -参数: +**参数** + - **queue_num** (int) - dataset输出队列数量 -**代码示例**: +**代码示例** .. code-block:: python @@ -31,11 +36,13 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset("InMemoryDataset") dataset.set_queue_num(12) -.. py:method:: set_fleet_send_batch_size(fleet_send_batch_size) +set_fleet_send_batch_size(fleet_send_batch_size) +''''''''' 设置发送batch的大小 -参数: +**参数** + - **fleet_send_batch_size** (int) - 设置发送batch的大小。 **代码示例** @@ -46,11 +53,13 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset("InMemoryDataset") dataset.set_fleet_send_batch_size(800) -.. py:method:: set_merge_by_lineid(var_list, erase_duplicate_feas=True, min_merge_size=2, keep_unmerged-ins=True) +set_merge_by_lineid(var_list, erase_duplicate_feas=True, min_merge_size=2, keep_unmerged-ins=True) +''''''''' 通过样本id来设置合并,一些线id的实例将会在shuffle之后进行合并,你应该在一个data生成器里面解析样本id。 -参数: +**参数** + - **var_list** (list) - 可以被合并的特征列表,其中的每一个元素都是一个 ``Variable`` 。一些类特征我们通常不把它们合并为同样的样本id,所以用户应当指定哪个类特征可以被合并。 - **erase_duplicate_feas** (bool) - 合并的时候是否删除重复的特征值。默认为True。 - **min_merge_size** (int) - 合并的最小数量。默认为2。 @@ -62,11 +71,12 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset("InMemoryDataset") dataset.set_merge_by_lineid() -.. py:method:: load_into_memory() +load_into_memory() +''''''''' 向内存中加载数据。 -**代码示例**: +**代码示例** .. code-block:: python @@ -76,11 +86,12 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset.set_filelist(filelist) dataset.load_into_memory() -.. py:method:: preload_into_memory() +preload_into_memory() +''''''''' 向内存中以异步模式加载数据。 -**代码示例**: +**代码示例** .. code-block:: python @@ -91,11 +102,12 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset.preload_into_memory() dataset.wait_preload_done() -.. py:method:: wait_preload_done() +wait_preload_done() +''''''''' 等待 ``preload_into_memory`` 完成。 -**代码示例**: +**代码示例** .. code-block:: python @@ -106,11 +118,12 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset.preload_into_memory() dataset.wait_preload_done() -.. py:method:: local_shuffle() +local_shuffle() +''''''''' 局域shuffle。 -**代码示例**: +**代码示例** .. code-block:: python @@ -122,13 +135,14 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset.local_shuffle() -.. py:method:: global_shuffle(fleet=None) +global_shuffle(fleet=None) +''''''''' 全局shuffle。 只能用在分布式模式(单机多进程或多机多进程)中。您如果在分布式模式中运行,应当传递fleet而非None。 -**代码示例**: +**代码示例** .. code-block:: python @@ -140,15 +154,17 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset.load_into_memory() dataset.global_shuffle(fleet) -参数: +**参数** + - **fleet** (Fleet) – fleet单例。默认为None。 -.. py:method:: release_memory() +release_memory() +''''''''' 当数据不再使用时,释放InMemoryDataset内存数据。 -**代码示例**: +**代码示例** .. code-block:: python @@ -164,19 +180,22 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 exe.train_from_dataset(fluid.default_main_program(), dataset) dataset.release_memory() -.. py:method:: get_memory_data_size(fleet=None) +get_memory_data_size(fleet=None) +''''''''' 用户可以调用此函数以了解加载进内存后所有workers中的样本数量。 .. note:: 该函数可能会导致性能不佳,因为它具有barrier。 -参数: +**参数** + - **fleet** (Fleet) – fleet对象。 -返回:内存数据的大小。 +**返回** +内存数据的大小。 -**代码示例**: +**代码示例** .. code-block:: python @@ -189,19 +208,22 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 print dataset.get_memory_data_size(fleet) -.. py:method:: get_shuffle_data_size(fleet=None) +get_shuffle_data_size(fleet=None) +''''''''' 获取shuffle数据大小,用户可以调用此函数以了解局域/全局shuffle后所有workers中的样本数量。 .. note:: 该函数可能会导致局域shuffle性能不佳,因为它具有barrier。但其不影响局域shuffle。 -参数: +**参数** + - **fleet** (Fleet) – fleet对象。 -返回:shuffle数据的大小。 +**返回** +shuffle数据的大小。 -**代码示例**: +**代码示例** .. code-block:: python @@ -215,11 +237,12 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 print dataset.get_shuffle_data_size(fleet) -.. py:method:: set_batch_size(batch_size) +set_batch_size(batch_size) +''''''''' 设置batch size。在训练期间生效。 -**代码示例**: +**代码示例** .. code-block:: python @@ -227,18 +250,21 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() dataset.set_batch_size(128) -参数: +**参数** + - **batch_size** (int) - batch size -.. py:method:: set_fea_eval(record_candidate_size, fea_eval=True) +set_fea_eval(record_candidate_size, fea_eval=True) +''''''''' 设置特征打乱特征验证模式,来修正特征level的重要性, 特征打乱需要 ``fea_eval`` 被设置为True。 -参数: +**参数** + - **record_candidate_size** (int) - 打乱一个特征的候选实例大小 - **fea_eval** (bool) - 是否设置特征验证模式来打乱特征,默认为True。 -**代码示例**: +**代码示例** .. code-block:: python @@ -246,11 +272,12 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset(“InMemoryDataset”) dataset.set_fea_eval(1000000, True) -.. py:method:: desc() +desc() +''''''''' 为 ``DataFeedDesc`` 返回一个缓存信息。 -**代码示例**: +**代码示例** .. code-block:: python @@ -258,13 +285,15 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() print(dataset.desc()) -返回:一个字符串信息 +**返回** +一个字符串信息 -.. py:method:: set_filelist(filelist) +set_filelist(filelist) +''''''''' 在当前的worker中设置文件列表。 -**代码示例**: +**代码示例** .. code-block:: python @@ -272,14 +301,16 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() dataset.set_filelist(["a.txt", "b.txt"]) -参数: +**参数** + - **filelist** (list) - 文件列表 -.. py:method:: set_hdfs_config(fs_name, fs_ugi) +set_hdfs_config(fs_name, fs_ugi) +''''''''' 设置hdfs配置:fs名称与ugi。 -**代码示例**: +**代码示例** .. code-block:: python @@ -287,15 +318,17 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() dataset.set_hdfs_config("my_fs_name", "my_fs_ugi") -参数: +**参数** + - **fs_name** (str) - fs名称 - **fs_ugi** (str) - fs ugi -.. py:method:: set_pipe_command(pipe_coommand) +set_pipe_command(pipe_coommand) +''''''''' 在当前的 ``dataset`` 中设置pipe命令。pipe命令只能使用UNIX的pipe命令 -**代码示例**: +**代码示例** .. code-block:: python @@ -303,14 +336,16 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() dataset.set_pipe_command("python my_script.py") -参数: +**参数** + - **pipe_command** (str) - pipe命令 -.. py:method:: set_thread(thread_num) +set_thread(thread_num) +''''''''' 设置进程数量,等于readers的数量。 -**代码示例**: +**代码示例** .. code-block:: python @@ -318,14 +353,16 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() dataset.set_thread(12) -参数: +**参数** + - **thread_num** (int) - 进程数量 -.. py:method:: set_use_var(var_list) +set_use_var(var_list) +''''''''' 设置将要使用的 ``Variable`` 。 -**代码示例**: +**代码示例** .. code-block:: python @@ -333,17 +370,20 @@ InMemoryDataset会向内存中加载数据并在训练前缓冲数据。此类 dataset = fluid.DatasetFactory().create_dataset() dataset.set_use_var([data, label]) -参数: +**参数** + - **var_list** (list) - variable 列表 -.. py:method:: slots_shuffle(slots) +slots_shuffle(slots) +''''''''' 该方法是在特征层次上的一个打乱方法,经常被用在有着较大缩放率实例的稀疏矩阵上,为了比较metric,比如auc,在一个或者多个有着baseline的特征上做特征打乱来验证特征level的重要性。 -参数: +**参数** + - **slots** (list[string]) - 要打乱特征的集合 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/fluid/dataset/QueueDataset_cn.rst b/docs/api/paddle/fluid/dataset/QueueDataset_cn.rst index 298bf2bb4ec..479096d2f68 100644 --- a/docs/api/paddle/fluid/dataset/QueueDataset_cn.rst +++ b/docs/api/paddle/fluid/dataset/QueueDataset_cn.rst @@ -10,7 +10,8 @@ QueueDataset 流式处理数据。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -19,13 +20,16 @@ QueueDataset -.. py:method:: local_shuffle() +方法 +:::::::::::: +local_shuffle() +''''''''' 局域shuffle数据 QueueDataset中不支持局域shuffle,可能抛出NotImplementedError -**代码示例**: +**代码示例** .. code-block:: python @@ -35,13 +39,14 @@ QueueDataset中不支持局域shuffle,可能抛出NotImplementedError -.. py:method:: global_shuffle(fleet=None) +global_shuffle(fleet=None) +''''''''' 全局shuffle数据 QueueDataset中不支持全局shuffle,可能抛出NotImplementedError -**代码示例**: +**代码示例** .. code-block:: python @@ -50,11 +55,12 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset("QueueDataset") dataset.global_shuffle(fleet) -.. py:method:: desc() +desc() +''''''''' 为 ``DataFeedDesc`` 返回一个缓存信息。 -**代码示例**: +**代码示例** .. code-block:: python @@ -62,13 +68,15 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() print(dataset.desc()) -返回:一个字符串信息 +**返回** +一个字符串信息 -.. py:method:: set_batch_size(batch_size) +set_batch_size(batch_size) +''''''''' 设置batch size。在训练期间生效。 -**代码示例**: +**代码示例** .. code-block:: python @@ -76,16 +84,19 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() dataset.set_batch_size(128) -参数: +**参数** + - **batch_size** (int) - batch size -.. py:method:: set_fea_eval(record_candidate_size,fea_eval) +set_fea_eval(record_candidate_size,fea_eval) +''''''''' + +**参数** -参数: - **record_candidate_size** (int) - 打乱一个特征的候选实例大小 - **fea_eval** (bool) - 是否设置特征验证模式来打乱特征,默认为True。 -**代码示例**: +**代码示例** .. code-block:: python @@ -93,11 +104,12 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset(“InMemoryDataset”) dataset.set_fea_eval(1000000, True) -.. py:method:: set_filelist(filelist) +set_filelist(filelist) +''''''''' 在当前的worker中设置文件列表。 -**代码示例**: +**代码示例** .. code-block:: python @@ -105,14 +117,16 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() dataset.set_filelist(["a.txt", "b.txt"]) -参数: +**参数** + - **filelist** (list) - 文件列表 -.. py:method:: set_hdfs_config(fs_name, fs_ugi) +set_hdfs_config(fs_name, fs_ugi) +''''''''' 设置hdfs配置:fs名称与ugi。 -**代码示例**: +**代码示例** .. code-block:: python @@ -120,15 +134,17 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() dataset.set_hdfs_config("my_fs_name", "my_fs_ugi") -参数: +**参数** + - **fs_name** (str) - fs名称 - **fs_ugi** (str) - fs ugi -.. py:method:: set_pipe_command(pipe_coommand) +set_pipe_command(pipe_coommand) +''''''''' 在当前的 ``dataset`` 中设置pipe命令。pipe命令只能使用UNIX的pipe命令 -**代码示例**: +**代码示例** .. code-block:: python @@ -136,14 +152,16 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() dataset.set_pipe_command("python my_script.py") -参数: +**参数** + - **pipe_command** (str) - pipe命令 -.. py:method:: set_thread(thread_num) +set_thread(thread_num) +''''''''' 设置进程数量,等于readers的数量。 -**代码示例**: +**代码示例** .. code-block:: python @@ -151,14 +169,16 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() dataset.set_thread(12) -参数: +**参数** + - **thread_num** (int) - 进程数量 -.. py:method:: set_use_var(var_list) +set_use_var(var_list) +''''''''' 设置将要使用的 ``Variable`` 。 -**代码示例**: +**代码示例** .. code-block:: python @@ -166,17 +186,20 @@ QueueDataset中不支持全局shuffle,可能抛出NotImplementedError dataset = fluid.DatasetFactory().create_dataset() dataset.set_use_var([data, label]) -参数: +**参数** + - **var_list** (list) - variable 列表 -.. py:method:: slots_shuffle(slots) +slots_shuffle(slots) +''''''''' 该方法是在特征层次上的一个打乱方法,经常被用在有着较大缩放率实例的稀疏矩阵上,为了比较metric,比如auc,在一个或者多个有着baseline的特征上做特征打乱来验证特征level的重要性。 -参数: +**参数** + - **slots** (list[string]) - 要打乱特征的集合 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/BilinearTensorProduct_cn.rst b/docs/api/paddle/fluid/dygraph/BilinearTensorProduct_cn.rst index 83be29989f9..8da1471827b 100644 --- a/docs/api/paddle/fluid/dygraph/BilinearTensorProduct_cn.rst +++ b/docs/api/paddle/fluid/dygraph/BilinearTensorProduct_cn.rst @@ -23,7 +23,9 @@ BilinearTensorProduct - :math:`y^T` : :math:`y` 的转置 -参数: +参数 +:::::::::::: + - **input1_dim** (int) – 第一个输入的维度大小。 - **input1_dim** (int) – 第二个输入的维度大小。 - **output_dim** (int) – 输出的维度。 @@ -33,9 +35,12 @@ BilinearTensorProduct - **bias_attr** (ParamAttr) – 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。 -返回:Tensor, 维度为[batch_size, size]的2D Tensor,数据类型与输入数据类型相同。 +返回 +:::::::::::: +Tensor, 维度为[batch_size, size]的2D Tensor,数据类型与输入数据类型相同。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -51,11 +56,15 @@ BilinearTensorProduct 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/Conv2DTranspose_cn.rst b/docs/api/paddle/fluid/dygraph/Conv2DTranspose_cn.rst index e7ba51d5d11..3163cfaadf6 100755 --- a/docs/api/paddle/fluid/dygraph/Conv2DTranspose_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Conv2DTranspose_cn.rst @@ -47,7 +47,9 @@ Conv2DTranspose & W_{out}\in[W'_{out},W'_{out} + strides[1]) -参数: +参数 +:::::::::::: + - **num_channels** (int) - 输入图像的通道数。 - **num_filters** (int) - 滤波器的个数,和输出特征图个数相同。 - **filter_size** (int|tuple) - 滤波器大小。如果 ``filter_size`` 是一个元组,则必须包含两个整型数,分别表示滤波器高度和宽度。否则,表示滤波器高度和宽度均为 ``filter_size`` 。 @@ -62,9 +64,12 @@ Conv2DTranspose - **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值:None。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -79,11 +84,15 @@ Conv2DTranspose 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/Conv2D_cn.rst b/docs/api/paddle/fluid/dygraph/Conv2D_cn.rst index 3e81c4a3173..0f5e21ed77e 100644 --- a/docs/api/paddle/fluid/dygraph/Conv2D_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Conv2D_cn.rst @@ -44,7 +44,9 @@ Conv2D W_{out} = \frac{\left ( W_{in}+2*paddings[1]-\left ( dilations[1]*\left ( W_{f}-1 \right )+1 \right ) \right )}{strides[1]}+1 -参数: +参数 +:::::::::::: + - **num_channels** (int) - 输入图像的通道数。 - **num_filters** (int) - 滤波器的个数,和输出特征图个数相同。 - **filter_size** (int|tuple) - 滤波器大小。如果 ``filter_size`` 是一个元组,则必须包含两个整型数,分别表示滤波器高度和宽度。否则,表示滤波器高度和宽度均为 ``filter_size`` 。 @@ -58,12 +60,17 @@ Conv2D - **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值:None。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。 -返回:无 +返回 +:::::::::::: +无 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``use_cudnn`` 不是bool值 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -80,11 +87,15 @@ Conv2D 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/Conv3DTranspose_cn.rst b/docs/api/paddle/fluid/dygraph/Conv3DTranspose_cn.rst index a3e4134d1e6..2141d2db37c 100644 --- a/docs/api/paddle/fluid/dygraph/Conv3DTranspose_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Conv3DTranspose_cn.rst @@ -68,7 +68,9 @@ Conv3DTranspose 如果指定了output_size, 其可以自动计算滤波器的大小。 -参数: +参数 +:::::::::::: + - **num_channels** (int) - 输入图像的通道数。 - **num_filters** (int) - 滤波器(卷积核)的个数,与输出的图片的通道数相同。 - **filter_size** (int|tuple) - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_depth,filter_size_height, filter_size_width)。否则,filter_size_depth = filter_size_height = filter_size_width = filter_size。如果filter_size=None,则必须指定output_size, 其会根据output_size、padding和stride计算出滤波器大小。 @@ -85,9 +87,12 @@ Conv3DTranspose - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -106,11 +111,15 @@ Conv3DTranspose 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/Conv3D_cn.rst b/docs/api/paddle/fluid/dygraph/Conv3D_cn.rst index 9e0291edba1..db3aa6e6b73 100644 --- a/docs/api/paddle/fluid/dygraph/Conv3D_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Conv3D_cn.rst @@ -44,7 +44,9 @@ Conv3D H_{out}&= \frac{(H_{in} + 2 * paddings[1] - (dilations[1] * (H_f - 1) + 1))}{strides[1]} + 1 \\ W_{out}&= \frac{(W_{in} + 2 * paddings[2] - (dilations[2] * (W_f - 1) + 1))}{strides[2]} + 1 -参数: +参数 +:::::::::::: + - **num_channels** (int) - 输入图像的通道数。 - **num_fliters** (int) - 滤波器(卷积核)的个数。和输出图像通道相同。 - **filter_size** (int|tuple) - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_D, filter_size_H, filter_size_W)。如果filter_size是一个int型,则filter_size_depth = filter_size_height = filter_size_width = filter_size。 @@ -59,9 +61,12 @@ Conv3D - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。 -返回:无 +返回 +:::::::::::: +无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -77,11 +82,15 @@ Conv3D 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/Dropout_cn.rst b/docs/api/paddle/fluid/dygraph/Dropout_cn.rst index ce72d582a0a..edf2be01c3f 100644 --- a/docs/api/paddle/fluid/dygraph/Dropout_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Dropout_cn.rst @@ -9,7 +9,9 @@ Dropout Dropout层可以删除,提高执行效率。 -参数: +参数 +:::::::::::: + - **p** (float32,可选) - 输入单元的丢弃概率,即输入单元设置为0的概率。默认值:0.5 - **seed** (int,可选) - 整型数据,用于创建随机种子。如果该参数设为None,则使用随机种子。注:如果给定一个整型种子,始终丢弃相同的输出单元。训练过程中勿用固定不变的种子。默认值:None。 - **dropout_implementation** (str,可选) - 丢弃单元的方式,有两种'downgrade_in_infer'和'upscale_in_train'两种选择,默认:'downgrade_in_infer'。具体作用可以参考一下描述。 @@ -32,9 +34,12 @@ Dropout层可以删除,提高执行效率。 - **is_test** (bool,可选) - 标记是否是测试阶段。此标志仅对静态图模式有效。对于动态图模式,请使用 ``eval()`` 接口。默认:False。 -返回:无 +返回 +:::::::::::: +无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/Embedding_cn.rst b/docs/api/paddle/fluid/dygraph/Embedding_cn.rst index 35e3ce8e593..8f2b9b5dd45 100644 --- a/docs/api/paddle/fluid/dygraph/Embedding_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Embedding_cn.rst @@ -54,7 +54,9 @@ Embedding [[0.0, 0.0, ..., 0.0 ]]] # padding data 输入的padding_idx = 0,则对于输入id为0的词,进行padding处理。 -参数: +参数 +:::::::::::: + - **size** (tuple|list) - embedding矩阵的维度。必须包含两个元素,第一个元素为vocab_size(词表大小), 第二个为emb_size(embedding层维度)。 - **is_sparse** (bool) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse更新速度更快,推荐使用稀疏更新的方式。但某些optimizer不支持sparse更新,比如 :ref:`cn_api_fluid_optimizer_AdadeltaOptimizer` 、 :ref:`cn_api_fluid_optimizer_AdamaxOptimizer` 、 :ref:`cn_api_fluid_optimizer_DecayedAdagradOptimizer` 、 :ref:`cn_api_fluid_optimizer_FtrlOptimizer` 、 :ref:`cn_api_fluid_optimizer_LambOptimizer` 、:ref:`cn_api_fluid_optimizer_LarsMomentumOptimizer` ,此时is_sparse必须为False。默认为False。 - **is_distributed** (bool) - 是否使用分布式的方式存储embedding矩阵,仅在多机分布式cpu训练中使用。默认为False。 @@ -62,11 +64,16 @@ Embedding - **param_attr** (ParamAttr) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。此外,可以通过 ``param_attr`` 参数加载用户自定义或预训练的词向量。只需将本地词向量转为numpy数据格式,且保证本地词向量的shape和embedding的 ``size`` 参数一致,然后使用 :ref:`cn_api_fluid_initializer_NumpyArrayInitializer` 进行初始化,即可实现加载自定义或预训练的词向量。详细使用方法见代码示例2。 - **dtype** (str|core.VarDesc.VarType) - 输出Tensor或LoDTensor的数据类型,数据类型必须为:float32或float64,默认为float32。 -返回:input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 +返回 +:::::::::::: +input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/GRUCell_cn.rst b/docs/api/paddle/fluid/dygraph/GRUCell_cn.rst index 953c666ca9c..297030c03d5 100644 --- a/docs/api/paddle/fluid/dygraph/GRUCell_cn.rst +++ b/docs/api/paddle/fluid/dygraph/GRUCell_cn.rst @@ -21,7 +21,9 @@ GRUCell 更多细节可以参考 `Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation `_ -参数: +参数 +:::::::::::: + - **hidden_size** (int) - GRUCell中的隐藏层大小。 - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。 - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -30,9 +32,12 @@ GRUCell - **dtype** (string,可选) - 此cell中使用的数据类型。 默认为"float32"。 - **name** (string,可选) - 用于标识参数和偏差的名称域。 -返回:GRUCell类的实例对象。 +返回 +:::::::::::: +GRUCell类的实例对象。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -40,26 +45,36 @@ GRUCell cell = layers.GRUCell(hidden_size=256) -.. py:method:: call(inputs, states) +方法 +:::::::::::: +call(inputs, states) +''''''''' 执行GRU的计算。 -参数: +**参数** + - **input** (Variable) - 输入,形状为 :math:`[batch\_size,input\_size]` 的tensor,对应于公式中的 :math:`x_t` 。数据类型应为float32。 - **states** (Variable) - 状态,形状为 :math:`[batch\_size,hidden\_size]` 的tensor。 对应于公式中的 :math:`h_{t-1}` 。数据类型应为float32。 -返回:一个元组 :code:`(outputs, new_states)` ,其中 :code:`outputs` 和 :code:`new_states` 是同一个tensor,其形状为 :math:`[batch\_size,hidden\_size]`,数据类型和 :code:`state` 的数据类型相同,对应于公式中的 :math:`h_t`。 +**返回** +一个元组 :code:`(outputs, new_states)` ,其中 :code:`outputs` 和 :code:`new_states` 是同一个tensor,其形状为 :math:`[batch\_size,hidden\_size]`,数据类型和 :code:`state` 的数据类型相同,对应于公式中的 :math:`h_t`。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: state_shape() +state_shape() +''''''''' GRUCell的 :code:`state_shape` 是形状 :math:`[hidden\_size]` (batch大小为-1,自动插入到形状中),对应于 :math:`h_{t-1}` 的形状。 -参数:无。 +**参数** +无。 -返回:GRUCell的 :code:`state_shape`。 +**返回** +GRUCell的 :code:`state_shape`。 -返回类型:Variable +**返回类型** +Variable diff --git a/docs/api/paddle/fluid/dygraph/GRUUnit_cn.rst b/docs/api/paddle/fluid/dygraph/GRUUnit_cn.rst index c2f986da1df..051a77d736b 100644 --- a/docs/api/paddle/fluid/dygraph/GRUUnit_cn.rst +++ b/docs/api/paddle/fluid/dygraph/GRUUnit_cn.rst @@ -35,7 +35,9 @@ GRUUnit 其中, :math:`x_t` 为当前时间步的输入,:math:`h_{t-1}` 为前一时间步的隐状态 ``hidden``; :math:`u_t` 、 :math:`r_t` 、 :math:`\tilde{h_t}` 和 :math:`h_t` 分别代表了GRU单元中update gate(更新门)、reset gate(重置门)、candidate hidden(候选隐状态)和隐状态输出; :math:`\odot` 为逐个元素相乘; :math:`W_{uh}, b_u` 、 :math:`W_{rh}, b_r` 和 :math:`W_{ch}, b_c` 分别代表更新门、重置门和候选隐状态在计算时使用的权重矩阵和偏置。在实现上,三个权重矩阵合并为一个维度为 :math:`[D, D \times 3]` 的Tensor存放。 -参数: +参数 +:::::::::::: + - **size** (int) – 输入数据的维度大小。 - **param_attr** (ParamAttr,可选) – 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 **注意** @@ -47,10 +49,13 @@ GRUUnit - **origin_mode** (bool) – 指明要使用的GRU计算方式,两种计算方式具体差异见公式描述。默认值为False。 - **dtype** (str,可选) – 该层的数据类型,可以为'float32', 'float64'。默认值为'float32'。 -返回: +返回 +:::::::::::: + None. -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -73,10 +78,14 @@ GRUUnit 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/GroupNorm_cn.rst b/docs/api/paddle/fluid/dygraph/GroupNorm_cn.rst index 9b03d8f04ce..04631f92624 100644 --- a/docs/api/paddle/fluid/dygraph/GroupNorm_cn.rst +++ b/docs/api/paddle/fluid/dygraph/GroupNorm_cn.rst @@ -12,7 +12,9 @@ GroupNorm 该接口用于构建 ``GroupNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了组归一化层的功能。更多详情请参考: `Group Normalization `_ 。 -参数: +参数 +:::::::::::: + - **channels** (int) - 输入的通道数。 - **groups** (int) - 从通道中分离出来的 ``group`` 的数目。 - **epsilon** (float, 可选) - 为防止方差除零,增加一个很小的值。默认值:1e-05。 @@ -22,12 +24,17 @@ GroupNorm - **data_layout** (str, 可选) - 只支持“NCHW”(num_batches,channels,height,width)格式。默认值:“NCHW”。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。 -返回:无 +返回 +:::::::::::: +无 + +抛出异常 +:::::::::::: -抛出异常: - ValueError - 如果 ``data_layout`` 不是“NCHW”格式。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/LSTMCell_cn.rst b/docs/api/paddle/fluid/dygraph/LSTMCell_cn.rst index cebebb05235..747eaf2159a 100644 --- a/docs/api/paddle/fluid/dygraph/LSTMCell_cn.rst +++ b/docs/api/paddle/fluid/dygraph/LSTMCell_cn.rst @@ -23,7 +23,9 @@ LSTMCell 更多细节可以参考 `RECURRENT NEURAL NETWORK REGULARIZATION `_ -参数: +参数 +:::::::::::: + - **hidden_size** (int) - LSTMCell中的隐藏层大小。 - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。 - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -33,9 +35,12 @@ LSTMCell - **dtype** (string,可选) - 此Cell中使用的数据类型。 默认值为 `float32`。 - **name** (string,可选) - 用于标识参数和偏差的名称域。 -返回:LSTMCell类的实例对象。 +返回 +:::::::::::: +LSTMCell类的实例对象。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -43,24 +48,34 @@ LSTMCell cell = layers.LSTMCell(hidden_size=256) -.. py:method:: call(inputs, states) +方法 +:::::::::::: +call(inputs, states) +''''''''' 执行GRU的计算。 -参数: +**参数** + - **input** (Variable) - 输入,形状为 :math:`[batch\_size,input\_size]` 的tensor,对应于公式中的 :math:`x_t`。数据类型应为float32。 - **states** (Variable) - 状态,包含两个tensor的列表,每个tensor形状为 :math:`[batch\_size,hidden\_size]`。 对应于公式中的 :math:`h_{t-1}, c_{t-1}`。数据类型应为float32。 -返回:一个元组 :code:`(outputs, new_states)`,其中 :code:`outputs` 是形状为 :math:`[batch\_size,hidden\_size]` 的tensor,对应于公式中的 :math:`h_{t}`;:code:`new_states` 是一个列表,包含形状为 :math:`[batch_size,hidden_size]` 的两个tensor变量,它们对应于公式中的 :math:`h_{t}, c_{t}`。这些tensor的数据类型都与 :code:`state` 的数据类型相同。 +**返回** +一个元组 :code:`(outputs, new_states)`,其中 :code:`outputs` 是形状为 :math:`[batch\_size,hidden\_size]` 的tensor,对应于公式中的 :math:`h_{t}`;:code:`new_states` 是一个列表,包含形状为 :math:`[batch_size,hidden_size]` 的两个tensor变量,它们对应于公式中的 :math:`h_{t}, c_{t}`。这些tensor的数据类型都与 :code:`state` 的数据类型相同。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: state_shape() +state_shape() +''''''''' LSTMCell的 :code:`state_shape` 是一个具有两个形状的列表::math:`[[hidden\_size], [hidden\_size]]` (batch大小为-1,自动插入到形状中)。 这两个形状分别对应于公式中的 :math:`h_{t-1}` and :math:`c_{t-1}`。 -参数:无。 +**参数** +无。 -返回:LSTMCell的 :code:`state_shape` +**返回** +LSTMCell的 :code:`state_shape` -返回类型:list +**返回类型** +list diff --git a/docs/api/paddle/fluid/dygraph/LambdaDecay_cn.rst b/docs/api/paddle/fluid/dygraph/LambdaDecay_cn.rst index 33e30850a1e..e4ac286e647 100644 --- a/docs/api/paddle/fluid/dygraph/LambdaDecay_cn.rst +++ b/docs/api/paddle/fluid/dygraph/LambdaDecay_cn.rst @@ -21,13 +21,18 @@ LambdaDecay learning_rate = 0.475 # epoch 1 learning_rate = 0.45125 # epoch 2 -参数: +参数 +:::::::::::: + - **learning_rate** (float|int) - 初始化的学习率。可以是Python的float或int。 - **lr_lambda** (function) - ``lr_lambda`` 为一个lambda函数,其通过 ``epoch`` 计算出一个因子,该因子会乘以初始学习率。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -50,15 +55,20 @@ LambdaDecay # epoch:1, current lr is 0.475 # epoch:2, current lr is 0.45125 -.. py:method:: epoch(epoch=None) +方法 +:::::::::::: +epoch(epoch=None) +''''''''' 通过当前的 epoch 调整学习率,调整后的学习率将会在下一次调用 ``optimizer.minimize`` 时生效。 -参数: +**参数** + - **epoch** (int|float,可选) - 类型:int或float。指定当前的epoch数。默认:无,此时将会自动累计epoch数。 -返回: +**返回** + 无 -**代码示例**: +**代码示例** 参照上述示例代码。 diff --git a/docs/api/paddle/fluid/dygraph/LayerNorm_cn.rst b/docs/api/paddle/fluid/dygraph/LayerNorm_cn.rst index bedb1163bec..26e2e86a6ac 100644 --- a/docs/api/paddle/fluid/dygraph/LayerNorm_cn.rst +++ b/docs/api/paddle/fluid/dygraph/LayerNorm_cn.rst @@ -26,7 +26,9 @@ LayerNorm - :math:`b` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **normalized_shape** (int 或 list 或 tuple) – 需规范化的shape,期望的输入shape为 ``[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]``。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)。 - **scale** (bool, 可选) - 指明是否在归一化后学习自适应增益 ``g`` 。默认值:True。 - **shift** (bool, 可选) - 指明是否在归一化后学习自适应偏差 ``b`` 。默认值:True。 @@ -37,9 +39,12 @@ LayerNorm - **dtype** (str,可选) - 输出Tensor或LoDTensor的数据类型,数据类型必须为:float32或float64,默认为float32。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/Linear_cn.rst b/docs/api/paddle/fluid/dygraph/Linear_cn.rst index 48ca2392ef3..5af73ba2be4 100644 --- a/docs/api/paddle/fluid/dygraph/Linear_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Linear_cn.rst @@ -23,7 +23,9 @@ Linear 层将输入 Tensor 与权重矩阵 :math:`W` 相乘,然后生成形状 如果 bias_attr 不是 None,则将创建一个 bias 变量并将其添加到输出中。 最后,如果激活 act 不是 None,则相应激活函数也将应用于输出上。 -参数: +参数 +:::::::::::: + - **input_dim** (int) – 线性变换层输入单元的数目。 - **output_dim** (int) – 线性变换层输出单元的数目。 - **param_attr** (ParamAttr, 可选) – 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -31,9 +33,12 @@ Linear 层将输入 Tensor 与权重矩阵 :math:`W` 相乘,然后生成形状 - **act** (str, 可选) – 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 - **dtype** (str, 可选) – 权重的数据类型,可以为float32或float64。默认为float32。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -50,11 +55,15 @@ Linear 层将输入 Tensor 与权重矩阵 :math:`W` 相乘,然后生成形状 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/MultiStepDecay_cn.rst b/docs/api/paddle/fluid/dygraph/MultiStepDecay_cn.rst index 7333f9a553c..8496056a5a8 100644 --- a/docs/api/paddle/fluid/dygraph/MultiStepDecay_cn.rst +++ b/docs/api/paddle/fluid/dygraph/MultiStepDecay_cn.rst @@ -24,14 +24,19 @@ MultiStepDecay else: learning_rate = 0.005 -参数: +参数 +:::::::::::: + - **learning_rate** (float|int) - 初始化的学习率。可以是Python的float或int。 - **milestones** (tuple|list) - 列表或元组。必须是递增的。 - **decay_rate** (float, optional) - 学习率的衰减率。 ``new_lr = origin_lr * decay_rate`` 。其值应该小于1.0。默认:0.1。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -57,15 +62,20 @@ MultiStepDecay # epoch:4, current lr is 0.05 # epoch:5, current lr is 0.005 -.. py:method:: epoch(epoch=None) +方法 +:::::::::::: +epoch(epoch=None) +''''''''' 通过当前的 epoch 调整学习率,调整后的学习率将会在下一次调用 ``optimizer.minimize`` 时生效。 -参数: +**参数** + - **epoch** (int|float,可选) - 类型:int或float。指定当前的epoch数。默认:无,此时将会自动累计epoch数。 -返回: +**返回** + 无 -**代码示例**: +**代码示例** 参照上述示例代码。 diff --git a/docs/api/paddle/fluid/dygraph/NCE_cn.rst b/docs/api/paddle/fluid/dygraph/NCE_cn.rst index 45302572ed5..fa1caa6cbce 100644 --- a/docs/api/paddle/fluid/dygraph/NCE_cn.rst +++ b/docs/api/paddle/fluid/dygraph/NCE_cn.rst @@ -10,7 +10,9 @@ NCE 该接口用于构建 ``NCE`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了 ``NCE`` 损失函数的功能,其默认使用均匀分布进行抽样,计算并返回噪音对比估计( noise-contrastive estimation training loss)。更多详情请参考:`Noise-contrastive estimation: A new estimation principle for unnormalized statistical models `_ -参数: +参数 +:::::::::::: + - **num_total_classes** (int) - 所有样本中的类别的总数。 - **dim** (int) - 输入的维度(一般为词嵌入的维度)。 - **sample_weight** (Variable, 可选) - 维度为\[batch_size, 1\],存储每个样本的权重。每个样本的默认权重为1.0。默认值:None。 @@ -23,9 +25,12 @@ NCE - **is_sparse** (bool, 可选) – 指明是否使用稀疏更新,如果为True, :math:`weight@GRAD` 和 :math:`bias@GRAD` 会变为 SelectedRows。默认值:False。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -73,10 +78,14 @@ NCE 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/PRelu_cn.rst b/docs/api/paddle/fluid/dygraph/PRelu_cn.rst index 8252bee4771..607888ef7e6 100644 --- a/docs/api/paddle/fluid/dygraph/PRelu_cn.rst +++ b/docs/api/paddle/fluid/dygraph/PRelu_cn.rst @@ -16,7 +16,9 @@ PRelu y = max(0, x) + \alpha min(0, x) -参数: +参数 +:::::::::::: + - **mode** (str) - 权重共享模式。共提供三种激活方式: .. code-block:: text @@ -30,9 +32,12 @@ PRelu - **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。 -返回:无 +返回 +:::::::::::: +无 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python @@ -60,7 +65,10 @@ PRelu 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/Pool2D_cn.rst b/docs/api/paddle/fluid/dygraph/Pool2D_cn.rst index 4647cfdf671..32332d84ce0 100644 --- a/docs/api/paddle/fluid/dygraph/Pool2D_cn.rst +++ b/docs/api/paddle/fluid/dygraph/Pool2D_cn.rst @@ -54,7 +54,9 @@ Pool2D wend & = min(W, wstart + ksize[1]) \\ Output(i ,j) & = \frac{sum(Input[hstart:hend, wstart:wend])}{(hend - hstart) * (wend - wstart)} -参数: +参数 +:::::::::::: + - **pool_size** (int|list|tuple, 可选) - 池化核的大小。如果它是一个元组或列表,它必须包含两个整数值, (pool_size_Height, pool_size_Width)。若为一个整数,则它的平方值将作为池化核大小,比如若pool_size=2, 则池化核大小为2x2。默认值:-1。 - **pool_type** (str, 可选) - 池化类型,可以是”max“对应max-pooling,“avg”对应average-pooling。默认为”max“。 - **pool_stride** (int|list|tuple, 可选) - 池化层的步长。如果它是一个元组或列表,它将包含两个整数,(pool_stride_Height, pool_stride_Width)。若为一个整数,则表示H和W维度上stride均为该值。默认值为1。 @@ -65,15 +67,20 @@ Pool2D - **exclusive** (bool, 可选) - 是否在平均池化模式忽略填充值。默认为True。 - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回:无 +返回 +:::::::::::: +无 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``pool_type`` 既不是“max”也不是“avg”。 - ``ValueError`` - 如果 ``global_pooling`` 为False并且 ``pool_size`` 为-1。 - ``ValueError`` - 如果 ``use_cudnn`` 不是bool值。 - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/ReduceLROnPlateau_cn.rst b/docs/api/paddle/fluid/dygraph/ReduceLROnPlateau_cn.rst index b0a0b75f7b3..ed4e0f1fb11 100644 --- a/docs/api/paddle/fluid/dygraph/ReduceLROnPlateau_cn.rst +++ b/docs/api/paddle/fluid/dygraph/ReduceLROnPlateau_cn.rst @@ -15,7 +15,9 @@ ReduceLROnPlateau 此外,每降低一次学习率后,将会进入一个时长为 ``cooldown`` 个epoch的冷静期,在冷静期内,将不会监控 ``loss`` 的变化情况,也不会衰减。 在冷静期之后,会继续监控 ``loss`` 的上升或下降。 -参数: +参数 +:::::::::::: + - **learning_rate** (Variable|float|int) - 初始学习率。其类型可以是Python的float类型,如果输入int类型则会被转为float类型。其也可以是shape为[1]的 1-D Tensor,且相应数据类型必须为 "float32" 或 "float64" 。 - **mode** (str,可选) - `'min'` 和 `'max'` 之一。通常情况下,为 `'min'` ,此时当 ``loss`` 停止下降时学习率将减小。默认:`'min'` 。 @@ -32,11 +34,16 @@ ReduceLROnPlateau - **eps** (float,可选) - 如果新旧学习率间的差异小于 ``eps`` ,则不会更新。默认值:1e-8。 - **dtype** (str,可选) – 学习率值的数据类型,可以为"float32", "float64"。默认:"float32"。 -返回: ``loss`` 自适应的学习率 +返回 +:::::::::::: + ``loss`` 自适应的学习率 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -74,16 +81,21 @@ ReduceLROnPlateau -.. py:method:: step(loss) +方法 +:::::::::::: +step(loss) +''''''''' 需要在每个epoch调用该方法,其根据传入的 ``loss`` 调整optimizer中的学习率,调整后的学习率将会在下一次调用 ``optimizer.minimize`` 时生效。 -参数: +**参数** + - **loss** (Variable) - 类型:Variable,shape为[1]的1-D Tensor。将被用来判断是否需要降低学习率。如果 ``loss`` 连续 ``patience`` 个epochs没有下降, 将会降低学习率。 -返回: +**返回** + 无 -**代码示例**: +**代码示例** 参照其类中的说明。 diff --git a/docs/api/paddle/fluid/dygraph/StepDecay_cn.rst b/docs/api/paddle/fluid/dygraph/StepDecay_cn.rst index fe2131f17b8..2c02fbbc728 100644 --- a/docs/api/paddle/fluid/dygraph/StepDecay_cn.rst +++ b/docs/api/paddle/fluid/dygraph/StepDecay_cn.rst @@ -22,14 +22,19 @@ StepDecay learning_rate = 0.005 if 60 <= epoch < 90 ... -参数: +参数 +:::::::::::: + - **learning_rate** (float|int) - 初始化的学习率。可以是Python的float或int。 - **step_size** (int) - 学习率每衰减一次的间隔。 - **decay_rate** (float, optional) - 学习率的衰减率。 ``new_lr = origin_lr * decay_rate`` 。其值应该小于1.0。默认:0.1。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -58,15 +63,20 @@ StepDecay # epoch:7, current lr is 0.005 # epoch:8, current lr is 0.005 -.. py:method:: epoch(epoch=None) +方法 +:::::::::::: +epoch(epoch=None) +''''''''' 通过当前的 epoch 调整学习率,调整后的学习率将会在下一次调用 ``optimizer.minimize`` 时生效。 -参数: +**参数** + - **epoch** (int|float,可选) - 类型:int或float。指定当前的epoch数。默认:无,此时将会自动累计epoch数。 -返回: +**返回** + 无 -**代码示例**: +**代码示例** 参照上述示例代码。 diff --git a/docs/api/paddle/fluid/dygraph/TreeConv_cn.rst b/docs/api/paddle/fluid/dygraph/TreeConv_cn.rst index 699a3f71ec5..2808a2d33aa 100644 --- a/docs/api/paddle/fluid/dygraph/TreeConv_cn.rst +++ b/docs/api/paddle/fluid/dygraph/TreeConv_cn.rst @@ -11,7 +11,9 @@ TreeConv 该接口用于构建 ``TreeConv`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个基于树结构的卷积(Tree-Based Convolution)运算。基于树的卷积是基于树的卷积神经网络(TBCNN,Tree-Based Convolution Neural Network)的一部分,它用于对树结构进行分类,例如抽象语法树。 Tree-Based Convolution提出了一种称为连续二叉树的数据结构,它将多路(multiway)树视为二叉树。详情请参考: `基于树的卷积论文 `_ 。 -参数: +参数 +:::::::::::: + - **feature_size** (int) – nodes_vector的shape的最后一维的维度。 - **output_size** (int) – 输出特征宽度。 - **num_filters** (int, 可选) – 滤波器的数量,默认值为1。 @@ -22,9 +24,12 @@ TreeConv - **name** (str, 可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。 -返回:无 +返回 +:::::::::::: +无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -40,11 +45,15 @@ TreeConv 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` diff --git a/docs/api/paddle/fluid/dygraph/enabled_cn.rst b/docs/api/paddle/fluid/dygraph/enabled_cn.rst index e5716e76456..ba0553889d4 100644 --- a/docs/api/paddle/fluid/dygraph/enabled_cn.rst +++ b/docs/api/paddle/fluid/dygraph/enabled_cn.rst @@ -3,17 +3,22 @@ enabled ------------------------------- -.. py:method:: paddle.fluid.dygraph.enabled() +方法 +:::::::::::: +paddle.fluid.dygraph.enabled() +''''''''' 这个函数用于检查程序是否运行在动态图模式。你可以使用 :ref:`cn_api_fluid_dygraph_guard` api进入动态图模式。或者使用 :ref:`cn_api_fluid_enable_dygraph` 和 :ref:`cn_api_fluid_disable_dygraph` api打开、关闭动态图模式。 注意: `fluid.dygraph.enabled` 实际上调用了 :ref:`cn_api_fluid_in_dygraph_mode` api,所以推荐使用 :ref:`cn_api_fluid_in_dygraph_mode` api。 -返回: 程序是否运行在动态图模式。 +**返回** + 程序是否运行在动态图模式。 -返回类型: bool +**返回类型** + bool -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/prepare_context_cn.rst b/docs/api/paddle/fluid/dygraph/prepare_context_cn.rst index 53be1b628b0..db16da74464 100644 --- a/docs/api/paddle/fluid/dygraph/prepare_context_cn.rst +++ b/docs/api/paddle/fluid/dygraph/prepare_context_cn.rst @@ -10,14 +10,21 @@ prepare_context 该API是进行多进程多卡训练的环境配置接口,接受一个ParallelStrategy结构体变量作为输入。当strategy属性中的nums_trainer小于2时,API会直接返回,当nums_trainer大于1且为CUDAPlace时,由于目前动态图模式仅支持GPU多卡训练,仅能配置NCCL多卡训练的环境,所以此时会对NCCL环境进行配置,具体内容包括:生成NCCL ID,并广播至参与训练的各进程,用于支持的处理器同步操作,创建并配置NCCL通信器等。 -参数: +参数 +:::::::::::: + - **strategy** (ParallelStrategy, 可选) – 该参数是配置储存多进程多卡训练配置信息的结构体变量,其具体成员包括:trainer节点的个数,当前trainer节点的ID,所有trainer节点的endpoint,当前节点的endpoint。当输入为None时,会调用PallelStrategy构造函数初始化strategy,此时,strategy的属性值为PallelStrategy结构体的默认值,接着strategy的属性会被环境变量中的对应值覆盖。默认值为None。 -返回:一个属性配置后的ParallelStrategy结构体变量。 +返回 +:::::::::::: +一个属性配置后的ParallelStrategy结构体变量。 -返回类型:实例(ParallelStrategy) +返回类型 +:::::::::::: +实例(ParallelStrategy) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/dygraph/save_dygraph_cn.rst b/docs/api/paddle/fluid/dygraph/save_dygraph_cn.rst index 274ad2977d1..ba30b1a6edd 100644 --- a/docs/api/paddle/fluid/dygraph/save_dygraph_cn.rst +++ b/docs/api/paddle/fluid/dygraph/save_dygraph_cn.rst @@ -18,13 +18,18 @@ save_dygraph 该接口会根据 ``state_dict`` 的内容,自动给 ``model_path`` 添加 ``.pdparams`` 或者 ``.pdopt`` 后缀, 生成 ``model_path + ".pdparams"`` 或者 ``model_path + ".pdopt"`` 文件。 -参数: +参数 +:::::::::::: + - **state_dict** (dict of Parameters) – 要保存的模型参数的 ``dict`` 。 - **model_path** (str) – 保存state_dict的文件前缀。格式为 ``目录名称/文件前缀``。如果文件前缀为空字符串,会引发异常。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/evaluator/ChunkEvaluator_cn.rst b/docs/api/paddle/fluid/evaluator/ChunkEvaluator_cn.rst index c289db61aed..30ced3f1fc9 100644 --- a/docs/api/paddle/fluid/evaluator/ChunkEvaluator_cn.rst +++ b/docs/api/paddle/fluid/evaluator/ChunkEvaluator_cn.rst @@ -9,14 +9,21 @@ ChunkEvaluator 该接口使用mini-batch的chunk_eval累计的counter numbers,来计算准确率、召回率和F1值。ChunkEvaluator有三个状态num_infer_chunks,num_label_chunks和num_correct_chunks,分别对应语块数目、标签中的语块数目、正确识别的语块数目。对于chunking的基础知识,请参考 https://www.aclweb.org/anthology/N01-1025 。ChunkEvalEvaluator计算块检测(chunk detection)的准确率,召回率和F1值,支持IOB, IOE, IOBES和IO标注方案。 -参数: +参数 +:::::::::::: + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:初始化后的 ``ChunkEvaluator`` 对象 +返回 +:::::::::::: +初始化后的 ``ChunkEvaluator`` 对象 -返回类型:ChunkEvaluator +返回类型 +:::::::::::: +ChunkEvaluator -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -45,25 +52,33 @@ ChunkEvaluator print("precision: %.2f, recall: %.2f, f1: %.2f" % (numpy_precision, numpy_recall, numpy_f1)) -.. py:method:: update(num_infer_chunks, num_label_chunks, num_correct_chunks) +方法 +:::::::::::: +update(num_infer_chunks, num_label_chunks, num_correct_chunks) +''''''''' 该函数使用输入的(num_infer_chunks, num_label_chunks, num_correct_chunks)来累计更新ChunkEvaluator对象的对应状态,更新方式如下: .. math:: \\ \begin{array}{l}{\text { self. num_infer_chunks }+=\text { num_infer_chunks }} \\ {\text { self. num_Label_chunks }+=\text { num_label_chunks }} \\ {\text { self. num_correct_chunks }+=\text { num_correct_chunks }}\end{array} \\ -参数: +**参数** + - **num_infer_chunks** (int|numpy.array) – 给定mini-batch的语块数目。 - **num_label_chunks** (int|numpy.array) - 给定mini-batch的标签中的语块数目。 - **num_correct_chunks** (int|numpy.array)— 给定mini-batch的正确识别的语块数目。 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 该函数计算并返回准确率,召回率和F1值。 -返回:准确率,召回率和F1值 +**返回** +准确率,召回率和F1值 -返回类型:float +**返回类型** +float diff --git a/docs/api/paddle/fluid/evaluator/DetectionMAP_cn.rst b/docs/api/paddle/fluid/evaluator/DetectionMAP_cn.rst index 44d3700e553..74ab864599d 100644 --- a/docs/api/paddle/fluid/evaluator/DetectionMAP_cn.rst +++ b/docs/api/paddle/fluid/evaluator/DetectionMAP_cn.rst @@ -19,7 +19,9 @@ DetectionMAP - https://sanchom.wordpress.com/tag/average-precision/ - https://arxiv.org/abs/1512.0232 -参数: +参数 +:::::::::::: + - **input** (Variable) – detection的输出结果,一个 shape=[M, 6] 的 LoDtensor。布局为[label, confidence, xmin, ymin, xmax, ymax],label为类别标签,confidence为置信度,xmin,ymin为检测框左上点坐标,xmax,ymax为检测框右下点坐标,数据类型为float32或float64。 - **gt_label** (Variable) – ground truth label 的索引,它是一个形状为[N, 1]的LoDtensor,数据类型为float32或float64。 - **gt_box** (Variable) – ground truth bounds box (bbox),是一个具有形状的LoD张量[N, 4]。布局是[xmin, ymin, xmax, ymax],数据类型为float32或float64。 @@ -30,12 +32,17 @@ DetectionMAP - **evaluate_difficult** (bool) – 是否考虑 difficult ground truth 进行评价,默认为 True。当 gt_difficult 为 None 时,这个参数不起作用。 - **ap_version** (str) – 平均精度的计算方法,必须是 "integral" 或 "11point"。详情请查看 https://sanchom.wordpress.com/tag/average-precision/。 其中,11point为:11-point 插值平均精度。积分: precision-recall曲线的自然积分。 -返回:变量(Variable) 计算mAP的结果,其中数据类型为float32或float64。 +返回 +:::::::::::: +变量(Variable) 计算mAP的结果,其中数据类型为float32或float64。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -70,15 +77,21 @@ DetectionMAP -.. py:method:: get_map_var() +方法 +:::::::::::: +get_map_var() +''''''''' -返回:当前 mini-batch 的 mAP 变量和不同 mini-batch 的 mAP 累加和 +**返回** +当前 mini-batch 的 mAP 变量和不同 mini-batch 的 mAP 累加和 -.. py:method:: reset(executor, reset_program=None) +reset(executor, reset_program=None) +''''''''' 在指定的 batch 结束或者用户指定的开始时重置度量状态。 -参数: +**参数** + - **executor** (Executor) – 执行reset_program的执行程序 - **reset_program** (Program|None, 可选) – 单个program 的 reset 过程。如果设置为 None,将创建一个 program diff --git a/docs/api/paddle/fluid/evaluator/EditDistance_cn.rst b/docs/api/paddle/fluid/evaluator/EditDistance_cn.rst index 9ffd2a0165d..98761d70566 100644 --- a/docs/api/paddle/fluid/evaluator/EditDistance_cn.rst +++ b/docs/api/paddle/fluid/evaluator/EditDistance_cn.rst @@ -10,7 +10,8 @@ EditDistance 用于管理字符串的编辑距离。编辑距离是通过计算将一个字符串转换为另一个字符串所需的最小编辑操作数(添加、删除或替换)来量化两个字符串(例如单词)彼此不相似的程度一种方法。 参考 https://en.wikipedia.org/wiki/Edit_distance。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -37,26 +38,35 @@ EditDistance print("the average edit distance for batch0 and batch1 is %.2f and the wrong instance ratio is %.2f " % (avg_distance, wrong_instance_ratio)) -.. py:method:: reset() +方法 +:::::::::::: +reset() +''''''''' 清空存储结果。 -参数:无 +**参数** +无 -返回:无 +**返回** +无 -.. py:method:: update(distances, seq_num) +update(distances, seq_num) +''''''''' 更新存储结果 -参数: +**参数** + - **distances** – 一个形状为(batch_size, 1)的numpy.array,每个元素代表两个序列间的距离。 - **seq_num** – 一个整型/浮点型值,代表序列对的数量。 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 返回两个浮点数: avg_distance:使用更新函数更新的所有序列对的平均距离。 diff --git a/docs/api/paddle/fluid/get_flags_cn.rst b/docs/api/paddle/fluid/get_flags_cn.rst index e0323cf1f3e..795f569681d 100644 --- a/docs/api/paddle/fluid/get_flags_cn.rst +++ b/docs/api/paddle/fluid/get_flags_cn.rst @@ -6,10 +6,13 @@ get_flags .. py:function:: paddle.fluid.get_flags(flags) 用于获取Paddle框架中环境变量FLAGS的当前值。 -参数: +参数 +:::::::::::: + - **flags** (list|tuple|str) - 需要获取的环境变量FLAGS的名称。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/initializer/ConstantInitializer_cn.rst b/docs/api/paddle/fluid/initializer/ConstantInitializer_cn.rst index ea07ccc1c68..2d672b65243 100644 --- a/docs/api/paddle/fluid/initializer/ConstantInitializer_cn.rst +++ b/docs/api/paddle/fluid/initializer/ConstantInitializer_cn.rst @@ -10,13 +10,18 @@ ConstantInitializer 该接口为常量初始化函数,用于权重初始化,通过输入的value值初始化输入变量; -参数: +参数 +:::::::::::: + - **value** (float16|float32) - 用于初始化输入变量的值; - **force_cpu** (bool) - 用于表示初始化的位置,为True时,会强制在CPU上初始化(即使executor设置的是CUDA)。默认为False。 -返回:参数初始化类的实例 +返回 +:::::::::::: +参数初始化类的实例 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/initializer/Constant_cn.rst b/docs/api/paddle/fluid/initializer/Constant_cn.rst index 8e70a2c33c5..5f8e2063533 100644 --- a/docs/api/paddle/fluid/initializer/Constant_cn.rst +++ b/docs/api/paddle/fluid/initializer/Constant_cn.rst @@ -3,7 +3,10 @@ Constant ------------------------------- -.. py:attribute:: paddle.fluid.initializer.Constant +属性 +:::::::::::: +paddle.fluid.initializer.Constant +''''''''' diff --git a/docs/api/paddle/fluid/initializer/MSRAInitializer_cn.rst b/docs/api/paddle/fluid/initializer/MSRAInitializer_cn.rst index 3136a5d72e4..ef647ae3b0e 100644 --- a/docs/api/paddle/fluid/initializer/MSRAInitializer_cn.rst +++ b/docs/api/paddle/fluid/initializer/MSRAInitializer_cn.rst @@ -24,18 +24,23 @@ MSRAInitializer \sqrt{\frac{2.0}{fan\_in}} -参数: +参数 +:::::::::::: + - **uniform** (bool) - 为True表示使用均匀分布,为False表示使用正态分布 - **fan_in** (float16|float32) - MSRAInitializer的fan_in。如果为None,fan_in沿伸自变量,多设置为None - **seed** (int32) - 随机种子 -返回:对象 +返回 +:::::::::::: +对象 .. note:: 在大多数情况下推荐设置fan_in为None -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/initializer/MSRA_cn.rst b/docs/api/paddle/fluid/initializer/MSRA_cn.rst index b7a78c7c06b..6f402875209 100644 --- a/docs/api/paddle/fluid/initializer/MSRA_cn.rst +++ b/docs/api/paddle/fluid/initializer/MSRA_cn.rst @@ -3,7 +3,10 @@ MSRA ------------------------------- -.. py:attribute:: paddle.fluid.initializer.MSRA +属性 +:::::::::::: +paddle.fluid.initializer.MSRA +''''''''' diff --git a/docs/api/paddle/fluid/initializer/Normal_cn.rst b/docs/api/paddle/fluid/initializer/Normal_cn.rst index ce50e67bd12..c4cd62cc8c2 100644 --- a/docs/api/paddle/fluid/initializer/Normal_cn.rst +++ b/docs/api/paddle/fluid/initializer/Normal_cn.rst @@ -24,11 +24,14 @@ Normal :math:`scale = \sigma` : 标准差。 :math:`Z`: 正态分布常量。 -参数: +参数 +:::::::::::: + - **loc** (float|list|numpy.ndarray|Variable) - 正态分布平均值。数据类型为float32。 - **scale** (float|list|numpy.ndarray|Variable) - 正态分布标准差。数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -70,43 +73,65 @@ Normal 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回:预先设计好维度的张量, 数据类型为float32 +返回 +:::::::::::: +预先设计好维度的张量, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: entropy() 信息熵 -返回:正态分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +正态分布的信息熵, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: log_prob(value) 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Variable) - 输入张量。数据类型为float32或float64。 -返回:对数概率, 数据类型与value相同 +返回 +:::::::::::: +对数概率, 数据类型与value相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: kl_divergence(other) 两个正态分布之间的KL散度。 -参数: +参数 +:::::::::::: + - **other** (Normal) - Normal的实例。 -返回:两个正态分布之间的KL散度, 数据类型为float32 +返回 +:::::::::::: +两个正态分布之间的KL散度, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable diff --git a/docs/api/paddle/fluid/initializer/NumpyArrayInitializer_cn.rst b/docs/api/paddle/fluid/initializer/NumpyArrayInitializer_cn.rst index 7c0365ccba1..e493d366bc2 100644 --- a/docs/api/paddle/fluid/initializer/NumpyArrayInitializer_cn.rst +++ b/docs/api/paddle/fluid/initializer/NumpyArrayInitializer_cn.rst @@ -10,14 +10,21 @@ NumpyArrayInitializer 该OP使用Numpy型数组来初始化参数变量。 -参数: +参数 +:::::::::::: + - **value** (numpy) - 用于初始化变量的一个Numpy型数组。 -返回:张量(Tensor) +返回 +:::::::::::: +张量(Tensor) -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/initializer/TruncatedNormal_cn.rst b/docs/api/paddle/fluid/initializer/TruncatedNormal_cn.rst index 8a0c9b829a1..d8799541b6a 100644 --- a/docs/api/paddle/fluid/initializer/TruncatedNormal_cn.rst +++ b/docs/api/paddle/fluid/initializer/TruncatedNormal_cn.rst @@ -3,7 +3,10 @@ TruncatedNormal ------------------------------- -.. py:attribute:: paddle.fluid.initializer.TruncatedNormal +属性 +:::::::::::: +paddle.fluid.initializer.TruncatedNormal +''''''''' diff --git a/docs/api/paddle/fluid/initializer/Uniform_cn.rst b/docs/api/paddle/fluid/initializer/Uniform_cn.rst index 59e1544b375..8a99066910a 100644 --- a/docs/api/paddle/fluid/initializer/Uniform_cn.rst +++ b/docs/api/paddle/fluid/initializer/Uniform_cn.rst @@ -26,11 +26,14 @@ Uniform 参数low和high的维度必须能够支持广播。 -参数: +参数 +:::::::::::: + - **low** (float|list|numpy.ndarray|Variable) - 均匀分布的下边界。数据类型为float32。 - **high** (float|list|numpy.ndarray|Variable) - 均匀分布的上边界。数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -71,32 +74,48 @@ Uniform 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回:预先设计好维度的张量, 数据类型为float32 +返回 +:::::::::::: +预先设计好维度的张量, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: entropy() 信息熵 -返回:均匀分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +均匀分布的信息熵, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: log_prob(value) 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Variable) - 输入张量。数据类型为float32或float64。 -返回:对数概率, 数据类型与value相同 +返回 +:::::::::::: +对数概率, 数据类型与value相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable diff --git a/docs/api/paddle/fluid/initializer/Xavier_cn.rst b/docs/api/paddle/fluid/initializer/Xavier_cn.rst index cd77ab87125..cf6d438ea14 100644 --- a/docs/api/paddle/fluid/initializer/Xavier_cn.rst +++ b/docs/api/paddle/fluid/initializer/Xavier_cn.rst @@ -3,7 +3,10 @@ Xavier ------------------------------- -.. py:attribute:: paddle.fluid.initializer.Xavier +属性 +:::::::::::: +paddle.fluid.initializer.Xavier +''''''''' diff --git a/docs/api/paddle/fluid/io/PyReader_cn.rst b/docs/api/paddle/fluid/io/PyReader_cn.rst index 10920cb264f..fba72ff9168 100644 --- a/docs/api/paddle/fluid/io/PyReader_cn.rst +++ b/docs/api/paddle/fluid/io/PyReader_cn.rst @@ -11,7 +11,9 @@ PyReader 在python中为数据输入创建一个reader对象。将使用python线程预取数据,并将其异步插入队列。当调用Executor.run(…)时,将自动提取队列中的数据。 -参数: +参数 +:::::::::::: + - **feed_list** (list(Variable)|tuple(Variable)) - feed变量列表,由 ``fluid.layers.data()`` 创建。 - **capacity** (int) - PyReader对象内部维护队列的容量大小。单位是batch数量。若reader读取速度较快,建议设置较大的capacity值。 - **use_double_buffer** (bool) - 是否使用 ``double_buffer_reader`` 。若use_double_buffer=True,PyReader会异步地预读取下一个batch的数据,可加速数据读取过程,但同时会占用少量的CPU/GPU存储,即一个batch输入数据的存储空间。 @@ -19,12 +21,17 @@ PyReader - **return_list** (bool) - 每个设备上的数据是否以list形式返回。仅在iterable = True模式下有效。若return_list = False,每个设备上的返回数据均是str -> LoDTensor的映射表,其中映射表的key是每个输入变量的名称。若return_list = True,则每个设备上的返回数据均是list(LoDTensor)。推荐在静态图模式下使用return_list = False,在动态图模式下使用return_list = True。 -返回: 被创建的reader对象 +返回 +:::::::::::: + 被创建的reader对象 -返回类型: reader (Reader) +返回类型 +:::::::::::: + reader (Reader) -**代码示例** +代码示例 +:::::::::::: 1.如果iterable=False,则创建的PyReader对象几乎与 ``fluid.layers.py_reader()`` 相同。算子将被插入program中。用户应该在每个epoch之前调用 ``start()`` ,并在epoch结束时捕获 ``Executor.run()`` 抛出的 ``fluid.core.EOFException`` 。一旦捕获到异常,用户应该调用 ``reset()`` 手动重置reader。 @@ -147,7 +154,10 @@ PyReader for image, label in py_reader(): relu = fluid.layers.relu(image) -.. py:method:: start() +方法 +:::::::::::: +start() +''''''''' 启动数据输入线程。只能在reader对象不可迭代时调用。 @@ -181,7 +191,8 @@ PyReader reader.reset() break -.. py:method:: reset() +reset() +''''''''' 当 ``fluid.core.EOFException`` 抛出时重置reader对象。只能在reader对象不可迭代时调用。 @@ -215,7 +226,8 @@ PyReader reader.reset() break -.. py:method:: decorate_sample_generator(sample_generator, batch_size, drop_last=True, places=None) +decorate_sample_generator(sample_generator, batch_size, drop_last=True, places=None) +''''''''' 设置PyReader对象的数据源。 @@ -225,7 +237,8 @@ PyReader 如果所有的输入都没有LOD,这个方法比 ``decorate_sample_list_generator(paddle.batch(sample_generator, ...))`` 更快。 -参数: +**参数** + - **sample_generator** (generator) – Python生成器,yield 类型为list(numpy.ndarray) - **batch_size** (int) – batch size,必须大于0 - **drop_last** (bool) – 当样本数小于batch数量时,是否删除最后一个batch @@ -273,7 +286,8 @@ PyReader for data in reader(): executor.run(feed=data, fetch_list=[loss]) -.. py:method:: decorate_sample_list_generator(reader, places=None) +decorate_sample_list_generator(reader, places=None) +''''''''' 设置PyReader对象的数据源。 @@ -281,7 +295,8 @@ PyReader 当PyReader对象不可迭代时,必须设置 ``places`` 。 -参数: +**参数** + - **reader** (generator) – 返回列表(numpy.ndarray)类型的批处理数据的Python生成器 - **places** (None|list(CUDAPlace)|list(CPUPlace)) – 位置列表。当PyReader可迭代时必须被提供 @@ -328,7 +343,8 @@ PyReader for data in reader(): executor.run(feed=data, fetch_list=[loss]) -.. py:method:: decorate_batch_generator(reader, places=None) +decorate_batch_generator(reader, places=None) +''''''''' 设置PyReader对象的数据源。 @@ -336,7 +352,8 @@ PyReader 当PyReader对象不可迭代时,必须设置 ``places`` 。 -参数: +**参数** + - **reader** (generator) – 返回LoDTensor类型的批处理数据的Python生成器 - **places** (None|list(CUDAPlace)|list(CPUPlace)) – 位置列表。当PyReader可迭代时必须被提供 @@ -384,6 +401,7 @@ PyReader executor.run(feed=data, fetch_list=[loss]) -.. py:method:: next() +next() +''''''''' 获取下一个数据。用户不应直接调用此方法。此方法用于PaddlePaddle框架内部实现Python 2.x的迭代器协议。 diff --git a/docs/api/paddle/fluid/io/get_program_parameter_cn.rst b/docs/api/paddle/fluid/io/get_program_parameter_cn.rst index 0909c333928..018b790fbfd 100644 --- a/docs/api/paddle/fluid/io/get_program_parameter_cn.rst +++ b/docs/api/paddle/fluid/io/get_program_parameter_cn.rst @@ -10,14 +10,21 @@ get_program_parameter 该接口从Program中获取所有参数。 -参数: +参数 +:::::::::::: + - **program** ( :ref:`cn_api_fluid_Program` ) – 从该Program中获取参数。 -返回: 包含此Program中所有参数的list +返回 +:::::::::::: + 包含此Program中所有参数的list -返回类型: list +返回类型 +:::::::::::: + list -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/get_program_persistable_vars_cn.rst b/docs/api/paddle/fluid/io/get_program_persistable_vars_cn.rst index 547839dd486..3afbb931afc 100644 --- a/docs/api/paddle/fluid/io/get_program_persistable_vars_cn.rst +++ b/docs/api/paddle/fluid/io/get_program_persistable_vars_cn.rst @@ -10,14 +10,21 @@ get_program_persistable_vars 该接口从Program中获取所有persistable的变量。 -参数: +参数 +:::::::::::: + - **program** ( :ref:`cn_api_fluid_Program` ) – 从该Program中获取persistable的变量。 -返回: 包含此Program中所有persistable的变量 +返回 +:::::::::::: + 包含此Program中所有persistable的变量 -返回类型: list +返回类型 +:::::::::::: + list -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/load_params_cn.rst b/docs/api/paddle/fluid/io/load_params_cn.rst index a0cd54fde2f..7cd4be85e12 100644 --- a/docs/api/paddle/fluid/io/load_params_cn.rst +++ b/docs/api/paddle/fluid/io/load_params_cn.rst @@ -17,7 +17,9 @@ load_params - 有些变量不是参数,如学习率、全局训练步数(global step)等,但它们之于训练却是必要的。因此,调用 :ref:`cn_api_fluid_io_save_params` 和 :ref:`cn_api_fluid_io_load_params` 来保存和加载参数对于断点训练是不够的,这种情况下可以使用 :ref:`cn_api_fluid_io_save_persistables` 和 :ref:`cn_api_fluid_io_load_persistables` 来保存和加载训练过程的检查点(checkpoint)。 - 若希望同时加载预训练后的模型结构和模型参数以用于预测过程,则可使用 :ref:`cn_api_fluid_io_load_inference_model` 接口。更多细节请参考 :ref:`api_guide_model_save_reader` 。 -参数: +参数 +:::::::::::: + - **executor** (Executor) – 加载模型参数的 ``executor`` (详见 :ref:`api_guide_executor` ) 。 - **dirname** (str) – 模型参数的存储路径。 - **main_program** (Program,可选) – 筛选模型参数变量所依据的 ``Program`` (详见 :ref:`api_guide_Program` )。若为None, 则使用全局默认的 ``default_main_program`` 。默认值为None。 @@ -25,7 +27,8 @@ load_params **返回:** 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/load_persistables_cn.rst b/docs/api/paddle/fluid/io/load_persistables_cn.rst index 871b5c64ada..e78f34e0540 100644 --- a/docs/api/paddle/fluid/io/load_persistables_cn.rst +++ b/docs/api/paddle/fluid/io/load_persistables_cn.rst @@ -13,7 +13,9 @@ load_persistables 使用 ``dirname`` 指定持久性变量的存储路径。若持久性变量以分离文件的形式保存在 ``dirname`` 指定的目录下,则设置 ``filename`` 值为None;若所有持久性变量保存在一个单独的二进制文件中,则使用 ``filename`` 来指明这个二进制文件。 -参数: +参数 +:::::::::::: + - **executor** (Executor) – 加载持久性变量的 ``executor`` (详见 :ref:`api_guide_executor` ) 。 - **dirname** (str) – 持久性变量的存储路径。 - **main_program** (Program,可选) – 筛选模型中持久性变量所依据的 ``Program`` (详见 :ref:`api_guide_Program` )。若为None, 则使用全局默认的 ``default_main_program`` 。默认值为None。 @@ -21,7 +23,8 @@ load_persistables **返回:** 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/load_vars_cn.rst b/docs/api/paddle/fluid/io/load_vars_cn.rst index a483d5d025d..d7b3c39cc50 100644 --- a/docs/api/paddle/fluid/io/load_vars_cn.rst +++ b/docs/api/paddle/fluid/io/load_vars_cn.rst @@ -12,7 +12,9 @@ load_vars 通过 ``vars`` 指定需要加载的变量,或者通过 ``predicate`` 筛选需要加载的变量, ``vars`` 和 ``predicate`` 不能同时为None。 -参数: +参数 +:::::::::::: + - **executor** (Executor) – 运行的执行器,执行器的介绍请参考 :ref:`api_guide_model_save_reader` 。 - **dirname** (str) – 加载变量所在的目录路径。 - **main_program** (Program,可选) – 需要加载变量的 ``Program`` , ``Program`` 的介绍请参考 :ref:`api_guide_Program` 。如果 ``main_program`` 为None,则使用默认的主程序。默认值为None。 @@ -20,13 +22,18 @@ load_vars - **predicate** (function,可选) – 通过该函数筛选 :math:`predicate(variable)== True` 的变量进行加载。如果通过 ``vars`` 指定了需要加载的变量,则该参数无效。默认值为None。 - **filename** (str,可选) – 加载所有变量的文件。如果所有待加载变量是保存在一个文件中,则设置 ``filename`` 为该文件名;如果所有待加载变量是按照变量名称单独保存成文件,则设置 ``filename`` 为None。默认值为None。 -返回: 无 +返回 +:::::::::::: + 无 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - 如果main_program不是Program的实例,也不是None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/save_params_cn.rst b/docs/api/paddle/fluid/io/save_params_cn.rst index 49ace8a81a0..edd209a5abb 100644 --- a/docs/api/paddle/fluid/io/save_params_cn.rst +++ b/docs/api/paddle/fluid/io/save_params_cn.rst @@ -17,15 +17,20 @@ save_params - 有些变量不是参数,如学习率,全局训练步数(global step)等,但它们对于训练却是必要的。因此,调用 :ref:`cn_api_fluid_io_save_params` 和 :ref:`cn_api_fluid_io_load_params` 来保存和加载参数对于断点训练是不够的,这种情况下可以使用 :ref:`cn_api_fluid_io_save_persistables` 和 :ref:`cn_api_fluid_io_load_persistables` 来保存和加载训练过程中的检查点(checkpoint)。 - 如果您想要储存您的模型用于预测,请使用 :ref:`cn_api_fluid_io_save_inference_model` 。更多细节请参考 :ref:`api_guide_model_save_reader` -参数: +参数 +:::::::::::: + - **executor** (Executor) – 用于保存参数的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **dirname** (str) – 指定保存参数的文件目录。 - **main_program** (Program,可选) – 需要保存参数的Program( ``Program`` 含义详见 :ref:`api_guide_Program` )。如果为None,则使用default_main_Program 。默认值为None。 - **filename** (str,可选) – 保存参数的文件名称。若需要将参数保存到多个独立的文件中,请设置 ``filename=None`` 。默认值为None。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/save_persistables_cn.rst b/docs/api/paddle/fluid/io/save_persistables_cn.rst index 17afebc88d2..838ed9c7a6f 100644 --- a/docs/api/paddle/fluid/io/save_persistables_cn.rst +++ b/docs/api/paddle/fluid/io/save_persistables_cn.rst @@ -13,15 +13,20 @@ save_persistables ``dirname`` 用于指定保存持久性变量的目录。如果想将持久性变量保存到指定目录的若干文件中,请设置 ``filename=None`` ; 若想将所有持久性变量保存在同一个文件中,请设置 ``filename`` 来指定文件的名称。 -参数: +参数 +:::::::::::: + - **executor** (Executor) – 用于保存持久性变量的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **dirname** (str) – 用于储存持久性变量的文件目录。 - **main_program** (Program,可选) – 需要保存持久性变量的Program( ``Program`` 含义详见 :ref:`api_guide_Program` )。如果为None,则使用default_main_Program 。默认值为None。 - **filename** (str,可选) – 保存持久性变量的文件名称。若想分开保存变量,设置 ``filename=None`` 。 默认值为None。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/save_vars_cn.rst b/docs/api/paddle/fluid/io/save_vars_cn.rst index d5668146219..0b1d61a6ca3 100644 --- a/docs/api/paddle/fluid/io/save_vars_cn.rst +++ b/docs/api/paddle/fluid/io/save_vars_cn.rst @@ -13,7 +13,9 @@ save_vars 通过 ``vars`` 指定需要保存的变量,或者通过 ``predicate`` 筛选需要保存的变量, ``vars`` 和 ``predicate`` 不能同时为None。 -参数: +参数 +:::::::::::: + - **executor** (Executor)- 运行的执行器,执行器的介绍请参考 :ref:`api_guide_model_save_reader` 。 - **dirname** (str)- 保存变量的目录路径。 - **main_program** (Program,可选)- 需要保存变量的 ``Program`` , ``Program`` 的介绍请参考 :ref:`api_guide_Program` 。如果 ``main_program`` 为None,则使用默认的主程序。默认值为None。 @@ -21,12 +23,17 @@ save_vars - **predicate** (function,可选)- 通过该函数筛选 :math:`predicate(variable)== True` 的变量进行保存。如果通过 ``vars`` 指定了需要保存的变量,则该参数无效。默认值为None。 - **filename** (str,可选)- 保存所有变量的文件。如果设置为None,所有变量会按照变量名称单独保存成文件;如果设置为非None,所有变量会保存成一个文件名为该设置值的文件。默认值为None。 -返回:无 +返回 +:::::::::::: +无 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - 如果main_program不是Program的实例,也不是None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/io/shuffle_cn.rst b/docs/api/paddle/fluid/io/shuffle_cn.rst index c5a09fa8873..0ca56d448b4 100644 --- a/docs/api/paddle/fluid/io/shuffle_cn.rst +++ b/docs/api/paddle/fluid/io/shuffle_cn.rst @@ -12,13 +12,19 @@ shuffle 从原始数据读取器取出buf_size个数据到缓冲区,将缓冲区数据打乱,然后将无序的数据依次返回。当缓冲区数据全部输出后,再次执行上述步骤。 -参数: +参数 +:::::::::::: + - **reader** (callable) – 原始数据读取器。 - **buf_size** (int) – 缓冲区保存数据的个数。 -返回: 返回无序数据的数据读取器 +返回 +:::::::::::: + 返回无序数据的数据读取器 -返回类型: callable +返回类型 +:::::::::::: + callable .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/BasicDecoder_cn.rst b/docs/api/paddle/fluid/layers/BasicDecoder_cn.rst index dd3820d8529..153693dbb50 100644 --- a/docs/api/paddle/fluid/layers/BasicDecoder_cn.rst +++ b/docs/api/paddle/fluid/layers/BasicDecoder_cn.rst @@ -14,12 +14,15 @@ BasicDecoder是 :ref:`cn_api_fluid_layers_Decoder` 的子类,它组装了 :ref 3. 执行 :code:`finished, next_inputs, next_states = helper.next_inputs(time, cell_outputs, cell_states, sample_ids)` 以产生下一解码步的结束标识、输入和状态。 -参数: +参数 +:::::::::::: + - **cell** (RNNCell) - RNNCell的实例或者具有相同接口定义的对象。 - **helper** (DecodeHelper) - DecodeHelper的实例。 - **output_fn** (可选) - 处理cell输出的接口,在采样之前使用。默认值None。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -44,22 +47,29 @@ BasicDecoder是 :ref:`cn_api_fluid_layers_Decoder` 的子类,它组装了 :ref outputs = layers.dynamic_decode( decoder=decoder, inits=decoder_cell.get_initial_states(start_tokens)) -.. py:method:: initialize(initial_cell_states) +方法 +:::::::::::: +initialize(initial_cell_states) +''''''''' 初始化,包括helper的初始化和cell的初始化,cell初始化直接使用 :code:`initial_cell_states` 作为结果。 -参数: +**参数** + - **initial_cell_states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。这是由调用者 :ref:`cn_api_fluid_layers_dynamic_decode` 提供的参数。 -返回::code:`(initial_inputs, initial_states, finished)` 的三元组。 :code:`initial_inputs, initial_states` 均是单个tensor变量或tensor变量组成的嵌套结构, :code:`finished` 是bool类型的tensor。 :code:`initial_inputs, finished` 与 :code:`helper.initialize()` 返回的内容相同; :code:`initial_states` 与输入参数中的 :code:`initial_cell_states` 的相同。 +**返回** +:code:`(initial_inputs, initial_states, finished)` 的三元组。 :code:`initial_inputs, initial_states` 均是单个tensor变量或tensor变量组成的嵌套结构, :code:`finished` 是bool类型的tensor。 :code:`initial_inputs, finished` 与 :code:`helper.initialize()` 返回的内容相同; :code:`initial_states` 与输入参数中的 :code:`initial_cell_states` 的相同。 -返回类型:tuple +**返回类型** +tuple .. py:class:: OutputWrapper(cell_outputs, sample_ids) :code:`step()` 的返回值中 :code:`outputs` 使用的数据结构,是一个由 :code:`cell_outputs` 和 :code:`sample_ids` 这两个字段构成的命名元组。 -.. py:method:: step(time, inputs, states, **kwargs) +step(time, inputs, states, **kwargs) +''''''''' 按照以下步骤执行单步解码: @@ -69,12 +79,15 @@ BasicDecoder是 :ref:`cn_api_fluid_layers_Decoder` 的子类,它组装了 :ref 3. 执行 :code:`finished, next_inputs, next_states = helper.next_inputs(time, cell_outputs, cell_states, sample_ids)` 以产生下一解码步的结束标识、输入和状态。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **inputs** (Variable) - tensor变量。在第一个解码时间步时与由 :code:`initialize()` 返回的 :code:`initial_inputs` 相同,其他时间步与由 :code:`step()` 返回的 :code:`next_inputs` 相同。 - **states** (Variable) - tensor变量的结构。在第一个解码时间步时与 :code:`initialize()` 返回的 :code:`initial_states` 相同,其他时间步与由 :code:`step()` 返回的 :code:`next_states` 相同。 - **kwargs** - 附加的关键字参数,由调用者 :ref:`cn_api_fluid_layers_dynamic_decode` 提供。 -返回: :code:`(outputs, next_states, next_inputs, finished)` 的四元组。 :code:`outputs` 是包含 :code:`cell_outputs` 和 :code:`sample_ids` 两个字段的命名元组,其中 :code:`cell_outputs` 是 :code:`cell.call()` 的结果, :code:`sample_ids` 是 :code:`helper.sample()` 的结果; :code:`next_states, next_inputs` 分别和输入参数中的 :code:`states, inputs` 有相同的的结构、形状和数据类型; :code:`finished` 是一个bool类型的tensor,形状是 :math:`[batch\_size]` 。 +**返回** + :code:`(outputs, next_states, next_inputs, finished)` 的四元组。 :code:`outputs` 是包含 :code:`cell_outputs` 和 :code:`sample_ids` 两个字段的命名元组,其中 :code:`cell_outputs` 是 :code:`cell.call()` 的结果, :code:`sample_ids` 是 :code:`helper.sample()` 的结果; :code:`next_states, next_inputs` 分别和输入参数中的 :code:`states, inputs` 有相同的的结构、形状和数据类型; :code:`finished` 是一个bool类型的tensor,形状是 :math:`[batch\_size]` 。 -返回类型:tuple +**返回类型** +tuple diff --git a/docs/api/paddle/fluid/layers/Categorical_cn.rst b/docs/api/paddle/fluid/layers/Categorical_cn.rst index 9265a666d84..ad4c52c6be4 100644 --- a/docs/api/paddle/fluid/layers/Categorical_cn.rst +++ b/docs/api/paddle/fluid/layers/Categorical_cn.rst @@ -20,10 +20,13 @@ Categorical - :math:`[x = i]` 表示:如果 :math:`x==i` ,则表达式取值为1,否则取值为0。 -参数: +参数 +:::::::::::: + - **logits** (list|numpy.ndarray|Variable) - 类别分布对应的logits。数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -56,20 +59,30 @@ Categorical 相对于另一个类别分布的KL散度 -参数: +参数 +:::::::::::: + - **other** (Categorical) - 输入的另一个类别分布。数据类型为float32。 -返回:相对于另一个类别分布的KL散度, 数据类型为float32 +返回 +:::::::::::: +相对于另一个类别分布的KL散度, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: entropy() 信息熵 -返回:类别分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +类别分布的信息熵, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable diff --git a/docs/api/paddle/fluid/layers/DecodeHelper_cn.rst b/docs/api/paddle/fluid/layers/DecodeHelper_cn.rst index 14ad49c3798..e93f265cccd 100644 --- a/docs/api/paddle/fluid/layers/DecodeHelper_cn.rst +++ b/docs/api/paddle/fluid/layers/DecodeHelper_cn.rst @@ -8,37 +8,50 @@ DecodeHelper DecodeHelper是一个基类,其子类的实例将在 :ref:`cn_api_fluid_layers_BasicDecoder` 中使用。它提供了在动态解码时采样和产生下一解码步的输入的接口。 -.. py:method:: initialize() +方法 +:::::::::::: +initialize() +''''''''' 初始化以产生第一个解码步的输入和每个序列是否结束的初始标识。这是 :ref:`cn_api_fluid_layers_BasicDecoder` 初始化的一部分。 -返回::code:`(initial_inputs, initial_finished)` 的二元组, :code:`initial_inputs` 是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` 。 :code:`initial_finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 +**返回** +:code:`(initial_inputs, initial_finished)` 的二元组, :code:`initial_inputs` 是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` 。 :code:`initial_finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: sample(time, outputs, states) +sample(time, outputs, states) +''''''''' 根据 :code:`outputs` 以特定的方式进行采样,该方法是 :code:`BasicDecoder.step` 中的一部分。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 -返回:数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 +**返回** +数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: next_inputs(time, outputs, states, sample_ids) +next_inputs(time, outputs, states, sample_ids) +''''''''' 产生下一解码步的输入、状态,以及每个序列是否结束的标识。该方法是 :code:`BasicDecoder.step` 中的一部分。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 - **sample_ids** (Variable) - 数据类型为int64形状为 :math:`[batch\_size]` 的tensor,和由 :code:`sample()` 返回的 :code:`sample_ids` 是同一内容。 -返回: :code:`(finished, next_inputs, next_states)` 的三元组。 :code:`next_inputs, next_states` 均是单个tensor变量或tensor变量组成的嵌套结构, :code:`next_states` 和输入参数中的 :code:`states` 具有相同的结构、形状和数据类型; :code:`finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 +**返回** + :code:`(finished, next_inputs, next_states)` 的三元组。 :code:`next_inputs, next_states` 均是单个tensor变量或tensor变量组成的嵌套结构, :code:`next_states` 和输入参数中的 :code:`states` 具有相同的结构、形状和数据类型; :code:`finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 -返回类型:tuple +**返回类型** +tuple diff --git a/docs/api/paddle/fluid/layers/Decoder_cn.rst b/docs/api/paddle/fluid/layers/Decoder_cn.rst index 865a690d98e..f64c390859d 100644 --- a/docs/api/paddle/fluid/layers/Decoder_cn.rst +++ b/docs/api/paddle/fluid/layers/Decoder_cn.rst @@ -27,40 +27,54 @@ Decoder提供的主要抽象为: 与RNNCell相比,Decoder更为通用,因为返回的 :code:`next_input` 和 :code:`finished` 使它可以自行决定输入以及结束时机。 -.. py:method:: initialize(inits) +方法 +:::::::::::: +initialize(inits) +''''''''' 在解码迭代之前调用一次。 -参数: +**参数** + - **inits** - 调用方提供的参数。 -返回:一个元组 :code:`(initial_inputs, initial_states, finished)` 。:code:`initial_inputs` 和 :code:`initial_states` 都是单个tensor变量或tensor变量组成的嵌套结构, :code:`finished` 是具有bool数据类型的tensor。 +**返回** +一个元组 :code:`(initial_inputs, initial_states, finished)` 。:code:`initial_inputs` 和 :code:`initial_states` 都是单个tensor变量或tensor变量组成的嵌套结构, :code:`finished` 是具有bool数据类型的tensor。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: step(time, inputs, states, **kwargs) +step(time, inputs, states, **kwargs) +''''''''' 在解码的每个时间步中被调用的接口 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。。 - **inputs** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。在第一个解码时间步时与由 :code:`initialize()` 返回的 :code:`initial_inputs` 相同,其他时间步与由 :code:`step()` 返回的 :code:`next_inputs` 相同。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。在第一个解码时间步时与 :code:`initialize()` 返回的 :code:`initial_states` 相同,其他时间步与由 :code:`step()` 返回的 :code:`beam_search_state` 相同。 - **kwargs** - 附加的关键字参数,由调用者提供。 -返回:一个元组 :code:`(outputs, next_states, next_inputs, finished)` 。:code:`next_states` 和 :code:`next_inputs` 都是单个tensor变量或tensor变量组成的嵌套结构,且结构、形状和数据类型均分别与输入参数中的 :code:`states` 和 :code:`inputs` 相同。 :code:`outputs` 是单个tensor变量或tensor变量组成的嵌套结构。 :code:`finished` 是一个bool类型的tensor变量。 +**返回** +一个元组 :code:`(outputs, next_states, next_inputs, finished)` 。:code:`next_states` 和 :code:`next_inputs` 都是单个tensor变量或tensor变量组成的嵌套结构,且结构、形状和数据类型均分别与输入参数中的 :code:`states` 和 :code:`inputs` 相同。 :code:`outputs` 是单个tensor变量或tensor变量组成的嵌套结构。 :code:`finished` 是一个bool类型的tensor变量。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: finalize(self, outputs, final_states, sequence_lengths) +finalize(self, outputs, final_states, sequence_lengths) +''''''''' 如果提供了实现,将在整个解码迭代结束后被执行一次。 -参数: +**参数** + - **outputs** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。 其中每个tensor的形状均为 :math:`[time\_step,batch\_size,...]` ,是将所有解码步中与其对应的的输出进行堆叠的结果,这个过程由其调用者完成。 - **final_states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。 它是 :code:`decoder.step` 在最后一个解码步返回的 :code:`next_states`, 因此具有与任何时间步的状态相同的结构,形状和数据类型。 - **kwargs** - 命名关键字参数,由提供调用者。 -返回:一个元组 :code:`(final_outputs, final_states)` 。:code:`final_outputs` 和 :code:`final_states` 都是单个tensor变量或tensor变量组成的嵌套结构。 +**返回** +一个元组 :code:`(final_outputs, final_states)` 。:code:`final_outputs` 和 :code:`final_states` 都是单个tensor变量或tensor变量组成的嵌套结构。 -返回类型:tuple \ No newline at end of file +**返回类型** +tuple \ No newline at end of file diff --git a/docs/api/paddle/fluid/layers/DynamicRNN_cn.rst b/docs/api/paddle/fluid/layers/DynamicRNN_cn.rst index 654e2651850..9644b83c4e6 100644 --- a/docs/api/paddle/fluid/layers/DynamicRNN_cn.rst +++ b/docs/api/paddle/fluid/layers/DynamicRNN_cn.rst @@ -21,7 +21,9 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 .. warning:: 目前不支持在DynamicRNN的 :code:`block` 中任何层上配置 :code:`is_sparse = True` 。 -参数: +参数 +:::::::::::: + - **name** (str,可选) - 具体用法参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 成员函数列表: @@ -39,7 +41,10 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 step_input --------------------------------- -.. py:method:: step_input(x, level=0) +方法 +:::::::::::: +step_input(x, level=0) +''''''''' 将序列x设置为DynamicRNN输入。输入序列中最长的序列长度,将决定了RNN运算的长度。 必须至少为DynamicRNN设置一个输入,也可以设置多个输入。 @@ -82,15 +87,19 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 out.data = [[S2]] -参数: +**参数** + - **x** (Variable) - 输入序列LoDTensor,代表由长度不同的多个序列组成的minibatch,要求 :code:`x.lod_level >= 1`。输入x第一个维度的值等于minibatch内所有序列的长度之和。RNN有多个输入序列时,多个输入LoDTensor的第一个维度必须相同,其它维度可以不同。支持的数据类型有:bool,float16,float32,float64,int8,int16,int32,int64,uint8。 - **level** (int,可选) - 用于拆分输入序列的LoD层级,取值范围是 :math:`[0, x.lod\_level)`,默认值是0。 -返回: 输入序列每个时间步的数据。执行第 :code:`step_idx` 个时间步时,若输入 :code:`x` 中有 :code:`num_sequences` 个长度不小于 :code:`step_idx` 的序列,则这个时间步返回值中只包含了这 :code:`num_sequences` 个序列第 :code:`step_idx` 时间步的数据。数据类型和输入一致。如果 :code:`x.lod_level == 1` ,返回值的维度是 :math:`\{num\_sequences, x.shape[1], ...\}`。否则,返回值也是一个变长的LoDTensor。 +**返回** + 输入序列每个时间步的数据。执行第 :code:`step_idx` 个时间步时,若输入 :code:`x` 中有 :code:`num_sequences` 个长度不小于 :code:`step_idx` 的序列,则这个时间步返回值中只包含了这 :code:`num_sequences` 个序列第 :code:`step_idx` 时间步的数据。数据类型和输入一致。如果 :code:`x.lod_level == 1` ,返回值的维度是 :math:`\{num\_sequences, x.shape[1], ...\}`。否则,返回值也是一个变长的LoDTensor。 -返回类型:Variable +**返回类型** +Variable + +**抛出异常** -抛出异常: - :code:`ValueError` :当 :code:`step_input()` 接口在RNN :code:`block()` 接口外面被调用时。 - :code:`TypeError`:当输入x类型不是Variable时。 @@ -125,7 +134,8 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 static_input --------------------------------- -.. py:method:: static_input(x) +static_input(x) +''''''''' 将变量设置为RNN的静态输入。 @@ -201,14 +211,18 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 out.data = [[S2]] -参数: +**参数** + - **x** (Variable) - 静态输入序列LoDTensor,要求持有与输入LoDTensor(通过 :code:`step_input` 设置的输入)相同的序列个数。如果输入x的LoD信息为空,则会被当成由 :code:`x.shape[0]` 个长度为1序列组成。支持的数据类型有:bool,float16,float32,float64,int8,int16,int32,int64,uint8。 -返回: 经过按照RNN输入LoD信息重排序、且收缩处理后的静态输入LoDTensor。执行第 :code:`step_idx` 个时间步时,如果输入序列中只有 :code:`num_sequences` 长度不小于 :code:`step_idx` 的序列,静态输入也会进行收缩处理,只返回对应的 :code:`num_sequences` 个序列对应的数据。数据类型和输入一致。如果 :code:`x.lod == None` ,返回值的维度是 :math:`\{num\_sequences, x.shape[1], ...\}` 。否则,返回值是一个变长的LoDTensor。 +**返回** + 经过按照RNN输入LoD信息重排序、且收缩处理后的静态输入LoDTensor。执行第 :code:`step_idx` 个时间步时,如果输入序列中只有 :code:`num_sequences` 长度不小于 :code:`step_idx` 的序列,静态输入也会进行收缩处理,只返回对应的 :code:`num_sequences` 个序列对应的数据。数据类型和输入一致。如果 :code:`x.lod == None` ,返回值的维度是 :math:`\{num\_sequences, x.shape[1], ...\}` 。否则,返回值是一个变长的LoDTensor。 -返回类型:Variable +**返回类型** +Variable + +**抛出异常** -抛出异常: - :code:`ValueError`:当 :code:`static_input()` 接口在RNN :code:`block()` 接口外面被调用时。 - :code:`TypeError`:当输入x类型不是Variable类型时。 - :code:`RuntimeError`:当 :code:`static_input()` 接口在 :code:`step_input()` 接口之前被调用时。 @@ -250,11 +264,13 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 block --------------------------------- -.. py:method:: block() +block() +''''''''' 定义每个时间步执行的操作。 :code:`block` 语句里面定义的算子序列,将会被执行 :code:`max_sequence_len` 次( :code:`max_sequence_len` 是输入序列中大的序列长度)。 -抛出异常: +**抛出异常** + - :code:`ValueError`:当RNN :code:`block()` 接口被多次调用时。 @@ -263,28 +279,34 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 memory --------------------------------- -.. py:method:: memory(init=None, shape=None, value=0.0, need_reorder=False, dtype='float32') +memory(init=None, shape=None, value=0.0, need_reorder=False, dtype='float32') +''''''''' 为RNN创建一个memory变量,用于在时间步之间传递信息。 它可以用一个已有的Tensor来初始化,也可以初始化为一个特定维度的常量Tensor。 -参数: +**参数** + - **init** (Variable,可选) – 设置memory初始值的LoDTensor。如果init不是None,将使用init来初始化memory,要求持有与输入LoDTensor(通过 :code:`step_input` 设置的输入)相同的序列个数。如果输入init的LoD信息为空,则会被当成由 :code:`init.shape[0]` 个长度为1序列组成。默认值是None。 - **shape** (list|tuple,可选) – 当init是None时,用来设置memory的维度。注意:shape中不包含batch_size。若设置 :math:`shape=\{D_1, D_2, ...\}`,memory Tensor的实际维度为 :math:`\{batch\_size, D_1, D_2, ...\}`,其中batch_size由输入序列决定。默认值是None。 - **value** (float,可选) – 当init是None时,用来设置memory的初始值。默认值是0.0。 - **need_reorder** (bool,可选) – 当init不是None时,用来决定init是否需要重新排序。动态RNN在计算时,会按照输入LoDTensor中序列的长度对输入进行排序,因此当init中的信息与输入序列样本紧密关联时,需要设置 :code:`need_reorder=True`。默认值是False。 - **dtype** (str|numpy.dtype,可选) – 当init是None是,初始化memory的数据类型。默认值是"float32"。可设置的字符串值有:"float32","float64","int32","int64"。 -返回:经过收缩处理后的memory LoDTensor。执行第 :code:`step_idx` 个时间步时,如果输入序列中只有 :code:`num_sequences` 长度不小于 :code:`step_idx` 的序列,memory也会进行收缩处理,只返回对应的 :code:`num_sequences` 个序列对应的数据。 +**返回** +经过收缩处理后的memory LoDTensor。执行第 :code:`step_idx` 个时间步时,如果输入序列中只有 :code:`num_sequences` 长度不小于 :code:`step_idx` 的序列,memory也会进行收缩处理,只返回对应的 :code:`num_sequences` 个序列对应的数据。 -返回类型:Variable +**返回类型** +Variable + +**抛出异常** -抛出异常: - :code:`ValueError`:当 :code:`memory()` 接口在RNN :code:`block()` 接口外面被调用时。 - :code:`TypeError`:当init被设置了,但是不是Variable类型时。 - :code:`ValueError`:当 :code:`memory()` 接口在 :code:`step_input()` 接口之前被调用时。 -**代码示例一** +代码示例一 +:::::::::::: .. code-block:: python @@ -309,7 +331,8 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 rnn_output = drnn() -**代码示例二** +代码示例二 +:::::::::::: .. code-block:: python @@ -338,17 +361,21 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 update_memory --------------------------------- -.. py:method:: update_memory(ex_mem, new_mem) +update_memory(ex_mem, new_mem) +''''''''' 将需要在时间步之间传递的信息更新。 -参数: +**参数** + - **ex_mem** (Variable) - 上一个时间步的信息。 - **new_mem** (Variable) - 新的时间步信息。:code:`new_mem` 的维度和数据类型必须与 :code:`ex_mem` 一致。 -返回:无 +**返回** +无 + +**抛出异常** -抛出异常: - :code:`ValueError`:当 :code:`update_memory()` 接口在RNN :code:`block()` 接口外面被调用时。 - :code:`TypeError`:当 :code:`ex_mem` 或 :code:`new_mem` 不是Variable类型时。 - :code:`ValueError`:当 :code:`ex_mem` 不是使用 :code:`memory()` 接口定义的memory时。 @@ -360,16 +387,20 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 output --------------------------------- -.. py:method:: output(*outputs) +output(*outputs) +''''''''' 设置outputs为RNN每个时间步的输出变量。 -参数: +**参数** + - **\*outputs** (Variable ...) - 输出Tensor,可同时将多个Variable标记为输出。 -返回:无 +**返回** +无 + +**抛出异常** -抛出异常: - :code:`ValueError`:当 :code:`output()` 接口在RNN :code:`block()` 接口外面被调用时。 @@ -378,7 +409,8 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 成员函数 __call__ --------------------------------- -.. py:method:: __call__() +__call__() +''''''''' 获取RNN计算的输出序列。 @@ -386,14 +418,18 @@ DynamicRNN的实现采用非padding的方式,每个时间步都会对输入数 当RNN的输入x(通过 :code:`step_input()` 接口设置)的 :code:`x.lod_level` 为1时,该输出LoDTensor将会和输入x持有完全相同的LoD信息。 通过 :code:`drnn()` 获取的RNN输出LoDTensor中包含了所有时间步的计算结果,可调用 :ref:`cn_api_fluid_layers_sequence_last_step` 获取最后一个时间步的计算结果。 -参数: +**参数** + 无 -返回:RNN的输出序列。 +**返回** +RNN的输出序列。 + +**返回类型** +Variable或Variable list -返回类型:Variable或Variable list +**抛出异常** -抛出异常: - :code:`ValueError` :当 :code:`__call__()` 接口在RNN :code:`block()` 定义之前被调用时。 **代码示例** diff --git a/docs/api/paddle/fluid/layers/GRUCell_cn.rst b/docs/api/paddle/fluid/layers/GRUCell_cn.rst index 953c666ca9c..297030c03d5 100644 --- a/docs/api/paddle/fluid/layers/GRUCell_cn.rst +++ b/docs/api/paddle/fluid/layers/GRUCell_cn.rst @@ -21,7 +21,9 @@ GRUCell 更多细节可以参考 `Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation `_ -参数: +参数 +:::::::::::: + - **hidden_size** (int) - GRUCell中的隐藏层大小。 - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。 - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -30,9 +32,12 @@ GRUCell - **dtype** (string,可选) - 此cell中使用的数据类型。 默认为"float32"。 - **name** (string,可选) - 用于标识参数和偏差的名称域。 -返回:GRUCell类的实例对象。 +返回 +:::::::::::: +GRUCell类的实例对象。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -40,26 +45,36 @@ GRUCell cell = layers.GRUCell(hidden_size=256) -.. py:method:: call(inputs, states) +方法 +:::::::::::: +call(inputs, states) +''''''''' 执行GRU的计算。 -参数: +**参数** + - **input** (Variable) - 输入,形状为 :math:`[batch\_size,input\_size]` 的tensor,对应于公式中的 :math:`x_t` 。数据类型应为float32。 - **states** (Variable) - 状态,形状为 :math:`[batch\_size,hidden\_size]` 的tensor。 对应于公式中的 :math:`h_{t-1}` 。数据类型应为float32。 -返回:一个元组 :code:`(outputs, new_states)` ,其中 :code:`outputs` 和 :code:`new_states` 是同一个tensor,其形状为 :math:`[batch\_size,hidden\_size]`,数据类型和 :code:`state` 的数据类型相同,对应于公式中的 :math:`h_t`。 +**返回** +一个元组 :code:`(outputs, new_states)` ,其中 :code:`outputs` 和 :code:`new_states` 是同一个tensor,其形状为 :math:`[batch\_size,hidden\_size]`,数据类型和 :code:`state` 的数据类型相同,对应于公式中的 :math:`h_t`。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: state_shape() +state_shape() +''''''''' GRUCell的 :code:`state_shape` 是形状 :math:`[hidden\_size]` (batch大小为-1,自动插入到形状中),对应于 :math:`h_{t-1}` 的形状。 -参数:无。 +**参数** +无。 -返回:GRUCell的 :code:`state_shape`。 +**返回** +GRUCell的 :code:`state_shape`。 -返回类型:Variable +**返回类型** +Variable diff --git a/docs/api/paddle/fluid/layers/GreedyEmbeddingHelper_cn.rst b/docs/api/paddle/fluid/layers/GreedyEmbeddingHelper_cn.rst index a01e1ab3e57..6b03860e572 100644 --- a/docs/api/paddle/fluid/layers/GreedyEmbeddingHelper_cn.rst +++ b/docs/api/paddle/fluid/layers/GreedyEmbeddingHelper_cn.rst @@ -8,12 +8,15 @@ GreedyEmbeddingHelper GreedyEmbeddingHelper是 :ref:`cn_api_fluid_layers_DecodeHelper` 的子类。作为解码helper,它使用 :code:`argmax` 进行采样,并将采样结果送入embedding层,以此作为下一解码步的输入。 -参数: +参数 +:::::::::::: + - **embedding_fn** (callable) - 作用于 :code:`argmax` 结果的函数,通常是一个将词id转换为词嵌入的embedding层,**注意** ,这里要使用 :ref:`cn_api_fluid_embedding` 而非 :ref:`cn_api_fluid_layers_embedding`,因为选中的id的形状是 :math:`[batch\_size]` ,如果使用后者则还需要在这里提供unsqueeze。 - **start_tokens** (Variable) - 形状为 :math:`[batch\_size]` 、数据类型为int64、 值为起始标记id的tensor。 - **end_token** (int) - 结束标记id。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -38,37 +41,50 @@ GreedyEmbeddingHelper是 :ref:`cn_api_fluid_layers_DecodeHelper` 的子类。作 outputs = layers.dynamic_decode( decoder=decoder, inits=decoder_cell.get_initial_states(start_tokens)) -.. py:method:: initialize() +方法 +:::::::::::: +initialize() +''''''''' GreedyEmbeddingHelper初始化,其使用构造函数中的 :code:`start_tokens` 作为第一个解码步的输入,并给出每个序列是否结束的初始标识。这是 :ref:`cn_api_fluid_layers_BasicDecoder` 初始化的一部分。 -返回::code:`(initial_inputs, initial_finished)` 的二元组, :code:`initial_inputs` 同构造函数中的 :code:`start_tokens` ; :code:`initial_finished` 是一个bool类型、值为False的tensor,其形状和 :code:`start_tokens` 相同。 +**返回** +:code:`(initial_inputs, initial_finished)` 的二元组, :code:`initial_inputs` 同构造函数中的 :code:`start_tokens` ; :code:`initial_finished` 是一个bool类型、值为False的tensor,其形状和 :code:`start_tokens` 相同。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: sample(time, outputs, states) +sample(time, outputs, states) +''''''''' 使用 :code:`argmax` 根据 `outputs` 进行采样。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 -返回:数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 +**返回** +数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: next_inputs(time, outputs, states, sample_ids) +next_inputs(time, outputs, states, sample_ids) +''''''''' 对 :code:`sample_ids` 使用 :code:`embedding_fn` ,以此作为下一解码步的输入;同时直接使用输入参数中的 :code:`states` 作为下一解码步的状态;并通过判别 :code:`sample_ids` 是否得到 :code:`end_token`,依此产生每个序列是否结束的标识。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 - **sample_ids** (Variable) - 数据类型为int64形状为 :math:`[batch\_size]` 的tensor,和由 :code:`sample()` 返回的 :code:`sample_ids` 是同一内容。 -返回: :code:`(finished, next_inputs, next_states)` 的三元组。 :code:`next_inputs, next_states` 均是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` , :code:`next_states` 和输入参数中的 :code:`states` 相同; :code:`finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 +**返回** + :code:`(finished, next_inputs, next_states)` 的三元组。 :code:`next_inputs, next_states` 均是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` , :code:`next_states` 和输入参数中的 :code:`states` 相同; :code:`finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 -返回类型:tuple +**返回类型** +tuple diff --git a/docs/api/paddle/fluid/layers/IfElse_cn.rst b/docs/api/paddle/fluid/layers/IfElse_cn.rst index 5801ac0d46f..673bec17f46 100644 --- a/docs/api/paddle/fluid/layers/IfElse_cn.rst +++ b/docs/api/paddle/fluid/layers/IfElse_cn.rst @@ -62,7 +62,9 @@ IfElse OP同其他的OP在使用上有一定的区别,可能会对一些用户 print(res) # [array([-1.], dtype=float32)] -参数: +参数 +:::::::::::: + - **cond** (Variable)- cond是一个shape为[N, 1]、数据类型为bool的2-D tensor,表示N个输入数据的对应的执行条件。数据类型为bool。 - **Name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 diff --git a/docs/api/paddle/fluid/layers/LSTMCell_cn.rst b/docs/api/paddle/fluid/layers/LSTMCell_cn.rst index cebebb05235..747eaf2159a 100644 --- a/docs/api/paddle/fluid/layers/LSTMCell_cn.rst +++ b/docs/api/paddle/fluid/layers/LSTMCell_cn.rst @@ -23,7 +23,9 @@ LSTMCell 更多细节可以参考 `RECURRENT NEURAL NETWORK REGULARIZATION `_ -参数: +参数 +:::::::::::: + - **hidden_size** (int) - LSTMCell中的隐藏层大小。 - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。 - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -33,9 +35,12 @@ LSTMCell - **dtype** (string,可选) - 此Cell中使用的数据类型。 默认值为 `float32`。 - **name** (string,可选) - 用于标识参数和偏差的名称域。 -返回:LSTMCell类的实例对象。 +返回 +:::::::::::: +LSTMCell类的实例对象。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -43,24 +48,34 @@ LSTMCell cell = layers.LSTMCell(hidden_size=256) -.. py:method:: call(inputs, states) +方法 +:::::::::::: +call(inputs, states) +''''''''' 执行GRU的计算。 -参数: +**参数** + - **input** (Variable) - 输入,形状为 :math:`[batch\_size,input\_size]` 的tensor,对应于公式中的 :math:`x_t`。数据类型应为float32。 - **states** (Variable) - 状态,包含两个tensor的列表,每个tensor形状为 :math:`[batch\_size,hidden\_size]`。 对应于公式中的 :math:`h_{t-1}, c_{t-1}`。数据类型应为float32。 -返回:一个元组 :code:`(outputs, new_states)`,其中 :code:`outputs` 是形状为 :math:`[batch\_size,hidden\_size]` 的tensor,对应于公式中的 :math:`h_{t}`;:code:`new_states` 是一个列表,包含形状为 :math:`[batch_size,hidden_size]` 的两个tensor变量,它们对应于公式中的 :math:`h_{t}, c_{t}`。这些tensor的数据类型都与 :code:`state` 的数据类型相同。 +**返回** +一个元组 :code:`(outputs, new_states)`,其中 :code:`outputs` 是形状为 :math:`[batch\_size,hidden\_size]` 的tensor,对应于公式中的 :math:`h_{t}`;:code:`new_states` 是一个列表,包含形状为 :math:`[batch_size,hidden_size]` 的两个tensor变量,它们对应于公式中的 :math:`h_{t}, c_{t}`。这些tensor的数据类型都与 :code:`state` 的数据类型相同。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: state_shape() +state_shape() +''''''''' LSTMCell的 :code:`state_shape` 是一个具有两个形状的列表::math:`[[hidden\_size], [hidden\_size]]` (batch大小为-1,自动插入到形状中)。 这两个形状分别对应于公式中的 :math:`h_{t-1}` and :math:`c_{t-1}`。 -参数:无。 +**参数** +无。 -返回:LSTMCell的 :code:`state_shape` +**返回** +LSTMCell的 :code:`state_shape` -返回类型:list +**返回类型** +list diff --git a/docs/api/paddle/fluid/layers/MultivariateNormalDiag_cn.rst b/docs/api/paddle/fluid/layers/MultivariateNormalDiag_cn.rst index 63e1d1bb249..ff180587cc9 100644 --- a/docs/api/paddle/fluid/layers/MultivariateNormalDiag_cn.rst +++ b/docs/api/paddle/fluid/layers/MultivariateNormalDiag_cn.rst @@ -26,11 +26,14 @@ MultivariateNormalDiag - :math:`det` 表示:求行列式的值 -参数: +参数 +:::::::::::: + - **loc** (list|numpy.ndarray|Variable) - 形状为 :math:`[k]` 的多元高斯分布的均值列表。数据类型为float32。 - **scale** (list|numpy.ndarray|Variable) - 形状为 :math:`[k, k]` 的多元高斯分布的对角协方差矩阵,且除对角元素外,其他元素取值均为0。数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -71,20 +74,30 @@ MultivariateNormalDiag 计算相对于另一个多元高斯分布的KL散度 -参数: +参数 +:::::::::::: + - **other** (MultivariateNormalDiag) - 输入的另一个多元高斯分布。数据类型为float32。 -返回:相对于另一个多元高斯分布的KL散度,数据类型为float32 +返回 +:::::::::::: +相对于另一个多元高斯分布的KL散度,数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: entropy() 信息熵 -返回:多元高斯分布的信息熵,数据类型为float32 +返回 +:::::::::::: +多元高斯分布的信息熵,数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable diff --git a/docs/api/paddle/fluid/layers/Normal_cn.rst b/docs/api/paddle/fluid/layers/Normal_cn.rst index ce50e67bd12..c4cd62cc8c2 100644 --- a/docs/api/paddle/fluid/layers/Normal_cn.rst +++ b/docs/api/paddle/fluid/layers/Normal_cn.rst @@ -24,11 +24,14 @@ Normal :math:`scale = \sigma` : 标准差。 :math:`Z`: 正态分布常量。 -参数: +参数 +:::::::::::: + - **loc** (float|list|numpy.ndarray|Variable) - 正态分布平均值。数据类型为float32。 - **scale** (float|list|numpy.ndarray|Variable) - 正态分布标准差。数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -70,43 +73,65 @@ Normal 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回:预先设计好维度的张量, 数据类型为float32 +返回 +:::::::::::: +预先设计好维度的张量, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: entropy() 信息熵 -返回:正态分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +正态分布的信息熵, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: log_prob(value) 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Variable) - 输入张量。数据类型为float32或float64。 -返回:对数概率, 数据类型与value相同 +返回 +:::::::::::: +对数概率, 数据类型与value相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: kl_divergence(other) 两个正态分布之间的KL散度。 -参数: +参数 +:::::::::::: + - **other** (Normal) - Normal的实例。 -返回:两个正态分布之间的KL散度, 数据类型为float32 +返回 +:::::::::::: +两个正态分布之间的KL散度, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable diff --git a/docs/api/paddle/fluid/layers/RNNCell_cn.rst b/docs/api/paddle/fluid/layers/RNNCell_cn.rst index 78fad49a5a7..84b807c1b5a 100644 --- a/docs/api/paddle/fluid/layers/RNNCell_cn.rst +++ b/docs/api/paddle/fluid/layers/RNNCell_cn.rst @@ -11,39 +11,51 @@ RNNCell RNNCell是抽象的基类,代表将输入和状态映射到输出和新状态的计算,主要用于RNN。 -.. py:method:: call(inputs, states, **kwargs) +方法 +:::::::::::: +call(inputs, states, **kwargs) +''''''''' 每个cell都必须实现此接口,将(输入和状态)映射到(输出和新状态)。为了更灵活,输入和状态都可以是单个tensor变量或嵌套结构的tensor变量(列表 | 元组 | 命名元组 | 字典)。 -参数: +**参数** + - **inputs** - 输入,为单个tensor变量或tensor变量组成的嵌套结构。 - **states** - 状态,单个tensor变量或tensor变量组成的嵌套结构。 - **kwargs** - 附加的关键字参数,由调用者提供。          -返回:包含输出和新状态的二元组 :code:`(outputs,new_states)` 。输出和新状态都可以是嵌套的tensor变量。新状态必须具有与状态相同的结构。 +**返回** +包含输出和新状态的二元组 :code:`(outputs,new_states)` 。输出和新状态都可以是嵌套的tensor变量。新状态必须具有与状态相同的结构。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: get_initial_states(batch_ref, shape=None, dtype=None, init_value=0, batch_dim_idx=0) +get_initial_states(batch_ref, shape=None, dtype=None, init_value=0, batch_dim_idx=0) +''''''''' 该接口根据提供的形状,数据类型和初始值来初始化状态。 -参数: +**参数** + - **batch_ref** - 单个tensor变量或tensor组成的嵌套结构。 tensor的第一维将用作初始化状态的batch大小。 - **shape** - 单个形状或形状组成的嵌套结构,单个形状是整数的列表或元组。 如果形状的第一维不是batch大小,则自动插入-1作为batch大小。 如果该项为None,将使用属性 :code:`state_shape`。默认值为None。 - **dtype** - 单个数据类型或由数据类型组成的嵌套结构。该结构必须与shape的结构相同,例外是当状态中的所有tensor都具有相同的数据类型,这时可以使用单个数据类型。 如果是None并且属性 :code:`cell.state_shape` 不可用,则float32将用作数据类型。 默认值为None。 - **init_value** - 用于初始化状态的浮点值。 - **batch_dim_idx** - 用于指示 :code:`batch_ref` 中batch所在维度的int值,默认值为0。 -返回:和shape具有相同结构的tensor变量,代表初始状态。 +**返回** +和shape具有相同结构的tensor变量,代表初始状态。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: state_shape() +state_shape() +''''''''' 抽象方法(属性),该接口用于初始化cell的状态。 单个形状或由形状组成的嵌套结构,单个形状可以是整数的列表或元组(如果形状的第一维不是batch大小,则自动插入-1作为batch大小)。 当没有使用 :code:`get_initial_states` 初始化状态或 :code:`get_initial_states` 没有提供 :code:`shape` 参数的时候,不用实现该方法。 -.. py:method:: state_dtype() +state_dtype() +''''''''' 抽象方法(属性),该接口用于初始化cell的状态。 单个数据类型或由数据类型组成的嵌套结构,该结构必须与 :code:`shape` 的结构相同,例外是当状态中的所有tensor都具有相同的数据类型,这时可以使用单个数据类型。 当没有使用 :code:`get_initial_states` 初始化状态或 :code:`get_initial_states` 没有提供 :code:`dtype` 参数的时候,不用实现该方法。 diff --git a/docs/api/paddle/fluid/layers/SampleEmbeddingHelper_cn.rst b/docs/api/paddle/fluid/layers/SampleEmbeddingHelper_cn.rst index c38b80052fe..d6153e01f07 100644 --- a/docs/api/paddle/fluid/layers/SampleEmbeddingHelper_cn.rst +++ b/docs/api/paddle/fluid/layers/SampleEmbeddingHelper_cn.rst @@ -8,14 +8,17 @@ SampleEmbeddingHelper SampleEmbeddingHelper是 :ref:`cn_api_fluid_layers_GreedyEmbeddingHelper` 的子类。作为解码helper,它通过采样而非使用 :code:`argmax` 并将采样结果送入embedding层,以此作为下一解码步的输入。 -参数: +参数 +:::::::::::: + - **embedding_fn** (callable) - 作用于 :code:`argmax` 结果的函数,通常是一个将词id转换为词嵌入的embedding层,**注意** ,这里要使用 :ref:`cn_api_fluid_embedding` 而非 :ref:`cn_api_fluid_layers_embedding`,因为选中的id的形状是 :math:`[batch\_size]` ,如果使用后者则还需要在这里提供unsqueeze。 - **start_tokens** (Variable) - 形状为 :math:`[batch\_size]` 、数据类型为int64、 值为起始标记id的tensor。 - **end_token** (int) - 结束标记id。 - **softmax_temperature** (float,可选) - 该值用于在softmax计算前除以logits。温度越高(大于1.0)随机性越大,温度越低则越趋向于argmax。该值必须大于0,默认值None等同于1.0。 - **seed** (int,可选) - 采样使用的随机种子。默认为None,表示不使用固定的随机种子。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -40,15 +43,21 @@ SampleEmbeddingHelper是 :ref:`cn_api_fluid_layers_GreedyEmbeddingHelper` 的子 outputs = layers.dynamic_decode( decoder=decoder, inits=decoder_cell.get_initial_states(start_tokens)) -.. py:method:: sample(time, outputs, states) +方法 +:::::::::::: +sample(time, outputs, states) +''''''''' 根据一个多项分布进行采样,此分布由 :code:`softmax(outputs/softmax_temperature)` 计算得到。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 -返回:数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 +**返回** +数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 -返回类型:Variable +**返回类型** +Variable diff --git a/docs/api/paddle/fluid/layers/StaticRNN_cn.rst b/docs/api/paddle/fluid/layers/StaticRNN_cn.rst index 92817b42e22..6c84ddc999a 100644 --- a/docs/api/paddle/fluid/layers/StaticRNN_cn.rst +++ b/docs/api/paddle/fluid/layers/StaticRNN_cn.rst @@ -11,10 +11,13 @@ StaticRNN 该OP用来处理一批序列数据,其中每个样本序列的长度必须相等。StaticRNN将序列按照时间步长展开,用户需要定义每个时间步中的处理逻辑。 -参数: +参数 +:::::::::::: + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -47,17 +50,22 @@ StaticRNN # 获取最终的输出结果 result = rnn() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' 定义在每个时间步执行的操作。step用在with语句中,with语句中定义的OP会被执行sequence_len次(sequence_len是输入序列的长度)。 -.. py:method:: memory(init=None, shape=None, batch_ref=None, init_value=0.0, init_batch_dim_idx=0, ref_batch_dim_idx=1) +memory(init=None, shape=None, batch_ref=None, init_value=0.0, init_batch_dim_idx=0, ref_batch_dim_idx=1) +''''''''' 为静态RNN创建一个内存变量。 如果init不为None,则用init将初始化memory。 如果init为None,则必须设置shape和batch_ref,函数会使用shape和batch_ref创建新的Variable来初始化init。 -参数: +**参数** + - **init** (Variable,可选) - 用来初始化memory的Tensor。如果没有设置,则必须提供shape和batch_ref参数。默认值None。 - **shape** (list|tuple) - 当init为None时用来设置memory的维度,注意不包括batch_size。默认值None。 - **batch_ref** (Variable,可选) - 当init为None时,memory变量的batch size会设置为该batch_ref变量的ref_batch_dim_idx轴。默认值None。 @@ -65,12 +73,15 @@ StaticRNN - **init_batch_dim_idx** (int,可选) - init变量的batch_size轴,默认值0。 - **ref_batch_dim_idx** (int,可选) - batch_ref变量的batch_size轴,默认值1。 -返回:返回创建的memory变量。 +**返回** +返回创建的memory变量。 -返回类型;Variable +**返回类型** +Variable -**代码示例一** +代码示例一 +:::::::::::: .. code-block:: python @@ -99,7 +110,8 @@ StaticRNN # 用处理完的hidden变量更新prev变量。 rnn.update_memory(prev, hidden) -**代码示例二** +代码示例二 +:::::::::::: .. code-block:: python @@ -129,16 +141,20 @@ StaticRNN # 用处理完的hidden变量更新prev变量。 rnn.update_memory(prev, hidden) -.. py:method:: step_input(x) +step_input(x) +''''''''' 标记StaticRNN的输入序列。 -参数: +**参数** + - **x** (Variable) – 输入序列,x的形状应为[seq_len, ...]。 -返回:输入序列中当前时间步的数据。 +**返回** +输入序列中当前时间步的数据。 -返回类型:Variable +**返回类型** +Variable **代码示例** @@ -170,14 +186,17 @@ StaticRNN # 用处理完的hidden变量更新prev变量。 rnn.update_memory(prev, hidden) -.. py:method:: step_output(o) +step_output(o) +''''''''' 标记StaticRNN输出的序列。 -参数: +**参数** + -**o** (Variable) – 输出序列 -返回:无 +**返回** +无 **代码示例** @@ -213,14 +232,17 @@ StaticRNN result = rnn() -.. py:method:: output(*outputs) +output(*outputs) +''''''''' 标记StaticRNN输出变量。 -参数: +**参数** + -**outputs** – 输出Tensor,可同时将多个Variable标记为输出。 -返回:无 +**返回** +无 **代码示例** @@ -257,16 +279,19 @@ StaticRNN result = rnn() -.. py:method:: update_memory(mem, var) +update_memory(mem, var) +''''''''' 将memory从mem更新为var。 -参数: +**参数** + - **mem** (Variable) – memory接口定义的变量。 - **var** (Variable) – RNN块中的变量,用来更新memory。var的维度和数据类型必须与mem一致。 -返回:无 +**返回** +无 代码示例参考前述示例。 diff --git a/docs/api/paddle/fluid/layers/Switch_cn.rst b/docs/api/paddle/fluid/layers/Switch_cn.rst index 0ef98832666..534af1e9845 100644 --- a/docs/api/paddle/fluid/layers/Switch_cn.rst +++ b/docs/api/paddle/fluid/layers/Switch_cn.rst @@ -31,10 +31,13 @@ Switch with switch.default(): i = fluid.layers.fill_constant(shape=[1], dtype='int64', value=0) -参数: +参数 +:::::::::::: + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/TrainingHelper_cn.rst b/docs/api/paddle/fluid/layers/TrainingHelper_cn.rst index 5d140dbf8ac..45084d75d72 100644 --- a/docs/api/paddle/fluid/layers/TrainingHelper_cn.rst +++ b/docs/api/paddle/fluid/layers/TrainingHelper_cn.rst @@ -9,12 +9,15 @@ TrainingHelper TrainingHelper是 :ref:`cn_api_fluid_layers_DecodeHelper` 的子类。作为解码helper,它在每个解码时间步通过在完整序列输入 :code:`inputs` 的相应位置切片作为各步的输入,并且使用 :code:`argmax` 根据 :code:`cell.call()` 的输出进行采样。 由于要求有完整的序列输入 :code:`inputs` ,TrainingHelper主要用于以teach-forcing的方式进行最大似然训练,采样得到的内容通常不会使用。 -参数: +参数 +:::::::::::: + - **inputs** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。当 :code:`time_major == False` 时,tensor的形状应为 :math:`[batch\_size, sequence\_length, ...]`;当 :code:`time_major == True` 时,tensor的形状应为 :math:`[sequence\_length, batch\_size, ...]`。在解码的每一步都要从中切片取出相应的数据。 - **sequence_length** (Variable) - 形状为 :math:`[batch\_size]` 的tensor。它存储了 :code:`inputs` 中每个样本的实际长度,可以据此来标识每个解码步中每个样本是否结束。 - **time_major** (bool,可选) - 指示输入tensor和输出tensor中包含的tensor的数据组织。如果为False,则数据组织为batch为主,形状为 :math:`[batch\_size,sequence\_length,...]`。如果为True,则数据组织为time为主,形状为 :math:`[sequence\_length,batch\_size,...]`。默认值:False。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -34,37 +37,50 @@ TrainingHelper是 :ref:`cn_api_fluid_layers_DecodeHelper` 的子类。作为解 inits=decoder_cell.get_initial_states(trg_emb), is_test=False) -.. py:method:: initialize() +方法 +:::::::::::: +initialize() +''''''''' TrainingHelper初始化,其通过在完整序列输入 :code:`inputs` 中首个时间步的位置上切片,以此作为第一个解码步的输入,并给出每个序列是否结束的初始标识。这是 :ref:`cn_api_fluid_layers_BasicDecoder` 初始化的一部分。 -返回::code:`(initial_inputs, initial_finished)` 的二元组, :code:`initial_inputs` 是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` 。 :code:`initial_finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 +**返回** +:code:`(initial_inputs, initial_finished)` 的二元组, :code:`initial_inputs` 是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` 。 :code:`initial_finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: sample(time, outputs, states) +sample(time, outputs, states) +''''''''' 使用 :code:`argmax` 根据 `outputs` 进行采样。由于使用完整序列中的切片作为下一解码步的输入,采样得到的内容通常不会使用。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 -返回:数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 +**返回** +数据类型为int64形状为 :math:`[batch\_size]` 的tensor,表示采样得到的id。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: next_inputs(time, outputs, states, sample_ids) +next_inputs(time, outputs, states, sample_ids) +''''''''' 从完整序列输入中当前时间步的位置上切片,以此作为产生下一解码步的输入;同时直接使用输入参数中的 :code:`states` 作为下一解码步的状态;并比较当前时间与每个序列的大小,依此产生每个序列是否结束的标识。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **outputs** (Variable) - tensor变量,通常其数据类型为float32或float64,形状为 :math:`[batch\_size, vocabulary\_size]` ,表示当前解码步预测产生的logit(未归一化的概率),和由 :code:`BasicDecoder.output_fn(BasicDecoder.cell.call())` 返回的 :code:`outputs` 是同一内容。 - **states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构,和由 :code:`BasicDecoder.cell.call()` 返回的 :code:`new_states` 是同一内容。 - **sample_ids** (Variable) - 数据类型为int64形状为 :math:`[batch\_size]` 的tensor,和由 :code:`sample()` 返回的 :code:`sample_ids` 是同一内容。 -返回: :code:`(finished, next_inputs, next_states)` 的三元组。 :code:`next_inputs, next_states` 均是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` , :code:`next_states` 和输入参数中的 :code:`states` 相同; :code:`finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 +**返回** + :code:`(finished, next_inputs, next_states)` 的三元组。 :code:`next_inputs, next_states` 均是单个tensor变量或tensor变量组成的嵌套结构,tensor的形状是 :math:`[batch\_size, ...]` , :code:`next_states` 和输入参数中的 :code:`states` 相同; :code:`finished` 是一个bool类型且形状为 :math:`[batch\_size]` 的tensor。 -返回类型:tuple +**返回类型** +tuple diff --git a/docs/api/paddle/fluid/layers/Uniform_cn.rst b/docs/api/paddle/fluid/layers/Uniform_cn.rst index 59e1544b375..8a99066910a 100644 --- a/docs/api/paddle/fluid/layers/Uniform_cn.rst +++ b/docs/api/paddle/fluid/layers/Uniform_cn.rst @@ -26,11 +26,14 @@ Uniform 参数low和high的维度必须能够支持广播。 -参数: +参数 +:::::::::::: + - **low** (float|list|numpy.ndarray|Variable) - 均匀分布的下边界。数据类型为float32。 - **high** (float|list|numpy.ndarray|Variable) - 均匀分布的上边界。数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -71,32 +74,48 @@ Uniform 生成指定维度的样本 -参数: +参数 +:::::::::::: + - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回:预先设计好维度的张量, 数据类型为float32 +返回 +:::::::::::: +预先设计好维度的张量, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: entropy() 信息熵 -返回:均匀分布的信息熵, 数据类型为float32 +返回 +:::::::::::: +均匀分布的信息熵, 数据类型为float32 -返回类型:Variable +返回类型 +:::::::::::: +Variable .. py:function:: log_prob(value) 对数概率密度函数 -参数: +参数 +:::::::::::: + - **value** (Variable) - 输入张量。数据类型为float32或float64。 -返回:对数概率, 数据类型与value相同 +返回 +:::::::::::: +对数概率, 数据类型与value相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable diff --git a/docs/api/paddle/fluid/layers/While_cn.rst b/docs/api/paddle/fluid/layers/While_cn.rst index ae41fbaad3d..6ec63e7f73f 100644 --- a/docs/api/paddle/fluid/layers/While_cn.rst +++ b/docs/api/paddle/fluid/layers/While_cn.rst @@ -20,12 +20,15 @@ While 在 ``While`` 中创建的局部变量类似于C++中的while,无法被外部引用,因此无法通过 ``Executor`` 中的 ``fetch_list`` 来获取。 若想实现该功能,PaddlePaddle提供了 ``assign`` 接口将局部变量赋值到外部,请参考示例代码2 或参考 `issue#22724 `_ 。 -参数: +参数 +:::::::::::: + - **cond** (Variable) – 用于判断循环继续进行的条件,为数据类型bool型的Tensor,其shape必须为[1]。 - **is_test** (bool,可选) – 用于表明是否在测试阶段执行,默认值为False。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -50,7 +53,8 @@ While print(res) # [array([10])] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/adaptive_pool2d_cn.rst b/docs/api/paddle/fluid/layers/adaptive_pool2d_cn.rst index 7a97c39422f..463f5ed84e8 100644 --- a/docs/api/paddle/fluid/layers/adaptive_pool2d_cn.rst +++ b/docs/api/paddle/fluid/layers/adaptive_pool2d_cn.rst @@ -27,7 +27,9 @@ adaptive_pool2d Output(i ,j) &= \frac{sum(Input[hstart:hend, wstart:wend])}{(hend - hstart) * (wend - wstart)} -参数: +参数 +:::::::::::: + - **input** (Variable) - 池化操作的输入张量,维度为 :math:`[N, C, H, W]` 的4-D Tensor。 输入张量的格式为NCHW,其中N是batch大小,C是通道数,H是特征的高度,W是特征的宽度,数据类型为float32或float64。 - **pool_size** (int|list|tuple) - 池化核大小。 如果池化核大小是元组或列表,则它必须包含两个整数(pool_size_Height,pool_size_Width。若为一个整数,则表示H和W维度上均为该值。 - **pool_type** (string)- 池化类型,可输入“max”代表max-pooling,或者“avg”代表average-pooling。 @@ -35,12 +37,18 @@ adaptive_pool2d - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 -返回: Variable(Tensor) 自适应池化结果张量 +返回 +:::::::::::: + Variable(Tensor) 自适应池化结果张量 + +返回类型 +:::::::::::: +变量(Variable),数据类型与 ``input`` 一致 -返回类型:变量(Variable),数据类型与 ``input`` 一致 +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` – ``pool_type`` 不是 ‘max’ 或 ‘avg’ - ``ValueError`` – 当 ``pool_type`` 是 ‘avg’ 时,错误地设置 ‘require_index’ 为true . diff --git a/docs/api/paddle/fluid/layers/adaptive_pool3d_cn.rst b/docs/api/paddle/fluid/layers/adaptive_pool3d_cn.rst index 35127de7aca..984d24992cc 100644 --- a/docs/api/paddle/fluid/layers/adaptive_pool3d_cn.rst +++ b/docs/api/paddle/fluid/layers/adaptive_pool3d_cn.rst @@ -33,7 +33,9 @@ adaptive_pool3d -参数: +参数 +:::::::::::: + - **input** (Variable) - 池化操作的输入张量,维度为 :math:`[N, C, D, H, W]` 的5-D Tensor。 输入张量的格式为NCDHW,其中N是batch大小,C是通道数,D为特征的深度,H是特征的高度,W是特征的宽度,数据类型为float32或float64。 - **pool_size** (int|list|tuple) - 池化核大小。 如果池化核大小是元组或列表,则它必须包含三个整数(Depth, Height, Width)。若为一个整数,则表示D, H和W维度上均为该值。 - **pool_type** (string)- 池化类型,可输入“max”代表max-pooling,或者“avg”代表average-pooling。 @@ -41,12 +43,18 @@ adaptive_pool3d - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 -返回: Variable(Tensor) 自适应池化结果张量 +返回 +:::::::::::: + Variable(Tensor) 自适应池化结果张量 + +返回类型 +:::::::::::: +变量(Variable),数据类型与 ``input`` 一致 -返回类型:变量(Variable),数据类型与 ``input`` 一致 +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` – ``pool_type`` 不是 ‘max’ 或 ‘avg’ - ``ValueError`` – 当 ``pool_type`` 是 ‘avg’ 时,错误地设置 ‘require_index’ 为true . diff --git a/docs/api/paddle/fluid/layers/add_position_encoding_cn.rst b/docs/api/paddle/fluid/layers/add_position_encoding_cn.rst index a3f7c711e7a..c64d06c78c2 100644 --- a/docs/api/paddle/fluid/layers/add_position_encoding_cn.rst +++ b/docs/api/paddle/fluid/layers/add_position_encoding_cn.rst @@ -22,18 +22,25 @@ add_position_encoding - PE(pos, 2i): pos位置对应的编码中偶数特征位上的值 - PE(pos, 2i + 1): pos位置对应的编码中奇数特征位上的值 -参数: +参数 +:::::::::::: + - **input** (Variable) – Tensor或LoD level为1的LoDTensor。Tensor时,其形状为 :math:`[N, M, P]` ,其中 :math:`N` 表示batch size, :math:`M` 表示序列长度, :math:`P` 为特征维度大小;LoDTensor时,其形状为 :math:`[N, P]` ,其中 :math:`N` 表示所有序列长度之和, :math:`P` 为特征维度大小。数据类型为float32或float64。 - **alpha** (float) – 加权求和时输入input的权重系数 - **beta** (float) – 加权求和时位置编码的权重系数 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 加上位置编码后的Tensor或LoDTensor,和输入(input)具有相同数据类型和形状及LoD信息。 +返回 +:::::::::::: + 加上位置编码后的Tensor或LoDTensor,和输入(input)具有相同数据类型和形状及LoD信息。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/affine_channel_cn.rst b/docs/api/paddle/fluid/layers/affine_channel_cn.rst index 996d7c0e837..7e40ca6d392 100644 --- a/docs/api/paddle/fluid/layers/affine_channel_cn.rst +++ b/docs/api/paddle/fluid/layers/affine_channel_cn.rst @@ -12,7 +12,9 @@ affine_channel 输入也可以是二维张量,并在第二维应用仿射变换。 -参数: +参数 +:::::::::::: + - **x** (Variable): 特征图输入可以是一个具有NCHW格式或NHWC格式的的4-D张量。它也可以是二维张量,此时该算法应用于第二维度的仿射变换。数据类型为float32或float64。 - **scale** (Variable): 维度为(C)的一维输入,第C个元素为输入的第C通道仿射变换的尺度因子。数据类型为float32或float64。 - **bias** (Variable): 维度为(C)的一维输入,第C个元素是输入的第C个通道的仿射变换的偏置。数据类型为float32或float64。 @@ -20,11 +22,16 @@ affine_channel - **name** (str,可选): 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **act** (str,可选): 应用于该层输出的激活函数,默认值为None。 -返回:与x具有相同维度和数据布局的张量, 数据类型与x相同 +返回 +:::::::::::: +与x具有相同维度和数据布局的张量, 数据类型与x相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/affine_grid_cn.rst b/docs/api/paddle/fluid/layers/affine_grid_cn.rst index 6fb027a1d99..a0ff1cfc59a 100644 --- a/docs/api/paddle/fluid/layers/affine_grid_cn.rst +++ b/docs/api/paddle/fluid/layers/affine_grid_cn.rst @@ -10,16 +10,23 @@ affine_grid 该OP用于生成仿射变换前后的feature maps的坐标映射关系。在视觉应用中,根据该OP得到的映射关系,将输入feature map的像素点变换到对应的坐标,就得到了经过仿射变换的feature map。 -参数: +参数 +:::::::::::: + - **theta** (Variable) - Shape为 ``[batch_size, 2, 3]`` 的Tensor,表示batch_size个 ``2X3`` 的变换矩阵。数据类型支持float32,float64。 - **out_shape** (Variable | list | tuple) - 类型可以是1-D Tensor、list或tuple。用于表示在仿射变换中的输出的shape,其格式 ``[N, C, H, W]`` ,分别为输出feature map的batch size、channel数量、高和宽。数据类型支持int32。 - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:api_guide_Name ,默认值为None。 -返回: Variable。Shape为 ``[N, H, W, 2]`` 的4-D Tensor,表示仿射变换前后的坐标的映射关系。其中,N、H、W分别为仿射变换中输出feature map的batch size、高和宽。 数据类型与 ``theta`` 一致。 +返回 +:::::::::::: + Variable。Shape为 ``[N, H, W, 2]`` 的4-D Tensor,表示仿射变换前后的坐标的映射关系。其中,N、H、W分别为仿射变换中输出feature map的batch size、高和宽。 数据类型与 ``theta`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/anchor_generator_cn.rst b/docs/api/paddle/fluid/layers/anchor_generator_cn.rst index c30fa66826a..b8bc843858d 100644 --- a/docs/api/paddle/fluid/layers/anchor_generator_cn.rst +++ b/docs/api/paddle/fluid/layers/anchor_generator_cn.rst @@ -12,7 +12,9 @@ anchor_generator 为RCNN算法生成anchor,输入的每一位产生N个anchor,N=size(anchor_sizes)*size(aspect_ratios)。生成anchor的顺序首先是aspect_ratios循环,然后是anchor_sizes循环。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为[N,C,H,W]的4-D Tensor。数据类型为float32或float64。 - **anchor_sizes** (float32|list|tuple,可选) - 生成anchor的anchor大小,以绝对像素的形式表示,例如:[64.,128.,256.,512.]。若anchor的大小为64,则意味着这个anchor的面积等于64**2。默认值为None。 - **aspect_ratios** (float32|list|tuple,可选) - 生成anchor的高宽比,例如[0.5,1.0,2.0]。默认值为None。 @@ -21,17 +23,22 @@ anchor_generator - **offset** (float32,可选) - 先验框的中心位移。默认值为0.5 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - 表示输出anchor的Tensor,数据类型为float32或float64。维度为[H,W,num_anchors,4]。 ``H`` 是输入的高度, ``W`` 是输入的宽度, ``num_anchors`` 是输入每位的框数,每个anchor格式(未归一化)为(xmin,ymin,xmax,ymax) - 表示输出variance的Tensor,数据类型为float32或float64。维度为[H,W,num_anchors,4]。 ``H`` 是输入的高度, ``W`` 是输入的宽度, ``num_anchors`` 是输入每个位置的框数,每个变量的格式为(xcenter,ycenter,w,h)。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/argmax_cn.rst b/docs/api/paddle/fluid/layers/argmax_cn.rst index d165ce8d699..b309cc7bd59 100644 --- a/docs/api/paddle/fluid/layers/argmax_cn.rst +++ b/docs/api/paddle/fluid/layers/argmax_cn.rst @@ -12,15 +12,22 @@ argmax 该OP沿 ``axis`` 计算输入 ``x`` 的最大元素的索引。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入的多维 ``Tensor`` ,支持的数据类型:float32、float64、int8、int16、int32、int64。 - **axis** (int,可选) - 指定对输入Tensor进行运算的轴, ``axis`` 的有效范围是[-R, R),R是输入 ``x`` 的Rank, ``axis`` 为负时与 ``axis`` +R 等价。默认值为0。 -返回: ``Tensor`` ,数据类型int64 +返回 +:::::::::::: + ``Tensor`` ,数据类型int64 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/argmin_cn.rst b/docs/api/paddle/fluid/layers/argmin_cn.rst index 7f3681b4024..f070311a328 100644 --- a/docs/api/paddle/fluid/layers/argmin_cn.rst +++ b/docs/api/paddle/fluid/layers/argmin_cn.rst @@ -12,15 +12,22 @@ argmin 该OP沿 ``axis`` 计算输入 ``x`` 的最小元素的索引。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入的多维 ``Tensor`` ,支持的数据类型:float32、float64、int8、int16、int32、int64。 - **axis** (int,可选) - 指定对输入Tensor进行运算的轴, ``axis`` 的有效范围是[-R, R),R是输入 ``x`` 的Rank, ``axis`` 为负时与 ``axis`` +R 等价。默认值为0。 -返回: ``Tensor`` ,数据类型int64 +返回 +:::::::::::: + ``Tensor`` ,数据类型int64 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/argsort_cn.rst b/docs/api/paddle/fluid/layers/argsort_cn.rst index de767e63387..d7cc4dd8345 100644 --- a/docs/api/paddle/fluid/layers/argsort_cn.rst +++ b/docs/api/paddle/fluid/layers/argsort_cn.rst @@ -11,17 +11,24 @@ argsort 对输入变量沿给定轴进行排序,输出排序好的数据和相应的索引,其维度和输入相同。**默认升序排列,如果需要降序排列设置** ``descending=True`` 。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入的多维 ``Tensor`` ,支持的数据类型:float32、float64、int16、int32、int64、uint8。 - **axis** (int,可选) - 指定对输入Tensor进行运算的轴, ``axis`` 的有效范围是[-R, R),R是输入 ``x`` 的Rank, ``axis`` 为负时与 ``axis`` +R 等价。默认值为0。 - **descending** (bool,可选) - 指定算法排序的方向。如果设置为True,算法按照降序排序。如果设置为False或者不设置,按照升序排序。默认值为False。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:一组已排序的输出(与 ``input`` 维度相同、数据类型相同)和索引(数据类型为int64)。 +返回 +:::::::::::: +一组已排序的输出(与 ``input`` 维度相同、数据类型相同)和索引(数据类型为int64)。 -返回类型:tuple[Variable] +返回类型 +:::::::::::: +tuple[Variable] -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/array_length_cn.rst b/docs/api/paddle/fluid/layers/array_length_cn.rst index 27fcaf003b8..b46114bf405 100644 --- a/docs/api/paddle/fluid/layers/array_length_cn.rst +++ b/docs/api/paddle/fluid/layers/array_length_cn.rst @@ -10,14 +10,21 @@ array_length 该OP用于获取输入数组 :ref:`cn_api_fluid_LoDTensorArray` 的长度。可以与 :ref:`cn_api_fluid_layers_array_read` 、 :ref:`cn_api_fluid_layers_array_write` 、 :ref:`cn_api_fluid_layers_While` OP结合使用,实现LoDTensorArray的遍历与读写。 -参数: +参数 +:::::::::::: + - **array** (LoDTensorArray) - 输入的数组LoDTensorArray -返回:shape为[1]的1-D Tensor, 表示数组LoDTensorArray的长度,数据类型为int64 +返回 +:::::::::::: +shape为[1]的1-D Tensor, 表示数组LoDTensorArray的长度,数据类型为int64 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/array_read_cn.rst b/docs/api/paddle/fluid/layers/array_read_cn.rst index 6e8cd4fb70e..71610512590 100644 --- a/docs/api/paddle/fluid/layers/array_read_cn.rst +++ b/docs/api/paddle/fluid/layers/array_read_cn.rst @@ -21,16 +21,23 @@ array_read 输出: output = [0.4, 0.2] -参数: +参数 +:::::::::::: + - **array** (Variable) - 输入的数组LoDTensorArray - **i** (Variable) - shape为[1]的1-D Tensor,表示从 ``array`` 中读取数据的位置,数据类型为int64 -返回:从 ``array`` 中指定位置读取的LoDTensor或Tensor +返回 +:::::::::::: +从 ``array`` 中指定位置读取的LoDTensor或Tensor -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/array_write_cn.rst b/docs/api/paddle/fluid/layers/array_write_cn.rst index 4f59d605093..101052ea857 100644 --- a/docs/api/paddle/fluid/layers/array_write_cn.rst +++ b/docs/api/paddle/fluid/layers/array_write_cn.rst @@ -10,16 +10,23 @@ array_write 该OP将输入的变量 ``x`` 写入到数组 :ref:`cn_api_fluid_LoDTensorArray` ``array`` 的第i个位置,并返回修改后的LoDTensorArray,如果 ``array`` 为None,则创建一个新的LoDTensorArray。常与 :ref:`cn_api_fluid_layers_array_read` OP联合使用对LoDTensorArray进行读写。 -参数: +参数 +:::::::::::: + - **x** (Variable) – 待写入的数据,多维Tensor或LoDTensor,数据类型支持float32,float64,int32,int64 - **i** (Variable) – shape为[1]的1-D Tensor,表示写入到输出数组LoDTensorArray的位置,数据类型为int64 - **array** (Variable,可选) – 指定写入 ``x`` 的数组LoDTensorArray。默认值为None, 此时将创建新的LoDTensorArray并作为结果返回 -返回: 写入输入 ``x`` 之后的LoDTensorArray +返回 +:::::::::::: + 写入输入 ``x`` 之后的LoDTensorArray -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/autoincreased_step_counter_cn.rst b/docs/api/paddle/fluid/layers/autoincreased_step_counter_cn.rst index 92d17ee1f0c..19ff5bd4b52 100644 --- a/docs/api/paddle/fluid/layers/autoincreased_step_counter_cn.rst +++ b/docs/api/paddle/fluid/layers/autoincreased_step_counter_cn.rst @@ -11,16 +11,23 @@ autoincreased_step_counter 创建一个自增变量,每个迭代累加一次,默认首次返回值为 1,默认累加步长为 1。 -参数: +参数 +:::::::::::: + - **counter_name** (str, 可选) - 该计数器的名称,默认为 ``@STEP_COUNTER@`` 。 - **begin** (int) - 该计数器返回的第一个值。 - **step** (int) - 累加步长。 -返回:累加结果,数据类型为 int64 +返回 +:::::::::::: +累加结果,数据类型为 int64 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/beam_search_cn.rst b/docs/api/paddle/fluid/layers/beam_search_cn.rst index d1d43f6b3fb..a3ccfdd13ed 100644 --- a/docs/api/paddle/fluid/layers/beam_search_cn.rst +++ b/docs/api/paddle/fluid/layers/beam_search_cn.rst @@ -22,7 +22,9 @@ beam_search -参数: +参数 +:::::::::::: + - **pre_ids** (Variable) - LoD level为2的LodTensor,表示前一时间步选择的候选id,是前一时间步 ``beam_search`` 的输出。第一步时,其形状应为为 :math:`[batch\_size,1]` , lod应为 :math:`[[0,1,...,batch\_size],[0,1,...,batch\_size]]` 。数据类型为int64。 - **pre_scores** (Variable) - 维度和LoD均与 ``pre_ids`` 相同的LodTensor,表示前一时间步所选id对应的累积得分,是前一时间步 ``beam_search`` 的输出。数据类型为float32。 - **ids** (None|Variable) - 包含候选id的LodTensor。LoD应与 ``pre_ids`` 相同,形状为 :math:`[batch\_size \times beam\_size,K]` ,其中第一维大小与 ``pre_ids`` 相同且``batch_size`` 会随样本到达结束而自动减小, ``K`` 应该大于 ``beam_size`` 。数据类型为int64。可为空,为空时使用 ``scores`` 上的索引作为id。 @@ -35,11 +37,16 @@ beam_search - **return_parent_idx** (bool,可选) - 指明是否返回一个额外的Tensor,该Tensor保存了选择的id的父节点(beam)在 ``pre_id`` 中索引,可用于通过gather OP更新其他Tensor的内容。默认为False。 -返回:Variable的二元组或三元组。二元组中包含了当前时间步选择的id和对应的累积得分两个LodTensor,形状相同且均为 :math:`[batch\_size×beam\_size,1]` ,LoD相同且level均为2,数据类型分别为int64和float32;若 ``return_parent_idx`` 为True时为三元组,多返回一个保存了父节点在 ``pre_id`` 中索引的Tensor,形状为 :math:`[batch\_size \times beam\_size]` ,数据类型为int64。 +返回 +:::::::::::: +Variable的二元组或三元组。二元组中包含了当前时间步选择的id和对应的累积得分两个LodTensor,形状相同且均为 :math:`[batch\_size×beam\_size,1]` ,LoD相同且level均为2,数据类型分别为int64和float32;若 ``return_parent_idx`` 为True时为三元组,多返回一个保存了父节点在 ``pre_id`` 中索引的Tensor,形状为 :math:`[batch\_size \times beam\_size]` ,数据类型为int64。 -返回类型:tuple +返回类型 +:::::::::::: +tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/beam_search_decode_cn.rst b/docs/api/paddle/fluid/layers/beam_search_decode_cn.rst index 21ee97b0f36..775bffbb9f8 100644 --- a/docs/api/paddle/fluid/layers/beam_search_decode_cn.rst +++ b/docs/api/paddle/fluid/layers/beam_search_decode_cn.rst @@ -24,19 +24,26 @@ beam_search_decode fluid/tests/book/test_machine_translation.py -参数: +参数 +:::::::::::: + - **id** (Variable) - 保存了每个时间步选择的id(beam_search OP的输出)的LoDTensorArray。其中每个LoDTensor的数据类型为int64,LoD level为2,LoD中保存了搜索路径信息。 - **score** (Variable) - 保存了每个时间步选择的id所对应累积得分(beam_search OP的输出)的LoDTensorArray,和 ``id`` 具有相同大小。其中每个LoDTensor要和 ``id`` 中相应LoDTensor具有相同的形状和LoD,表示其对应的累积得分。数据类型为float32。 - **beam_size** (int) - 指示束搜索中波束的宽度。 - **end_id** (int) - 指明标识序列结束的id。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: Variable的二元组, 包含了完整id序列和对应的累积得分两个LodTensor,数据类型分别为int64和float32,形状相同且均展开为1维,LoD相同且level均为2。根据两层LoD可分别得到每个源句(样本)有多少个生成序列和每个序列有多少个id。 +返回 +:::::::::::: + Variable的二元组, 包含了完整id序列和对应的累积得分两个LodTensor,数据类型分别为int64和float32,形状相同且均展开为1维,LoD相同且level均为2。根据两层LoD可分别得到每个源句(样本)有多少个生成序列和每个序列有多少个id。 -返回类型: tuple +返回类型 +:::::::::::: + tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/bipartite_match_cn.rst b/docs/api/paddle/fluid/layers/bipartite_match_cn.rst index 6d12015c5ab..c9d5af91dbc 100644 --- a/docs/api/paddle/fluid/layers/bipartite_match_cn.rst +++ b/docs/api/paddle/fluid/layers/bipartite_match_cn.rst @@ -17,22 +17,29 @@ bipartite_match 注意:此API是一个非常低级别的API。它由 ``ssd_loss`` 层使用。请考虑使用 ``ssd_loss`` 。 -参数: +参数 +:::::::::::: + - **dist_matrix** (Variable)- 维度为:[K,M]的2-D LoDTensor,数据类型为float32或float64。它是由每行和每列来表示实体之间的成对距离矩阵。例如,假设一个实体是具有形状[K]的A,另一个实体是具有形状[M]的B. dist_matrix [i] [j]是A[i]和B[j]之间的距离。距离越大,匹配越好。注意:此张量可以包含LoD信息以表示一批输入。该批次的一个实例可以包含不同数量的实体。 - **match_type** (str,可选)- 匹配方法的类型,应为'bipartite'或'per_prediction'。默认值为None,即'bipartite'。 - **dist_threshold** (float32,可选)- 如果match_type为'per_prediction',则此阈值用于根据最大距离确定额外匹配的bbox,默认值为None,即0.5。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - matched_indices(Variable)- 维度为[N,M]的2-D Tensor, 数据类型为int32。 N是批量大小。如果match_indices[i][j]为-1,则表示B[j]与第i个实例中的任何实体都不匹配。否则,这意味着在第i个实例中B[j]与行match_indices[i][j]匹配。第i个实>例的行号保存在match_indices[i][j]中。 - matched_distance(Variable)- 维度为[N,M]的2-D Tensor, 数据类型为float32,。 N是批量大小。如果match_indices[i][j]为-1,则match_distance[i][j]也为-1.0。否则,假设match_distance[i][j]=d,并且每个实例的行偏移称为LoD。然后match_distance[i][j]=dist_matrix[d]+ LoD[i]][j]。 -返回类型:Tuple +返回类型 +:::::::::::: +Tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/box_clip_cn.rst b/docs/api/paddle/fluid/layers/box_clip_cn.rst index de7c50d07b7..46b91d0b178 100644 --- a/docs/api/paddle/fluid/layers/box_clip_cn.rst +++ b/docs/api/paddle/fluid/layers/box_clip_cn.rst @@ -25,17 +25,24 @@ box_clip im_w = round(weight / scale) -参数: +参数 +:::::::::::: + - **input** (Variable) – 维度为[N_1, N_2, ..., N_k, 4]的多维Tensor,其中最后一维为box坐标维度。数据类型为float32或float64。 - **im_info** (Variable) – 维度为[N, 3]的2-D Tensor,N为输入图片个数。具有(高度height,宽度width,比例scale)图像的信息,其中高度和宽度是输入大小,比例是输入大小和原始大小的比率。数据类型为float32或float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 表示剪切后的检测框的Tensor或LoDTensor,数据类型为float32或float64,形状与输入检测框相同 +返回 +:::::::::::: + 表示剪切后的检测框的Tensor或LoDTensor,数据类型为float32或float64,形状与输入检测框相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/box_coder_cn.rst b/docs/api/paddle/fluid/layers/box_coder_cn.rst index 1bf1b4eeab8..5be5e68e687 100644 --- a/docs/api/paddle/fluid/layers/box_coder_cn.rst +++ b/docs/api/paddle/fluid/layers/box_coder_cn.rst @@ -42,7 +42,9 @@ Bounding Box Coder 在Box Decoding期间,支持两种broadcast模式。 假设目标框具有形状[N,M,4],并且prior框的形状可以是[N,4]或[M,4]。 然后,prior框将沿指定的轴broadcast到目标框。 -参数: +参数 +:::::::::::: + - **prior_box** (Variable) - 维度为[M,4]的2-D Tensor,M表示存储M个框,数据类型为float32或float64。先验框,每个框代表[xmin,ymin,xmax,ymax],[xmin,ymin]是先验框的左顶点坐标,如果输入数图像特征图,则接近坐标原点。[xmax,ymax]是先验框的右底点坐 标 - **prior_box_var** (list|Variable|None) - 支持三种输入类型,一是维度为:math:`[M,4]`的2-D Tensor,存储M个先验框的variance,数据类型为float32或float64。另外是一个长度为4的列表,所有先验框共用这个列表中的variance,数据类型为float32或float64。为None时不参与计算。 @@ -53,16 +55,21 @@ Bounding Box Coder - **axis** (int32) – 在PriorBox中为axis指定的轴broadcast以进行框解码,例如,如果axis为0,TargetBox具有形状[N,M,4]且PriorBox具有形状[M,4],则PriorBox将broadcast到[N,M,4]用于解码。仅在code_type为decode_center_size时有效。默认值为0 -返回: +返回 +:::::::::::: + - 表示解码或编码结果的Tensor或LoDTensor。数据类型为float32或float64。 - ``code_type`` 为 ``‘encode_center_size’`` 时,形状为[N,M,4]的编码结果,N为目标框的个数,M为先验框的个数。 - ``code_type`` 为 ``‘decode_center_size’`` 时,形状为[N,M,4]的解码结果,形状与输入目标框相同。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/box_decoder_and_assign_cn.rst b/docs/api/paddle/fluid/layers/box_decoder_and_assign_cn.rst index 87de42ed4c1..9434fb8091f 100644 --- a/docs/api/paddle/fluid/layers/box_decoder_and_assign_cn.rst +++ b/docs/api/paddle/fluid/layers/box_decoder_and_assign_cn.rst @@ -29,7 +29,9 @@ box decode过程得出decode_box,然后分配方案如下所述: -参数: +参数 +:::::::::::: + - **prior_box** (Variable) - 维度为[N,4]的2-D Tensor,包含N个框,数据类型为float32或float64。每个框表示为[xmin,ymin,xmax,ymax], [xmin,ymin]是anchor框的左上坐标,如果输入是图像特征图,则它们接近坐标系的原点。 [xmax,ymax]是anchor框的右下坐标 - **prior_box_var** (Variable) - 维度为[N,4]的2-D Tensor,包含N组variance。数据类型为float32或float64。 prior_box_var默认将所有元素设置为1 - **target_box** (Variable) - 维度为[N,classnum * 4]的2-D Tensor或LoDTensor,拥有N个目标框,数据类型为float32或float64。 @@ -38,16 +40,21 @@ box decode过程得出decode_box,然后分配方案如下所述: - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - 表示解压检测框的Tensor或LoDTensor,数据类型为float32,float64。维度为[N,classnum * 4],N个prior_box解码得到的N个目标框的结果。 - 表示输出最佳检测框的Tensor或LoDTensor,数据类型为float32,float64。维度为[N,4],N个prior_box解码后得到目标框,再选择最佳非背景类的目标框结果。 -返回类型:Tuple +返回类型 +:::::::::::: +Tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/bpr_loss_cn.rst b/docs/api/paddle/fluid/layers/bpr_loss_cn.rst index ac3a365034e..5efc9946428 100644 --- a/docs/api/paddle/fluid/layers/bpr_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/bpr_loss_cn.rst @@ -27,16 +27,23 @@ bpr_loss 更多细节请参考 `Session Based Recommendations with Recurrent Neural Networks` -参数: +参数 +:::::::::::: + - **input** (Variable) - 形为[T x D] , Tensor类型时T为batch大小,LoDTensor类型时T为mini-batch的总时间步。D 为正例加负例的个数。该输入为logits而非概率。数据类型是float32或float64。 - **label** (Variable) - 形为[T x 1],表示input中正例的下标,数据类型为int64。。 - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: 形为[T x 1]的2D张量,数据类型同input相同,表示bpr损失值。 +返回 +:::::::::::: + 形为[T x 1]的2D张量,数据类型同input相同,表示bpr损失值。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/brelu_cn.rst b/docs/api/paddle/fluid/layers/brelu_cn.rst index 545a942dafd..bff131ee9dd 100644 --- a/docs/api/paddle/fluid/layers/brelu_cn.rst +++ b/docs/api/paddle/fluid/layers/brelu_cn.rst @@ -13,18 +13,25 @@ BReLU 激活函数 .. math:: out=min(max(x,t\_min),t\_max) -参数: +参数 +:::::::::::: + - **x** (Variable) - 该OP的输入为多维Tensor。数据类型为float32,float64。 - **t_min** (float, 可选) - BRelu的最小值,默认值为0.0。 - **t_max** (float, 可选) - BRelu的最大值,默认值为24.0。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: + 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/center_loss_cn.rst b/docs/api/paddle/fluid/layers/center_loss_cn.rst index fb13738745b..886abf0d7a5 100644 --- a/docs/api/paddle/fluid/layers/center_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/center_loss_cn.rst @@ -19,7 +19,9 @@ center_loss -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入形状为[N x M]的2维张量,数据类型为float32,float64。 - **label** (Variable) - 输入的标签,一个形状为为[N x 1]的2维张量,N表示batch size,数据类型为int32。 @@ -28,11 +30,16 @@ center_loss - **param_attr** (ParamAttr) - 指定权重参数属性的对象。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **update_center** (bool) - 是否更新类别中心的参数。 -返回:形状为[N x 1]的2维Tensor|LoDTensor。 +返回 +:::::::::::: +形状为[N x 1]的2维Tensor|LoDTensor。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/collect_fpn_proposals_cn.rst b/docs/api/paddle/fluid/layers/collect_fpn_proposals_cn.rst index b20a73a6bac..923f843b85c 100644 --- a/docs/api/paddle/fluid/layers/collect_fpn_proposals_cn.rst +++ b/docs/api/paddle/fluid/layers/collect_fpn_proposals_cn.rst @@ -16,7 +16,9 @@ collect_fpn_proposals 5、通过对应的batch_id重新对RoIs排序。 -参数: +参数 +:::::::::::: + - **multi_rois** (list) – 要收集的RoIs列表,列表中的元素为[N, 4]的2-D LoDTensor, 数据类型为float32或float64,其中N为RoI的个数。 - **multi_scores** (list) - 要收集的RoIs对应分数的列表,列表中的元素为[N, 1]的2-D LoDTensor, 数据类型为float32或float64,其中N为RoI的个数。 - **min_level** (int) - 要收集的FPN层的最低级 @@ -24,13 +26,18 @@ collect_fpn_proposals - **post_nms_top_n** (int) – 所选RoIs的数目 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:表示选定具有高分数的RoIs的LoDTensor,数据类型为float32或float64,同时具有LoD信息,维度为[M, 4],其中M为post_nms_top_n。 +返回 +:::::::::::: +表示选定具有高分数的RoIs的LoDTensor,数据类型为float32或float64,同时具有LoD信息,维度为[M, 4],其中M为post_nms_top_n。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/concat_cn.rst b/docs/api/paddle/fluid/layers/concat_cn.rst index a0c2ade9178..ab307226ebf 100644 --- a/docs/api/paddle/fluid/layers/concat_cn.rst +++ b/docs/api/paddle/fluid/layers/concat_cn.rst @@ -8,14 +8,19 @@ concat 该OP对输入沿 ``axis`` 轴进行联结,返回一个新的Tensor。 -参数: +参数 +:::::::::::: + - **input** (list|tuple|Tensor) - 待联结的Tensor list,Tensor tuple或者Tensor,支持的数据类型为:bool、float16、 float32、float64、int32、int64。 ``input`` 中所有Tensor的数据类型必须一致。 - **axis** (int|Tensor,可选) - 指定对输入Tensor进行运算的轴,可以是整数或者形状为[1]的Tensor,数据类型为int32或者int64。 ``axis`` 的有效范围是[-R, R),R是输入 ``input`` 中Tensor 的维度, ``axis`` 为负值时与 :math:`axis + R` 等价。默认值为0。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:联结后的 ``Tensor`` ,数据类型和 ``input`` 中的Tensor相同。 +返回 +:::::::::::: +联结后的 ``Tensor`` ,数据类型和 ``input`` 中的Tensor相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/continuous_value_model_cn.rst b/docs/api/paddle/fluid/layers/continuous_value_model_cn.rst index 122fa181ab2..fe6072afa4f 100644 --- a/docs/api/paddle/fluid/layers/continuous_value_model_cn.rst +++ b/docs/api/paddle/fluid/layers/continuous_value_model_cn.rst @@ -14,16 +14,23 @@ continuous_value_model 输入 ``input`` 是一个含展示(show)和点击(click)的词向量,其形状为 :math:`[N, D]` (N为batch大小,D为 `2 + 嵌入维度` ),show和click占据词向量D的前两维。如果 ``use_cvm=True`` ,它会计算 :math:`log(show)` 和 :math:`log(click)` ,输出的形状为 :math:`[N, D]` 。如果 ``use_cvm=False`` ,它会从输入 ``input`` 中移除show和click,输出的形状为 :math:`[N, D - 2]` 。 ``cvm`` 为show和click信息,维度为 :math:`[N, 2]` 。 -参数: +参数 +:::::::::::: + - **input** (Variable) - cvm操作的输入张量。维度为 :math:`[N, D]` 的2-D LoDTensor。 N为batch大小, D为 `2 + 嵌入维度` , `lod level = 1` 。 - **cvm** (Variable) - cvm操作的展示和点击张量。维度为 :math:`[N, 2]` 的2-D Tensor。 N为batch大小,2为展示和点击值。 - **use_cvm** (bool) - 是否使用展示和点击信息。如果使用,输出维度和输入相等,对 ``input`` 中的展示和点击值取log;如果不使用,输出维度为输入减2(移除展示和点击值)。 -返回:Variable(LoDTensor)变量, :math:`[N, M]` 的2-D LoDTensor。如果 ``use_cvm=True`` ,M等于输入的维度D,否则M等于 `D - 2` 。 +返回 +:::::::::::: +Variable(LoDTensor)变量, :math:`[N, M]` 的2-D LoDTensor。如果 ``use_cvm=True`` ,M等于输入的维度D,否则M等于 `D - 2` 。 -返回类型:变量(Variable),数据类型与 ``input`` 一致。 +返回类型 +:::::::::::: +变量(Variable),数据类型与 ``input`` 一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/cosine_decay_cn.rst b/docs/api/paddle/fluid/layers/cosine_decay_cn.rst index 7c5e1df7aac..8da041b5327 100644 --- a/docs/api/paddle/fluid/layers/cosine_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/cosine_decay_cn.rst @@ -16,7 +16,9 @@ cosine_decay decayed\_lr = learning\_rate * 0.5 * (cos(epoch * math.pi / epochs) + 1) -参数: +参数 +:::::::::::: + - **learning_rate** (Variable | float) - 初始学习率。 - **step_each_epoch** (int) - 一次迭代中的步数。 - **epochs** - 总迭代次数。 @@ -24,7 +26,8 @@ cosine_decay -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/create_array_cn.rst b/docs/api/paddle/fluid/layers/create_array_cn.rst index 1426688b11b..23e36d4146c 100644 --- a/docs/api/paddle/fluid/layers/create_array_cn.rst +++ b/docs/api/paddle/fluid/layers/create_array_cn.rst @@ -12,15 +12,22 @@ create_array 此OP创建一个LoDTensorArray,它可以用作 :ref:`cn_api_fluid_layers_array\_write` , :ref:`cn_api_fluid_layers_array\_read` OP的输入,以及和 :ref:`cn_api_fluid_layers_While` OP 一起创建RNN网络。 -参数: +参数 +:::::::::::: + - **dtype** (str) — 指定Tensor中元素的数据类型,支持的数据类型值:float32,float64,int32,int64。 -返回: 返回创建的空LoDTensorArray,Tensor中的元素数据类型为指定的dtype。 +返回 +:::::::::::: + 返回创建的空LoDTensorArray,Tensor中的元素数据类型为指定的dtype。 -返回类型: Variable。 +返回类型 +:::::::::::: + Variable。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/create_py_reader_by_data_cn.rst b/docs/api/paddle/fluid/layers/create_py_reader_by_data_cn.rst index 62aa2edf605..ddf9724d599 100644 --- a/docs/api/paddle/fluid/layers/create_py_reader_by_data_cn.rst +++ b/docs/api/paddle/fluid/layers/create_py_reader_by_data_cn.rst @@ -11,17 +11,24 @@ create_py_reader_by_data 创建一个Python端提供数据的reader。该OP与 :ref:`cn_api_fluid_layers_py_reader` 类似,不同点在于它能够从feed变量列表读取数据。 -参数: +参数 +:::::::::::: + - **capacity** (int) - ``py_reader`` 维护的队列缓冲区的容量大小。单位是batch数量。若reader读取速度较快,建议设置较大的 ``capacity`` 值。 - **feed_list** (list(Variable)) - feed变量列表,这些变量一般由 :code:`fluid.data()` 创建。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **use_double_buffer** (bool,可选) - 是否使用双缓冲区,双缓冲区是为了预读下一个batch的数据、异步CPU -> GPU拷贝。默认值为True。 -返回:能够从feed变量列表读取数据的reader,数据类型和feed变量列表中变量的数据类型相同。 +返回 +:::::::::::: +能够从feed变量列表读取数据的reader,数据类型和feed变量列表中变量的数据类型相同。 -返回类型:reader +返回类型 +:::::::::::: +reader -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/create_tensor_cn.rst b/docs/api/paddle/fluid/layers/create_tensor_cn.rst index 7c781a6cda1..7d8d65fce4d 100644 --- a/docs/api/paddle/fluid/layers/create_tensor_cn.rst +++ b/docs/api/paddle/fluid/layers/create_tensor_cn.rst @@ -10,16 +10,23 @@ create_tensor 创建数据类型为dtype的Tensor。 -参数: +参数 +:::::::::::: + - **dtype** (str|numpy.dtype) - 创建的Tensor的数据类型,支持数据类型为bool, float16, float32, float64, int8, int16, int32, int64。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **persistable** (bool,可选) - 用于设置创建的Tensor的persistable属性,若不设置则默认设置为False。 -返回: 创建的Tensor,数据类型为dtype。 +返回 +:::::::::::: + 创建的Tensor,数据类型为dtype。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/crop_cn.rst b/docs/api/paddle/fluid/layers/crop_cn.rst index 18d375f06d5..1c3cc755ffe 100644 --- a/docs/api/paddle/fluid/layers/crop_cn.rst +++ b/docs/api/paddle/fluid/layers/crop_cn.rst @@ -43,20 +43,29 @@ crop [3, 4, 6]]. -参数: +参数 +:::::::::::: + - **x** (Variable): 多维Tensor,数据类型为float32 - **shape** (Variable|list/tuple of integers) - 指定输出Tensor的形状,它可以是一个Tensor/整数列表/整数元组。如果是Tensor,它的秩必须与x相同,它的形状指定了输出Tensor的形状,它的元素的数值在这里不起作用,该方式适用于每次迭代时候需要改变输出形状的情况。如果是整数列表/元组,则其长度必须与x的秩相同 - **offsets** (Variable|list/tuple of integers|None,可选) - 指定每个维度上的裁剪的偏移量,它可以是一个Tensor,或者一个整数列表/整数元组。如果是一个Tensor,它的秩必须与x相同,这种方法适用于每次迭代的偏移量(offset)都可能改变的情况。如果是一个整数列表/元组,则长度必须与x的秩相同,如果offsets=None,则每个维度的偏移量为0。默认值为None - **name** (str|None,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: 经过形状裁剪之后的Tensor,与输入x具有相同的数据类型 +返回 +:::::::::::: + 经过形状裁剪之后的Tensor,与输入x具有相同的数据类型 -返回类型: Variable +返回类型 +:::::::::::: + Variable -抛出异常: 如果形状不是列表、元组或Variable,抛出ValueError +抛出异常 +:::::::::::: + 如果形状不是列表、元组或Variable,抛出ValueError -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/cross_entropy_cn.rst b/docs/api/paddle/fluid/layers/cross_entropy_cn.rst index 6eec7df61e5..46abe6a20c8 100644 --- a/docs/api/paddle/fluid/layers/cross_entropy_cn.rst +++ b/docs/api/paddle/fluid/layers/cross_entropy_cn.rst @@ -20,16 +20,21 @@ cross_entropy .. math:: \\output[i_1, i_2, ..., i_k]= -\sum_{j}label[i_1,i_2,...,i_k,j]*log(input[i_1, i_2, ..., i_k,j])\\ -参数: +参数 +:::::::::::: + - **input** (Tensor) – 维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 - **label** (Tensor) – 输入input对应的标签值。若soft_label=False,要求label维度为 :math:`[N_1, N_2, ..., N_k]` 或 :math:`[N_1, N_2, ..., N_k, 1]` ,数据类型为int64,且值必须大于等于0且小于D;若soft_label=True,要求label的维度、数据类型与input相同,且每个样本各软标签的总和为1。 - **soft_label** (bool) – 指明label是否为软标签。默认为False,表示label为硬标签;若soft_label=True则表示软标签。 - **ignore_index** (int) – 指定一个忽略的标签值,此标签值不参与计算,负值表示无需忽略任何标签值。仅在soft_label=False时有效。 默认值为-100。 -返回:Tensor, 表示交叉熵结果的Tensor,数据类型与input相同。若soft_label=False,则返回值维度与label维度相同;若soft_label=True,则返回值维度为 :math:`[N_1, N_2, ..., N_k, 1]` 。 +返回 +:::::::::::: +Tensor, 表示交叉熵结果的Tensor,数据类型与input相同。若soft_label=False,则返回值维度与label维度相同;若soft_label=True,则返回值维度为 :math:`[N_1, N_2, ..., N_k, 1]` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/ctc_greedy_decoder_cn.rst b/docs/api/paddle/fluid/layers/ctc_greedy_decoder_cn.rst index c2d8f67ca85..7cd031d700b 100644 --- a/docs/api/paddle/fluid/layers/ctc_greedy_decoder_cn.rst +++ b/docs/api/paddle/fluid/layers/ctc_greedy_decoder_cn.rst @@ -75,17 +75,24 @@ ctc_greedy_decoder output_length.data = [[2], [1]] -参数: +参数 +:::::::::::: + - **input** (Variable) — 变长序列的概率, 在输入为LoDTensor情况下,它是具有LoD信息的二维LoDTensor。 形状为[Lp,num_classes +1],其中Lp是所有输入序列的长度之和,num_classes是真实的类数。 在输入为Tensor情况下,它是带有填充的3-D张量,其形状为[batch_size,N,num_classes +1]。 (不包括空白标签)。 数据类型可以是float32或float64。 - **blank** (int) — Connectionist Temporal Classification (CTC) loss空白标签索引, 其数值属于半开区间[0,num_classes + 1) - **name** (str) — (str|None,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None -返回:对于输入为LoDTensor的情况,返回CTC贪婪解码器的结果,即2-D LoDTensor,形状为[Lp,1],数据类型为int64。 “ Lp”是所有输出序列长度的总和。 如果结果中的所有序列均为空,则结果LoDTensor将为[-1],其中LoD为[[]]。对于输入为Tensor的情况,返回一个元组,(output, output_length), 其中,output是一个形状为 [batch_size, N],类型为int64的Tensor。output_length是一个形状为[batch_size, 1],类型为int64的Tensor,表示Tensor输入下,每个输出序列的长度。 +返回 +:::::::::::: +对于输入为LoDTensor的情况,返回CTC贪婪解码器的结果,即2-D LoDTensor,形状为[Lp,1],数据类型为int64。 “ Lp”是所有输出序列长度的总和。 如果结果中的所有序列均为空,则结果LoDTensor将为[-1],其中LoD为[[]]。对于输入为Tensor的情况,返回一个元组,(output, output_length), 其中,output是一个形状为 [batch_size, N],类型为int64的Tensor。output_length是一个形状为[batch_size, 1],类型为int64的Tensor,表示Tensor输入下,每个输出序列的长度。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/cumsum_cn.rst b/docs/api/paddle/fluid/layers/cumsum_cn.rst index 8e6f238b873..5ec41da6cab 100644 --- a/docs/api/paddle/fluid/layers/cumsum_cn.rst +++ b/docs/api/paddle/fluid/layers/cumsum_cn.rst @@ -8,17 +8,24 @@ cumsum 沿给定轴(axis)的元素的累加和。默认结果的第一个元素和输入的第一个元素一致。如果exlusive为True,结果的第一个元素则为0。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 累加的输入,需要进行累加操作的变量Tensor/LoDTensor。 - **axis** (int,可选) - 指明需要累加的维。-1代表最后一维。默认为:-1。 - **exclusive** (bool,可选) - 是否执行exclusive累加。默认为:False。 - **reverse** (bool,可选) - 若为True,则以相反顺序执行累加。默认为:False。 -返回:Variable(Tensor)。是累加的结果,即累加器的输出。 +返回 +:::::::::::: +Variable(Tensor)。是累加的结果,即累加器的输出。 -返回类型:变量(Variable)。 +返回类型 +:::::::::::: +变量(Variable)。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/data_cn.rst b/docs/api/paddle/fluid/layers/data_cn.rst index 14a6ab6ea1d..9ef1928c0c9 100644 --- a/docs/api/paddle/fluid/layers/data_cn.rst +++ b/docs/api/paddle/fluid/layers/data_cn.rst @@ -21,17 +21,24 @@ data 本API创建的变量默认 ``stop_gradient`` 属性为true,这意味这反向梯度不会被传递过这个数据变量。如果用户想传递反向梯度,可以设置 ``var.stop_gradient = False`` 。 -参数: +参数 +:::::::::::: + - **name** (str)- 被创建的变量的名字,具体用法请参见 :ref:`api_guide_Name` 。 - **shape** (list|tuple)- 声明维度信息的list或tuple。 - **dtype** (np.dtype|VarType|str,可选)- 数据类型,支持bool,float16,float32,float64,int8,int16,int32,int64,uint8。默认值为float32。 - **lod_level** (int,可选)- LoDTensor变量的LoD level数,LoD level是PaddlePaddle的高级特性,一般任务中不会需要更改此默认值,关于LoD level的详细适用场景和用法请见 :ref:`cn_user_guide_lod_tensor` 。默认值为0。 -返回:全局变量,可进行数据访问 +返回 +:::::::::::: +全局变量,可进行数据访问 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/deformable_conv_cn.rst b/docs/api/paddle/fluid/layers/deformable_conv_cn.rst index 7ba3b80ae16..363b94215d9 100644 --- a/docs/api/paddle/fluid/layers/deformable_conv_cn.rst +++ b/docs/api/paddle/fluid/layers/deformable_conv_cn.rst @@ -48,7 +48,9 @@ deformable_conv op对输入4-D Tensor计算2-D可变形卷积。给定输入Tens W_{out}&= \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (W_f - 1) + 1))}{strides[1]} + 1 -参数: +参数 +:::::::::::: + - **input** (Variable) - 形状为 :math:`[N, C, H, W]` 的输入Tensor,数据类型为float32或float64。 - **offset** (Variable) – 可变形卷积层的输入坐标偏移,数据类型为float32或float64。 - **mask** (Variable, 可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 @@ -65,13 +67,20 @@ deformable_conv op对输入4-D Tensor计算2-D可变形卷积。给定输入Tens - **modulated** (bool)- 确定使用v1和v2中的哪个版本,如果为True,则选择使用v2。默认值为True。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:可变形卷积输出的4-D Tensor,数据类型为float32或float64。 +返回 +:::::::::::: +可变形卷积输出的4-D Tensor,数据类型为float32或float64。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -抛出异常:ValueError – 如果input, filter_size, stride, padding和groups的大小不匹配。 +抛出异常 +:::::::::::: +ValueError – 如果input, filter_size, stride, padding和groups的大小不匹配。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/deformable_roi_pooling_cn.rst b/docs/api/paddle/fluid/layers/deformable_roi_pooling_cn.rst index a1f4aba7203..abda8e2dc6b 100644 --- a/docs/api/paddle/fluid/layers/deformable_roi_pooling_cn.rst +++ b/docs/api/paddle/fluid/layers/deformable_roi_pooling_cn.rst @@ -21,7 +21,9 @@ deformable_roi_pooling 3、在每一个bin中去均匀采样一些像素点,获取其中的均值去作为我们的输出。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 可变形感兴趣区域(ROI)池化层的输入,输入为数据类型为float32的Tensor。输入张量的形状为[N,C,H,W]。其中N是批量大小,C是输入通道的数量,H是特征的高度,W是特征的宽度。 - **rois** (Variable)- 将池化的ROIs(感兴趣区域),应为一个形状为(num_rois,4)的2-D LoDTensor,且lod level为1。其中值为[[x1,y1,x2,y2],...],(x1,y1)为左上角坐标,(x2, y2)为右下角坐标。 - **trans** (Variable)- 池化时ROIs上的特征偏移,输入为数据类型为float32的Tensor。格式为[N,C,H,W],其中N是ROIs的数量,C是通道的数量,指示x和y方向上的偏移距离,H是池化的高度,W是池化的宽度。 @@ -36,12 +38,17 @@ deformable_roi_pooling - **position_sensitive** (bool)- 是否选择可变形位置敏感型感兴趣区域(PSROI)池化模式,数值类型为bool型。如果为False,输入维度和输出维度相等。如果为True,输入维度等于输出维度乘以pooled_width和pooled_height。默认为False。 - **name** (str)- 此层的名称,默认为None。 -返回: 可变形感兴趣区域(ROI)池化的输出,如果position_sensitive为False,输出维度和输出维度相等。如果position_sensitive为True,输出维度等于输入维度除以pooled_width和pooled_height。 +返回 +:::::::::::: + 可变形感兴趣区域(ROI)池化的输出,如果position_sensitive为False,输出维度和输出维度相等。如果position_sensitive为True,输出维度等于输入维度除以pooled_width和pooled_height。 -返回类型: Variable, 数据类型为float32. +返回类型 +:::::::::::: + Variable, 数据类型为float32. -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/density_prior_box_cn.rst b/docs/api/paddle/fluid/layers/density_prior_box_cn.rst index e6ca219728c..f1015729a1d 100644 --- a/docs/api/paddle/fluid/layers/density_prior_box_cn.rst +++ b/docs/api/paddle/fluid/layers/density_prior_box_cn.rst @@ -16,7 +16,9 @@ density_prior_box N\_density\_prior\_box =sum(N\_fixed\_ratios * {densities\_i}^2) -参数: +参数 +:::::::::::: + - **input** (Variable) - 形状为NCHW的4-D Tensor,数据类型为float32或float64。 - **image** (Variable) - 输入图像,形状为NCHW的4-D Tensor,数据类型为float32或float64。 - **densities** (list|tuple|None) - 生成的density prior boxes的densities,此属性应该是一个整数列表或数组。默认值为None。 @@ -30,7 +32,9 @@ density_prior_box - **name** (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:含有两个变量的元组,包括: +返回 +:::::::::::: +含有两个变量的元组,包括: 候选框: 当flatten_to_2d为False时,形状为[H, W, num_priors, 4]的4-D Tensor。 @@ -43,9 +47,12 @@ density_prior_box 当flatten_to_2d为True时,形式为[H * W * num_priors, 4]的2-D Tensor。 其中,H是输入的高度,W是输入的宽度,num_priors是输入中每个位置的候选框数。 -返回类型:元组 +返回类型 +:::::::::::: +元组 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/detection_output_cn.rst b/docs/api/paddle/fluid/layers/detection_output_cn.rst index 52f4657f727..6e7f231ce70 100644 --- a/docs/api/paddle/fluid/layers/detection_output_cn.rst +++ b/docs/api/paddle/fluid/layers/detection_output_cn.rst @@ -16,7 +16,9 @@ detection_output 请注意,该操作符没有将最终输出边界框clip至图像大小。 -参数: +参数 +:::::::::::: + - **loc** (Variable) - 3-D Tensor,数据类型为float32或float64,表示回归位置偏移。维度为[N,M,4],M是输入的预测bounding box的个数,N是batch size,每个bounding box有四个坐标值,格式为[xmin,ymin,xmax,ymax],[xmin,ymin]是左上角坐标,[xmax,ymax]是右下角坐标。 - **scores** (Variable) - 3-D Tensor,数据类型为float32或float64,表示未归一化的置信度。维度为[N,M,C],N和M的含义同上,C是类别数。 - **prior_box** (Variable) - 2-D Tensor,表示先验框。维度为[M,4],M是提取的先验框个数,格式为[xmin,ymin,xmax,ymax]。 @@ -28,12 +30,17 @@ detection_output - **score_threshold** (float) - 置信度得分阈值(Threshold),在NMS之前用来过滤低置信数的边界框(bounding box)。若未提供,则考虑所有框。默认值是0.001。 - **nms_eta** (float) - 一种adaptive NMS的参数,仅当该值小于1.0时才起作用。默认值是1.0。 -返回: +返回 +:::::::::::: + 输出是2-D LoDTensor,形状为[No,6]。每行有6个值:[label,confidence,xmin,ymin,xmax,ymax]。No是该mini-batch总的检测框数。LoD的层级数为1,如果采用偏移的LoD表示,则第i个图像有 ``LoD[i+1] - LoD[i]`` 个检测结果,如果等于0,则表示无检测结果。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/diag_cn.rst b/docs/api/paddle/fluid/layers/diag_cn.rst index 72b7b68d507..edea4f4cefb 100644 --- a/docs/api/paddle/fluid/layers/diag_cn.rst +++ b/docs/api/paddle/fluid/layers/diag_cn.rst @@ -10,14 +10,21 @@ diag 该OP创建一个方阵,使用输入diagonal来指定方阵的对角线元素的值。 -参数: +参数 +:::::::::::: + - **diagonal** (Variable|numpy.ndarray) — 数据shape为 :math:`[N]` 一维Tensor,会把该Tensor的元素赋在方阵的对角线上。数据类型可以是 float32,float64,int32,int64。 -返回:存储着方阵的Tensor,对角线值是输入Tensor diagonal的值, 数据shape为 :math:`[N, N]` 二维Tensor。 +返回 +:::::::::::: +存储着方阵的Tensor,对角线值是输入Tensor diagonal的值, 数据shape为 :math:`[N, N]` 二维Tensor。 -返回类型:Variable,数据类型和输入数据类型一致。 +返回类型 +:::::::::::: +Variable,数据类型和输入数据类型一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/distribute_fpn_proposals_cn.rst b/docs/api/paddle/fluid/layers/distribute_fpn_proposals_cn.rst index fbe393d8d1a..a3cb8d989ce 100644 --- a/docs/api/paddle/fluid/layers/distribute_fpn_proposals_cn.rst +++ b/docs/api/paddle/fluid/layers/distribute_fpn_proposals_cn.rst @@ -17,7 +17,9 @@ distribute_fpn_proposals 其中BBoxArea方法用来计算每个RoI的区域。 -参数: +参数 +:::::::::::: + - **fpn_rois** (Variable) - 维度为[N,4]的2-D LoDTensor,其中N为检测框的个数,数据类型为float32或float64。 - **min_level** (int32) - 产生proposal最低级别FPN层。 - **max_level** (int32) - 产生proposal最高级别FPN层。 @@ -25,16 +27,21 @@ distribute_fpn_proposals - **refer_scale** (int32) - 具有指定级别的FPN层的引用比例。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - multi_rois(List)- 长度为(max_level-min_level+1)的列表,其中元素为Variable,维度为[M, 4]的2-D LoDTensor,M为每个级别proposal的个数,数据类型为float32或float64。表示每个FPN级别包含的proposals。 - restore_ind(Variable)- 维度为[N,1]的Tensor,N是总rois的数量。数据类型为int32。 它用于恢复fpn_rois的顺序。 -返回类型:Tuple +返回类型 +:::::::::::: +Tuple -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/double_buffer_cn.rst b/docs/api/paddle/fluid/layers/double_buffer_cn.rst index f9fe3b110ab..93c72abab3b 100644 --- a/docs/api/paddle/fluid/layers/double_buffer_cn.rst +++ b/docs/api/paddle/fluid/layers/double_buffer_cn.rst @@ -11,19 +11,26 @@ double_buffer 生成一个双缓冲队列Reader。Reader类有DecoratedReader和FileReader,其中DecoratedReader又可以细分成CustomReader和BufferedReader。这里是基于BufferedReader,数据将复制到具有双缓冲队列的位置(由place指定),如果 ``place=None`` 则将使用executor执行的位置。 -参数: +参数 +:::::::::::: + - **reader** (Variable) – 需要wrap的reader变量Reader。 - **place** (Place,可选) – 目标数据的位置,比如CPU,GPU,GPU需要指明是哪张卡。默认是executor执行样本的位置。 - **name** (str,可选) – 变量的名字。该参数供开发人员打印调试信息时使用,具体用法参见 :ref:`api_guide_Name`,默认值为None。 -返回:Variable(Reader)。双缓冲队列的reader。 +返回 +:::::::::::: +Variable(Reader)。双缓冲队列的reader。 -返回类型:变量(Variable)。 +返回类型 +:::::::::::: +变量(Variable)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/dropout_cn.rst b/docs/api/paddle/fluid/layers/dropout_cn.rst index bdf27eab620..e99c70de7f3 100644 --- a/docs/api/paddle/fluid/layers/dropout_cn.rst +++ b/docs/api/paddle/fluid/layers/dropout_cn.rst @@ -14,7 +14,9 @@ dropout操作 dropout op可以从Program中删除,提高执行效率。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入,多维Tensor。数据类型:float32和float64。 - **dropout_prob** (float32) - 输入单元的丢弃概率,即输入单元设置为0的概率。 - **is_test** (bool) - 标记是否是测试阶段。默认:False。 @@ -40,11 +42,16 @@ dropout op可以从Program中删除,提高执行效率。 dropout操作符可以从程序中移除,使程序变得高效。 -返回:Tensor。经过丢弃部分数据之后的结果,与输入X形状相同的张量。 +返回 +:::::::::::: +Tensor。经过丢弃部分数据之后的结果,与输入X形状相同的张量。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/dynamic_gru_cn.rst b/docs/api/paddle/fluid/layers/dynamic_gru_cn.rst index ac3565e6dff..dc1a75cd7b9 100644 --- a/docs/api/paddle/fluid/layers/dynamic_gru_cn.rst +++ b/docs/api/paddle/fluid/layers/dynamic_gru_cn.rst @@ -41,7 +41,9 @@ dynamic_gru :math:`W_{uh}, b_u` 、 :math:`W_{rh}, b_r` 和 :math:`W_{ch}, b_c` 分别代表更新门、重置门和候选隐状态在计算时使用的权重矩阵和偏置。在实现上,三个权重矩阵合并为一个 :math:`[D, D \times 3]` 形状的Tensor存放,三个偏置拼接为一个 :math:`[1, D \times 3]` 形状的Tensor存放,其中 :math:`D` 为隐单元的数目;权重Tensor存放布局为: :math:`W_{uh}` 和 :math:`W_{rh}` 拼接为 :math:`[D, D \times 2]` 形状位于前半部分,:math:`W_{ch}` 以 :math:`[D, D]` 形状位于后半部分。 -参数: +参数 +:::::::::::: + - **input** (Variable) – LoD level为1的LoDTensor,表示经线性变换后的序列输入,形状为 :math:`[T, D \times 3]` ,其中 :math:`T` 表示mini-batch中所有序列长度之和, :math:`D` 为隐状态特征维度的大小。数据类型为float32或float64。 - **size** (int) – 隐状态特征维度的大小 - **param_attr** (ParamAttr,可选) – 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -52,12 +54,17 @@ dynamic_gru - **h_0** (Variable,可选) – 表示初始隐状态的Tensor,若未提供,则默认为0。其形状为 :math:`[N, D]` , 其中 :math:`N` 为输入mini-batch中序列的数目, :math:`D` 为隐状态特征维度的大小。数据类型与 ``input`` 相同。默认值为None。 - **origin_mode** (bool,可选) – 指明要使用的GRU计算方式,两种计算方式具体差异见公式描述,默认值为False。 -返回: 形状为 :math:`[T, D]` 、LoD level为1的LoDTensor,其中 :math:`T` 表示mini-batch中所有序列长度之和, :math:`D` 为隐状态特征维度的大小。表示经过GRU变换的输出特征序列,和 ``input`` 具有相同的LoD(序列长度)和数据类型。 +返回 +:::::::::::: + 形状为 :math:`[T, D]` 、LoD level为1的LoDTensor,其中 :math:`T` 表示mini-batch中所有序列长度之和, :math:`D` 为隐状态特征维度的大小。表示经过GRU变换的输出特征序列,和 ``input`` 具有相同的LoD(序列长度)和数据类型。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/dynamic_lstm_cn.rst b/docs/api/paddle/fluid/layers/dynamic_lstm_cn.rst index 7b542a2c87d..cc9c101bbc3 100755 --- a/docs/api/paddle/fluid/layers/dynamic_lstm_cn.rst +++ b/docs/api/paddle/fluid/layers/dynamic_lstm_cn.rst @@ -45,7 +45,9 @@ dynamic_lstm - :math:`act_g, act_h` 分别表示 cell 输入和 cell 输出的非线性激活函数,默认为 tanh - :math:`\odot` 表示矩阵的 Hadamard product,即对两个维度相同的矩阵,将相同位置的元素相乘,得到另一个维度相同的矩阵 -参数: +参数 +:::::::::::: + - **input** ( :ref:`api_guide_Variable` ) 维度为 :math:`[T, 4*hidden\_size]` 的多维 LoDTensor(必须在传入该OP前对维度为 :math:`[T, hidden\_size]` 的输入经过线性变换得到),其中 T 为 batch 中所有样本的长度之和,hidden_size 为隐层大小,数据类型为 float32 或者 float64。 - **size** (int) – 必须为 4*hidden_size。 - **h_0** ( :ref:`api_guide_Variable` ,可选) 维度为 :math:`[batch\_size, hidden\_size]` 的多维 Tensor,其中 hidden_size 为隐层大小,数据类型为 float32 或者 float64。如果为 None,该OP会自动设置为全0的向量。默认值为None。 @@ -60,15 +62,20 @@ dynamic_lstm - **dtype** (str,可选) – 数据类型为 float32 或者 float64。默认值为 float32。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:经过lstm运算输出的 hidden 和 cell 的状态的tuple,包括 +返回 +:::::::::::: +经过lstm运算输出的 hidden 和 cell 的状态的tuple,包括 - hidden:LSTM hidden的输出结果,维度为 :math:`[T, hidden\_size]` 的LoDTensor,且LoD保持与输入一致,数据类型与input一致。 - cell:LSTM cell的输出结果,维度为 :math:`[T, hidden\_size]` 的LoDTensor,且LoD保持与输入一致,数据类型与input一致。 -返回类型: tuple( :ref:`api_guide_Variable` , :ref:`api_guide_Variable` ) +返回类型 +:::::::::::: + tuple( :ref:`api_guide_Variable` , :ref:`api_guide_Variable` ) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/dynamic_lstmp_cn.rst b/docs/api/paddle/fluid/layers/dynamic_lstmp_cn.rst index a490ebefca6..cef5d67c418 100644 --- a/docs/api/paddle/fluid/layers/dynamic_lstmp_cn.rst +++ b/docs/api/paddle/fluid/layers/dynamic_lstmp_cn.rst @@ -50,7 +50,9 @@ dynamic_lstmp - :math:`act_g, act_h, \overline{act_h}` 分别表示 cell 输入 cell 输出和映射输出的非线性激活函数,默认为 tanh - :math:`\odot` 表示矩阵的 Hadamard product,即对两个维度相同的矩阵,将相同位置的元素相乘,得到另一个维度相同的矩阵 -参数: +参数 +:::::::::::: + - **input** ( :ref:`api_guide_Variable` ) 维度为 :math:`[T, 4*hidden\_size]` 的多维 LoDTensor(必须在传入该OP前对维度为 :math:`[T, hidden\_size]` 的输入经过线性变换得到),其中 T 为 batch 中所有样本的长度之和,hidden_size 为隐层大小,数据类型为 float32 或者 float64。 - **size** (int) – 必须为 4 * hidden_size。 - **proj_size** (int) - 投影映射输出的大小。 @@ -85,14 +87,19 @@ dynamic_lstmp - **cell_clip** (float,可选) - 如果该参数不为None,则在单元输出激活之前,单元状态将被此值剪裁。默认值为None。 - **proj_clip** (float,可选) - 如果 num_proj > 0 并且 proj_clip 不为None,那么将投影值沿元素方向剪切到[-proj_clip,proj_clip]内。默认值为None。 -返回:经过lstmp运算输出的 hidden 的映射和 cell 状态的tuple,包括 +返回 +:::::::::::: +经过lstmp运算输出的 hidden 的映射和 cell 状态的tuple,包括 - hidden:LSTM hidden的输出结果,维度为 :math:`[T, P]` 的LoDTensor,且LoD保持与输入一致,数据类型与input一致。 - cell:LSTM cell的输出结果,维度为 :math:`[T, hidden\_size]` 的LoDTensor,且LoD保持与输入一致,数据类型与input一致。 -返回类型: tuple( :ref:`api_guide_Variable` , :ref:`api_guide_Variable` ) +返回类型 +:::::::::::: + tuple( :ref:`api_guide_Variable` , :ref:`api_guide_Variable` ) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/edit_distance_cn.rst b/docs/api/paddle/fluid/layers/edit_distance_cn.rst index b9e16eb517b..855c645a1a6 100644 --- a/docs/api/paddle/fluid/layers/edit_distance_cn.rst +++ b/docs/api/paddle/fluid/layers/edit_distance_cn.rst @@ -19,18 +19,25 @@ edit_distance 输出包含批尺寸大小的结果,代表一对字符串中每个字符串的编辑距离。如果Attr(normalized)为真,编辑距离则处以参照字符串的长度。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 假设字符串的索引,rank为2的Tensor或LoDTensor,数据类型为int64。 - **label** (Variable) - 参照字符串的索引,rank为2的Tensor或LoDTensor,数据类型为int64。 - **normalized** (bool)-表示是否用参照字符串的长度进行归一化,默认值为True。 - **ignored_tokens** (list)-计算编辑距离前需要移除的token,默认值为None。 - **name** (None|str) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_name` ,默认值为None。 -返回:包含有形为[batch_size,1]的编辑距离和形为[ ]的序列数元组。 +返回 +:::::::::::: +包含有形为[batch_size,1]的编辑距离和形为[ ]的序列数元组。 -返回类型:元组 +返回类型 +:::::::::::: +元组 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_add_cn.rst b/docs/api/paddle/fluid/layers/elementwise_add_cn.rst index 89aa33a66fe..d04f43922c6 100644 --- a/docs/api/paddle/fluid/layers/elementwise_add_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_add_cn.rst @@ -38,7 +38,9 @@ elementwise_add shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **y** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **axis** (int32,可选)- ``y`` 的维度对应到 ``x`` 维度上时的索引。默认值为 -1。 @@ -46,11 +48,16 @@ elementwise_add - **name** (str,可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 +返回 +:::::::::::: + 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 -返回类型: Variable。 +返回类型 +:::::::::::: + Variable。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -71,7 +78,8 @@ elementwise_add fetch_list=[z.name]) print(z_value) # [3., 8., 6.] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python @@ -92,7 +100,8 @@ elementwise_add fetch_list=[z.name]) print(z_value) # z.shape=[2,3,4,5] -**代码示例 3** +代码示例 3 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_div_cn.rst b/docs/api/paddle/fluid/layers/elementwise_div_cn.rst index 6e5889c810d..3b835cac758 100644 --- a/docs/api/paddle/fluid/layers/elementwise_div_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_div_cn.rst @@ -38,7 +38,9 @@ elementwise_div shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **y** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **axis** (int32,可选)- ``y`` 的维度对应到 ``x`` 维度上时的索引。默认值为 -1。 @@ -46,11 +48,16 @@ elementwise_div - **name** (str,可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 +返回 +:::::::::::: + 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 -返回类型: Variable。 +返回类型 +:::::::::::: + Variable。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -71,7 +78,8 @@ elementwise_div fetch_list=[z.name]) print(z_value) # [2., 0.6, 2.] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python @@ -92,7 +100,8 @@ elementwise_div fetch_list=[z.name]) print(z_value) # z.shape=[2,3,4,5] -**代码示例 3** +代码示例 3 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_floordiv_cn.rst b/docs/api/paddle/fluid/layers/elementwise_floordiv_cn.rst index 2b6547e094a..1e01e46c3e4 100644 --- a/docs/api/paddle/fluid/layers/elementwise_floordiv_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_floordiv_cn.rst @@ -38,7 +38,9 @@ elementwise_floordiv shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``int32`` 或 ``int64``。 - **y** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``int32`` 或 ``int64``。 - **axis** (int32,可选)- ``y`` 的维度对应到 ``x`` 维度上时的索引。默认值为 -1。 @@ -46,11 +48,16 @@ elementwise_floordiv - **name** (str,可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 +返回 +:::::::::::: + 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 -返回类型: Variable。 +返回类型 +:::::::::::: + Variable。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -70,7 +77,8 @@ elementwise_floordiv z_value = exe.run(feed=gen_data(), fetch_list=[z.name]) print(z_value) #[2,0,2] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python @@ -91,7 +99,8 @@ elementwise_floordiv fetch_list=[z.name]) print(z_value) # z.shape=[2,3,4,5] -**代码示例 3** +代码示例 3 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_max_cn.rst b/docs/api/paddle/fluid/layers/elementwise_max_cn.rst index d56d5543235..d333c4c68dd 100644 --- a/docs/api/paddle/fluid/layers/elementwise_max_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_max_cn.rst @@ -37,18 +37,25 @@ elementwise_max shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维Tensor。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64`` 。 - **y** (Variable)- 多维Tensor。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64`` 。 - **axis** (int32, 可选)- Y的维度对应到X维度上时的索引。默认值为 -1。 - **act** (string, 可选)- 激活函数名称,作用于输出上。默认值为None。详细请参考 :ref:`api_guide_activations` , 常见的激活函数有: ``relu`` ``tanh`` ``sigmoid`` 等。 - **name** (string, 可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度和数据类型与 ``x`` 相同的多维Tensor。 +返回 +:::::::::::: + 维度和数据类型与 ``x`` 相同的多维Tensor。 -返回类型: 多维Tensor。 +返回类型 +:::::::::::: + 多维Tensor。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -72,7 +79,8 @@ elementwise_max print(z_value) #[2, 5, 4] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_min_cn.rst b/docs/api/paddle/fluid/layers/elementwise_min_cn.rst index 833b4499b8b..3933bab80f1 100644 --- a/docs/api/paddle/fluid/layers/elementwise_min_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_min_cn.rst @@ -37,18 +37,25 @@ elementwise_min shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维Tensor。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64`` 。 - **y** (Variable)- 多维Tensor。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64`` 。 - **axis** (int32, 可选)- Y的维度对应到X维度上时的索引。默认值为 -1。 - **act** (string, 可选)- 激活函数名称,作用于输出上。默认值为None。详细请参考 :ref:`api_guide_activations` , 常见的激活函数有: ``relu`` ``tanh`` ``sigmoid`` 等。 - **name** (string, 可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度和数据类型与 ``x`` 相同的多维Tensor。 +返回 +:::::::::::: + 维度和数据类型与 ``x`` 相同的多维Tensor。 -返回类型: 多维Tensor。 +返回类型 +:::::::::::: + 多维Tensor。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -72,7 +79,8 @@ elementwise_min print(z_value) #[1, 3, 2] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_mod_cn.rst b/docs/api/paddle/fluid/layers/elementwise_mod_cn.rst index a6446977724..f4f8d0c4254 100644 --- a/docs/api/paddle/fluid/layers/elementwise_mod_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_mod_cn.rst @@ -38,7 +38,9 @@ elementwise_mod shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **y** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **axis** (int32,可选)- ``y`` 的维度对应到 ``x`` 维度上时的索引。默认值为 -1。 @@ -46,12 +48,17 @@ elementwise_mod - **name** (str,可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 +返回 +:::::::::::: + 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 -返回类型: Variable。 +返回类型 +:::::::::::: + Variable。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -71,7 +78,8 @@ elementwise_mod z_value = exe.run(feed=gen_data(), fetch_list=[z.name]) print(z_value) #[0,3,0] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python @@ -92,7 +100,8 @@ elementwise_mod fetch_list=[z.name]) print(z_value) # z.shape=[2,3,4,5] -**代码示例 3** +代码示例 3 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_pow_cn.rst b/docs/api/paddle/fluid/layers/elementwise_pow_cn.rst index 61d5e5376f9..4415dd49384 100644 --- a/docs/api/paddle/fluid/layers/elementwise_pow_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_pow_cn.rst @@ -37,18 +37,25 @@ elementwise_pow shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维Tensor。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64`` 。 - **y** (Variable)- 多维Tensor。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64`` 。 - **axis** (int32, 可选)- Y的维度对应到X维度上时的索引。默认值为 -1。 - **act** (string, 可选)- 激活函数名称,作用于输出上。默认值为None。详细请参考 :ref:`api_guide_activations` , 常见的激活函数有: ``relu`` ``tanh`` ``sigmoid`` 等。 - **name** (string, 可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度和数据类型与 ``x`` 相同的多维Tensor。 +返回 +:::::::::::: + 维度和数据类型与 ``x`` 相同的多维Tensor。 -返回类型: 多维Tensor。 +返回类型 +:::::::::::: + 多维Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elementwise_sub_cn.rst b/docs/api/paddle/fluid/layers/elementwise_sub_cn.rst index 021b896b67a..b8004235941 100644 --- a/docs/api/paddle/fluid/layers/elementwise_sub_cn.rst +++ b/docs/api/paddle/fluid/layers/elementwise_sub_cn.rst @@ -38,7 +38,9 @@ elementwise_sub shape(X) = (2, 3, 4, 5), shape(Y) = (2), with axis=0 shape(X) = (2, 3, 4, 5), shape(Y) = (2, 1), with axis=0 -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **y** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor`` 。数据类型为 ``float32`` 、 ``float64`` 、 ``int32`` 或 ``int64``。 - **axis** (int32,可选)- ``y`` 的维度对应到 ``x`` 维度上时的索引。默认值为 -1。 @@ -46,11 +48,16 @@ elementwise_sub - **name** (str,可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 +返回 +:::::::::::: + 维度与 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor`` ,数据类型与 ``x`` 相同。 -返回类型: Variable。 +返回类型 +:::::::::::: + Variable。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -71,7 +78,8 @@ elementwise_sub fetch_list=[z.name]) print(z_value) # [1., -2., 2.] -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python @@ -92,7 +100,8 @@ elementwise_sub fetch_list=[z.name]) print(z_value) # z.shape=[2,3,4,5] -**代码示例 3** +代码示例 3 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/elu_cn.rst b/docs/api/paddle/fluid/layers/elu_cn.rst index dc35f133ab2..14541c168a9 100644 --- a/docs/api/paddle/fluid/layers/elu_cn.rst +++ b/docs/api/paddle/fluid/layers/elu_cn.rst @@ -15,16 +15,23 @@ ELU激活层(ELU Activation Operator) .. math:: \\out=max(0,x)+min(0,α∗(e^{x}−1))\\ -参数: +参数 +:::::::::::: + - **x** (Variable) - 该OP的输入为多维Tensor。数据类型为float32或float64。 - **alpha** (float, 可选) - ELU的alpha值,默认值为1.0。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: + 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/embedding_cn.rst b/docs/api/paddle/fluid/layers/embedding_cn.rst index a377e832f4e..8a8683b8b11 100644 --- a/docs/api/paddle/fluid/layers/embedding_cn.rst +++ b/docs/api/paddle/fluid/layers/embedding_cn.rst @@ -58,7 +58,9 @@ embedding 输入的padding_idx = 0,则对于输入id为0的词,进行padding处理。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 存储id信息的Tensor或LoDTensor,数据类型必须为:int64,输入的shape最后一维须为1。input中的id必须满足 ``0 =< id < size[0]`` 。 - **size** (tuple|list) - embedding矩阵的维度。必须包含两个元素,第一个元素为vocab_size(词表大小), 第二个为emb_size(embedding层维度)。 - **is_sparse** (bool) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse更新速度更快,推荐使用稀疏更新的方式。但某些optimizer不支持sparse更新,比如 :ref:`cn_api_fluid_optimizer_AdadeltaOptimizer` 、 :ref:`cn_api_fluid_optimizer_AdamaxOptimizer` 、 :ref:`cn_api_fluid_optimizer_DecayedAdagradOptimizer` 、 :ref:`cn_api_fluid_optimizer_FtrlOptimizer` 、 :ref:`cn_api_fluid_optimizer_LambOptimizer` 、:ref:`cn_api_fluid_optimizer_LarsMomentumOptimizer` ,此时is_sparse必须为False。默认为False。 @@ -67,11 +69,16 @@ embedding - **param_attr** (ParamAttr) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。此外,可以通过 ``param_attr`` 参数加载用户自定义或预训练的词向量。只需将本地词向量转为numpy数据格式,且保证本地词向量的shape和embedding的 ``size`` 参数一致,然后使用 :ref:`cn_api_fluid_initializer_NumpyArrayInitializer` 进行初始化,即可实现加载自定义或预训练的词向量。详细使用方法见代码示例2。 - **dtype** (str|core.VarDesc.VarType) - 输出Tensor或LoDTensor的数据类型,数据类型必须为:float32或float64,默认为float32。 -返回:input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 +返回 +:::::::::::: +input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/equal_cn.rst b/docs/api/paddle/fluid/layers/equal_cn.rst index 9a66e76cedc..a60b4a18c8f 100644 --- a/docs/api/paddle/fluid/layers/equal_cn.rst +++ b/docs/api/paddle/fluid/layers/equal_cn.rst @@ -8,17 +8,24 @@ equal 该OP返回 :math:`x==y` 逐元素比较x和y是否相等,x和y的维度应该相同。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入Tensor,支持的数据类型包括 float32, float64,int32, int64。 - **y** (Variable) - 输入Tensor,支持的数据类型包括 float32, float64, int32, int64。 - **cond** (Variable,可选) – 如果为None,则创建一个Tensor来作为进行比较的输出结果,该Tensor的shape和数据类型和输入x一致;如果不为None,则将Tensor作为该OP的输出,数据类型和数据shape需要和输入x一致。默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/expand_as_cn.rst b/docs/api/paddle/fluid/layers/expand_as_cn.rst index b24e79655ce..b3c4dff58b0 100644 --- a/docs/api/paddle/fluid/layers/expand_as_cn.rst +++ b/docs/api/paddle/fluid/layers/expand_as_cn.rst @@ -33,19 +33,28 @@ expand_as -参数: +参数 +:::::::::::: + - **x** (Variable)- 维度最高为6的多维 ``Tensor`` 或 ``LoDTensor``,数据类型为 ``float32``,``float64``,``int32`` 或 ``bool``。 - **target_tensor** (list|tuple|Variable)- 数据类型为 ``float32``,``float64``,``int32`` 或 ``bool`` 。可为Tensor或者LODTensor。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值: ``None``。 -返回:维度与输入 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor``,数据类型与 ``x`` 相同。返回值的每个维度的大小等于``target_tensor`` 对应的维度的大小。 +返回 +:::::::::::: +维度与输入 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor``,数据类型与 ``x`` 相同。返回值的每个维度的大小等于``target_tensor`` 对应的维度的大小。 + +返回类型 +:::::::::::: +``Variable`` 。 -返回类型:``Variable`` 。 +抛出异常 +:::::::::::: -抛出异常: - :code:`ValueError`:``target_tensor`` 对应的每一维必须能整除输入x中对应的维度,否则会报错。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/expand_cn.rst b/docs/api/paddle/fluid/layers/expand_cn.rst index d1926073a13..e98693681d9 100644 --- a/docs/api/paddle/fluid/layers/expand_cn.rst +++ b/docs/api/paddle/fluid/layers/expand_cn.rst @@ -28,21 +28,30 @@ expand [[4, 4], [5, 5], [6, 6], [4, 4], [5, 5], [6, 6]] ] -参数: +参数 +:::::::::::: + - **x** (Variable)- 维度最高为6的多维 ``Tensor`` 或 ``LoDTensor``,数据类型为 ``float32``,``float64``,``int32`` 或 ``bool``。 - **expand_times** (list|tuple|Variable)- 数据类型是 ``int32`` 。如果 ``expand_times`` 的类型是 list 或 tuple,它的元素可以是整数或者形状为[1]的 ``Tensor`` 或 ``LoDTensor``。如果 ``expand_times`` 的类型是 ``Variable``,则是1-D ``Tensor`` 或 ``LoDTensor``。表示 ``x`` 每一个维度被复制的次数。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值: ``None``。 -返回:维度与输入 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor``,数据类型与 ``x`` 相同。返回值的每个维度的大小等于 ``x`` 的相应维度的大小乘以 ``expand_times`` 给出的相应值。 +返回 +:::::::::::: +维度与输入 ``x`` 相同的 ``Tensor`` 或 ``LoDTensor``,数据类型与 ``x`` 相同。返回值的每个维度的大小等于 ``x`` 的相应维度的大小乘以 ``expand_times`` 给出的相应值。 + +返回类型 +:::::::::::: +``Variable`` 。 -返回类型:``Variable`` 。 +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError`:``expand_times`` 的类型应该是 list、tuple 或 Variable。 - :code:`ValueError`:``expand_times`` 中的元素不能是负值。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/exponential_decay_cn.rst b/docs/api/paddle/fluid/layers/exponential_decay_cn.rst index 69c9aeab225..eeb4ee4962e 100644 --- a/docs/api/paddle/fluid/layers/exponential_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/exponential_decay_cn.rst @@ -21,17 +21,24 @@ exponential_decay else: decayed_learning_rate = learning_rate * decay_rate ^ (global_step / decay_steps) -参数: +参数 +:::::::::::: + - **learning_rate** (Variable|float) - 初始学习率,类型可以为学习率变量(Variable)或float型常量。 - **decay_steps** (int) - 学习率衰减步长,见以上衰减运算。 - **decay_rate** (float) - 学习率衰减率。见以上衰减运算。 - **staircase** (bool) - 若为True,按离散区间衰减学习率,即每 ``decay_steps`` 步学习率衰减 ``decay_rate`` 。若为False,则按以上衰减运算持续衰减。默认False。 -返回:Variable(Tensor) 随step衰减的学习率变量,维度为 :math:`[1]` 的1-D Tensor。 +返回 +:::::::::::: +Variable(Tensor) 随step衰减的学习率变量,维度为 :math:`[1]` 的1-D Tensor。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/eye_cn.rst b/docs/api/paddle/fluid/layers/eye_cn.rst index 6044ab6e322..46c1f37abdd 100644 --- a/docs/api/paddle/fluid/layers/eye_cn.rst +++ b/docs/api/paddle/fluid/layers/eye_cn.rst @@ -8,17 +8,22 @@ eye 该OP用来构建二维Tensor,或一个批次的二维Tensor。 -参数: +参数 +:::::::::::: + - **num_rows** (int) - 该批次二维Tensor的行数,数据类型为非负int32。 - **num_columns** (int, 可选) - 该批次二维Tensor的列数,数据类型为非负int32。若为None,则默认等于num_rows。 - **batch_shape** (list(int), 可选) - 如若提供,则返回Tensor的主批次维度将为batch_shape。 - **dtype** (np.dtype|core.VarDesc.VarType|str,可选) - 返回Tensor的数据类型,可为int32,int64,float16,float32,float64,默认数据类型为float32。 - **name** (str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: ``shape`` 为batch_shape + [num_rows, num_columns]的Tensor。 +返回 +:::::::::::: + ``shape`` 为batch_shape + [num_rows, num_columns]的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/fc_cn.rst b/docs/api/paddle/fluid/layers/fc_cn.rst index 46c93d93b17..01f533138d8 100644 --- a/docs/api/paddle/fluid/layers/fc_cn.rst +++ b/docs/api/paddle/fluid/layers/fc_cn.rst @@ -68,7 +68,9 @@ fc out.shape = (1, 2) -参数: +参数 +:::::::::::: + - **input** (Variable|list of Variable) – 维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor(或LoDTensor)或由多个Tensor(或LoDTensor)组成的list,输入Tensor的shape至少是2。数据类型为float32或float64。 - **size** (int) – 全连接层输出单元的数目,即输出Tensor(或LoDTensor)特征维度。 - **num_flatten_dims** (int) – 输入可以接受维度大于2的Tensor。在计算时,输入首先会被扁平化(flatten)为一个二维矩阵,之后再与权重(weights)相乘。参数 ``num_flatten_dims`` 决定了输入Tensor的flatten方式: 前 ``num_flatten_dims`` (包含边界,从1开始数) 个维度会被扁平化为二维矩阵的第一维 (即为矩阵的高), 剩下的 :math:`rank(X) - num\_flatten\_dims` 维被扁平化为二维矩阵的第二维 (即矩阵的宽)。 例如, 假设X是一个五维的Tensor,其shape为(2, 3, 4, 5, 6), 若 :math:`num\_flatten\_dims = 3` ,则扁平化的矩阵shape为: :math:`(2 x 3 x 4, 5 x 6) = (24, 30)` ,最终输出Tensor的shape为 :math:`(2, 3, 4, size)` 。默认为1。 @@ -78,13 +80,18 @@ fc - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:经过全连接层计算后的Tensor或LoDTensor,数据类型与input类型一致。 +返回 +:::::::::::: +经过全连接层计算后的Tensor或LoDTensor,数据类型与input类型一致。 -返回类型: Variable +返回类型 +:::::::::::: + Variable 弹出异常:``ValueError`` - 如果输入Tensor(或LoDTensor)的维度小于2 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/fill_constant_cn.rst b/docs/api/paddle/fluid/layers/fill_constant_cn.rst index 19ce58f3e1f..fdaa85adb4c 100644 --- a/docs/api/paddle/fluid/layers/fill_constant_cn.rst +++ b/docs/api/paddle/fluid/layers/fill_constant_cn.rst @@ -12,7 +12,9 @@ fill_constant 创建的Tensor的stop_gradient属性默认为True。 -参数: +参数 +:::::::::::: + - **shape** (tuple|list|Variable)- 要创建的LoDTensor或者SelectedRows的形状。 数据类型为int32或int64。 如果shape是一个列表或元组,则其元素应该是形状为[1]的整数或Tensor。 如果shape是Variable,则它应该是一维Tensor。 - **dtype** (np.dtype|core.VarDesc.VarType|str)- 创建LoDTensor或者SelectedRows的数据类型,支持数据类型为float16, float32, float64, int32, int64。 - **value** (float|int)- 用于初始化输出LoDTensor或者SelectedRows的常量数据的值。 @@ -20,11 +22,16 @@ fill_constant - **out** (Variable,可选)- 用于存储创建的LoDTensor或者SelectedRows,可以是程序中已经创建的任何Variable。默认值为None,此时将创建新的Variable来保存输出结果。 -返回: 根据shape和dtype创建的Tensor。 +返回 +:::::::::::: + 根据shape和dtype创建的Tensor。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/filter_by_instag_cn.rst b/docs/api/paddle/fluid/layers/filter_by_instag_cn.rst index 4ff343a1ef5..b880a49ab1b 100644 --- a/docs/api/paddle/fluid/layers/filter_by_instag_cn.rst +++ b/docs/api/paddle/fluid/layers/filter_by_instag_cn.rst @@ -24,18 +24,25 @@ Ins | Ins_Tag | Lod为[1,1,1,1],filter tags为[1],从上面的定义中,带有标签[1]的样本将会通过filter,所以,样本0和1将会通过并且出现在输出中。准确来说,如果 ``is_lod`` 为false,它是一个等于值全为1的lod_tensor的普通的tensor,和上面的例子很相似。 -参数: +参数 +:::::::::::: + - **ins** (Variable) - 输入变量(LoDTensor),通常为2D向量,第一个维度可以有lod info,也可以没有。 - **ins_tag** (Variable) - 输入变量(LoDTensor),通常为1维列表,通过lod info来分割。 - **filter_tag** (Variable) - 输入变量(1D Tensor/List),通常为持有tags的列表。 - **is_lod** (Bool) – 指定样本是否为lod tensor的布尔值。 - **out_val_if_empty** (Int64) - 如果batch内样本被全部过滤,输出会被指定成这个值。 -返回:过滤之后的样本(LoDTensor)和 损失权重(Tensor)。 +返回 +:::::::::::: +过滤之后的样本(LoDTensor)和 损失权重(Tensor)。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/flatten_cn.rst b/docs/api/paddle/fluid/layers/flatten_cn.rst index ef54e3c6f84..9aae47368fb 100644 --- a/docs/api/paddle/fluid/layers/flatten_cn.rst +++ b/docs/api/paddle/fluid/layers/flatten_cn.rst @@ -32,20 +32,29 @@ flatten op将输入的多维Tensor展平成2-D Tensor矩阵 得到: Out.shape = (1, 3 * 100 * 100 * 4) -参数: +参数 +:::::::::::: + - **x** (Variable) - 一个维度数>=axis 的多维Tensor, 数据类型可以为float32,float64,int8,int32或int64。 - **axis** (int) - flatten展开的分割轴,[0, axis) 轴数据被flatten到输出矩阵的0轴,[axis, R)数据被flatten到输出矩阵的1轴,其中R是输入张量的总维度数。axis的值必须在[0,R]范围内。当 axis=0 时,若输入Tensor的维度为 :math:`[d_0, d_1,… d_n]` ,则输出张量的Tensor维度为 :math:`[1,d_0 * d_1 *… d_n]` ,默认值为1。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 一个 2-D Tensor,它包含输入Tensor的数据,但维度发生变化。输入的[0, axis)维将沿axis展平到输出Tensor的0维度,剩余的输入维数展平到输出的1维度。数据类型与输入x相同。 +返回 +:::::::::::: + 一个 2-D Tensor,它包含输入Tensor的数据,但维度发生变化。输入的[0, axis)维将沿axis展平到输出Tensor的0维度,剩余的输入维数展平到输出的1维度。数据类型与输入x相同。 + +返回类型 +:::::::::::: + Variable -返回类型: Variable +抛出异常 +:::::::::::: -抛出异常: - ValueError: 如果 x 不是一个Variable - ValueError: 如果axis的范围不在 [0, rank(x)] 范围内 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/fsp_matrix_cn.rst b/docs/api/paddle/fluid/layers/fsp_matrix_cn.rst index 1fafa4800c8..2625991993d 100644 --- a/docs/api/paddle/fluid/layers/fsp_matrix_cn.rst +++ b/docs/api/paddle/fluid/layers/fsp_matrix_cn.rst @@ -18,15 +18,22 @@ fsp_matrix op用于计算两个4-D Tensor特征图的求解过程(FSP)矩阵 输出是一个batch的fsp矩阵。 -参数: +参数 +:::::::::::: + - **x** (Variable): 一个形状为 :math:`[batch\_size, x\_channel, height, width]` 的 4-D 特征图Tensor, 数据类型为float32或float64。 - **y** (Variable):一个形状为 :math:`[batch\_size, y\_channel, height, width]` 的 4-D 特征图Tensor, 数据类型为float32或float64。y_channel可以与输入(x)的x_channel不同,而其他维度必须与输入(x)相同。 -返回:一个形状为 :math:`[batch\_size, x\_channel, y\_channel]` 的fsp矩阵, 是一个 3-D Tensor,数据类型与输入数据类型一致。其中,x_channel是输入x的通道数,y_channel是输入y的通道数。数据类型为float32或float64。 +返回 +:::::::::::: +一个形状为 :math:`[batch\_size, x\_channel, y\_channel]` 的fsp矩阵, 是一个 3-D Tensor,数据类型与输入数据类型一致。其中,x_channel是输入x的通道数,y_channel是输入y的通道数。数据类型为float32或float64。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/gather_cn.rst b/docs/api/paddle/fluid/layers/gather_cn.rst index 9d0caee7b26..2785d3d7dfa 100644 --- a/docs/api/paddle/fluid/layers/gather_cn.rst +++ b/docs/api/paddle/fluid/layers/gather_cn.rst @@ -28,15 +28,20 @@ gather [5, 6]] -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入, 秩 ``rank >= 1`` , 支持的数据类型包括 int32、int64、float32、float64 和 uint8 (CPU)、float16(GPU) 。 - **index** (Tensor) - 索引,秩 ``rank = 1``, 数据类型为 int32 或 int64。 - **overwrite** (bool) - 具有相同索引时在反向更新梯度的模式。如果为 ``True`` ,则使用覆盖模式更新相同索引的梯度;如果为 ``False`` ,则使用累积模式更新相同索引的梯度。默认值为 ``True`` 。 -返回:和输入的秩相同的输出张量。 +返回 +:::::::::::: +和输入的秩相同的输出张量。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/gather_nd_cn.rst b/docs/api/paddle/fluid/layers/gather_nd_cn.rst index 8a570ff2e28..2a6417a98b1 100644 --- a/docs/api/paddle/fluid/layers/gather_nd_cn.rst +++ b/docs/api/paddle/fluid/layers/gather_nd_cn.rst @@ -50,15 +50,20 @@ gather_nd = [23] -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入Tensor,数据类型可以是int32,int64,float32,float64, bool。 - **index** (Tensor) - 输入的索引Tensor,其数据类型为int32或者int64。它的维度 :code:`index.rank` 必须大于1,并且 :code:`index.shape[-1] <= input.rank` 。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:shape为index.shape[:-1] + input.shape[index.shape[-1]:]的Tensor|LoDTensor,数据类型与 :code:`input` 一致。 +返回 +:::::::::::: +shape为index.shape[:-1] + input.shape[index.shape[-1]:]的Tensor|LoDTensor,数据类型与 :code:`input` 一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/gaussian_random_cn.rst b/docs/api/paddle/fluid/layers/gaussian_random_cn.rst index 059f19be02e..ca82c2b891a 100644 --- a/docs/api/paddle/fluid/layers/gaussian_random_cn.rst +++ b/docs/api/paddle/fluid/layers/gaussian_random_cn.rst @@ -10,7 +10,9 @@ gaussian_random 该OP返回数值符合高斯随机分布的Tensor,形状为 ``shape``,数据类型为 ``dtype``。 -参数: +参数 +:::::::::::: + - **shape** (list|tuple|Tensor) - 生成的随机Tensor的形状。如果 ``shape`` 是list、tuple,则其中的元素可以是int,或者是形状为[1]且数据类型为int32、int64的Tensor。如果 ``shape`` 是Tensor,则是数据类型为int32、int64的1-D Tensor。 - **mean** (float|int, 可选) - 输出Tensor的均值,支持的数据类型:float、int。默认值为0.0。 - **std** (float|int, 可选) - 输出Tensor的标准差,支持的数据类型:float、int。默认值为1.0。 @@ -18,14 +20,19 @@ gaussian_random - **dtype** (str|np.dtype|core.VarDesc.VarType, 可选) - 输出Tensor的数据类型,支持float32、float64。默认值为float32。 - **name** (str, 可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: +返回 +:::::::::::: + Tensor:符合高斯随机分布的Tensor,形状为 ``shape``,数据类型为 ``dtype``。 -抛出异常: +抛出异常 +:::::::::::: + - ``TypeError`` - 如果 ``shape`` 的类型不是list、tuple、Tensor。 - ``TypeError`` - 如果 ``dtype`` 不是float32、float64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/gelu_cn.rst b/docs/api/paddle/fluid/layers/gelu_cn.rst index 9541348c8db..87ac343beba 100644 --- a/docs/api/paddle/fluid/layers/gelu_cn.rst +++ b/docs/api/paddle/fluid/layers/gelu_cn.rst @@ -20,17 +20,24 @@ gelu .. math:: out = 0.5 * x * (1 + erf(\frac{x}{\sqrt{2}})) -参数: +参数 +:::::::::::: + - **x** (Variable) - Gelu Op 的输入,多维 Tensor 或 LoDTensor,数据类型为 float32 或 float64。 - **approximate** (bool, 可选) - 是否使用近似计算,默认值为 False。 -返回: +返回 +:::::::::::: + - 多维 Tensor 或 LoDTensor, 数据类型为 float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 -返回类型: +返回类型 +:::::::::::: + - Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/generate_mask_labels_cn.rst b/docs/api/paddle/fluid/layers/generate_mask_labels_cn.rst index cba56f7c897..ad07c5a46f4 100644 --- a/docs/api/paddle/fluid/layers/generate_mask_labels_cn.rst +++ b/docs/api/paddle/fluid/layers/generate_mask_labels_cn.rst @@ -39,7 +39,9 @@ generate_mask_labels feeder.feed(batch_masks) -参数: +参数 +:::::::::::: + - **im_info** (Variable) – 维度为[N,3]的2-D Tensor,数据类型为float32。 N是batch size,其每个元素是图像的高度、宽度、比例,比例是图片预处理时resize之后的大小和原始大小的比例 :math:`\frac{target\_size}{original\_size}` 。 - **gt_classes** (Variable) – 维度为[M,1]的2-D LoDTensor,数据类型为int32,LoD层数为1。 M是的groud-truth总数,其每个元素是类别索引。 - **is_crowd** (Variable) – 维度和 ``gt_classes`` 相同的 LoDTensor,数据类型为int32,每个元素指示一个ground-truth是否为crowd(crowd表示一组对象的集合)。 @@ -49,14 +51,19 @@ generate_mask_labels - **num_classes** (int) – 类别数目。 - **resolution** (int) – 特征图分辨率大小。 -返回: +返回 +:::::::::::: + - mask_rois (Variable): 维度为[P,4]的2-D LoDTensor,数据类型为float32。P是采样出的RoI总数,每个元素都是在原始图像大小范围内具有[xmin,ymin,xmax,ymax]格式的bounding box。 - mask_rois_has_mask_int32(Variable):维度为[P,1]的2-D LoDTensor,数据类型为int32。每个元素表示采样出的RoI在输入 ``rois`` 内的位置索引。 - mask_int32(Variable):维度为[P,K * M * M]的2-D LoDTensor,数据类型为int32。K为种类数,M为特征图的分辨率大小,每个元素都是二值mask标签。 -返回类型:tuple(Variable) +返回类型 +:::::::::::: +tuple(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/generate_proposal_labels_cn.rst b/docs/api/paddle/fluid/layers/generate_proposal_labels_cn.rst index 588f4df95a4..1ae2d23061e 100644 --- a/docs/api/paddle/fluid/layers/generate_proposal_labels_cn.rst +++ b/docs/api/paddle/fluid/layers/generate_proposal_labels_cn.rst @@ -21,7 +21,9 @@ RPN的输出经过 ``generate_proposals OP`` 的处理,产出 ``RPN RoIs`` , 对最终得到的boxes, 我们给它们分配类别标签和回归目标(box label),并产出 ``bboxInsideWeights`` 和 ``BboxOutsideWeights`` 。 -参数: +参数 +:::::::::::: + - **rpn_rois** (Variable) – Shape为 ``[N, 4]`` 的2-D LoDTensor。 其中,N为RoIs的个数。每个RoI以 :math:`[x_{min}, y_{min}, x_{max}, y_{max}]` 的格式表示,其中,:math:`x_{min}` 和 :math:`y_{min}` 为RoI的左上角坐标,:math:`x_{max}` 和 :math:`y_{max}` 为RoI的右下角坐标。数据类型支持float32和float64。 - **gt_classes** (Variable) – Shape为 ``[M, 1]`` 的2-D LoDTensor,M为groundtruth boxes的数量。用于表示groundtruth boxes的类别ID。数据类型支持int32。 - **is_crowd** (Variable) –Shape为 ``[M, 1]`` 的2-D LoDTensor,M为groundtruth boxes的数量。用于标记boxes是否是crowd。数据类型支持int32。 @@ -39,7 +41,9 @@ RPN的输出经过 ``generate_proposals OP`` 的处理,产出 ``RPN RoIs`` , - **is_cascade_rcnn** (bool,可选)- 布尔类型。是否为 cascade RCNN 模型,为True时采样策略发生变化。缺省值为False。 -返回:元组,格式为 ``(rois, labels_int32, bbox_targets, bbox_inside_weights, bbox_outside_weights)`` ,其中,各个元素解释如下: +返回 +:::::::::::: +元组,格式为 ``(rois, labels_int32, bbox_targets, bbox_inside_weights, bbox_outside_weights)`` ,其中,各个元素解释如下: - **rois** - Shape为 ``[P, 4]`` 的2-D LoDTensor,P一般是 ``batch_size_per_im * batch_size`` 。每个RoIs以 ``[xmin, ymin, xmax, ymax]`` 的格式表示。数据类型与 ``rpn_rois`` 一致。 - **labels_int32** - Shape为 ``[P, 1]`` 的2-D LoDTensor,P一般是 ``batch_size_per_im * batch_size`` 。表示每个RoI的类别ID。数据类型为int32。 @@ -47,11 +51,14 @@ RPN的输出经过 ``generate_proposals OP`` 的处理,产出 ``RPN RoIs`` , - **bbox_inside_weights** - Shape为 ``[P, 4 * class_num]`` 的2-D LoDTensor。foreground boxes回归loss的权重。数据类型与 ``rpn_rois`` 一致。 - **bbox_outside_weights** - Shape为 ``[P, 4 * class_num]`` 的2-D LoDTensor。回归loss的权重。数据类型与 ``rpn_rois`` 一致。 -返回类型:元组 +返回类型 +:::::::::::: +元组 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/generate_proposals_cn.rst b/docs/api/paddle/fluid/layers/generate_proposals_cn.rst index d1e40bf64f4..c8591f38f89 100644 --- a/docs/api/paddle/fluid/layers/generate_proposals_cn.rst +++ b/docs/api/paddle/fluid/layers/generate_proposals_cn.rst @@ -25,7 +25,9 @@ generate_proposals 5、通过NMS选出满足条件的候选框作为结果。 -参数: +参数 +:::::::::::: + - **scores** (Variable) - Shape为 ``[N,A,H,W]`` 的4-D Tensor,表示每个框包含object的概率。N是批量大小,A是anchor数,H和W是feature map的高度和宽度。数据类型支持float32。 - **bbox_deltas** (Variable)- Shape为 ``[N,4 * A,H,W]`` 的4-D Tensor,表示预测出的候选框的位置和anchor的位置之间的距离。数据类型支持float32。 - **im_info** (Variable) - Shape为 ``[N,3]`` 的2-D张量,表示原始图像的大小信息。信息包含原始图像宽、高和feature map相对于原始图像缩放的比例。 @@ -38,14 +40,19 @@ generate_proposals - **eta** (float,可选) - 浮点型数字。自适应阈值的衰减系数。仅在自适应NMS中且自适应阈值大于0.5时生效,在每次迭代中 ``adaptive_threshold = adaptive_treshold * eta`` 。缺省值为1.0。 -返回: 元组,格式为 ``(rpn_rois, rpn_roi_probs)`` +返回 +:::::::::::: + 元组,格式为 ``(rpn_rois, rpn_roi_probs)`` - **rpn_rois** (Variable) - 表示产出的RoIs, shape为 ``[N, 4]`` 的2D LoDTensor, N为RoIs的数量。数据类型与 ``scores`` 一致。 - **rpn_roi_probs** (Variable) - 表示RoIs的得分,shape为 ``[N, 1]`` ,N为RoIs的数量。数据类型与 ``scores`` 一致。 -返回类型:元组 +返回类型 +:::::::::::: +元组 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/get_tensor_from_selected_rows_cn.rst b/docs/api/paddle/fluid/layers/get_tensor_from_selected_rows_cn.rst index 3a9b9268aa3..1a2bcba7700 100644 --- a/docs/api/paddle/fluid/layers/get_tensor_from_selected_rows_cn.rst +++ b/docs/api/paddle/fluid/layers/get_tensor_from_selected_rows_cn.rst @@ -29,15 +29,22 @@ get_tensor_from_selected_rows [6, 6]] -参数: +参数 +:::::::::::: + - **x** (SelectedRows) - SelectedRows类型的输入,数据类型为float32,float64,int32或int64。 - **name** (str) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: 从SelectedRows中转化而来的LoDTensor,数据类型和输入一致。 +返回 +:::::::::::: + 从SelectedRows中转化而来的LoDTensor,数据类型和输入一致。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/greater_equal_cn.rst b/docs/api/paddle/fluid/layers/greater_equal_cn.rst index 46b70775cdb..0b28d37d1e3 100644 --- a/docs/api/paddle/fluid/layers/greater_equal_cn.rst +++ b/docs/api/paddle/fluid/layers/greater_equal_cn.rst @@ -11,17 +11,24 @@ greater_equal 该OP逐元素地返回 :math:`x >= y` 的逻辑值,使用重载算子 `>=` 可以有相同的计算函数效果。 -参数: +参数 +:::::::::::: + - **x** (Variable) – 进行比较的第一个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **y** (Variable) – 进行比较的第二个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **cond** (Variable,可选) – 如果为None,则创建一个Tensor来作为进行比较的输出结果,该Tensor的shape,数据类型和输入x一致;如果不为None,则将Tensor作为该OP的输出,数据shape和数据类型需要和输入x一致。默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,数据的shape和输入x一致。 +返回 +:::::::::::: +输出结果的Tensor,数据的shape和输入x一致。 -返回类型:Variable,数据类型为bool类型。 +返回类型 +:::::::::::: +Variable,数据类型为bool类型。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/greater_than_cn.rst b/docs/api/paddle/fluid/layers/greater_than_cn.rst index a305a34ad02..08793f8a180 100644 --- a/docs/api/paddle/fluid/layers/greater_than_cn.rst +++ b/docs/api/paddle/fluid/layers/greater_than_cn.rst @@ -10,17 +10,24 @@ greater_than 该OP逐元素地返回 :math:`x > y` 的逻辑值,使用重载算子 `>` 可以有相同的计算函数效果。 -参数: +参数 +:::::::::::: + - **x** (Tensor) – 进行比较的第一个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **y** (Tensor) – 进行比较的第二个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **cond** (Tensor,可选) – 如果为None,则创建一个Tensor来作为进行比较的输出结果,该Tensor的shape和数据类型和输入x一致;如果不为None,则将Tensor作为该OP的输出,数据类型和数据shape需要和输入x一致。默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,数据的shape和输入x一致。 +返回 +:::::::::::: +输出结果的Tensor,数据的shape和输入x一致。 -返回类型:Tensor,数据类型为bool类型。 +返回类型 +:::::::::::: +Tensor,数据类型为bool类型。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/grid_sampler_cn.rst b/docs/api/paddle/fluid/layers/grid_sampler_cn.rst index 56299e01f7e..cf4305fcb91 100644 --- a/docs/api/paddle/fluid/layers/grid_sampler_cn.rst +++ b/docs/api/paddle/fluid/layers/grid_sampler_cn.rst @@ -52,16 +52,23 @@ step 2: output = wn * d_e * d_s + en * d_w * d_s + ws * d_e * d_n + es * d_w * d_n -参数: +参数 +:::::::::::: + - **x** (Variable): 输入张量,维度为 :math:`[N, C, H, W]` 的4-D Tensor,N为批尺寸,C是通道数,H是特征高度,W是特征宽度, 数据类型为float32或float64。 - **grid** (Variable): 输入网格数据张量,维度为 :math:`[N, H, W, 2]` 的4-D Tensor,N为批尺寸,C是通道数,H是特征高度,W是特征宽度, 数据类型为float32或float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 -返回: Variable(Tensor): 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor +返回 +:::::::::::: + Variable(Tensor): 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor -返回类型:变量(Variable),数据类型与 ``x`` 一致 +返回类型 +:::::::::::: +变量(Variable),数据类型与 ``x`` 一致 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/gru_unit_cn.rst b/docs/api/paddle/fluid/layers/gru_unit_cn.rst index 610d51cbb3b..0c665483b0c 100644 --- a/docs/api/paddle/fluid/layers/gru_unit_cn.rst +++ b/docs/api/paddle/fluid/layers/gru_unit_cn.rst @@ -38,7 +38,9 @@ Gated Recurrent Unit(GRU)循环神经网络计算单元。该OP用于完成 :math:`W_{uh}, b_u` 、 :math:`W_{rh}, b_r` 和 :math:`W_{ch}, b_c` 分别代表更新门、重置门和候选隐状态在计算时使用的权重矩阵和偏置。在实现上,三个权重矩阵合并为一个 :math:`[D, D \times 3]` 形状的Tensor存放,三个偏置拼接为一个 :math:`[1, D \times 3]` 形状的Tensor存放,其中 :math:`D` 为隐单元的数目;权重Tensor存放布局为: :math:`W_{uh}` 和 :math:`W_{rh}` 拼接为 :math:`[D, D \times 2]` 形状位于前半部分,:math:`W_{ch}` 以 :math:`[D, D]` 形状位于后半部分。 -参数: +参数 +:::::::::::: + - **input** (Variable) – 表示经线性变换后当前时间步的输入,是形状为 :math:`[N, D \times 3]` 的二维Tensor,其中 :math:`N` 为batch_size, :math:`D` 为隐单元的数目。数据类型为float32或float64。 - **hidden** (Variable) – 表示上一时间步产生的隐状态,是形状为 :math:`[N, D]` 的二维Tensor,其中 :math:`N` 为batch_size, :math:`D` 为隐单元的数目。数据类型与 ``input`` 相同。 - **size** (integer) – 输入数据 ``input`` 特征维度的大小,需要是隐单元数目的3倍。 @@ -49,12 +51,17 @@ Gated Recurrent Unit(GRU)循环神经网络计算单元。该OP用于完成 - **origin_mode** (bool) – 指明要使用的GRU计算方式,两种计算方式具体差异见公式描述,默认值为False。 -返回:Variable的三元组,包含三个与 ``input`` 相同数据类型的Tensor,分别表示下一时间步的隐状态( :math:`h_t` )、重置的前一时间步的隐状态( :math:`r_t \odot h_{t-1}` )和 :math:`h_t, r_t, \tilde{h_t}` 的拼接,形状分别为 :math:`[N, D]` 、 :math:`[N, D]` 和 :math:`[N, D \times 3]` 。通常只有下一时间步的隐状态( :math:`h_t` )作为GRU的输出和隐状态使用,其他内容只是中间计算结果。 +返回 +:::::::::::: +Variable的三元组,包含三个与 ``input`` 相同数据类型的Tensor,分别表示下一时间步的隐状态( :math:`h_t` )、重置的前一时间步的隐状态( :math:`r_t \odot h_{t-1}` )和 :math:`h_t, r_t, \tilde{h_t}` 的拼接,形状分别为 :math:`[N, D]` 、 :math:`[N, D]` 和 :math:`[N, D \times 3]` 。通常只有下一时间步的隐状态( :math:`h_t` )作为GRU的输出和隐状态使用,其他内容只是中间计算结果。 -返回类型: tuple +返回类型 +:::::::::::: + tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/hard_shrink_cn.rst b/docs/api/paddle/fluid/layers/hard_shrink_cn.rst index 75286ecd9ca..008f98cbb48 100644 --- a/docs/api/paddle/fluid/layers/hard_shrink_cn.rst +++ b/docs/api/paddle/fluid/layers/hard_shrink_cn.rst @@ -19,13 +19,18 @@ HardShrink激活函数(HardShrink activation operator) 0, \text{otherwise} \end{cases} -参数: +参数 +:::::::::::: + - **x** - HardShrink激活函数的输入 - **threshold** (FLOAT)-HardShrink激活函数的threshold值。[默认:0.5] -返回:HardShrink激活函数的输出 +返回 +:::::::::::: +HardShrink激活函数的输出 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/hard_sigmoid_cn.rst b/docs/api/paddle/fluid/layers/hard_sigmoid_cn.rst index 5d6e7937499..4ac5b39d884 100644 --- a/docs/api/paddle/fluid/layers/hard_sigmoid_cn.rst +++ b/docs/api/paddle/fluid/layers/hard_sigmoid_cn.rst @@ -14,17 +14,24 @@ sigmoid的分段线性逼近激活函数,速度比sigmoid快,详细解释参 \\out=\max(0,\min(1,slope∗x+offset))\\ -参数: +参数 +:::::::::::: + - **x** (Variable) - 该OP的输入为多维Tensor。数据类型必须为float32或float64。 - **slope** (float,可选) - 斜率。值必须为正数,默认值为0.2。 - **offset** (float,可选) - 偏移量。默认值为0.5。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:激活后的Tensor,形状、数据类型和 ``x`` 一致。 +返回 +:::::::::::: +激活后的Tensor,形状、数据类型和 ``x`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/hard_swish_cn.rst b/docs/api/paddle/fluid/layers/hard_swish_cn.rst index 406bec65431..d1054a07dd1 100644 --- a/docs/api/paddle/fluid/layers/hard_swish_cn.rst +++ b/docs/api/paddle/fluid/layers/hard_swish_cn.rst @@ -14,18 +14,25 @@ hard_swish 阈值 ``threshold`` 和缩放因子 ``scale`` 为正数,位移 ``offset`` 正负均可,建议使用默认参数。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入特征,多维Tensor。数据类型为float32或float64。 - **threshold** (float,可选) - 激活操作中Relu函数的阈值,默认值为6.0。 - **scale** (float,可选) - 激活操作的缩放因子,默认值为6.0。 - **offset** (float,可选) - 激活操作的位移,默认值为3.0。 - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:经过hard_swish计算后的结果,数据类型及维度和x相同。 +返回 +:::::::::::: +经过hard_swish计算后的结果,数据类型及维度和x相同。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/hash_cn.rst b/docs/api/paddle/fluid/layers/hash_cn.rst index 707fed7d788..9e5de7dc7a3 100644 --- a/docs/api/paddle/fluid/layers/hash_cn.rst +++ b/docs/api/paddle/fluid/layers/hash_cn.rst @@ -13,17 +13,24 @@ hash 该OP使用的哈希算法是:xxHash - `Extremely fast hash algorithm `_ -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入是一个 **二维** ``LoDTensor`` 。**输入维数必须为2**。数据类型为:int32、int64。**仅支持LoDTensor**。 - **hash_size** (int) - 哈希算法的空间大小。输出值将保持在 :math:`[0, hash\_size)` 范围内。 - **num_hash** (int) - 哈希次数。默认值为1。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:``LoDTensor`` +返回 +:::::::::::: +``LoDTensor`` -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/hsigmoid_cn.rst b/docs/api/paddle/fluid/layers/hsigmoid_cn.rst index 55e12069a80..34becbc1afd 100644 --- a/docs/api/paddle/fluid/layers/hsigmoid_cn.rst +++ b/docs/api/paddle/fluid/layers/hsigmoid_cn.rst @@ -27,7 +27,9 @@ hsigmoid 4. 每个单词都已经有自己的路径和路径编码,当对于同一批输入进行操作时,可以同时传入一批路径和路径编码进行运算。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入Tensor。数据类型为float32或float64,形状为 ``[N, D]`` ,其中 ``N`` 为minibatch的大小,``D`` 为特征大小。 - **label** (Variable) - 训练数据的标签。数据类型为int64,形状为 ``[N, 1]`` 。 - **num_classes** (int) - 类别总数(字典大小)必须大于等于2。若使用默认树结构,即当 ``is_custom=False`` 时 ,必须设置该参数。若使用自定义树结构,即当 ``is_custom=True`` 时,它取值应为自定义树结构的非叶节点的个数,用于指定二分类的类别总数。 @@ -39,12 +41,17 @@ hsigmoid - **is_custom** (bool,可选) – 是否使用用户自定义二叉树取代默认二叉树结构。如果设置为True,请务必设置 ``path_table`` , ``path_code`` , ``num_classes`` ,否则必须设置num_classes。默认值为False。 - **is_sparse** (bool,可选) – 是否使用稀疏更新方式。如果设置为True,W的梯度和输入梯度将会变得稀疏。默认值为False。 -返回: 层次sigmoid计算后的Tensor,形状为[N, 1],数据类型和 ``input`` 一致。 +返回 +:::::::::::: + 层次sigmoid计算后的Tensor,形状为[N, 1],数据类型和 ``input`` 一致。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/huber_loss_cn.rst b/docs/api/paddle/fluid/layers/huber_loss_cn.rst index ffa20604318..c0575bf9a3e 100644 --- a/docs/api/paddle/fluid/layers/huber_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/huber_loss_cn.rst @@ -22,18 +22,25 @@ huber_loss huber\_loss = 0.5 * (label - input) * (label - input) -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入的预测数据,维度为[batch_size, 1] 或[batch_size]的Tensor。数据类型为float32或float64。 - **label** (Variable) - 输入的真实标签,维度为[batch_size, 1] 或[batch_size]的Tensor。数据类型为float32或float64。 - **delta** (float) - Huber损失的阈值参数,用于控制Huber损失对线性误差或平方误差的侧重。数据类型为float32。 -返回: 计算出的Huber损失,数据维度和数据类型与label相同的Tensor。 +返回 +:::::::::::: + 计算出的Huber损失,数据维度和数据类型与label相同的Tensor。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/im2sequence_cn.rst b/docs/api/paddle/fluid/layers/im2sequence_cn.rst index a9d44f12b48..fc98552aee2 100644 --- a/docs/api/paddle/fluid/layers/im2sequence_cn.rst +++ b/docs/api/paddle/fluid/layers/im2sequence_cn.rst @@ -18,7 +18,9 @@ im2sequence 其中符号的意义如下所示。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 类型为float32的4-D Tensor,格式为 `[N, C, H, W]` 。公式中 `input_height` 和 `input_width` 分别代表输入的高和宽。 - **filter_size** (int32 | List[int32]) - 滤波器大小。如果 `filter_size` 是一个List,它必须包含两个整数 `[filter_size_height, filter_size_width]` 。如果 `filter_size` 是一个int32, 则滤波器大小是 `[filter_size, filter_size]` , 默认值为1。 - **stride** (int32 | List[int32]) - 步长大小。如果stride是一个List,它必须包含两个整数 `[stride_height,stride_width]` 。如果stride是一个int32, 则步长大小是 `[stride, stride]` , 默认值为1。 @@ -27,9 +29,13 @@ im2sequence - **out_stride** (int32 | List[int32]) - 输出步长。只有当input_image_size不为None时才有效。如果out_stride是List,它必须包含 `[out_stride_height, out_stride_width]` ,如果out_stride是int32, 则可展开为 `[out_stride, out_stride]` ,默认值为1。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 -返回: 数据类型为float32, `shape` 为 `{batch_size * output_height * output_width, filter_size_height * filter_size_width * input.channels}` 的 2-D LodTensor。 +返回 +:::::::::::: + 数据类型为float32, `shape` 为 `{batch_size * output_height * output_width, filter_size_height * filter_size_width * input.channels}` 的 2-D LodTensor。 -返回类型: Variable +返回类型 +:::::::::::: + Variable :: @@ -75,7 +81,8 @@ im2sequence output.lod = [[4, 4]] -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/image_resize_cn.rst b/docs/api/paddle/fluid/layers/image_resize_cn.rst index ccbcec362c7..92b4c9fff26 100644 --- a/docs/api/paddle/fluid/layers/image_resize_cn.rst +++ b/docs/api/paddle/fluid/layers/image_resize_cn.rst @@ -118,7 +118,9 @@ https://en.wikipedia.org/wiki/Bilinear_interpolation 有关三线插值的详细信息,请参阅维基百科: https://en.wikipedia.org/wiki/Trilinear_interpolation -参数: +参数 +:::::::::::: + - **input** (Variable) - 4-D或5-D Tensor,数据类型为float32、float64或uint8,其数据格式由参数 ``data_format`` 指定。 - **out_shape** (list|tuple|Variable|None) - 输出Tensor,输入为4D张量时,形状为为(out_h, out_w)的2-D Tensor。输入为5-D Tensor时,形状为(out_d, out_h, out_w)的3-D Tensor。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者形状为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。默认值为None。 - **scale** (float|Variable|None)-输入的高度或宽度的乘数因子 。 out_shape和scale至少要设置一个。out_shape的优先级高于scale。默认值为None。 @@ -129,11 +131,17 @@ https://en.wikipedia.org/wiki/Trilinear_interpolation - **align_mode** (int)- 双线性插值的可选项。 可以是 '0' 代表src_idx = scale *(dst_indx + 0.5)-0.5;如果为'1' ,代表src_idx = scale * dst_index。 - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致。对于4-D Tensor,支持 NCHW(num_batches, channels, height, width) 或者 NHWC(num_batches, height, width, channels),对于5-D Tensor,支持 NCDHW(num_batches, channels, depth, height, width)或者 NDHWC(num_batches, depth, height, width, channels),默认值:'NCHW'。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 + +返回类型 +:::::::::::: + 变量(variable) -返回类型: 变量(variable) +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError` - out_shape应该是一个列表、元组或变量。 - :code:`TypeError` - actual_shape应该是变量或None。 - :code:`ValueError` - image_resize的"resample"只能是"BILINEAR"或"TRILINEAR"或"NEAREST"。 @@ -146,7 +154,8 @@ https://en.wikipedia.org/wiki/Trilinear_interpolation - :code:`ValueError` - data_format 只能取 ‘NCHW’、‘NHWC’、‘NCDHW’ 或者 ‘NDHWC’。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/image_resize_short_cn.rst b/docs/api/paddle/fluid/layers/image_resize_short_cn.rst index 4218c4408fc..90533271398 100644 --- a/docs/api/paddle/fluid/layers/image_resize_short_cn.rst +++ b/docs/api/paddle/fluid/layers/image_resize_short_cn.rst @@ -10,16 +10,23 @@ image_resize_short 该OP用于调整一批图片的大小。输入图像的短边将被调整为给定的out_short_len 。输入图像的长边按比例调整大小,最终图像的长宽比保持不变。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 图像调整图层的输入张量,这是一个维度为[num_batch, channels, in_h, in_w]的4-D Tensor。 - **out_short_len** (int) - 输出图像的短边长度。 - **resample** (str) - resample方法,默认为双线性插值。 -返回: 4维张量,shape为(num_batches, channels, out_h, out_w) +返回 +:::::::::::: + 4维张量,shape为(num_batches, channels, out_h, out_w) -返回类型: 变量(variable) +返回类型 +:::::::::::: + 变量(variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/inplace_abn_cn.rst b/docs/api/paddle/fluid/layers/inplace_abn_cn.rst index 11077c5b78f..aa85c626b88 100755 --- a/docs/api/paddle/fluid/layers/inplace_abn_cn.rst +++ b/docs/api/paddle/fluid/layers/inplace_abn_cn.rst @@ -11,7 +11,9 @@ inplace_abn 此层使用就地内存计算批处理正则化和激活来实现节省内存,有关批量正则化计算,请参见 ``fluid.layers.batch_norm`` ,有关就地激活批正则化化的计算,请参考 `In-Place Activated BatchNorm for Memory-Optimized Training of DNNs `_。 -参数: +参数 +:::::::::::: + - **input** (Variable) - inplace_abn算子的输入特征,是一个Variable类型,输入维度可以是 2, 3, 4, 5。数据类型:flaot16, float32, float64。 - **act** (string)- 激活函数类型,可以是leaky_realu、relu、prelu等。默认:None。 - **is_test** (bool) - 指示它是否在测试阶段,非训练阶段使用训练过程中统计到的全局均值和全局方差。默认:False。 @@ -28,11 +30,16 @@ inplace_abn - **act_alpha** (float) – 当 ``act`` 参数为None、leaky-relu、elu时,会使用就地批正则化激活算法,可通过此参数给定leaky-relu、elu的 ``alpha`` 值。默认:1.0。 -返回: 维度和输入相同的Tensor,在输入中运用批正则后的结果。 +返回 +:::::::::::: + 维度和输入相同的Tensor,在输入中运用批正则后的结果。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/inverse_time_decay_cn.rst b/docs/api/paddle/fluid/layers/inverse_time_decay_cn.rst index cd46afe366f..2aef58f321a 100644 --- a/docs/api/paddle/fluid/layers/inverse_time_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/inverse_time_decay_cn.rst @@ -21,17 +21,24 @@ inverse_time_decay else: decayed_learning_rate = learning_rate / (1 + decay_rate * global_step / decay_step) -参数: +参数 +:::::::::::: + - **learning_rate** (Variable|float) - 初始学习率,类型可以为学习率变量(Variable)或float型常量。 - **decay_steps** (int) - 学习率衰减步长,见以上衰减运算。 - **decay_rate** (float) - 学习率衰减率。见以上衰减运算。 - **staircase** (bool) - 若为True,按离散区间衰减学习率,即每 ``decay_steps`` 步多衰减 ``decay_rate`` 倍。若为False,则按以上衰减运算持续衰减。默认False。 -返回:Variable(Tensor) 随step衰减的学习率变量,维度为 :math:`[1]` 的1-D Tensor。 +返回 +:::::::::::: +Variable(Tensor) 随step衰减的学习率变量,维度为 :math:`[1]` 的1-D Tensor。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**示例代码:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/iou_similarity_cn.rst b/docs/api/paddle/fluid/layers/iou_similarity_cn.rst index d870183e611..d4a95932944 100644 --- a/docs/api/paddle/fluid/layers/iou_similarity_cn.rst +++ b/docs/api/paddle/fluid/layers/iou_similarity_cn.rst @@ -15,16 +15,23 @@ iou_similarity .. math:: IOU(A, B) = \frac{area(A\cap B)}{area(A)+area(B)-area(A\cap B)} -参数: +参数 +:::::::::::: + - **x** (Variable) - 框列表 :math:`X` 是二维LoDTensor,维度为 :math:`[N,4]` ,存有 :math:`N` 个框,每个框表示为 :math:`[xmin, ymin, xmax, ymax]` ,:math:`X` 的维度为 :math:`[N,4]` 。如果输入是图像特征图,:math:`[xmin, ymin]` 表示框的左上角坐标,接近坐标轴的原点。:math:`[xmax, ymax]` 表示框的右下角坐标。该张量包含批次输入的LoD信息。该批次输入的一个实例能容纳不同的项数。数据类型为float32或float64。 - **y** (Variable) - 框列表 :math:`Y` 是二维张量,存有 :math:`M` 个框,每个框表示为 :math:`[xmin, ymin, xmax, ymax]` ,:math:`Y` 的维度为 :math:`[M,4]`。如果输入是图像特征图,:math:`[xmin, ymin]` 表示框的左上角坐标,接近坐标轴的原点。:math:`[xmax, ymax]` 表示框的右下角坐标。数据类型为float32或float64。 - **box_normalized** (bool) - 先验框坐标是否正则化,即是否在[0, 1]区间内。默认值为true -返回:维度为 :math:`[N,M]` 的LoDTensor,代表每一对iou分数,数据类型与 :math:`X` 相同 +返回 +:::::::::::: +维度为 :math:`[N,M]` 的LoDTensor,代表每一对iou分数,数据类型与 :math:`X` 相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/isfinite_cn.rst b/docs/api/paddle/fluid/layers/isfinite_cn.rst index 493a17cfc71..434db8a4f48 100644 --- a/docs/api/paddle/fluid/layers/isfinite_cn.rst +++ b/docs/api/paddle/fluid/layers/isfinite_cn.rst @@ -12,16 +12,21 @@ isfinite 测试 x 是否包含无穷值(即 nan 或 inf)。若元素均为有穷数,返回真;否则返回假。 -参数: +参数 +:::::::::::: + - **x(variable)** : 变量,包含被测试的 Tensor / LoDTensor。 -返回: +返回 +:::::::::::: + - Variable (Tensor / LoDTensor),此 Tensor 变量包含一个 bool 型结果。 返回类型 - Variable (Tensor / LoDTensor),一个包含 Tensor 的变量。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/kldiv_loss_cn.rst b/docs/api/paddle/fluid/layers/kldiv_loss_cn.rst index 99249604737..73f9a600703 100644 --- a/docs/api/paddle/fluid/layers/kldiv_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/kldiv_loss_cn.rst @@ -26,18 +26,25 @@ kL发散损失计算如下: 当 ``reduction`` 为 ``batchmean`` 时,输出损失为[N]的形状,N为批大小,输出为所有损失的总和除以批量大小。 -参数: +参数 +:::::::::::: + - **x** (Variable) - KL散度损失算子的输入张量。维度为[N, \*]的多维Tensor,其中N是批大小,\*表示任何数量的附加维度,数据类型为float32或float64。 - **target** (Variable) - KL散度损失算子的张量。与输入 ``x`` 的维度和数据类型一致的多维Tensor。 - **reduction** (Variable)-要应用于输出的reduction类型,可用类型为‘none’ | ‘batchmean’ | ‘mean’ | ‘sum’,‘none’表示无reduction,‘batchmean’ 表示输出的总和除以批大小,‘mean’ 表示所有输出的平均值,‘sum’表示输出的总和。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:Variable(Tensor) KL散度损失。 +返回 +:::::::::::: +Variable(Tensor) KL散度损失。 -返回类型:变量(Variable),数据类型与输入 ``x`` 一致。 +返回类型 +:::::::::::: +变量(Variable),数据类型与输入 ``x`` 一致。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/l2_normalize_cn.rst b/docs/api/paddle/fluid/layers/l2_normalize_cn.rst index acb9ae715d8..41c1cdde827 100644 --- a/docs/api/paddle/fluid/layers/l2_normalize_cn.rst +++ b/docs/api/paddle/fluid/layers/l2_normalize_cn.rst @@ -17,7 +17,9 @@ l2_normalize 对于输入为多维Tensor的情况,该OP分别对维度轴上的每个1-D切片单独归一化 -参数: +参数 +:::::::::::: + - **x** (Variable) - 维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 - **axis** (int) - 归一化的轴。如果轴小于0,归一化的维是rank(X)+axis。其中,-1用来表示最后一维。 - **epsilon** (float) - epsilon,用于避免除0,默认值为1e-12。 @@ -27,7 +29,8 @@ l2_normalize 返回类型:Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/label_smooth_cn.rst b/docs/api/paddle/fluid/layers/label_smooth_cn.rst index ba40e2fe2f4..6e8cfd6a893 100644 --- a/docs/api/paddle/fluid/layers/label_smooth_cn.rst +++ b/docs/api/paddle/fluid/layers/label_smooth_cn.rst @@ -22,18 +22,25 @@ label_smooth 关于更多标签平滑的细节, `查看论文 `_ 。 -参数: +参数 +:::::::::::: + - **label** (Variable) - 包含标签数据的输入变量。 标签数据应使用 one-hot 表示,是维度为 :math:`[N_1, ..., Depth]` 的多维Tensor,其中Depth为字典大小。 - **prior_dist** (Variable,可选) - 用于平滑标签的先验分布,是维度为 :math:`[1,class\_num]` 的2D Tensor。 如果未设置,则使用均匀分布。默认值为None。 - **epsilon** (float,可选) - 用于混合原始真实分布和固定分布的权重。默认值为0.1。 - **dtype** (np.dtype|core.VarDesc.VarType|str,可选) - 输入 ``Tensor`` 的数据类型,,数据类型可以为”float32“或”float64“。默认值为”float32“。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:为平滑后标签的 ``Tensor`` ,数据类型为dtype设置的数据类型,维度也与输入的label参数维度相同。 +返回 +:::::::::::: +为平滑后标签的 ``Tensor`` ,数据类型为dtype设置的数据类型,维度也与输入的label参数维度相同。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/leaky_relu_cn.rst b/docs/api/paddle/fluid/layers/leaky_relu_cn.rst index 113cfe01132..a416a5e6658 100644 --- a/docs/api/paddle/fluid/layers/leaky_relu_cn.rst +++ b/docs/api/paddle/fluid/layers/leaky_relu_cn.rst @@ -12,16 +12,23 @@ LeakyRelu激活函数 .. math:: out=max(x,α∗x) -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入的多维LoDTensor/Tensor,数据类型为:float32,float64。 - **alpha** (float) - 负斜率,缺省值为0.02。 - **name** (str,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: 与 ``x`` 维度相同,数据类型相同的LodTensor/Tensor。 +返回 +:::::::::::: + 与 ``x`` 维度相同,数据类型相同的LodTensor/Tensor。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/less_equal_cn.rst b/docs/api/paddle/fluid/layers/less_equal_cn.rst index 13f3509885f..0aa7fec58f7 100644 --- a/docs/api/paddle/fluid/layers/less_equal_cn.rst +++ b/docs/api/paddle/fluid/layers/less_equal_cn.rst @@ -10,17 +10,24 @@ less_equal 该OP逐元素地返回 :math:`x <= y` 的逻辑值,使用重载算子 `<=` 可以有相同的计算函数效果。 -参数: +参数 +:::::::::::: + - **x** (Variable) – 进行比较的第一个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **y** (Variable) – 进行比较的第二个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **cond** (Variable,可选) – 如果为None,则创建一个Tensor来作为进行比较的输出结果,该Tensor的shape和数据类型和输入x一致;如果不为None,则将Tensor作为该OP的输出,数据类型和数据shape需要和输入x一致。默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,数据的shape和输入x一致。 +返回 +:::::::::::: +输出结果的Tensor,数据的shape和输入x一致。 -返回类型:Variable,数据类型为bool类型。 +返回类型 +:::::::::::: +Variable,数据类型为bool类型。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/less_than_cn.rst b/docs/api/paddle/fluid/layers/less_than_cn.rst index 76bc1daf4c1..cce0546ab57 100644 --- a/docs/api/paddle/fluid/layers/less_than_cn.rst +++ b/docs/api/paddle/fluid/layers/less_than_cn.rst @@ -12,7 +12,9 @@ less_than 该OP逐元素地返回 :math:`x < y` 的逻辑值,使用重载算子 `<` 可以有相同的计算函数效果 -参数: +参数 +:::::::::::: + - **x** (Variable) - 进行比较的第一个输入,是一个多维的LoDTensor/Tensor,数据类型可以是float32,float64,int32,int64。 - **y** (Variable) - 进行比较的第二个输入,是一个多维的LoDTensor/Tensor,数据类型可以是float32,float64,int32,int64。 - **force_cpu** (bool) – 如果为True则强制将输出变量写入CPU内存中,否则将其写入目前所在的运算设备上。默认值为False。注意:该属性已弃用,其值始终是False。 @@ -20,11 +22,16 @@ less_than - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的LoDTensor/Tensor,数据的shape和输入x一致。 +返回 +:::::::::::: +输出结果的LoDTensor/Tensor,数据的shape和输入x一致。 -返回类型: Variable,数据类型为bool。 +返回类型 +:::::::::::: + Variable,数据类型为bool。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/linear_chain_crf_cn.rst b/docs/api/paddle/fluid/layers/linear_chain_crf_cn.rst index 81968c2cbc9..4a6a6633e7e 100755 --- a/docs/api/paddle/fluid/layers/linear_chain_crf_cn.rst +++ b/docs/api/paddle/fluid/layers/linear_chain_crf_cn.rst @@ -51,20 +51,26 @@ linear_chain_crf 3.Emission的第二维度必须和标记数字(tag number)相同。 -参数: +参数 +:::::::::::: + - **input** (LoDTensor|Tensor) - 数据类型为float32, float64的Tensor或者LoDTensor。线性链条件随机场的发射矩阵emission。输入为LoDTensor时,是一个shape为[N*D]的2-D LoDTensor,N是每一个batch中batch对应的长度数想加的总数,D是维度。当输入为Tensor时,应该是一个shape为[N x S x D]的Tensor,N是batch_size,S为序列的最大长度,D是维度。 - **label** (Tensor|LoDTensor) - 数据类型为int64类型Tensor或者LoDTensor。该值为标签值。输入为LoDTensor时[N x 1],N是mini-batch的总数;输入为Tensor时,[N x S],N为batch数量,S为序列的最大长度。 - **Length** (Tensor) - 数据类型为int64类型的Tensor。 shape为[M x 1]的Tensor,M为mini_batch中序列的数量。 - **param_attr** (ParamAttr) - 可学习参数的属性,为transition矩阵。详见代码示例。 -返回: +返回 +:::::::::::: + Emission的指数形式。shape与Emission相同。这是前向计算中的中间计算结果,在反向计算中还会复用。 Transition的指数形式。shape为[(D+2)*D]的二维张量。这是前向计算中的中间计算结果,在反向计算中还会复用。 条件概率的对数形式。每个batch训练样本的条件概率的对数。这是一个shape为[S*1]的二维张量,S是mini-batch的序列数。注:S等于mini-batch的序列数。输出不再是LoDTensor。 -返回类型: +返回类型 +:::::::::::: + Emission的指数形式。Variable(Tensor|LoDTensor):数据类型为float32, float64的Tensor或者LoDTensor。 Transition的指数形式。Variable(Tensor|LoDTensor):数据类型为float32, float64的Tensor或者LoDTensor。 @@ -72,7 +78,8 @@ linear_chain_crf 条件概率的对数形式。Variable(Tensor):数据类型为float32, float64的Tensor。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/linear_lr_warmup_cn.rst b/docs/api/paddle/fluid/layers/linear_lr_warmup_cn.rst index ff40eab2431..080efd06673 100644 --- a/docs/api/paddle/fluid/layers/linear_lr_warmup_cn.rst +++ b/docs/api/paddle/fluid/layers/linear_lr_warmup_cn.rst @@ -28,18 +28,25 @@ linear_lr_warmup 其中learning_rate为热身之后的学习率。 -参数: +参数 +:::::::::::: + - **learning_rate** (Variable|float) - 热身之后的学习率,它可以是数据类型为float32的1D-Tensor或单个浮点数。 - **warmup_steps** (int) - 进行warm up过程的步数。 - **start_lr** (float) - warm up的起始学习率。 - **end_lr** (float) - warm up的最终学习率。 -返回:进行热身衰减后的学习率,数据类型与learning_rate相同。 +返回 +:::::::::::: +进行热身衰减后的学习率,数据类型与learning_rate相同。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/locality_aware_nms_cn.rst b/docs/api/paddle/fluid/layers/locality_aware_nms_cn.rst index f85aead2e4e..74585998454 100644 --- a/docs/api/paddle/fluid/layers/locality_aware_nms_cn.rst +++ b/docs/api/paddle/fluid/layers/locality_aware_nms_cn.rst @@ -20,7 +20,9 @@ locality_aware_nms -参数: +参数 +:::::::::::: + - **bboxes** (Variable) – 支持两种类型的边界框(bounding box): 1. (Tensor)形为[N,M,4 或 8、16、24、32]的3-D张量,表示将预测M个边界框的预测位置, N是批大小(batch size)。当边界框(bounding box)大小等于4时,每个边界框有四个坐标值,布局为 :math:`[xmin, ymin, xmax, ymax]` 。数据类型为float32或float64。 @@ -38,11 +40,16 @@ locality_aware_nms - **normalized** (bool) – 检测是否已经经过正则化。默认值:True 。 - **name** (str|None) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:形为[No,6]的2-D LoDTensor,表示检测(detections)结果。每行有6个值:[标签label,置信度confidence,xmin,ymin,xmax,ymax]。或形为[No,10]的2-D LoDTensor,用来表示检测结果。 每行有10个值:[标签label,置信度confidence,x1,y1,x2,y2,x3,y3,x4,y4]。 No是检测的总数。 如果对所有图像都没有检测到的box,则lod将设置为{1},而Out仅包含一个值-1。 (1.3版本之后,当未检测到box时,lod从{0}更改为{1}) +返回 +:::::::::::: +形为[No,6]的2-D LoDTensor,表示检测(detections)结果。每行有6个值:[标签label,置信度confidence,xmin,ymin,xmax,ymax]。或形为[No,10]的2-D LoDTensor,用来表示检测结果。 每行有10个值:[标签label,置信度confidence,x1,y1,x2,y2,x3,y3,x4,y4]。 No是检测的总数。 如果对所有图像都没有检测到的box,则lod将设置为{1},而Out仅包含一个值-1。 (1.3版本之后,当未检测到box时,lod从{0}更改为{1}) -返回类型:Variable,数据类型与输入一致。 +返回类型 +:::::::::::: +Variable,数据类型与输入一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/lod_append_cn.rst b/docs/api/paddle/fluid/layers/lod_append_cn.rst index 2c7f754233a..e6e069087ca 100644 --- a/docs/api/paddle/fluid/layers/lod_append_cn.rst +++ b/docs/api/paddle/fluid/layers/lod_append_cn.rst @@ -26,17 +26,24 @@ lod_append x.data = [[1.0], [2.0], [3.0], [4.0], [5.0], [6.0]] x.dims = [6, 1] -参数: +参数 +:::::::::::: + - **x** (Variable)-输入变量,可以是LoDTensor或tensor。 - **level** (list|tuple|Variable)-预添加到x的LoD里的LoD level。 -返回:一个有着新的LoD level的输出变量 +返回 +:::::::::::: +一个有着新的LoD level的输出变量 -返回类型:Variable +返回类型 +:::::::::::: +Variable Raise: ``ValueError`` - 如果y为None或者level不可迭代。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/lod_reset_cn.rst b/docs/api/paddle/fluid/layers/lod_reset_cn.rst index fbb090b2675..7428c1ac785 100644 --- a/docs/api/paddle/fluid/layers/lod_reset_cn.rst +++ b/docs/api/paddle/fluid/layers/lod_reset_cn.rst @@ -10,18 +10,26 @@ lod_reset 根据给定的参数 ``y`` 或 ``target_lod`` ,重设输入 ``x`` (LoDTensor) 的 LoD 信息。 -参数: +参数 +:::::::::::: + - **x** (Variable) : 输入变量,类型为 Tensor 或者 LoDTensor。 - **y** (Variable|None) : 当 ``y`` 非空时,输出 LoDTensor 的 LoD 信息将与 ``y`` 的 LoD 一致。 - **target_lod** (list|tuple|None) : 一级 LoD,当 ``y`` 为空时,输出 LoDTensor 的 LoD 信息将与 ``target_lod`` 一致。 -返回: +返回 +:::::::::::: + - Variable (LoDTensor),重设了 LoD 信息的 LoDTensor。 -返回类型: +返回类型 +:::::::::::: + - Variable (LoDTensor)。 -抛出异常: +抛出异常 +:::::::::::: + - ``TypeError`` : 当 ``y`` 和 ``target_lod`` 二者均为空时抛出此异常。 :: @@ -79,7 +87,8 @@ lod_reset out.data = [[1.0], [2.0], [3.0], [4.0], [5.0], [6.0]] out.dims = [6, 1] -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/lrn_cn.rst b/docs/api/paddle/fluid/layers/lrn_cn.rst index e7a077a93fa..d1ad3298c5d 100644 --- a/docs/api/paddle/fluid/layers/lrn_cn.rst +++ b/docs/api/paddle/fluid/layers/lrn_cn.rst @@ -24,7 +24,9 @@ lrn - :math:`\beta` : 指数参数 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入特征,形状为[N,C,H,W]或者[N,H,W,C]的4D-Tensor,其中N为batch大小,C为输入通道数,H为特征高度,W为特征宽度。必须包含4个维度,否则会抛出 ``ValueError`` 的异常。数据类型为float32。 - **n** (int,可选) - 累加的通道数,默认值为5。 - **k** (float,可选)- 位移,正数。默认值为1.0。 @@ -34,15 +36,22 @@ lrn - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回:局部响应正则化得到的输出特征,数据类型及维度和input相同。 +返回 +:::::::::::: +局部响应正则化得到的输出特征,数据类型及维度和input相同。 + +返回类型 +:::::::::::: +Variable -返回类型:Variable +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` : 如果输入不是4-D Tensor。 - ``ValueError`` - 如果 ``data_format`` 不是"NCHW"或者"NHWC"。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/lstm_cn.rst b/docs/api/paddle/fluid/layers/lstm_cn.rst index 9d0be734ac6..c50efbb4a4d 100644 --- a/docs/api/paddle/fluid/layers/lstm_cn.rst +++ b/docs/api/paddle/fluid/layers/lstm_cn.rst @@ -43,7 +43,9 @@ lstm - :math:`\sigma` 表示 gate 的非线性激活函数,默认为 sigmoid - :math:`\odot` 表示矩阵的 Hadamard product,即对两个维度相同的矩阵,将相同位置的元素相乘,得到另一个维度相同的矩阵 -参数: +参数 +:::::::::::: + - **input** ( :ref:`api_guide_Variable` ) - LSTM的输入张量,维度为 :math:`[batch\_size, seq\_len, input\_dim]` 的 3-D Tensor,其中 seq_len 为序列的长度, input_dim 为序列词嵌入的维度。数据类型为 float32 或者 float64。 - **init_h** ( :ref:`api_guide_Variable` ) – LSTM的初始 hidden 状态,维度为 :math:`[num\_layers, batch\_size, hidden\_size]` 的 3-D Tensor,其中 num_layers 是LSTM的总层数,hidden_size 是隐层维度。 如果is_bidirec = True, 维度应该为 :math:`[num\_layers*2, batch\_size, hidden\_size]` 。数据类型为 float32 或者 float64。 - **init_c** ( :ref:`api_guide_Variable` ) - LSTM的初始 cell 状态。维度为 :math:`[num\_layers, batch\_size, hidden\_size]` 的 3-D Tensor,其中 num_layers 是LSTM的总层数,hidden_size 是隐层维度。 如果is_bidirec = True, 维度应该为 :math:`[num\_layers*2, batch\_size, hidden\_size]` 。数据类型为 float32 或者 float64。 @@ -57,15 +59,20 @@ lstm - **default_initializer** (Initializer,可选) – 用于初始化权重的初始化器,如果为None,将进行默认初始化。默认值为 None。 - **seed** (int,可选) – LSTM中dropout的seed,如果是-1,dropout将使用随机seed。默认值为 1。 -返回: 经过lstm运算输出的三个Tensor的tuple,包括 +返回 +:::::::::::: + 经过lstm运算输出的三个Tensor的tuple,包括 - rnn_out:LSTM hidden的输出结果的Tensor,数据类型与input一致,维度为 :math:`[batch\_size, seq\_len, hidden\_size]` 。如果 ``is_bidirec`` 设置为True,则维度为 :math:`[batch\_size, seq\_len, hidden\_size*2]` - last_h:LSTM最后一步的hidden状态的Tensor,数据类型与input一致,维度为 :math:`[num\_layers, batch\_size, hidden\_size]` 。如果 ``is_bidirec`` 设置为True,则维度为 :math:`[num\_layers*2, batch\_size, hidden\_size]` - last_c:LSTM最后一步的cell状态的Tensor,数据类型与input一致,维度为 :math:`[num\_layers, batch\_size, hidden\_size]` 。如果 ``is_bidirec`` 设置为True,则维度为 :math:`[num\_layers*2, batch\_size, hidden\_size]` -返回类型: tuple( :ref:`api_guide_Variable` , :ref:`api_guide_Variable` , :ref:`api_guide_Variable` ) +返回类型 +:::::::::::: + tuple( :ref:`api_guide_Variable` , :ref:`api_guide_Variable` , :ref:`api_guide_Variable` ) -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/lstm_unit_cn.rst b/docs/api/paddle/fluid/layers/lstm_unit_cn.rst index afe363c99e5..05a18c02ef7 100644 --- a/docs/api/paddle/fluid/layers/lstm_unit_cn.rst +++ b/docs/api/paddle/fluid/layers/lstm_unit_cn.rst @@ -26,7 +26,9 @@ Long-Short Term Memory(LSTM)循环神经网络计算单元。该OP用于完 :math:`i_{t}, f_{t}, c_{t}, o_{t}, h_{t}` 分别为input gate(输入门)、forget gate(遗忘门)、cell、output gate(输出门)和hidden的计算。 -参数: +参数 +:::::::::::: + - **x_t** (Variable) - 表示当前时间步的输入的Tensor,形状为 :math:`[N, M]` ,其中 :math:`N` 为batch_size, :math:`M` 为输入的特征维度大小。数据类型为float32或float64。 - **hidden_t_prev** (Variable) - 表示前一时间步hidden输出的Tensor,形状为 :math:`[N, D]`,其中 :math:`N` 为batch_size, :math:`D` 为LSTM中隐单元的数目。数据类型与 ``x_t`` 相同。 - **cell_t_prev** (Variable) - 表示前一时间步cell输出的Tensor,和 ``hidden_t_prev`` 具有相同形状和数据类型。 @@ -35,11 +37,17 @@ Long-Short Term Memory(LSTM)循环神经网络计算单元。该OP用于完 - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Variable的二元组,包含了两个形状和数据类型均与 ``hidden_t_prev`` 相同的Tensor,分别表示hiddel和cell输出,即公式中的 :math:`h_{t}` 和 :math:`c_{t}` 。 +返回 +:::::::::::: +Variable的二元组,包含了两个形状和数据类型均与 ``hidden_t_prev`` 相同的Tensor,分别表示hiddel和cell输出,即公式中的 :math:`h_{t}` 和 :math:`c_{t}` 。 + +返回类型 +:::::::::::: +tuple -返回类型:tuple +抛出异常 +:::::::::::: -抛出异常: - :code:`ValueError`: ``x_t`` 的阶不为2 - :code:`ValueError`: ``hidden_t_prev`` 的阶不为2 - :code:`ValueError`: ``cell_t_prev`` 的阶不为2 @@ -47,7 +55,8 @@ Long-Short Term Memory(LSTM)循环神经网络计算单元。该OP用于完 - :code:`ValueError`: ``hidden_t_prev`` 和 ``cell_t_prev`` 的第二维大小必须相同 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/margin_rank_loss_cn.rst b/docs/api/paddle/fluid/layers/margin_rank_loss_cn.rst index fbbf847994a..b6ee7db17d5 100644 --- a/docs/api/paddle/fluid/layers/margin_rank_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/margin_rank_loss_cn.rst @@ -16,21 +16,30 @@ margin rank loss(间隔排序损失)层。在排序问题中,它可以比 rank\_loss = max(0, -label * (left - right) + margin) -参数: +参数 +:::::::::::: + - **label** (Variable) – 表示输入 ``left`` 的真实排序是否高于输入 ``right`` , 数据类型为 float32。 - **left** (Variable) – 输入 ``left`` 的排序得分, 数据类型为 float32 。 - **right** (Variable) – 输入 ``right`` 的排序得分, 数据类型为 float32。 - **margin** (float) – 指定的间隔。 - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 -返回: 排序损失 +返回 +:::::::::::: + 排序损失 + +返回类型 +:::::::::::: + Variable -返回类型: Variable +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - ``label`` , ``left`` , ``right`` 有一者不为Variable类型时,抛出此异常 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/matmul_cn.rst b/docs/api/paddle/fluid/layers/matmul_cn.rst index 8514a410c29..0326b56aa22 100644 --- a/docs/api/paddle/fluid/layers/matmul_cn.rst +++ b/docs/api/paddle/fluid/layers/matmul_cn.rst @@ -21,7 +21,9 @@ matmul - 如果原始 Tensor x 或 y 的秩为 1 且未转置,则矩阵相乘后的前置或附加维度 1 将移除。 -参数: +参数 +:::::::::::: + - **x** (Variable) : 输入变量,类型为 Tensor 或 LoDTensor。 - **y** (Variable) : 输入变量,类型为 Tensor 或 LoDTensor。 - **transpose_x** (bool) : 相乘前是否转置 x。 @@ -29,10 +31,14 @@ matmul - **alpha** (float) : 输出比例,默认为 1.0。 - **name** (str|None) : 该层名称(可选),如果设置为空,则自动为该层命名。 -返回: +返回 +:::::::::::: + - Variable (Tensor / LoDTensor),矩阵相乘后的结果。 -返回类型: +返回类型 +:::::::::::: + - Variable(变量)。 :: @@ -73,7 +79,8 @@ matmul out: [M, N] -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/matrix_nms_cn.rst b/docs/api/paddle/fluid/layers/matrix_nms_cn.rst index 9cb2e54f2a8..c94c3bec1d4 100644 --- a/docs/api/paddle/fluid/layers/matrix_nms_cn.rst +++ b/docs/api/paddle/fluid/layers/matrix_nms_cn.rst @@ -18,7 +18,9 @@ matrix_nms 在NMS步骤后,如果keep_top_k大于-1,则每个图像最多保留keep_top_k个框(bounding box)。 -参数: +参数 +:::::::::::: + - **bboxes** (Variable) - 形为[N,M,4]的3-D张量,表示将预测M个边界框的预测位置, N是批大小(batch size)。当边界框(bounding box)大小等于4时,每个边界框有四个坐标值,布局为[xmin,ymin,xmax,ymax]。数据类型为float32或float64。 - **scores** (Variable) – 形为[N,C,M]的3-D张量,表示预测的置信度。 N是批大小(batch size),C是种类数目,M是边界框bounding box的数量。对于每个类别,存在对应于M个边界框的总M个分数。请注意,M等于bboxes的第二维。数据类型为float32或float64。 - **score_threshold** (float) – 过滤掉低置信度分数的边界框的阈值。 @@ -32,12 +34,15 @@ matrix_nms - **return_index** (bool) – 是否同时返回保留检测框的序号。默认值:False 。 - **name** (str|None) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - **Out** (Variable) - 形为[No,6]的2-D LoDTensor,表示检测结果。每行有6个值:[标签label,置信度confidence,xmin,ymin,xmax,ymax]。或形为[No,10]的2-D LoDTensor,用来表示检测结果。 每行有10个值:[标签label,置信度confidence,x1,y1,x2,y2,x3,y3,x4,y4]。 No是检测的总数。 如果对所有图像都没有检测到的box,则lod将设置为{1},而Out仅包含一个值-1。 (1.3版本之后,当未检测到box时,lod从{0}更改为{1}) - **Index** (Variable) - 形为[No,1]的2-D LoDTensor,表示检测结果在整个批次中的序号。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/maxout_cn.rst b/docs/api/paddle/fluid/layers/maxout_cn.rst index 494ea1edc0d..ad3bf26cac6 100644 --- a/docs/api/paddle/fluid/layers/maxout_cn.rst +++ b/docs/api/paddle/fluid/layers/maxout_cn.rst @@ -24,20 +24,29 @@ maxout - Maxout Networks: http://www.jmlr.org/proceedings/papers/v28/goodfellow13.pdf - Multi-digit Number Recognition from Street View Imagery using Deep Convolutional Neural Networks: https://arxiv.org/pdf/1312.6082v4.pdf -参数: +参数 +:::::::::::: + - **x** (Variable) - 4-D Tensor,maxout算子的输入张量,其数据类型为float32,数据格式为NCHW或NHWC,其中N为 batch size ,C为通道数,H和W为特征图的高和宽。 - **groups** (int) - 指定将输入张量的channel通道维度进行分组的数目。输出的通道数量为通道数除以组数。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **axis** (int) - 指定通道所在维度的索引。当数据格式为NCHW时,axis应该被设置为1,当数据格式为NHWC时,axis应该被设置为-1或者3。默认值:1。 -返回:4-D Tensor,数据类型和格式与 `x` 一致。 +返回 +:::::::::::: +4-D Tensor,数据类型和格式与 `x` 一致。 + +返回类型 +:::::::::::: +Variable -返回类型:Variable +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``axis`` 既不是1,也不是-1或3。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/mean_cn.rst b/docs/api/paddle/fluid/layers/mean_cn.rst index ec99d732e36..b6f6899f389 100644 --- a/docs/api/paddle/fluid/layers/mean_cn.rst +++ b/docs/api/paddle/fluid/layers/mean_cn.rst @@ -10,17 +10,24 @@ mean 计算 ``x`` 所有元素的平均值。 -参数: +参数 +:::::::::::: + - **x** (Variable) : Tensor 或 LoDTensor。均值运算的输入。 - **name** (basestring | None) : 输出变量的名称。 -返回: +返回 +:::::::::::: + - Variable: 包含输出均值的 Tensor / LoDTensor。 -返回类型: +返回类型 +:::::::::::: + - Variable(变量)。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/merge_selected_rows_cn.rst b/docs/api/paddle/fluid/layers/merge_selected_rows_cn.rst index d44783ca46c..f06198c6402 100644 --- a/docs/api/paddle/fluid/layers/merge_selected_rows_cn.rst +++ b/docs/api/paddle/fluid/layers/merge_selected_rows_cn.rst @@ -10,17 +10,24 @@ merge_selected_rows 累加合并 `SelectedRows `_ ( ``x`` ) 中的重复行,并对行值由小到大重新排序。 -参数: +参数 +:::::::::::: + - x (Variable) : 类型为 SelectedRows,选中行允许重复。 - name (basestring|None) : 输出变量名称。 -返回: +返回 +:::::::::::: + - 含有 SelectedRows 的 Variable,选中行不重复。 -返回类型: +返回类型 +:::::::::::: + - Variable(变量)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/mish_cn.rst b/docs/api/paddle/fluid/layers/mish_cn.rst index 0749cf5d0e4..37d4587dcb2 100644 --- a/docs/api/paddle/fluid/layers/mish_cn.rst +++ b/docs/api/paddle/fluid/layers/mish_cn.rst @@ -18,15 +18,20 @@ Mish激活函数。参考 `Mish: A Self Regularized Non-Monotonic Neural Activat Mish(x) = x * \tanh(softplus(x)) -参数: +参数 +:::::::::::: + - **x** (Variable) - 多维 Tensor 或 LoDTensor,数据类型为 float32,float64。 - **threshold** (float) - Mish激活函数中计算softplus的阈值。如果输入大于该阈值,将使用近似计算,默认值为 20.0。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - Variable: Mish op 的结果,多维 Tensor 或 LoDTensor。数据类型为 float32 或 float64,数据类型以及形状和输入 x 一致。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/mse_loss_cn.rst b/docs/api/paddle/fluid/layers/mse_loss_cn.rst index 5c3b5e0dafe..ec5c44ae9c5 100644 --- a/docs/api/paddle/fluid/layers/mse_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/mse_loss_cn.rst @@ -16,15 +16,22 @@ mse_loss Out = MEAN((input-label)^{2}) -参数: +参数 +:::::::::::: + - **input** (Variable) - 预测值,维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 - **label** (Variable) - 目标值,维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 -返回:预测值和目标值的均方差 +返回 +:::::::::::: +预测值和目标值的均方差 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/mul_cn.rst b/docs/api/paddle/fluid/layers/mul_cn.rst index 4ce54f1a025..0c0aacc9a5b 100644 --- a/docs/api/paddle/fluid/layers/mul_cn.rst +++ b/docs/api/paddle/fluid/layers/mul_cn.rst @@ -17,18 +17,25 @@ mul算子 输入x和y都可以携带LoD(详细程度)信息。但输出仅与输入x共享LoD信息。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 乘法运算的第一个输入张量Tensor/LoDTensor。 - **y** (Variable) - 乘法运算的第二个输入张量Tensor/LoDTensor。 - **x_num_col_dims** (int,可选) - 默认值1, 可以将具有两个以上维度的张量作为输入。如果输入x是具有多于两个维度的张量,则输入x将先展平为二维矩阵。展平规则是:前 ``num_col_dims`` 将被展平成最终矩阵的第一个维度(矩阵的高度),其余的 rank(x) - num_col_dims 维度被展平成最终矩阵的第二个维度(矩阵的宽度)。结果是展平矩阵的高度等于x的前 ``x_num_col_dims`` 维数的乘积,展平矩阵的宽度等于x的最后一个 rank(x)- ``num_col_dims`` 个剩余维度的维数的乘积。例如,假设x是一个5-D张量,形状为(2,3,4,5,6),并且 ``x_num_col_dims`` 的值为3。 则扁平化后的张量具有的形即为(2x3x4,5x6)=(24,30)。 - **y_num_col_dims** (int,可选) - 默认值1, 可以将具有两个以上维度的张量作为输入。如果输入y是具有多于两个维度的张量,则y将首先展平为二维矩阵。 ``y_num_col_dims`` 属性确定y的展平方式。有关更多详细信息,请参阅 ``x_num_col_dims`` 的注释。 - **name** (str,可选) - 输出的名称。该参数供开发人员打印调试信息时使用,具体用法参见 :ref:`api_guide_name`,默认为:None。 -返回:Variable(Tensor)乘法运算输出张量。 +返回 +:::::::::::: +Variable(Tensor)乘法运算输出张量。 -返回类型:变量(Variable)。 +返回类型 +:::::::::::: +变量(Variable)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/multiclass_nms_cn.rst b/docs/api/paddle/fluid/layers/multiclass_nms_cn.rst index 57ac4ab0175..d6aaf49eb0f 100644 --- a/docs/api/paddle/fluid/layers/multiclass_nms_cn.rst +++ b/docs/api/paddle/fluid/layers/multiclass_nms_cn.rst @@ -36,7 +36,9 @@ multiclass_nms -参数: +参数 +:::::::::::: + - **bboxes** (Variable) – 支持两种类型的边界框(bounding box): 1. (Tensor)形为[N,M,4 或 8、16、24、32]的3-D张量,表示将预测M个边界框的预测位置, N是批大小(batch size)。当边界框(bounding box)大小等于4时,每个边界框有四个坐标值,布局为[xmin,ymin,xmax,ymax]。数据类型为float32或float64。 @@ -56,11 +58,16 @@ multiclass_nms - **normalized** (bool) – 检测是否已经经过正则化。默认值:True 。 - **name** (str|None) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 -返回:形为[No,6]的2-D LoDTensor,表示检测(detections)结果。每行有6个值:[标签label,置信度confidence,xmin,ymin,xmax,ymax]。或形为[No,10]的2-D LoDTensor,用来表示检测结果。 每行有10个值:[标签label,置信度confidence,x1,y1,x2,y2,x3,y3,x4,y4]。 No是检测的总数。 如果对所有图像都没有检测到的box,则lod将设置为{1},而Out仅包含一个值-1。 (1.3版本之后,当未检测到box时,lod从{0}更改为{1}) +返回 +:::::::::::: +形为[No,6]的2-D LoDTensor,表示检测(detections)结果。每行有6个值:[标签label,置信度confidence,xmin,ymin,xmax,ymax]。或形为[No,10]的2-D LoDTensor,用来表示检测结果。 每行有10个值:[标签label,置信度confidence,x1,y1,x2,y2,x3,y3,x4,y4]。 No是检测的总数。 如果对所有图像都没有检测到的box,则lod将设置为{1},而Out仅包含一个值-1。 (1.3版本之后,当未检测到box时,lod从{0}更改为{1}) -返回类型:Variable,数据类型与输入一致。 +返回类型 +:::::::::::: +Variable,数据类型与输入一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/natural_exp_decay_cn.rst b/docs/api/paddle/fluid/layers/natural_exp_decay_cn.rst index c3ecb177a1b..e2564ac429b 100644 --- a/docs/api/paddle/fluid/layers/natural_exp_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/natural_exp_decay_cn.rst @@ -21,17 +21,24 @@ natural_exp_decay else: decayed_learning_rate = learning_rate * exp(- decay_rate * floor(global_step / decay_steps)) -参数: +参数 +:::::::::::: + - **learning_rate** (Variable|float) - 初始学习率,类型可以为学习率变量(Variable)或float型常量。 - **decay_steps** (int) - 学习率衰减步长,见以上衰减运算。 - **decay_rate** (float) - 学习率衰减率。见以上衰减运算。 - **staircase** (bool) - 若为True,按离散区间衰减学习率,即每 ``decay_steps`` 步衰减倍率的自然指数幂次项上增加 ``decay_rate`` 。若为False,则按以上衰减运算持续衰减。默认False。 -返回:Variable(Tensor) 随step衰减的学习率变量,维度为 :math:`[1]` 的1-D Tensor。 +返回 +:::::::::::: +Variable(Tensor) 随step衰减的学习率变量,维度为 :math:`[1]` 的1-D Tensor。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**示例代码:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/noam_decay_cn.rst b/docs/api/paddle/fluid/layers/noam_decay_cn.rst index d769630deea..0d1e13e4f90 100644 --- a/docs/api/paddle/fluid/layers/noam_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/noam_decay_cn.rst @@ -28,16 +28,23 @@ noam衰减的numpy实现如下: 请参照 `attention is all you need `_ -参数: +参数 +:::::::::::: + - **d_model** (Variable|int) - 模型的输入、输出向量特征维度。类型可设置为标量Tensor,或int值。 - **warmup_steps** (Variable|int) - 预热步数,类型可设置为标量Tensor,或int值。 - **learning_rate** (Variable|float|int,可选) - 初始学习率。如果类型为Variable,则为shape为[1]的Tensor,数据类型为float32或float64;也可以是python的int类型。默认值为1.0。 -返回:衰减的学习率 +返回 +:::::::::::: +衰减的学习率 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/not_equal_cn.rst b/docs/api/paddle/fluid/layers/not_equal_cn.rst index 7118715a216..ce37298c099 100644 --- a/docs/api/paddle/fluid/layers/not_equal_cn.rst +++ b/docs/api/paddle/fluid/layers/not_equal_cn.rst @@ -10,16 +10,23 @@ not_equal 该OP逐元素地返回 :math:`x != y` 的逻辑值,使用重载算子 `!=` 可以有相同的计算函数效果。 -参数: +参数 +:::::::::::: + - **x** (Variable) – 进行比较的第一个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **y** (Variable) – 进行比较的第二个输入,是一个多维的Tensor,数据类型可以是float32,float64,int32,int64。 - **cond** (Variable,可选) – 如果为None,则创建一个Tensor来作为进行比较的输出结果,该Tensor的shape和数据类型和输入x一致;如果不为None,则将Tensor作为该OP的输出,数据类型和数据shape需要和输入x一致。默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,数据的shape和输入x一致。 +返回 +:::::::::::: +输出结果的Tensor,数据的shape和输入x一致。 -返回类型:变量(Variable),数据类型为bool类型。 +返回类型 +:::::::::::: +变量(Variable),数据类型为bool类型。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/one_hot_cn.rst b/docs/api/paddle/fluid/layers/one_hot_cn.rst index 2aaaf117e6f..fae69d5fb1d 100644 --- a/docs/api/paddle/fluid/layers/one_hot_cn.rst +++ b/docs/api/paddle/fluid/layers/one_hot_cn.rst @@ -61,16 +61,23 @@ one_hot X中第2维的值是5,超过了depth,而allow_out_of_range=False表示不允许超过,因此抛异常。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为 :math:`[N_1, ..., N_n, 1]` 的多维Tensor或LoDTensor,维度至少两维,且最后一维必须是1。数据类型为int32或int64。 - **depth** (int) - 用于定义一个one-hot向量的长度。若输入为词id,则 ``depth`` 通常取值为词典大小。 - **allow_out_of_range** (bool) - 指明input中所包含的id值是否可以大于depth值。当超过depth时,如果 `allow_out_of_range` 为False,则会抛出 `Illegal value` 的异常;如果设置为True,该id对应的向量为0向量。默认值为False。 -返回:转换后的one_hot Tensor或LoDTensor,数据类型为float32。 +返回 +:::::::::::: +转换后的one_hot Tensor或LoDTensor,数据类型为float32。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/ones_cn.rst b/docs/api/paddle/fluid/layers/ones_cn.rst index 842ca7ff66e..4d574834439 100644 --- a/docs/api/paddle/fluid/layers/ones_cn.rst +++ b/docs/api/paddle/fluid/layers/ones_cn.rst @@ -7,14 +7,19 @@ ones 该OP创建形状为 ``shape`` 、数据类型为 ``dtype`` 且值全为1的Tensor。 -参数: +参数 +:::::::::::: + - **shape** (tuple|list|Tensor) - 输出Tensor的形状, ``shape`` 的数据类型为int32或者int64。 - **dtype** (np.dtype|str) - 输出Tensor的数据类型,数据类型必须为bool、 float16、float32、float64、int32或int64。 - **force_cpu** (bool, 可选) – 是否强制将输出Tensor写入CPU内存。如果 ``force_cpu`` 为False,则将输出Tensor写入当前所在运算设备的内存,默认为False。 -返回:值全为1的Tensor,数据类型和 ``dtype`` 定义的类型一致。 +返回 +:::::::::::: +值全为1的Tensor,数据类型和 ``dtype`` 定义的类型一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/ones_like_cn.rst b/docs/api/paddle/fluid/layers/ones_like_cn.rst index 5d1e6a89788..40007606fdf 100644 --- a/docs/api/paddle/fluid/layers/ones_like_cn.rst +++ b/docs/api/paddle/fluid/layers/ones_like_cn.rst @@ -13,15 +13,22 @@ ones_like 该功能创建一个形状与类型与x相似的张量,初始值为1。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 指定形状与数据类型的输入张量 - **out** (Variable)-输出张量 -返回:输出张量 +返回 +:::::::::::: +输出张量 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/pad2d_cn.rst b/docs/api/paddle/fluid/layers/pad2d_cn.rst index bdee33e8b94..8926d9abac9 100644 --- a/docs/api/paddle/fluid/layers/pad2d_cn.rst +++ b/docs/api/paddle/fluid/layers/pad2d_cn.rst @@ -10,7 +10,9 @@ pad2d 该OP依照 paddings 和 mode 属性对input进行2维 ``pad`` 。 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 类型为float32的4-D Tensor, 格式为 `[N, C, H, W]` 或 `[N, H, W, C]` 。 - **paddings** (Tensor | List[int32]) - 填充大小。如果paddings是一个List,它必须包含四个整数 `[padding_top, padding_bottom, padding_left, padding_right]` 。 如果paddings是Tensor, 则是类型为int32 的1-D Tensor,形状是 `[4]` 。默认值为 `[0,0,0,0]` 。 @@ -18,7 +20,9 @@ pad2d - **pad_value** (float32) - 以 `'constant'` 模式填充区域时填充的值。默认值为0.0。 - **data_format** (str) - 指定input的格式,可为 `'NCHW'` 和 `'NHWC'` ,默认值为 `'NCHW'` 。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:Tensor,对input进行2维 pad 的结果,数据类型和input一样的4-D Tensor。 +返回 +:::::::::::: +Tensor,对input进行2维 pad 的结果,数据类型和input一样的4-D Tensor。 **示例**: @@ -51,7 +55,8 @@ pad2d -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/pad_cn.rst b/docs/api/paddle/fluid/layers/pad_cn.rst index e80815f41e9..ae06aa13004 100644 --- a/docs/api/paddle/fluid/layers/pad_cn.rst +++ b/docs/api/paddle/fluid/layers/pad_cn.rst @@ -28,18 +28,25 @@ pad [0, 0, 0, 0, 0]] -参数: +参数 +:::::::::::: + - **x** (Variable) — 多维Tensor,数据类型为float32 - **paddings** (list of integers) — 整数列表,指定每个维度填充值的个数。维度 ``i`` 中 ``x`` 内容前填充的值个数用 ``paddings[2*i]`` 表示,维度 ``i`` 中 ``x`` 内容后填充的值个数用 ``paddings[2*i+1]`` 表示。 ``paddings`` 长度必须是 ``rank(x)×2`` - **pad_value** (float32, 可选) — 用来填充的常量值,数据类型为float。默认值为0. - **name** (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: 填充后的Tensor,数据类型与输入 ``x`` 相同 +返回 +:::::::::::: + 填充后的Tensor,数据类型与输入 ``x`` 相同 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/pad_constant_like_cn.rst b/docs/api/paddle/fluid/layers/pad_constant_like_cn.rst index 5abd4481190..bfafe1b31ce 100644 --- a/docs/api/paddle/fluid/layers/pad_constant_like_cn.rst +++ b/docs/api/paddle/fluid/layers/pad_constant_like_cn.rst @@ -56,17 +56,24 @@ pad_constant_like Out.shape = [2, 3, 2, 3] -参数: +参数 +:::::::::::: + - **x** (Variable)- 多维Tensor - **y** (Variable)- 多维Tensor,与x具有相同的秩,而且对任意维度 ``i`` ,要求满足 ``y.shape[i] <= x.shape[i]`` 。数据类型为float32或float64 - **pad_value** (float,可选) - 用于填充的常量值。默认值为0. - **name** (str | None) - (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:经过维度填充后的Tensor,与x具有相同的shape,与y具有相同的数据类型 +返回 +:::::::::::: +经过维度填充后的Tensor,与x具有相同的shape,与y具有相同的数据类型 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/piecewise_decay_cn.rst b/docs/api/paddle/fluid/layers/piecewise_decay_cn.rst index 592fa3f04e3..2093a1eecfb 100644 --- a/docs/api/paddle/fluid/layers/piecewise_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/piecewise_decay_cn.rst @@ -23,13 +23,18 @@ piecewise_decay else: learning_rate = 0.1 -参数: +参数 +:::::::::::: + - **boundaries(list)** - 代表步数的数字 - **values(list)** - 学习率的值,不同的步边界中的学习率值 -返回:衰减的学习率 +返回 +:::::::::::: +衰减的学习率 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/pixel_shuffle_cn.rst b/docs/api/paddle/fluid/layers/pixel_shuffle_cn.rst index 3324269a493..4ee7cea9234 100644 --- a/docs/api/paddle/fluid/layers/pixel_shuffle_cn.rst +++ b/docs/api/paddle/fluid/layers/pixel_shuffle_cn.rst @@ -16,19 +16,28 @@ pixel_shuffle 设定:upscale_factor=3 那么输出张量的形为:[1, 1, 12, 12] -参数: +参数 +:::::::::::: + - **x** (Variable)- 维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 - **upscale_factor** (int)- 增大空间分辨率的增大因子 -返回:根据新的维度信息进行重组的张量 +返回 +:::::::::::: +根据新的维度信息进行重组的张量 -返回类型: Variable +返回类型 +:::::::::::: + Variable -抛出异常: ``ValueError`` - 如果upscale_factor的平方不能整除输入的通道维度(C)的大小。 +抛出异常 +:::::::::::: + ``ValueError`` - 如果upscale_factor的平方不能整除输入的通道维度(C)的大小。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/polygon_box_transform_cn.rst b/docs/api/paddle/fluid/layers/polygon_box_transform_cn.rst index a86cf9e85a0..00caba3b5e5 100644 --- a/docs/api/paddle/fluid/layers/polygon_box_transform_cn.rst +++ b/docs/api/paddle/fluid/layers/polygon_box_transform_cn.rst @@ -14,15 +14,22 @@ polygon_box_transform 输入4-D Tensor是检测网络最终的几何输出。我们使用 2*n 个数来表示从 polygon_box 中的 n 个顶点(vertice)到像素位置的偏移。由于每个距离偏移包含两个数 :math:`(x_i, y_i)` ,所以几何输出通道数为 2*n。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 形状为 :math:`[batch\_size,geometry\_channels,height,width]` 的4-D Tensor,数据类型为float32或float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:polygon_box_transform输出的真实坐标,是一个 4-D Tensor。数据类型为float32或float64。 +返回 +:::::::::::: +polygon_box_transform输出的真实坐标,是一个 4-D Tensor。数据类型为float32或float64。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/polynomial_decay_cn.rst b/docs/api/paddle/fluid/layers/polynomial_decay_cn.rst index 55bb9d00bfa..98ee5d142ff 100644 --- a/docs/api/paddle/fluid/layers/polynomial_decay_cn.rst +++ b/docs/api/paddle/fluid/layers/polynomial_decay_cn.rst @@ -19,18 +19,25 @@ polynomial_decay decayed_learning_rate = (learning_rate - end_learning_rate) * (1 - global_step / decay_steps) ^ power + end_learning_rate -参数: +参数 +:::::::::::: + - **learning_rate** (Variable|float) - 训练过程中的初始学习率,数据类型为float的常数或变量。 - **decay_steps** (int) - 衰减步数 - **end_learning_rate** (float) - 训练过程的最终学习率 - **power** (float) - 多项式衰减系数 - **cycle** (bool) - step 超出 decay_steps 后是否继续循环,默认为False -返回:衰减的学习率 +返回 +:::::::::::: +衰减的学习率 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/pool2d_cn.rst b/docs/api/paddle/fluid/layers/pool2d_cn.rst index c30d4f30ea8..e9caff9f561 100644 --- a/docs/api/paddle/fluid/layers/pool2d_cn.rst +++ b/docs/api/paddle/fluid/layers/pool2d_cn.rst @@ -12,7 +12,9 @@ pool2d 输入 ``input`` 和输出(out)采用NCHW或NHWC格式,N为批大小,C是通道数,H是特征高度,W是特征宽度。 -参数 ``pool_size`` 和 ``pool_stride`` 含有两个整型元素,分别表示高度和宽度维度上的参数。 +参数 +:::::::::::: +``pool_size`` 和 ``pool_stride`` 含有两个整型元素,分别表示高度和宽度维度上的参数。 输入 ``input`` 和输出(out)的形状可能不同。 @@ -75,7 +77,9 @@ pool2d .. math:: W_{out} = \frac{(W_{in} - pool\_size[1])}{pool\_stride[1]} + 1 -参数: +参数 +:::::::::::: + - **input** (Variable) - 形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float32或float64。 - **pool_size** (int|list|tuple) - 池化核的大小。如果它是一个元组或列表,那么它包含两个整数值:(pool_size_Height, pool_size_Width)。若为一个整数,则表示H和W维度上均为该值,比如若pool_size=2, 则池化核大小为[2,2]。 - **pool_type** (str) - 池化类型,可以为"max"或"avg","max"对应max-pooling,"avg"对应average-pooling。默认值:"max"。 @@ -88,11 +92,17 @@ pool2d - **exclusive** (bool) - 是否在平均池化模式忽略填充值。计算细节可参考上述 ``exclusive`` = true或 ``exclusive`` = false 时的计算公式。默认值:True。 - **data_format** (str) - 输入和输出的数据格式,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回: 4-D Tensor,数据类型与 ``input`` 一致。 +返回 +:::::::::::: + 4-D Tensor,数据类型与 ``input`` 一致。 + +返回类型 +:::::::::::: +Variable。 -返回类型:Variable。 +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``pool_type`` 既不是"max"也不是"avg"。 - ``ValueError`` - 如果 ``global_pooling`` 为False并且 ``pool_size`` 为-1。 - ``TypeError`` - 如果 ``use_cudnn`` 不是bool值。 @@ -106,7 +116,8 @@ pool2d - ``ShapeError`` - 如果计算出的输出形状的元素值不大于0。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/pool3d_cn.rst b/docs/api/paddle/fluid/layers/pool3d_cn.rst index 486aacef3e4..6dbf67845c1 100644 --- a/docs/api/paddle/fluid/layers/pool3d_cn.rst +++ b/docs/api/paddle/fluid/layers/pool3d_cn.rst @@ -12,7 +12,9 @@ pool3d 输入 ``input`` 和输出(Out)采用NCDHW或NDHWC格式,其中N是批大小,C是通道数,D,H和W分别是特征的深度,高度和宽度。 -参数 ``pool_size`` 和 ``pool_stride`` 含有三个整型元素。 分别代表深度,高度和宽度维度上的参数。 +参数 +:::::::::::: +``pool_size`` 和 ``pool_stride`` 含有三个整型元素。 分别代表深度,高度和宽度维度上的参数。 输入 ``input`` 和输出(Out)的形状可能不同。 @@ -86,7 +88,9 @@ pool3d W_{out} = \frac{(W_{in} - pool\_size[2])}{pool\_stride[2]} + 1 -参数: +参数 +:::::::::::: + - **input** (Vairable) - 形状为 :math:`[N, C, D, H, W]` 或 :math:`[N, D, H, W, C]` 的5-D Tensor,N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度,数据类型为float32或float64。 - **pool_size** (int|list|tuple) - 池化核的大小。如果它是一个元组或列表,那么它包含三个整数值,(pool_size_Depth, pool_size_Height, pool_size_Width)。若为一个整数,则表示D,H和W维度上均为该值,比如若pool_size=2, 则池化核大小为[2,2,2]。 - **pool_type** (str) - 池化类型,可以为"max"或"avg","max" 对应max-pooling, "avg" 对应average-pooling。默认值:"max"。 @@ -99,11 +103,17 @@ pool3d - **exclusive** (bool) - 是否在平均池化模式忽略填充值。计算细节可参考上述 ``exclusive`` = true或 ``exclusive`` = false 时的计算公式。默认值:True。 - **data_format** (str) - 输入和输出的数据格式,可以是"NCDHW"和"NDHWC"。N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度。默认值:"NDCHW"。 -返回: 5-D Tensor,数据类型与 ``input`` 一致。 +返回 +:::::::::::: + 5-D Tensor,数据类型与 ``input`` 一致。 + +返回类型 +:::::::::::: +Variable。 -返回类型:Variable。 +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``pool_type`` 既不是"max"也不是"avg"。 - ``ValueError`` - 如果 ``global_pooling`` 为False并且 ``pool_size`` 为-1。 - ``TypeError`` - 如果 ``use_cudnn`` 不是bool值。 @@ -117,7 +127,8 @@ pool3d - ``ShapeError`` - 如果计算出的输出形状的元素值不大于0。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/prior_box_cn.rst b/docs/api/paddle/fluid/layers/prior_box_cn.rst index 929d56ced5f..d111bf139b4 100644 --- a/docs/api/paddle/fluid/layers/prior_box_cn.rst +++ b/docs/api/paddle/fluid/layers/prior_box_cn.rst @@ -9,7 +9,9 @@ prior_box 该OP为SSD(Single Shot MultiBox Detector)算法生成候选框。输入的每个位产生N个候选框,N由min_sizes,max_sizes和aspect_ratios的数目决定,候选框的尺寸在(min_size,max_size)之间,该尺寸根据aspect_ratios在序列中生成。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 形状为NCHW的4-DTensor,数据类型为float32或float64。 - **image** (Variable) - PriorBoxOp的输入图像数据,形状为NCHW的4-D Tensor,数据类型为float32或float64。 - **min_sizes** (list|tuple|float) - 生成的候选框的最小尺寸。 @@ -23,13 +25,18 @@ prior_box - **name** (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 - **min_max_aspect_ratios_order** (bool) - 若设为True,候选框的输出以[min, max, aspect_ratios]的顺序输出,和Caffe保持一致。请注意,该顺序会影响后面卷基层的权重顺序,但不影响最后的检测结果。默认:False。 -返回:含有两个变量的元组,包括: +返回 +:::::::::::: +含有两个变量的元组,包括: boxes: 候选框。形状为[H,W,num_priors,4]的4-D Tensor。其中,H是输入的高度,W是输入的宽度,num_priors是输入每位的总框数。 variances: 候选框的方差,形状为[H,W,num_priors,4]的4-D Tensor。其中,H是输入的高度,W是输入的宽度,num_priors是输入每位的总框数。 -返回类型:元组 +返回类型 +:::::::::::: +元组 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/prroi_pool_cn.rst b/docs/api/paddle/fluid/layers/prroi_pool_cn.rst index 58665c7e622..f6ae51e4482 100644 --- a/docs/api/paddle/fluid/layers/prroi_pool_cn.rst +++ b/docs/api/paddle/fluid/layers/prroi_pool_cn.rst @@ -14,7 +14,9 @@ PRROIPool运算 通过积分方式计算ROI特征,反向传播时基于连续输入值计算梯度,使得反向传播连续可导的PRROIPooling。 有关更多详细信息,请参阅 https://arxiv.org/abs/1807.11590。 -参数: +参数 +:::::::::::: + - **input** (Variable) - (Tensor),PRROIPoolOp的输入。 输入张量的格式是NCHW。 其中N是批大小batch_size,C是输入通道的数量,H是输入特征图的高度,W是特征图宽度 - **rois** (Variable) - 要进行池化的RoI(感兴趣区域)。应为一个形状为(num_rois, 4)的二维LoDTensor,其lod level为1。给出[[x1, y1, x2, y2], ...],(x1, y1)为左上角坐标,(x2, y2)为右下角坐标。 - **output_channels** (integer) - (int),输出特征图的通道数。 对于共C个种类的对象分类任务,output_channels应该是(C + 1),该情况仅适用于分类任务。 @@ -23,11 +25,16 @@ PRROIPool运算 - **pooled_width** (integer) - (int,默认值1),池化输出的宽度。默认值:1 - **name** (str,default None) - 此层的名称。 -返回: (Tensor),PRROIPoolOp的输出是形为 (num_rois,output_channels,pooled_h,pooled_w) 的4-D Tensor。 +返回 +:::::::::::: + (Tensor),PRROIPoolOp的输出是形为 (num_rois,output_channels,pooled_h,pooled_w) 的4-D Tensor。 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/psroi_pool_cn.rst b/docs/api/paddle/fluid/layers/psroi_pool_cn.rst index 8f30851307f..8063c261cec 100644 --- a/docs/api/paddle/fluid/layers/psroi_pool_cn.rst +++ b/docs/api/paddle/fluid/layers/psroi_pool_cn.rst @@ -28,7 +28,9 @@ psroi_pool out.shape = [5, 10, 7, 7], out.lod = [[3, 2]] -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入特征图,4-D Tensor,格式是NCHW。 其中N是batch_size,C是输入通道的数量,H是输入特征图的高度,W是特征图宽度。数据类型是float32或者float64 - **rois** (Variable) - 感兴趣区域,2-D LoDTensor,形状为(num_rois, 4),lod_level为1。形式如[x1, y1, x2, y2], ...],其中(x1, y1)为左上角坐标,(x2, y2)为右下角坐标。数据类型与input相同 - **output_channels** (int) - 输出特征图的通道数。对于共C个种类的图像分类任务,output_channels应该是 ``(C + 1)`` ,其中1代表背景 @@ -37,11 +39,16 @@ psroi_pool - **pooled_width** (int) - 池化输出的宽度 - **name** (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回: 经过PSROIPooling之后的结果,形状为(num_rois,output_channels,pooled_height,pooled_width) 的4维LoDTensor,lod_level为1,数据类型与input相同,与rois具有相同的lod信息。 +返回 +:::::::::::: + 经过PSROIPooling之后的结果,形状为(num_rois,output_channels,pooled_height,pooled_width) 的4维LoDTensor,lod_level为1,数据类型与input相同,与rois具有相同的lod信息。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/py_reader_cn.rst b/docs/api/paddle/fluid/layers/py_reader_cn.rst index f9ac0f083be..bec06f04098 100644 --- a/docs/api/paddle/fluid/layers/py_reader_cn.rst +++ b/docs/api/paddle/fluid/layers/py_reader_cn.rst @@ -16,7 +16,9 @@ py_reader 注意: ``Program.clone()`` (含义详见 :ref:`cn_api_fluid_Program` )不能克隆 ``py_reader`` ,且 ``read_file`` ( ``read_file`` 含义详见 :ref:`cn_api_fluid_layers_read_file` )调用需在声明 ``py_reader`` 的program block内。 -参数: +参数 +:::::::::::: + - **capacity** (int) – ``py_reader`` 维护的缓冲区的容量数据个数。 - **shapes** (list|tuple) – 一个列表或元组,shapes[i]是代表第i个数据shape,因此shape[i]也是元组或列表。 - **dtypes** (list|tuple) – 一个string的列表或元组。为 ``shapes`` 对应元素的数据类型,支持bool,float16,float32,float64,int8,int16,int32,int64,uint8。 @@ -24,13 +26,18 @@ py_reader - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **use_double_buffer** (bool) – 是否使用双缓冲区,双缓冲区是为了预读下一个batch的数据、异步CPU -> GPU拷贝。默认值为True。 -返回:reader,从reader中可以获取feed的数据,其dtype和feed的数据dtype相同。 +返回 +:::::::::::: +reader,从reader中可以获取feed的数据,其dtype和feed的数据dtype相同。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: 1.py_reader 基本用法如下 diff --git a/docs/api/paddle/fluid/layers/random_crop_cn.rst b/docs/api/paddle/fluid/layers/random_crop_cn.rst index f00e9f9285b..db347841e25 100644 --- a/docs/api/paddle/fluid/layers/random_crop_cn.rst +++ b/docs/api/paddle/fluid/layers/random_crop_cn.rst @@ -10,16 +10,23 @@ random_crop 该操作对batch中每个实例进行随机裁剪,即每个实例的裁剪位置不同,裁剪位置由均匀分布随机数生成器决定。所有裁剪后的实例都具有相同的维度,由 ``shape`` 参数决定。 -参数: +参数 +:::::::::::: + - **x(Variable)** - 多维Tensor。 - **shape(list(int))** - 裁剪后最后几维的形状,注意, ``shape`` 的个数小于 ``x`` 的秩。 - **seed(int|Variable,可选)** - 设置随机数种子,默认情况下,种子是[-65536,-65536)中一个随机数,如果类型是Variable,要求数据类型是int64,默认值:None。 -返回: 裁剪后的Tensor。 +返回 +:::::::::::: + 裁剪后的Tensor。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/range_cn.rst b/docs/api/paddle/fluid/layers/range_cn.rst index 519f5e76f72..e2438a10096 100644 --- a/docs/api/paddle/fluid/layers/range_cn.rst +++ b/docs/api/paddle/fluid/layers/range_cn.rst @@ -12,17 +12,23 @@ range 当 ``dtype`` 表示浮点类型时,为了避免浮点计算误差,建议给 ``end`` 加上一个极小值epsilon,使边界可以更加明确。 -参数: +参数 +:::::::::::: + - **start** (float|int|Tensor) - 区间起点(且区间包括此值)。当 ``start`` 类型是Tensor时,是形状为[1]且数据类型为int32、int64、float32、float64的Tensor。 - **end** (float|int|Tensor) - 区间终点(且通常区间不包括此值)。当 ``end`` 类型是Tensor时,是形状为[1]且数据类型为int32、int64、float32、float64的Tensor。 - **step** (float|int|Tensor) - 均匀分割的步长。当 ``step`` 类型是Tensor时,是形状为[1]且数据类型为int32、int64、float32、float64的Tensor。 - **dtype** (str|np.dtype|core.VarDesc.VarType) - 输出Tensor的数据类型,支持int32、int64、float32、float64。 - **name** (str, 可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: +返回 +:::::::::::: + Tensor: 以步长 ``step`` 均匀分割给定数值区间[``start``, ``end``)后得到的1-D Tensor, 数据类型为 ``dtype`` 。 -抛出异常: +抛出异常 +:::::::::::: + - ``TypeError`` - 如果 ``dtype`` 不是int32、int64、float32、float64。 代码示例: diff --git a/docs/api/paddle/fluid/layers/rank_loss_cn.rst b/docs/api/paddle/fluid/layers/rank_loss_cn.rst index d34f3be20f2..43fd5738151 100644 --- a/docs/api/paddle/fluid/layers/rank_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/rank_loss_cn.rst @@ -20,20 +20,29 @@ rank_loss \tilde{P_{i,j}} &= \left \{0, 0.5, 1 \right \} \ or \ \left \{0, 1 \right \} -参数: +参数 +:::::::::::: + - **label** (Variable):维度为 :math:`[batch,1]` 的2-D ``Tensor`` ,数据类型为float32。其中batch表示批数据的大小。表示A的排名是否高于B。 - **left** (Variable):维度为 :math:`[batch,1]` 的2-D ``Tensor`` ,数据类型为float32。其中batch表示批数据的大小。表示RankNet对文档A的输出得分。 - **right** (Variable):维度为 :math:`[batch,1]` 的2-D ``Tensor`` ,数据类型为float32。其中batch表示批数据的大小。表示RankNet对文档B的输出得分。 - **name** (str, 可选):具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:表示排序损失层输出值的 ``Tensor`` ,数据类型为float32,返回值维度为 :math:`[batch,1]` 。 +返回 +:::::::::::: +表示排序损失层输出值的 ``Tensor`` ,数据类型为float32,返回值维度为 :math:`[batch,1]` 。 + +返回类型 +:::::::::::: +Variable -返回类型:Variable +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 输入 ``label`` , ``left`` ,和 ``right`` 至少有一个不是 ``Variable`` 类型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/read_file_cn.rst b/docs/api/paddle/fluid/layers/read_file_cn.rst index 4996050c739..e0e2b8c8108 100644 --- a/docs/api/paddle/fluid/layers/read_file_cn.rst +++ b/docs/api/paddle/fluid/layers/read_file_cn.rst @@ -13,14 +13,21 @@ read_file reader是一个Variable,它可以是由函数fluid.layers.py_reader()生成的reader,或者是由函数fluid.layers.double_buffer()生成的装饰Variable。 -参数: +参数 +:::::::::::: + - **reader** (Variable)-待处理的reader -返回:从reader中读取的数据元组,元组数据类型为Variable +返回 +:::::::::::: +从reader中读取的数据元组,元组数据类型为Variable -返回类型: tuple(元组) +返回类型 +:::::::::::: + tuple(元组) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_all_cn.rst b/docs/api/paddle/fluid/layers/reduce_all_cn.rst index 3c45fc7a787..7ae0c88064f 100644 --- a/docs/api/paddle/fluid/layers/reduce_all_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_all_cn.rst @@ -10,17 +10,24 @@ reduce_all 该OP是对指定维度上的Tensor元素进行与逻辑(&)计算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)— 输入变量为多维Tensor或LoDTensor,数据类型需要为bool类型。 - **dim** (list | int,可选)— 与逻辑运算的维度。如果为None,则计算所有元素的与逻辑并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(input),rank(input))` 范围内。如果 :math:`dim [i] <0` ,则维度将减小为 :math:`rank+dim[i]` 。默认值为None。 - **keep_dim** (bool)— 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str, 可选)— 这一层的名称。如果设置为None,则将自动命名这一层。默认值为None。 -返回:在指定dim上进行与逻辑计算的Tensor,数据类型为bool类型。 +返回 +:::::::::::: +在指定dim上进行与逻辑计算的Tensor,数据类型为bool类型。 -返回类型:Variable,数据类型为bool类型。 +返回类型 +:::::::::::: +Variable,数据类型为bool类型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_any_cn.rst b/docs/api/paddle/fluid/layers/reduce_any_cn.rst index 7150bd43ecf..a651cdcb1b1 100644 --- a/docs/api/paddle/fluid/layers/reduce_any_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_any_cn.rst @@ -10,17 +10,24 @@ reduce_any 该OP是对指定维度上的Tensor元素进行或逻辑(|)计算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)— 输入变量为多维Tensor或LoDTensor,数据类型需要为bool类型。 - **dim** (list | int,可选)— 与逻辑运算的维度。如果为None,则计算所有元素的与逻辑并返回包含单个元素的Tensoe变量,否则必须在 :math:`[−rank(input),rank(input))` 范围内。如果 :math:`dim [i] <0` ,则维度将减小为 :math:`rank+dim[i]` 。默认值为None。 - **keep_dim** (bool)— 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str,可选)— 这一层的名称(可选)。如果设置为None,则将自动命名这一层。默认值为None。 -返回:在指定dim上进行或逻辑计算的Tensor,数据类型为bool类型。 +返回 +:::::::::::: +在指定dim上进行或逻辑计算的Tensor,数据类型为bool类型。 -返回类型:Variable,数据类型为bool类型。 +返回类型 +:::::::::::: +Variable,数据类型为bool类型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_max_cn.rst b/docs/api/paddle/fluid/layers/reduce_max_cn.rst index dad1f713026..2eef23d8e7c 100644 --- a/docs/api/paddle/fluid/layers/reduce_max_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_max_cn.rst @@ -10,17 +10,24 @@ reduce_max 该OP是对指定维度上的Tensor元素求最大值运算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入变量为多维Tensor或LoDTensor,支持数据类型为float32,float64,int32,int64。 - **dim** (list | int ,可选)- 求最大值运算的维度。如果为None,则计算所有元素的最大值并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(input),rank(input)]` 范围内。如果 :math:`dim [i] <0` ,则维度将变为 :math:`rank+dim[i]` ,默认值为None。 - **keep_dim** (bool)- 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 在指定dim上进行求最大值运算的Tensor,数据类型和输入数据类型一致。 +返回 +:::::::::::: + 在指定dim上进行求最大值运算的Tensor,数据类型和输入数据类型一致。 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_mean_cn.rst b/docs/api/paddle/fluid/layers/reduce_mean_cn.rst index 7de43cd7dd5..81a8a08efb2 100644 --- a/docs/api/paddle/fluid/layers/reduce_mean_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_mean_cn.rst @@ -10,17 +10,24 @@ reduce_mean 该OP是对指定维度上的Tensor元素进行平均值算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入变量为多维Tensor或LoDTensor,支持数据类型为float32,float64,int32,int64。 - **dim** (list | int ,可选)— 求平均值运算的维度。如果为None,则计算所有元素的平均值并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(input),rank(input)]` 范围内。如果 :math:`dim [i] <0` ,则维度将变为 :math:`rank+dim[i]` ,默认值为None。 - **keep_dim** (bool)- 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str , 可选)— 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 在指定dim上进行平均值运算的Tensor,数据类型和输入数据类型一致。 +返回 +:::::::::::: + 在指定dim上进行平均值运算的Tensor,数据类型和输入数据类型一致。 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_min_cn.rst b/docs/api/paddle/fluid/layers/reduce_min_cn.rst index 627cb0213e6..e9f65c576fe 100644 --- a/docs/api/paddle/fluid/layers/reduce_min_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_min_cn.rst @@ -10,17 +10,24 @@ reduce_min 该OP是对指定维度上的Tensor元素求最小值运算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入变量为多维Tensor或LoDTensor,支持数据类型为float32,float64,int32,int64。 - **dim** (list | int ,可选)- 求最小值运算的维度。如果为None,则计算所有元素的最小值并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(input),rank(input)]` 范围内。如果 :math:`dim [i] <0` ,则维度将变为 :math:`rank+dim[i]` ,默认值为None。 - **keep_dim** (bool)- 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 在指定dim上进行求最小值运算的Tensor,数据类型和输入数据类型一致。 +返回 +:::::::::::: + 在指定dim上进行求最小值运算的Tensor,数据类型和输入数据类型一致。 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_prod_cn.rst b/docs/api/paddle/fluid/layers/reduce_prod_cn.rst index 6ec6b0edec0..b89bbe16fb5 100644 --- a/docs/api/paddle/fluid/layers/reduce_prod_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_prod_cn.rst @@ -10,17 +10,24 @@ reduce_prod 该OP是对指定维度上的Tensor元素进行求乘积运算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入变量为多维Tensor或LoDTensor,支持数据类型为float32,float64,int32,int64。 - **dim** (int|list|tuple ,可选)- 求乘积运算的维度。如果为None,则计算所有元素的乘积并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(input),rank(input)]` 范围内。如果 :math:`dim [i] <0` ,则维度将变为 :math:`rank+dim[i]` ,默认值为None。 - **keep_dim** (bool)- 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 在指定dim上进行求乘积运算的Tensor,数据类型和输入数据类型一致。 +返回 +:::::::::::: + 在指定dim上进行求乘积运算的Tensor,数据类型和输入数据类型一致。 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reduce_sum_cn.rst b/docs/api/paddle/fluid/layers/reduce_sum_cn.rst index 316b0cc7daa..638813de197 100644 --- a/docs/api/paddle/fluid/layers/reduce_sum_cn.rst +++ b/docs/api/paddle/fluid/layers/reduce_sum_cn.rst @@ -10,17 +10,24 @@ reduce_sum 该OP是对指定维度上的Tensor元素进行求和运算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入变量为多维Tensor或LoDTensor,支持数据类型为float32,float64,int32,int64。 - **dim** (list | int ,可选)- 求和运算的维度。如果为None,则计算所有元素的和并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(input),rank(input)]` 范围内。如果 :math:`dim [i] <0` ,则维度将变为 :math:`rank+dim[i]` ,默认值为None。 - **keep_dim** (bool)- 是否在输出Tensor中保留减小的维度。如 keep_dim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 在指定dim上进行求和运算的Tensor,数据类型和输入数据类型一致。 +返回 +:::::::::::: + 在指定dim上进行求和运算的Tensor,数据类型和输入数据类型一致。 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/relu6_cn.rst b/docs/api/paddle/fluid/layers/relu6_cn.rst index 511d6e6efe3..a6b0823f3c2 100644 --- a/docs/api/paddle/fluid/layers/relu6_cn.rst +++ b/docs/api/paddle/fluid/layers/relu6_cn.rst @@ -13,17 +13,24 @@ relu6激活函数 .. math:: out=min(max(0, x), threshold) -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入的多维 ``Tensor`` ,数据类型为:float32、float64。 - **threshold** (float) - relu6的阈值。默认值为6.0 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 与 ``x`` 维度相同、数据类型相同的 ``Tensor``。 +返回 +:::::::::::: + 与 ``x`` 维度相同、数据类型相同的 ``Tensor``。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/relu_cn.rst b/docs/api/paddle/fluid/layers/relu_cn.rst index 6df2e05bea3..1a98c1c08a9 100644 --- a/docs/api/paddle/fluid/layers/relu_cn.rst +++ b/docs/api/paddle/fluid/layers/relu_cn.rst @@ -13,15 +13,22 @@ ReLU(Rectified Linear Unit)激活函数 .. math:: Out=max(0,x) -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入的多维 ``Tensor`` ,数据类型为:float32、float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 与 ``x`` 维度相同、数据类型相同的 ``Tensor`` 。 +返回 +:::::::::::: + 与 ``x`` 维度相同、数据类型相同的 ``Tensor`` 。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reorder_lod_tensor_by_rank_cn.rst b/docs/api/paddle/fluid/layers/reorder_lod_tensor_by_rank_cn.rst index 7e67ee31003..f5b56bfef77 100644 --- a/docs/api/paddle/fluid/layers/reorder_lod_tensor_by_rank_cn.rst +++ b/docs/api/paddle/fluid/layers/reorder_lod_tensor_by_rank_cn.rst @@ -22,16 +22,23 @@ reorder_lod_tensor_by_rank 注意:该OP对 ``X`` 进行的排序所依据的 ``LoDRankTable`` 不一定是在 ``X`` 的基础上得出来的。它可以由其他不同的序列得出,并由该OP依据这个 ``LoDRankTable`` 来对 ``X`` 排序。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 待根据提供的 ``rank_table`` 进行排序的LoDTensor. - **rank_table** (Variable) - 提供对 ``x`` 重新排列的 ``LoDRankTable`` 类型的顺序信息. -返回: 重新排列后的LoDTensor +返回 +:::::::::::: + 重新排列后的LoDTensor -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reshape_cn.rst b/docs/api/paddle/fluid/layers/reshape_cn.rst index e2a892314e8..e5adf7ff6aa 100644 --- a/docs/api/paddle/fluid/layers/reshape_cn.rst +++ b/docs/api/paddle/fluid/layers/reshape_cn.rst @@ -27,9 +27,13 @@ reshape 3. 给定一个形状为[2,4,6]的三维张量x,目标形状为[-1,0,3,2],则将x变换为形状为[2,4,3,2]的4-D张量,且x的数据保持不变。在这种情况下,0对应位置的维度值将从x的对应维数中复制,-1对应位置的维度值由x的元素总数和剩余维度推断出来。 .. warning:: -参数 ``actual_shape`` 之后将被舍弃,只用参数 ``shape`` 来表示目标形状。 +参数 +:::::::::::: +``actual_shape`` 之后将被舍弃,只用参数 ``shape`` 来表示目标形状。 + +参数 +:::::::::::: -参数: - **x** (Tensor)- N-D ``Tensor``,数据类型为 ``float32``,``float64``,``int32``,或 ``int64``。 - **shape** (list|tuple|Tensor)- 数据类型是 ``int32`` 。定义目标形状。目标形状最多只能有一个维度为-1。如果 ``shape`` 的类型是 list 或 tuple, 它的元素可以是整数或者形状为[1]的 ``Tensor``。如果 ``shape`` 的类型是 ``Tensor``,则是1-D的 ``Tensor``。 - **actual_shape** (Tensor,可选)- 1-D ``Tensor``,默认值:`None`。如果 ``actual_shape`` 被提供,``actual_shape`` 具有比 ``shape`` 更高的优先级,此时 ``shape`` 只能是整数列表或元组。更新提示:``actual_shape`` 在未来的版本中将被舍弃,并用 ``shape`` 代替。 @@ -37,12 +41,15 @@ reshape - **inplace** (bool,可选)- 如果 ``inplace`` 为 ``True``,则 ``layers.reshape`` 的输入和输出是同一个变量,否则 ``layers.reshape`` 的输入和输出是不同的变量。默认值:``False``。请注意,如果 ``x`` 是多个OP的输入,则 ``inplace`` 必须为False。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值: ``None``。 -返回: +返回 +:::::::::::: + ::::::::: ``Tensor``,改变形状后的 ``Tensor``,数据类型与 ``x`` 相同。如果 ``inplace`` 为 ``False``,则返回一个新的变量,否则将改变输入变量 ``x`` 自身。如果 ``act`` 为 ``None``,则直接返回形状改变后的变量,否则返回经过激活函数后的变量。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/resize_bilinear_cn.rst b/docs/api/paddle/fluid/layers/resize_bilinear_cn.rst index 9b0eb12851a..bf559db86ac 100644 --- a/docs/api/paddle/fluid/layers/resize_bilinear_cn.rst +++ b/docs/api/paddle/fluid/layers/resize_bilinear_cn.rst @@ -54,7 +54,9 @@ align_corners和align_mode是可选参数,插值的计算方法可以由它们 -参数: +参数 +:::::::::::: + - **input** (Variable) - 4-D Tensor,数据类型为float32、float64或uint8,其数据格式由参数 ``data_format`` 指定。 - **out_shape** (list|tuple|Variable|None) - 双线性层的输出形状,维度为[out_h, out_w]的二维Tensor。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者维度为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。默认值为None。 - **scale** (float|Variable|None) - 用于输入高度或宽度的乘数因子。out_shape和scale至少要设置一个。out_shape的优先级高于scale。默认值为None。 @@ -64,9 +66,12 @@ align_corners和align_mode是可选参数,插值的计算方法可以由它们 - **align_mode** (int)- 双线性插值的可选项。 可以是'0'代表src_idx = scale *(dst_indx + 0.5)-0.5;如果为'1' ,代表src_idx = scale * dst_index。 - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/resize_nearest_cn.rst b/docs/api/paddle/fluid/layers/resize_nearest_cn.rst index 3b5c6cbfb37..16c2792a40d 100644 --- a/docs/api/paddle/fluid/layers/resize_nearest_cn.rst +++ b/docs/api/paddle/fluid/layers/resize_nearest_cn.rst @@ -51,7 +51,9 @@ resize_nearest 最邻近插值的详细介绍请参照: `Wiki Nearest-neighbor interpolation `_ -参数: +参数 +:::::::::::: + - **input** (Variable) - 4-D Tensor,数据类型为float32、float64或uint8,其数据格式由参数 ``data_format`` 指定。 - **out_shape** (list|tuple|Variable|None) - 双线性插值法调整后的输出,维度为[out_h, out_w]的2-D Tensor。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者shape为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。默认值为None。 - **scale** (float|Variable|None) – 输入高宽的乘数因子。 ``out_shape`` 和 ``scale`` 二者至少设置其一。 ``out_shape`` 具有比 ``scale`` 更高的优先级。 默认值为None。 @@ -60,12 +62,17 @@ resize_nearest - **align_corners** (bool)- 一个可选的bool型参数,如果为True,则将输入和输出张量的4个角落像素的中心对齐,并保留角点像素的值。 默认值为True。 - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/resize_trilinear_cn.rst b/docs/api/paddle/fluid/layers/resize_trilinear_cn.rst index 785a2b74787..15720f088ec 100644 --- a/docs/api/paddle/fluid/layers/resize_trilinear_cn.rst +++ b/docs/api/paddle/fluid/layers/resize_trilinear_cn.rst @@ -49,7 +49,9 @@ Align_corners和align_mode都是可选参数,可以用来设置插值的计算 H_out = H_{in} * scale_{factor} W_out = W_{in} * scale_{factor} -参数: +参数 +:::::::::::: + - **input** (Variable) – 5-D Tensor,数据类型为float32、float64或uint8,其数据格式由参数 ``data_format`` 指定。 - **out_shape** (list|tuple|Variable|None) – 调整最近邻层的输出形状,形式为(out_h, out_w)。默认值:None。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者shape为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。 - **scale** (float|None) – 输入高、宽的乘法器。 ``out_shape`` 和 ``scale`` 二者至少设置其一。 ``out_shape`` 具有比 ``scale`` 更高的优先级。 默认: None @@ -59,9 +61,12 @@ Align_corners和align_mode都是可选参数,可以用来设置插值的计算 - **align_mode** (bool) - (int,默认为'1'),双线性插值选项,src_idx = scale*(dst_index+0.5)-0.5时取'0',src_idx = scale*dst_index时取'1'。 - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCDHW"和"NDHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCDHW"。 -返回:5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 +返回 +:::::::::::: +5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/retinanet_detection_output_cn.rst b/docs/api/paddle/fluid/layers/retinanet_detection_output_cn.rst index 8c6d59a5546..a6a0fcb8e0b 100644 --- a/docs/api/paddle/fluid/layers/retinanet_detection_output_cn.rst +++ b/docs/api/paddle/fluid/layers/retinanet_detection_output_cn.rst @@ -14,7 +14,9 @@ retinanet_detection_output 2. 合并全部FPN层上的检测框,对这些检测框进行非极大值抑制操作(NMS)以获得最终的检测结果。 -参数: +参数 +:::::::::::: + - **bboxes** (List) – 由来自不同FPN层的Tensor组成的列表,表示全部anchor的位置回归预测值。列表中每个元素是一个维度为 :math:`[N, Mi, 4]` 的3-D Tensor,其中,第一维N表示批量训练时批量内的图片数量,第二维Mi表示每张图片第i个FPN层上的anchor数量,第三维4表示每个anchor有四个坐标值。数据类型为float32或float64。 - **scores** (List) – 由来自不同FPN层的Tensor组成的列表,表示全部anchor的分类预测值。列表中每个元素是一个维度为 :math:`[N, Mi, C]` 的3-D Tensor,其中第一维N表示批量训练时批量内的图片数量,第二维Mi表示每张图片第i个FPN层上的anchor数量,第三维C表示类别数量( **不包括背景类** )。数据类型为float32或float64。 - **anchors** (List) – 由来自不同FPN层的Tensor组成的列表,表示全部anchor的坐标值。列表中每个元素是一个维度为 :math:`[Mi, 4]` 的2-D Tensor,其中第一维Mi表示第i个FPN层上的anchor数量,第二维4表示每个anchor有四个坐标值([xmin, ymin, xmax, ymax])。数据类型为float32或float64。 @@ -26,12 +28,17 @@ retinanet_detection_output - **nms_eta** (float32) – NMS步骤中用于调整nms_threshold的参数。默认值为1.,表示nms_threshold的取值在NMS步骤中一直保持不变,即其设定值。若nms_eta小于1.,则表示当nms_threshold的取值大于0.5时,每保留一个检测框就调整一次nms_threshold的取值,即nms_threshold = nms_threshold * nms_eta,直到nms_threshold的取值小于等于0.5后结束调整。 **注意:在模型输入尺寸特别小的情况,此时若用score_threshold滤除anchor,可能会导致没有任何检测框剩余。为避免这种情况出现,该OP不会对最高FPN层上的anchor做滤除。因此,要求bboxes、scores、anchors中最后一个元素是来自最高FPN层的Tensor** 。 -返回:维度是 :math:`[No, 6]` 的2-D LoDTensor,表示批量内的检测结果。第一维No表示批量内的检测框的总数,第二维6表示每行有六个值:[label, score,xmin,ymin,xmax,ymax]。该LoDTensor的LoD中存放了每张图片的检测框数量,第i张图片的检测框数量为 :math:`LoD[i + 1] - LoD[i]` 。如果 :math:`LoD[i + 1] - LoD[i]` 为0,则第i个图像没有检测结果。 如果批量内的全部图像都没有检测结果,则LoD中所有元素被设置为0,LoDTensor被赋为空(None)。 +返回 +:::::::::::: +维度是 :math:`[No, 6]` 的2-D LoDTensor,表示批量内的检测结果。第一维No表示批量内的检测框的总数,第二维6表示每行有六个值:[label, score,xmin,ymin,xmax,ymax]。该LoDTensor的LoD中存放了每张图片的检测框数量,第i张图片的检测框数量为 :math:`LoD[i + 1] - LoD[i]` 。如果 :math:`LoD[i + 1] - LoD[i]` 为0,则第i个图像没有检测结果。 如果批量内的全部图像都没有检测结果,则LoD中所有元素被设置为0,LoDTensor被赋为空(None)。 -返回类型:变量(Variable),数据类型为float32或float64。 +返回类型 +:::::::::::: +变量(Variable),数据类型为float32或float64。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/retinanet_target_assign_cn.rst b/docs/api/paddle/fluid/layers/retinanet_target_assign_cn.rst index e6ce7bfa423..7a1b29cbc12 100644 --- a/docs/api/paddle/fluid/layers/retinanet_target_assign_cn.rst +++ b/docs/api/paddle/fluid/layers/retinanet_target_assign_cn.rst @@ -21,7 +21,9 @@ retinanet_target_assign 分配结束后,从全部anchor的类别预测值cls_logits中取出属于各正负样本的部分,从针对全部anchor的位置预测值bbox_pred中取出属于各正样本的部分。 -参数: +参数 +:::::::::::: + - **bbox_pred** (Variable) – 维度为 :math:`[N, M, 4]` 的3-D Tensor,表示全部anchor的位置回归预测值。其中,第一维N表示批量训练时批量内的图片数量,第二维M表示每张图片的全部anchor的数量,第三维4表示每个anchor有四个坐标值。数据类型为float32或float64。 - **cls_logits** (Variable) – 维度为 :math:`[N, M, C]` 的3-D Tensor,表示全部anchor的分类预测值。 其中,第一维N表示批量训练时批量内的图片数量,第二维M表示每张图片的全部anchor的数量,第三维C表示每个anchor需预测的类别数量( **注意:不包括背景** )。数据类型为float32或float64。 @@ -36,7 +38,9 @@ retinanet_target_assign - **negative_overlap** (float32) – 判定anchor是一个负样本时anchor和真值框之间的最大IoU,默认值为0.4。该参数的设定值应小于等于positive_overlap的设定值,若大于,则positive_overlap的取值为negative_overlap的设定值。 -返回: +返回 +:::::::::::: + - **predict_scores** (Variable) – 维度为 :math:`[F + B, C]` 的2-D Tensor,表示正负样本的分类预测值。其中,第一维F为批量内正样本的数量,B为批量内负样本的数量,第二维C为分类的类别数量。数据类型为float32或float64。 - **predict_location** (Variable) — 维度为 :math:`[F, 4]` 的2-D Tensor,表示正样本的位置回归预测值。其中,第一维F为批量内正样本的数量,第二维4表示每个样本有4个坐标值。数据类型为float32或float64。 - **target_label** (Variable) — 维度为 :math:`[F + B, 1]` 的2-D Tensor,表示正负样本的分类目标值。其中,第一维F为正样本的数量,B为负样本的数量,第二维1表示每个样本的真值类别只有1类。数据类型为int32。 @@ -45,10 +49,13 @@ retinanet_target_assign - **fg_num** (Variable) — 维度为 :math:`[N, 1]` 的2-D Tensor,表示正样本的数量。其中,第一维N表示批量内的图片数量。 **注意:由于正样本数量会用作后续损失函数的分母,为避免出现除以0的情况,该OP已将每张图片的正样本数量做加1操作** 。数据类型为int32。 -返回类型:元组(tuple),元组中的元素predict_scores,predict_location,target_label,target_bbox,bbox_inside_weight,fg_num都是Variable。 +返回类型 +:::::::::::: +元组(tuple),元组中的元素predict_scores,predict_location,target_label,target_bbox,bbox_inside_weight,fg_num都是Variable。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/reverse_cn.rst b/docs/api/paddle/fluid/layers/reverse_cn.rst index 5568cfb36f4..3eb792b4c5b 100644 --- a/docs/api/paddle/fluid/layers/reverse_cn.rst +++ b/docs/api/paddle/fluid/layers/reverse_cn.rst @@ -34,14 +34,21 @@ reverse [[4, 5, 6]], [[0, 1], [2, 3]]} -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入为Tensor或LoDTensorArray,数据类型支持bool,int8,int32,int64,float32和float64。若输入是LoDTensorArray类型,则返回一个逆序的LoDTensorArray,其内部Tensor元素的次序保持不变。 - **axis** (int|tuple|list) - 指定逆序运算的轴,取值范围是[-R, R),R是输入 ``x`` 的Rank, ``axis`` 为负时与 ``axis`` +R 等价。如果 ``axis`` 是一个元组或列表,则在 ``axis`` 每个元素值所指定的轴上进行逆序运算。如果输入是LoDTensorArray类型,axis须是值为0的int,或shape为[1]的list ``[0]`` 、元组 ``(0,)`` 。 -返回:逆序后的Tensor,形状、数据类型和 ``x`` 一致。 +返回 +:::::::::::: +逆序后的Tensor,形状、数据类型和 ``x`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/rnn_cn.rst b/docs/api/paddle/fluid/layers/rnn_cn.rst index 0acc833c72b..bc60a2795cc 100644 --- a/docs/api/paddle/fluid/layers/rnn_cn.rst +++ b/docs/api/paddle/fluid/layers/rnn_cn.rst @@ -5,7 +5,10 @@ rnn -.. py:method:: paddle.fluid.layers.rnn(cell, inputs, initial_states=None, sequence_length=None, time_major=False, is_reverse=False, **kwargs) +方法 +:::::::::::: +paddle.fluid.layers.rnn(cell, inputs, initial_states=None, sequence_length=None, time_major=False, is_reverse=False, **kwargs) +''''''''' @@ -13,7 +16,8 @@ rnn rnn创建一个由RNNCell :code:`cell` 指定的递归神经网络,该神经网络重复执行 :code:`cell.call()` 直至达到 :code:`inputs` 的最大长度。 -参数: +**参数** + - **cell** (RNNCell) - RNNCell的实例。 - **inputs** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。当 :code:`time_major == False` 时,tensor的形状应为 :math:`[batch\_size, sequence\_length, ...]`;当 :code:`time_major == True` 时,tensor的形状应为 :math:`[sequence\_length, batch\_size, ...]`。它表示要在RNN中展开的输入。 - **initial_states** (Variable,可选) - 初始状态,单个tensor变量或tensor变量组成的嵌套结构,表示RNN的初始状态。如果未提供,将使用 :code:`cell.get_initial_states` 产生初始状态。默认值None。 @@ -22,11 +26,13 @@ rnn创建一个由RNNCell :code:`cell` 指定的递归神经网络,该神经 - **is_reverse** (bool,可选) - 指示是否以输入序列的相反顺序进行计算,为True时表示以输入序列的相反顺序进行计算。默认值:False。 - **kwargs** - 其他关键字参数。参数传递给 :code:`cell.call`。 -返回:一个元组 :code:`(final_outputs, final_states)` ,包括 :code:`final_outputs` 和 :code:`final_states`,均为单个tensor变量或tensor变量的嵌套结构。:code:`final_outputs` 具有与 :code:`cell.call` 返回的 :code:`outputs` 相同的结构和数据类型,并且 :code:`final_outputs` 中的每个tensor是将所有时间步的 :code:`outputs` 中对应内容堆叠产生,因此其形状为 :math:`[batch\_size,sequence\_length,...]` (:code:`time_major == False` 时)或 :math:`[sequence\_length,batch\_size,...]` (:code:`time_major == True` 时)。:code:`final_states` 是最后一步的状态,因此具有和 :code:`initial_states` 相同的结构,形状和数据类型。 +**返回** +一个元组 :code:`(final_outputs, final_states)` ,包括 :code:`final_outputs` 和 :code:`final_states`,均为单个tensor变量或tensor变量的嵌套结构。:code:`final_outputs` 具有与 :code:`cell.call` 返回的 :code:`outputs` 相同的结构和数据类型,并且 :code:`final_outputs` 中的每个tensor是将所有时间步的 :code:`outputs` 中对应内容堆叠产生,因此其形状为 :math:`[batch\_size,sequence\_length,...]` (:code:`time_major == False` 时)或 :math:`[sequence\_length,batch\_size,...]` (:code:`time_major == True` 时)。:code:`final_states` 是最后一步的状态,因此具有和 :code:`initial_states` 相同的结构,形状和数据类型。 -返回类型:tuple +**返回类型** +tuple -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/roi_align_cn.rst b/docs/api/paddle/fluid/layers/roi_align_cn.rst index d00f6637db2..792fa04eb72 100644 --- a/docs/api/paddle/fluid/layers/roi_align_cn.rst +++ b/docs/api/paddle/fluid/layers/roi_align_cn.rst @@ -17,7 +17,9 @@ Region of Interests align(直译:有意义、有价值选区对齐) 用于实 在每个RoI分块中,分别取sampling_ratio个点(若为-1则取框内所有点),每个点通过双线性插值直接计算得到坐标。再对分块内取的点取平均值作为小框的坐标值。坐标对齐有误的问题。 -参数: +参数 +:::::::::::: + - **input** (Variable) – 维度为[N,C,H,W]的4-D Tensor,N 为batch大小, C 为输入通道的个数, H 特征高度, W 特征宽度。数据类型为float32或float64。 - **rois** (Variable) – 维度为[num_rois,4]2-D LoDTensor,数据类型为float32或float64。待池化的ROIs (Regions of Interest),lod level 为1。给定比如[[x1,y1,x2,y2], ...],(x1,y1)为左上点坐标,(x2,y2)为右下点坐标。 - **pooled_height** (int32,可选) – 池化后的输出高度,默认值为1。 @@ -27,13 +29,18 @@ Region of Interests align(直译:有意义、有价值选区对齐) 用于实 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:表示RoI align输出的LoDTensor,数据类型为float32或float64,维度为 (num_rois, channels, pooled_h, pooled_w) +返回 +:::::::::::: +表示RoI align输出的LoDTensor,数据类型为float32或float64,维度为 (num_rois, channels, pooled_h, pooled_w) -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/roi_perspective_transform_cn.rst b/docs/api/paddle/fluid/layers/roi_perspective_transform_cn.rst index 5f03d7b7d11..ca769258b33 100644 --- a/docs/api/paddle/fluid/layers/roi_perspective_transform_cn.rst +++ b/docs/api/paddle/fluid/layers/roi_perspective_transform_cn.rst @@ -10,21 +10,28 @@ roi_perspective_transform 该OP对RoI区域做透视变换,将不规则的RoI区域变成固定大小的矩形区域,透视变换是线性代数里面的一种基础变换。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入特征图,4-D Tensor,格式为NCHW。N是batch_size,C是输入通道数,H是特征图高度,W是特征图宽度。数据类型是float32 - **rois** (Variable) - 感兴趣区域,2D-LoDTensor,形状是(num_rois,8),lod_level为1。其数据形式是[[x1,y1,x2,y2,x3,y3,x4,y4], ...],其中(x1,y1)是左上角坐标,(x2,y2)是右上角坐标,(x3,y3)是右下角坐标,(x4,y4)是左下角坐标。数据类型与 ``input`` 相同 - **transformed_height** (int) - 输出的高度 - **transformed_width** (int) – 输出的宽度 - **spatial_scale** (float,可选) - 空间尺度因子,用于缩放ROI坐标,浮点数。默认值1.0 -返回: 由三个变量构成的元组 (out, mask, transform_matrix) +返回 +:::::::::::: + 由三个变量构成的元组 (out, mask, transform_matrix) - ``out`` : ``ROIPerspectiveTransformOp`` 的输出,4D-LoDTensor,形状是(num_rois,channels,transformed_height,transformed_width),lod_level为1 - ``mask`` : ``ROIPerspectiveTransformOp`` 的掩码,4D-LoDTensor,形状是(num_rois,1,transformed_height,transformed_width),lod_level为1 - ``transform_matrix`` : ``ROIPerspectiveTransformOp`` 的转换矩阵,2D-LoDTensor,形状是(num_rois,9),lod_level为1 -返回类型: 元组 +返回类型 +:::::::::::: + 元组 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/roi_pool_cn.rst b/docs/api/paddle/fluid/layers/roi_pool_cn.rst index 797ac888ad5..bbe3297b0b6 100644 --- a/docs/api/paddle/fluid/layers/roi_pool_cn.rst +++ b/docs/api/paddle/fluid/layers/roi_pool_cn.rst @@ -19,19 +19,26 @@ roi_pool Faster-RCNN使用了roi池化。roi池化的具体原理请参考 https://stackoverflow.com/questions/43430056/what-is-roi-layer-in-fast-rcnn -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入特征,维度为[N,C,H,W]的4D-Tensor,其中N为batch大小,C为输入通道数,H为特征高度,W为特征宽度。数据类型为float32或float64. - **rois** (Variable) – 待池化的ROIs (Regions of Interest),维度为[num_rois,4]的2D-LoDTensor,lod level 为1。给定如[[x1,y1,x2,y2], ...],其中(x1,y1)为左上点坐标,(x2,y2)为右下点坐标。lod信息记录了每个roi所属的batch_id。 - **pooled_height** (int,可选) - 数据类型为int32,池化输出的高度。默认值为1。 - **pooled_width** (int,可选) - 数据类型为int32,池化输出的宽度。默认值为1。 - **spatial_scale** (float,可选) - 数据类型为float32,用于将ROI coords从输入比例转换为池化时使用的比例。默认值为1.0。 -返回: 池化后的特征,维度为[num_rois, C, pooled_height, pooled_width]的4D-Tensor。 +返回 +:::::::::::: + 池化后的特征,维度为[num_rois, C, pooled_height, pooled_width]的4D-Tensor。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/rpn_target_assign_cn.rst b/docs/api/paddle/fluid/layers/rpn_target_assign_cn.rst index b7eb29fefb2..9e25a6ab8f7 100644 --- a/docs/api/paddle/fluid/layers/rpn_target_assign_cn.rst +++ b/docs/api/paddle/fluid/layers/rpn_target_assign_cn.rst @@ -21,7 +21,9 @@ rpn_target_assign 回归标签是ground-truth boxes和正类别anchor的偏移值。 -参数: +参数 +:::::::::::: + - **bbox_pred** (Variable) - Shape为 ``[batch_size,M,4]`` 的3-D Tensor,表示M个边界框的预测位置。每个边界框有四个坐标值,即 ``[xmin,ymin,xmax,ymax]`` 。数据类型支持float32和float64。 - **cls_logits** (Variable)- Shape为 ``[batch_size,M,1]`` 的3-D Tensor,表示预测的置信度。1是frontground和background的sigmoid,M是边界框的数量。数据类型支持float32和float64。 - **anchor_box** (Variable) - Shape为 ``[M,4]`` 的2-D Tensor,它拥有M个框,每个框可表示为 ``[xmin,ymin,xmax,ymax]`` , ``[xmin,ymin]`` 是anchor框的左上部坐标,如果输入是图像特征图,则它们接近坐标系的原点。 ``[xmax,ymax]`` 是anchor框的右下部坐标。数据类型支持float32和float64。 @@ -36,17 +38,22 @@ rpn_target_assign - **rpn_negative_overlap** (float,可选) - 浮点数字。负类别anchor是和任何ground-truth boxes的IoU都低于阈值 ``rpn_negative_overlap`` 的anchor。 数据类型支持float32。缺省值为0.3。 - **use_random** (bool,可选) – 布尔类型。是否使用随机采样来选择foreground boxes和background boxes。缺省值为True。 -返回: 元组。格式为 ``(predicted_scores, predicted_location, target_label, target_bbox, bbox_inside_weight)`` +返回 +:::::::::::: + 元组。格式为 ``(predicted_scores, predicted_location, target_label, target_bbox, bbox_inside_weight)`` - **predicted_scores** (Varible) - RPN预测的类别结果。Shape为 ``[F + B,1]`` 的2D Tensor。 ``F`` 为foreground anchor的数量,B为background anchor的数量。数据类型与 ``bbox_pred`` 一致。 - **predicted_location** (Variable) - RPN预测的位置结果。Shape为 ``[F, 4]`` 的2D Tensor。数据类型与 ``bbox_pred`` 一致。 - **target_label** (Variable) - Shape为 ``[F + B,1]`` 的2D Tensor。数据类型为int32。 - **target_bbox** (Variable) - Shape为 ``[F, 4]`` 的2D Tensor。数据类型与 ``bbox_pred`` 一致。 - **Bbox_inside_weight** (Variable) - Shape为 ``[F, 4]`` 的2D Tensor。数据类型与 ``bbox_pred`` 一致。 -返回类型:元组 +返回类型 +:::::::::::: +元组 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sampling_id_cn.rst b/docs/api/paddle/fluid/layers/sampling_id_cn.rst index 098bba3e2e7..ad4589933fa 100644 --- a/docs/api/paddle/fluid/layers/sampling_id_cn.rst +++ b/docs/api/paddle/fluid/layers/sampling_id_cn.rst @@ -10,19 +10,26 @@ sampling_id 该OP从输入的多项分布中进行采样。 -参数: +参数 +:::::::::::: + - **x** (Variable)- 输入Tensor。一个形如[batch_size,input_feature_dimensions]的2-D Tensor。 - **min** (Float)- 随机的最小值。默认值为为0.0。 - **max** (Float)- 随机的最大值。默认值为1.0。 - **seed** (int)- 随机种子。0表示使用系统生成的种子, 默认值为0。请注意,如果seed不为0,则此算子每次调用将生成相同的随机数。 - **dtype** (np.dtype | core.VarDesc.VarType | str)- 指定输出数据的类型。 -返回:采样的数据张量(Tensor) +返回 +:::::::::::: +采样的数据张量(Tensor) -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/scatter_cn.rst b/docs/api/paddle/fluid/layers/scatter_cn.rst index 75dfb0d10a6..c58f4c69e45 100644 --- a/docs/api/paddle/fluid/layers/scatter_cn.rst +++ b/docs/api/paddle/fluid/layers/scatter_cn.rst @@ -36,16 +36,21 @@ scatter out # np.array([[3, 3], [6, 6], [1, 1]]) out.shape # [3, 2] -参数: +参数 +:::::::::::: + - **input** (Variable) - 支持任意纬度的Tensor。支持的数据类型为float32。 - **index** (Variable) - 表示索引,仅支持1-D Tensor。 支持的数据类型为int32,int64。 - **updates** (Variable) - 根据索引的值将updates Tensor中的对应值更新到input Tensor中,updates Tensor的维度需要和input tensor保持一致,且除了第一维外的其他的维度的大小需要和input Tensor保持相同。支持的数据类型为float32。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **overwrite** (bool,可选) - 如果index中的索引值有重复且overwrite 为True,旧更新值将被新的更新值覆盖;如果为False,新的更新值将同旧的更新值相加。默认值为True。 -返回:返回类型为Variable(Tensor|LoDTensor),数据类型以及shape大小同输入一致。 +返回 +:::::::::::: +返回类型为Variable(Tensor|LoDTensor),数据类型以及shape大小同输入一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/selu_cn.rst b/docs/api/paddle/fluid/layers/selu_cn.rst index 56e838344bd..bf69d2bf21b 100644 --- a/docs/api/paddle/fluid/layers/selu_cn.rst +++ b/docs/api/paddle/fluid/layers/selu_cn.rst @@ -19,17 +19,24 @@ SeLU激活函数,其公式如下: 输入 ``x`` 可以选择性携带LoD信息。输出和它共享此LoD信息(如果有)。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入变量,为数据类型为float32,float64的多维Tensor或者LoDTensor。 - **scale** (float,可选) – 可选,表示SeLU激活函数中的λ的值,其默认值为 1.0507009873554804934193349852946。 详情请见: `Self-Normalizing Neural Networks `_。 - **alpha** (float,可选) – 可选,表示SeLU激活函数中的α的值,其默认值为 1.6732632423543772848170429916717。 详情请见: `Self-Normalizing Neural Networks `_。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:一个Tensor,shape和输入Tensor相同。 +返回 +:::::::::::: +一个Tensor,shape和输入Tensor相同。 -返回类型:Variable(Tensor|LoDTensor),LoD信息与输入Tensor一致。 +返回类型 +:::::::::::: +Variable(Tensor|LoDTensor),LoD信息与输入Tensor一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_concat_cn.rst b/docs/api/paddle/fluid/layers/sequence_concat_cn.rst index 659c5d92489..1226c333527 100644 --- a/docs/api/paddle/fluid/layers/sequence_concat_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_concat_cn.rst @@ -33,16 +33,23 @@ sequence_concat out.shape = [9, 1] -参数: +参数 +:::::::::::: + - **input** (list of Variable) – 多个LoDTensor组成的list,要求每个输入LoDTensor的LoD长度必须一致。数据类型为float32,float64或int64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 输出连接后的LoDTensor,数据类型和输入一致。 +返回 +:::::::::::: + 输出连接后的LoDTensor,数据类型和输入一致。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_conv_cn.rst b/docs/api/paddle/fluid/layers/sequence_conv_cn.rst index 213ce1bf7dd..c34df7bde85 100644 --- a/docs/api/paddle/fluid/layers/sequence_conv_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_conv_cn.rst @@ -51,7 +51,9 @@ sequence_conv -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为 :math:`(M, K)` 的二维LoDTensor,仅支持lod_level为1。其中M是mini-batch的总时间步数,K是输入的 ``hidden_size`` 特征维度。数据类型为float32或float64。 - **num_filters** (int) - 滤波器的数量。 - **filter_size** (int) - 滤波器的高度(H);不支持指定滤波器宽度(W),宽度固定取值为输入的 ``hidden_size`` 。默认值为3。 @@ -64,11 +66,16 @@ sequence_conv - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:和输入序列等长的LoDTensor,数据类型和输入一致,为float32或float64。 +返回 +:::::::::::: +和输入序列等长的LoDTensor,数据类型和输入一致,为float32或float64。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_enumerate_cn.rst b/docs/api/paddle/fluid/layers/sequence_enumerate_cn.rst index b494b5e9bf7..bd22badd3ba 100644 --- a/docs/api/paddle/fluid/layers/sequence_enumerate_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_enumerate_cn.rst @@ -28,17 +28,24 @@ sequence_enumerate out.data = [[1, 2], [2, 3], [3, 0], [4, 5], [5, 0]] out.dims = [5, 2] -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入序列,形状为 ``[d_1, 1]`` ,lod level为1的LodTensor。数据类型支持int32,int64,float32或float64。 - **win_size** (int)- 子序列窗口大小。 - **pad_value** (int,可选)- 填充值,默认为0。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 枚举序列,形状为 ``[d_1, win_size]`` ,lod_level为1的LoDTensor。数据类型与输入 ``input`` 一致。 +返回 +:::::::::::: + 枚举序列,形状为 ``[d_1, win_size]`` ,lod_level为1的LoDTensor。数据类型与输入 ``input`` 一致。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_expand_as_cn.rst b/docs/api/paddle/fluid/layers/sequence_expand_as_cn.rst index f87ca92fd8d..94b4601a2c8 100644 --- a/docs/api/paddle/fluid/layers/sequence_expand_as_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_expand_as_cn.rst @@ -50,17 +50,24 @@ Sequence Expand As Layer,该OP根据输入 ``y`` 的第0级lod对输入 ``x`` 可见,输出out将x扩展至和y具有相同的lod。 -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入变量,维度为 :math:`[M, K]` 的二维Tensor或LoDTensor,第一维必须与输入 ``y`` 的第0层lod大小相同,且仅支持lod_level为1。数据类型支持int32,int64,float32或float64。 - **y** (Variable) - 输入变量,LoDTensor,lod level必须为1。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:扩展变量,维度为 :math:`[N, K]` 的二维LoDTensor,N由输入 ``y`` 的lod决定,且仅支持lod_level为1。数据类型与输入 ``x`` 一致。 +返回 +:::::::::::: +扩展变量,维度为 :math:`[N, K]` 的二维LoDTensor,N由输入 ``y`` 的lod决定,且仅支持lod_level为1。数据类型与输入 ``x`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_expand_cn.rst b/docs/api/paddle/fluid/layers/sequence_expand_cn.rst index 27b137378d9..739a3e7890b 100644 --- a/docs/api/paddle/fluid/layers/sequence_expand_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_expand_cn.rst @@ -50,17 +50,24 @@ sequence_expand out.data = [[a], [a], [c], [c], [c]] out.dims = [5, 1] -参数: +参数 +:::::::::::: + - **x** (Variable) - 输入变量,维度为 :math:`[M, K]` ,lod level至多1的二维Tensor或LoDTensor。数据类型支持int32,int64,float32或float64。 - **y** (Variable) - 输入变量,lod level至少为1的LoDTensor。数据类型不限。 - **ref_level** (int,可选) - 扩展 ``x`` 所依据的 ``y`` 的lod层。默认值-1,表示lod的最后一层。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:扩展变量,维度为 :math:`[N, K]` 的LoDTensor,N由输入 ``x`` 和 ``y`` 的lod共同决定。数据类型与输入 ``x`` 一致。 +返回 +:::::::::::: +扩展变量,维度为 :math:`[N, K]` 的LoDTensor,N由输入 ``x`` 和 ``y`` 的lod共同决定。数据类型与输入 ``x`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_first_step_cn.rst b/docs/api/paddle/fluid/layers/sequence_first_step_cn.rst index 025ba504580..7bcda0cb643 100644 --- a/docs/api/paddle/fluid/layers/sequence_first_step_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_first_step_cn.rst @@ -42,13 +42,20 @@ sequence_first_step out.data = [[1.], [3.], [4.], [0.0], [6.]] where 1.=first(1.), 3.=first(3., 2.), 4.=first(4.), 0.0 = pad_value, 6.=first(6., 5., 1.) -参数:**input** (Variable)- 类型为LoDTensor的输入序列,仅支持lod_level不超过2的LoDTensor,数据类型为float32。 +参数 +:::::::::::: +**input** (Variable)- 类型为LoDTensor的输入序列,仅支持lod_level不超过2的LoDTensor,数据类型为float32。 -返回:每个输入序列中的第一个step的特征向量组成的LoDTensor,数据类型为float32。 +返回 +:::::::::::: +每个输入序列中的第一个step的特征向量组成的LoDTensor,数据类型为float32。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_last_step_cn.rst b/docs/api/paddle/fluid/layers/sequence_last_step_cn.rst index 2cae6fb9a0b..c684cc1ade1 100644 --- a/docs/api/paddle/fluid/layers/sequence_last_step_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_last_step_cn.rst @@ -43,13 +43,20 @@ sequence_last_step out.data = [[1.], [2.], [4.], [0.0], [1.]] where 1.=last(1.), 2.=last(3., 2.), 4.=last(4.), 0.0 = pad_value, 1=last(6., 5., 1.) -参数:**input** (Variable)- 类型为LoDTensor的输入序列,仅支持lod_level不超过2的LoDTensor,数据类型为float32。 +参数 +:::::::::::: +**input** (Variable)- 类型为LoDTensor的输入序列,仅支持lod_level不超过2的LoDTensor,数据类型为float32。 -返回:每个输入序列中的最后一步特征向量组成的LoDTensor,数据类型为float32。 +返回 +:::::::::::: +每个输入序列中的最后一步特征向量组成的LoDTensor,数据类型为float32。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_pad_cn.rst b/docs/api/paddle/fluid/layers/sequence_pad_cn.rst index cae168930dd..95601bca72c 100644 --- a/docs/api/paddle/fluid/layers/sequence_pad_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_pad_cn.rst @@ -58,17 +58,24 @@ sequence_pad Length.data = [2, 3] -参数: +参数 +:::::::::::: + - **x** (Vairable) - 输入,维度为 ``[M, K]`` 的LoDTensor,仅支持lod_level为1。lod所描述的序列数量,作为要填充的batch_size。数据类型为int32,int64,float32或float64。 - **pad_value** (Variable) - 填充值,可以是标量或长度为 ``K`` 的一维Tensor。如果是标量,则自动广播为Tensor。数据类型需与 ``x`` 相同。 - **maxlen** (int,可选) - 填充序列的长度。默认为None,此时以序列中最长序列的长度为准,其他所有序列填充至该长度。当是某个特定的正整数,最大长度必须大于最长初始序列的长度。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:元素为两个LoDTensor的Python tuple。第一个元素为填充后的变量 ``Out`` ,形状为 ``[batch_size, maxlen, K]`` ,lod level为0的LoDTensor,数据类型与输入 ``x`` 相同。第二个元素为填充前的原序列长度信息 ``Length`` ,lod level为0的一维LoDTensor,长度等于batch_size,数据类型为int64。 +返回 +:::::::::::: +元素为两个LoDTensor的Python tuple。第一个元素为填充后的变量 ``Out`` ,形状为 ``[batch_size, maxlen, K]`` ,lod level为0的LoDTensor,数据类型与输入 ``x`` 相同。第二个元素为填充前的原序列长度信息 ``Length`` ,lod level为0的一维LoDTensor,长度等于batch_size,数据类型为int64。 -返回类型:tuple +返回类型 +:::::::::::: +tuple -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_pool_cn.rst b/docs/api/paddle/fluid/layers/sequence_pool_cn.rst index 988ffd7b570..8c9a4940ee3 100644 --- a/docs/api/paddle/fluid/layers/sequence_pool_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_pool_cn.rst @@ -63,17 +63,24 @@ sequence_pool where 1.=1., 5.=3. + 2., 4.=4., 0.0=pad_value, 12.=6. + 5. + 1. -参数: +参数 +:::::::::::: + - **input** (Variable) - 类型为LoDTensor的输入序列,仅支持lod_level不超过2的LoDTensor,数据类型为float32。 - **pool_type** (str) - 池化类型,支持average,sum,sqrt,max,last和first池化操作。 - **is_test** (bool) - 仅在pool_type取值为max时生效。当is_test为False时,则在池化操作过程中会创建maxIndex临时Tenosr,以记录最大特征值对应的索引信息,用于训练阶段的反向梯度计算。默认为False。 - **pad_value** (float) - 用于填充输入序列为空时的池化结果,默认为0.0。 -返回:经过指定类型池化后的LoDTensor,数据类型为float32。 +返回 +:::::::::::: +经过指定类型池化后的LoDTensor,数据类型为float32。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_reshape_cn.rst b/docs/api/paddle/fluid/layers/sequence_reshape_cn.rst index 9bba87bdbea..25f07bcde68 100644 --- a/docs/api/paddle/fluid/layers/sequence_reshape_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_reshape_cn.rst @@ -32,15 +32,22 @@ sequence_reshape -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为 :math:`[M, K]` 的二维LoDTensor,且仅支持lod_level为1。数据类型为int32,int64,float32或float64。 - **new_dim** (int)- 指定reshape后的新维度,即对输入LoDTensor重新reshape后的新维度。 -返回:根据新维度重新reshape后的LoDTensor,数据类型和输入一致。 +返回 +:::::::::::: +根据新维度重新reshape后的LoDTensor,数据类型和输入一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_reverse_cn.rst b/docs/api/paddle/fluid/layers/sequence_reverse_cn.rst index 2bad60302dc..06c80daddbe 100644 --- a/docs/api/paddle/fluid/layers/sequence_reverse_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_reverse_cn.rst @@ -33,15 +33,22 @@ sequence_reverse out.shape = [5, 4] -参数: +参数 +:::::::::::: + - **x** (Variable) – 输入是LoD level为1的LoDTensor。目前仅支持对LoD层次(LoD level)为1的LoDTensor进行反转。数据类型为float32,float64,int8,int32或int64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出在每个序列上反转后的LoDTensor,数据类型和输入类型一致。 +返回 +:::::::::::: +输出在每个序列上反转后的LoDTensor,数据类型和输入类型一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_scatter_cn.rst b/docs/api/paddle/fluid/layers/sequence_scatter_cn.rst index 9cfdb0d6364..228eb0f48e7 100644 --- a/docs/api/paddle/fluid/layers/sequence_scatter_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_scatter_cn.rst @@ -45,18 +45,25 @@ output[i][j]的值取决于能否在index中第i+1个区间中找到对应的数 out.dims = X.dims = [3, 6] -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为 :math:`[N, k_1 ... k_n]` 的Tensor, 支持的数据类型:float32,float64,int32,int64。 - **index** (Variable) - 包含index信息的LoDTensor,lod level必须等于1,支持的数据类型:int32,int64。 - **updates** (Variable) - 包含updates信息的LoDTensor,lod level和index一致,数据类型与input的数据类型一致。支持的数据类型:float32,float64,int32,int64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:在input的基础上使用updates进行更新后得到的Tensor,它与input有相同的维度和数据类型。 +返回 +:::::::::::: +在input的基础上使用updates进行更新后得到的Tensor,它与input有相同的维度和数据类型。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_slice_cn.rst b/docs/api/paddle/fluid/layers/sequence_slice_cn.rst index 1815f675006..cd434857ffe 100644 --- a/docs/api/paddle/fluid/layers/sequence_slice_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_slice_cn.rst @@ -37,17 +37,24 @@ sequence_slice ``input`` , ``offset`` , ``length`` 的第一维大小应相同。 ``offset`` 从0开始。 -参数: +参数 +:::::::::::: + - **input** (Variable) – 输入变量,类型为LoDTensor,承载着完整的序列。数据类型为float32,float64,int32或int64。 - **offset** (Variable) – 指定每个序列切片的起始索引,数据类型为int32或int64。 - **length** (Variable) – 指定每个子序列的长度,数据类型为int32或int64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Variable(LoDTensor) 序列切片运算结果 +返回 +:::::::::::: +Variable(LoDTensor) 序列切片运算结果 -返回类型:变量(Variable), 数据类型与 ``input`` 一致 +返回类型 +:::::::::::: +变量(Variable), 数据类型与 ``input`` 一致 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_softmax_cn.rst b/docs/api/paddle/fluid/layers/sequence_softmax_cn.rst index 866cca00445..9edfef8f1cd 100644 --- a/docs/api/paddle/fluid/layers/sequence_softmax_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_softmax_cn.rst @@ -46,16 +46,23 @@ sequence_softmax output.lod = [[0, 3, 5, 9, 10, 12, 15]] -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为 :math:`[N, 1]` 或者 :math:`[N]` 的LoDTensor,推荐使用 :math:`[N]` 。支持的数据类型:float32,float64。 - **use_cudnn** (bool,可选) - 是否用cudnn核,仅当安装cudnn版本的paddle库且使用gpu训练或推理的时候生效。支持的数据类型:bool型。默认值为False。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:根据区间计算softmax之后的LoDTensor,其维度与input的维度一致,数据类型与input的数据类型一致。 +返回 +:::::::::::: +根据区间计算softmax之后的LoDTensor,其维度与input的维度一致,数据类型与input的数据类型一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sequence_unpad_cn.rst b/docs/api/paddle/fluid/layers/sequence_unpad_cn.rst index 20a437aef48..7bc5f43936d 100644 --- a/docs/api/paddle/fluid/layers/sequence_unpad_cn.rst +++ b/docs/api/paddle/fluid/layers/sequence_unpad_cn.rst @@ -34,16 +34,23 @@ sequence_unpad -参数: +参数 +:::::::::::: + - **x** (Variable) – 包含填充元素的Tensor,其维度大小不能小于2,支持的数据类型:float32, float64,int32, int64。 - **length** (Variable) – 存储每个样本实际长度信息的1D Tesnor,该Tensor维度的第0维必须与x维度的第0维一致。支持的数据类型:int64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:将输入的填充元素移除,并返回一个LoDTensor,其递归序列长度与length参数的信息一致,其数据类型和输入一致。 +返回 +:::::::::::: +将输入的填充元素移除,并返回一个LoDTensor,其递归序列长度与length参数的信息一致,其数据类型和输入一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/shuffle_channel_cn.rst b/docs/api/paddle/fluid/layers/shuffle_channel_cn.rst index 7d4b0637a6a..9310f4dfb25 100644 --- a/docs/api/paddle/fluid/layers/shuffle_channel_cn.rst +++ b/docs/api/paddle/fluid/layers/shuffle_channel_cn.rst @@ -45,16 +45,23 @@ shuffle_channel [[0.7, 0.8], [0.8, 0.9]]]] -参数: +参数 +:::::::::::: + - **x** (Variable) – 输入Tensor。 维度为[N,C,H,W]的4-D Tensor。 - **group** (int) – 表示子组的数目,它应该整除通道数。 -返回:一个形状和类型与输入相同的Tensor。 +返回 +:::::::::::: +一个形状和类型与输入相同的Tensor。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sigmoid_cross_entropy_with_logits_cn.rst b/docs/api/paddle/fluid/layers/sigmoid_cross_entropy_with_logits_cn.rst index 28458eb0c40..8fbb1532386 100644 --- a/docs/api/paddle/fluid/layers/sigmoid_cross_entropy_with_logits_cn.rst +++ b/docs/api/paddle/fluid/layers/sigmoid_cross_entropy_with_logits_cn.rst @@ -34,20 +34,27 @@ logistic loss可通过下式计算: -参数: +参数 +:::::::::::: + - **x** (Variable) - (Tensor, 默认 Tensor),形为 N x D 的二维张量,N为batch大小,D为类别数目。该输入是一个由先前运算得出的logit组成的张量。logit是未标准化(unscaled)的log概率, 公式为 :math:`log(\frac{p}{1-p})`, 数据类型为float32或float64。 - **label** (Variable) - (Tensor, 默认 Tensor) 具有和 ``X`` 相同数据类型,相同形状的二维张量。该输入张量代表了每个logit的可能标签。 - **ignore_index** (int) - (int,默认kIgnoreIndex)指定被忽略的目标值,它不会影响输入梯度。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **normalize** (bool) - 如果为true,则将输出除以除去ignore_index对应目标外的目标数,默认为False。 -返回: Variable(Tensor, 默认Tensor), 形为 N x D 的二维张量,其值代表了按元素的logistic loss,数据类型为float32或float64。 +返回 +:::::::::::: + Variable(Tensor, 默认Tensor), 形为 N x D 的二维张量,其值代表了按元素的logistic loss,数据类型为float32或float64。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sigmoid_focal_loss_cn.rst b/docs/api/paddle/fluid/layers/sigmoid_focal_loss_cn.rst index c62a42b2f76..3d2b3f8027d 100644 --- a/docs/api/paddle/fluid/layers/sigmoid_focal_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/sigmoid_focal_loss_cn.rst @@ -27,7 +27,9 @@ Focal Loss的计算过程如下: \sigma(x_{i,\,j}) = \frac{1}{1 + \exp(-x_{i,\,j})} -参数: +参数 +:::::::::::: + - **x** (Variable) – 维度为 :math:`[N, C]` 的2-D Tensor,表示全部样本的分类预测值。其中,第一维N是批量内参与训练的样本数量,例如在目标检测中,样本为框级别,N为批量内所有图像的正负样本的数量总和;在图像分类中,样本为图像级别,N为批量内的图像数量总和。第二维:math:`C` 是类别数量( **不包括背景类** )。数据类型为float32或float64。 - **label** (Variable) – 维度为 :math:`[N, 1]` 的2-D Tensor,表示全部样本的分类目标值。其中,第一维N是批量内参与训练的样本数量,第二维1表示每个样本只有一个类别目标值。正样本的目标类别值的取值范围是 :math:`[1, C]` , 负样本的目标类别值是0。数据类型为int32。 - **fg_num** (Variable) – 维度为 :math:`[1]` 的1-D Tensor,表示批量内正样本的数量,需在进入此OP前获取正样本的数量。数据类型为int32。 @@ -35,11 +37,16 @@ Focal Loss的计算过程如下: - **alpha** (int|float) – 用于平衡正样本和负样本的超参数,默认值设置为0.25。 -返回: 输入x中每个元素的Focal loss,即维度为 :math:`[N, C]` 的2-D Tensor。 +返回 +:::::::::::: + 输入x中每个元素的Focal loss,即维度为 :math:`[N, C]` 的2-D Tensor。 -返回类型: 变量(Variable),数据类型为float32或float64。 +返回类型 +:::::::::::: + 变量(Variable),数据类型为float32或float64。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sign_cn.rst b/docs/api/paddle/fluid/layers/sign_cn.rst index 7b5e84aa970..137971c6947 100644 --- a/docs/api/paddle/fluid/layers/sign_cn.rst +++ b/docs/api/paddle/fluid/layers/sign_cn.rst @@ -7,14 +7,21 @@ sign 此OP对输入x中每个元素进行正负判断,并且输出正负判断值:1代表正,-1代表负,0代表零。 -参数: +参数 +:::::::::::: + - **x** (Variable|numpy.ndarray) – 进行正负值判断的多维Tensor或者是多维的numpy数组,数据类型为 float32,float64。 -返回:输出正负号Tensor,数据的shape大小和输入x的数据shape一致。 +返回 +:::::::::::: +输出正负号Tensor,数据的shape大小和输入x的数据shape一致。 -返回类型:Variable,数据类型和输入数据类型一致。 +返回类型 +:::::::::::: +Variable,数据类型和输入数据类型一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/similarity_focus_cn.rst b/docs/api/paddle/fluid/layers/similarity_focus_cn.rst index 212c2105b51..62d9b8f0d75 100644 --- a/docs/api/paddle/fluid/layers/similarity_focus_cn.rst +++ b/docs/api/paddle/fluid/layers/similarity_focus_cn.rst @@ -72,16 +72,23 @@ similarity_focus -参数: +参数 +:::::::::::: + - **input** (Variable) – 输入张量,应为一个四维张量,形为[BatchSize, A, B, C],数据类型为 float32 或者 float64。 - **axis** (int) – 指明要选择的轴。 可能取值为 1, 2 或 3。 - **indexes** (list) – 指明选择维度的索引列表。 -返回:一个和输入 Variable 同形状、同数据类型的 Variable +返回 +:::::::::::: +一个和输入 Variable 同形状、同数据类型的 Variable -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/size_cn.rst b/docs/api/paddle/fluid/layers/size_cn.rst index 6082053be65..faf163a4baf 100644 --- a/docs/api/paddle/fluid/layers/size_cn.rst +++ b/docs/api/paddle/fluid/layers/size_cn.rst @@ -10,12 +10,17 @@ size 返回张量的单元数量,是一个shape为[1]的int64的张量。 -参数: +参数 +:::::::::::: + - **input** (Variable)- 输入变量 -返回:(Variable)。 +返回 +:::::::::::: +(Variable)。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/smooth_l1_cn.rst b/docs/api/paddle/fluid/layers/smooth_l1_cn.rst index f64236c76ac..68060223e91 100755 --- a/docs/api/paddle/fluid/layers/smooth_l1_cn.rst +++ b/docs/api/paddle/fluid/layers/smooth_l1_cn.rst @@ -11,18 +11,25 @@ smooth_l1 该layer计算变量 ``x`` 和 ``y`` 的smooth L1 loss,它以 ``x`` 和 ``y`` 的第一维大小作为批处理大小。对于每个实例,按元素计算smooth L1 loss,然后计算所有loss。输出变量的形状是[batch_size, 1] -参数: +参数 +:::::::::::: + - **x** (Tensor|LoDTensor) - 数据类型为float32,rank至少为2的张量。smooth L1损失函数的输入,shape为[batch_size, dim1,…,dimN]。 - **y** (Tensor|LoDTensor) - 数据类型为float32,rank至少为2的张量。与 ``x`` shape相同的目标值。 - **inside_weight** (Tensor|None) - 数据类型为float32,rank至少为2的张量。这个输入是可选的,与x的shape应该相同。如果给定, ``(x - y)`` 的结果将乘以这个张量元素。 - **outside_weight** (Tensor|None) - 数据类型为float32,一个rank至少为2的张量。这个输入是可选的,它的shape应该与 ``x`` 相同。 smooth L1 loss的输出会乘以这个张量。 - **sigma** (float|NoneType) - smooth L1 loss layer的超参数。标量,默认值为1.0。 -返回: smooth L1损失的输出值, shape为 [batch_size, 1] +返回 +:::::::::::: + smooth L1损失的输出值, shape为 [batch_size, 1] -返回类型:Variable(Tensor),数据类型为float32的Tensor。 +返回类型 +:::::::::::: +Variable(Tensor),数据类型为float32的Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/soft_relu_cn.rst b/docs/api/paddle/fluid/layers/soft_relu_cn.rst index 9aca26e8ebd..0e62fd0a47f 100644 --- a/docs/api/paddle/fluid/layers/soft_relu_cn.rst +++ b/docs/api/paddle/fluid/layers/soft_relu_cn.rst @@ -12,16 +12,23 @@ SoftReLU 激活函数. .. math:: out=ln(1+exp(max(min(x,threshold),-threshold))) -参数: +参数 +:::::::::::: + - **x** (Variable) - SoftReLU激活函数的输入,为数据类型为float32,float64的多维Tensor或者LoDTensor。 - **threshold** (float) - SoftRelu的阈值,默认为40.0。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:一个Tensor,shape和输入Tensor相同。 +返回 +:::::::::::: +一个Tensor,shape和输入Tensor相同。 -返回类型:Variable(Tensor|LoDTensor),LoD信息与输入Tensor一致。 +返回类型 +:::::::::::: +Variable(Tensor|LoDTensor),LoD信息与输入Tensor一致。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/softmax_cn.rst b/docs/api/paddle/fluid/layers/softmax_cn.rst index 21052f227cd..7e04859d55f 100755 --- a/docs/api/paddle/fluid/layers/softmax_cn.rst +++ b/docs/api/paddle/fluid/layers/softmax_cn.rst @@ -83,17 +83,24 @@ softmax [0.72747516, 0.72747516, 0.72747516, 0.72747516]]] -参数: +参数 +:::::::::::: + - **input** (Variable) - 任意维度的多维 ``Tensor`` ,数据类型为float32或float64。 - **use_cudnn** (bool, 可选) - 指示是否用cudnn库。当 ``use_cudnn`` 为True时,在安装GPU版本Paddle并且本机安装cudnn库的前提下,使用GPU训练或推理时才有效。默认值:False。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **axis** (int, 可选) - 指示进行softmax计算的维度索引,其范围应为 :math:`[-1,rank-1]` ,其中rank是输入变量的秩。默认值:-1(表示对最后一维做softmax操作)。 -返回:表示softmax操作结果的 ``Tensor`` ,数据类型和 ``input`` 一致,返回维度和 ``input`` 一致。 +返回 +:::::::::::: +表示softmax操作结果的 ``Tensor`` ,数据类型和 ``input`` 一致,返回维度和 ``input`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/softshrink_cn.rst b/docs/api/paddle/fluid/layers/softshrink_cn.rst index 77cfc805f38..e8107f90787 100644 --- a/docs/api/paddle/fluid/layers/softshrink_cn.rst +++ b/docs/api/paddle/fluid/layers/softshrink_cn.rst @@ -17,15 +17,22 @@ Softshrink激活函数 0, \text{otherwise} \end{cases} -参数: +参数 +:::::::::::: + - **x** (Variable0 - 张量(Tensor) - **alpha** (float) - 上面公式中alpha的值 -返回: 张量(Tensor) +返回 +:::::::::::: + 张量(Tensor) -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/space_to_depth_cn.rst b/docs/api/paddle/fluid/layers/space_to_depth_cn.rst index 174c657adf9..2a26b575931 100644 --- a/docs/api/paddle/fluid/layers/space_to_depth_cn.rst +++ b/docs/api/paddle/fluid/layers/space_to_depth_cn.rst @@ -39,19 +39,28 @@ space_to_depth -参数: +参数 +:::::::::::: + - **x** (Variable) – 输入,形状为 ``[batch, channel, height, width]`` 的4维Tensor或LoD Tensor。数据类型支持int32,int64,float32或float64。 - **blocksize** (int) – 在每个特征图上选择元素时采用的块大小,应该 >= 2 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出,形状为 ``[batch, channel * blocksize * blocksize, height/blocksize, width/blocksize]`` 的4维Tensor或LoD Tensor。数据类型与输入 ``x`` 一致。 +返回 +:::::::::::: +输出,形状为 ``[batch, channel * blocksize * blocksize, height/blocksize, width/blocksize]`` 的4维Tensor或LoD Tensor。数据类型与输入 ``x`` 一致。 + +返回类型 +:::::::::::: +Variable -返回类型:Variable +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - ``blocksize`` 必须是int64类型 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/split_cn.rst b/docs/api/paddle/fluid/layers/split_cn.rst index 260756ee823..d1cb6aa15b6 100644 --- a/docs/api/paddle/fluid/layers/split_cn.rst +++ b/docs/api/paddle/fluid/layers/split_cn.rst @@ -10,16 +10,21 @@ split 该OP将输入Tensor分割成多个子Tensor。 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入变量,数据类型为bool, float16,float32,float64,int32,int64的多维Tensor。 - **num_or_sections** (int|list|tuple) - 如果 ``num_or_sections`` 是一个整数,则表示Tensor平均划分为相同大小子Tensor的数量。如果 ``num_or_sections`` 是一个list或tuple,那么它的长度代表子Tensor的数量,它的元素可以是整数或者形状为[1]的Tensor,依次代表子Tensor需要分割成的维度的大小。list或tuple的长度不能超过输入Tensor待分割的维度的大小。至多有一个元素值为-1,-1表示该值是由 ``input`` 待分割的维度值和 ``num_or_sections`` 的剩余元素推断出来的。 - **dim** (int|Tenspr,可选) - 整数或者形状为[1]的Tensor,数据类型为int32或int64。表示需要分割的维度。如果 ``dim < 0`` ,则划分的维度为 ``rank(input) + dim`` 。默认值为-1。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:分割后的Tensor列表。 +返回 +:::::::::::: +分割后的Tensor列表。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/squeeze_cn.rst b/docs/api/paddle/fluid/layers/squeeze_cn.rst index 026f38455ff..515ea89f0e4 100644 --- a/docs/api/paddle/fluid/layers/squeeze_cn.rst +++ b/docs/api/paddle/fluid/layers/squeeze_cn.rst @@ -38,16 +38,23 @@ squeeze 输出: Out.shape = [1,3,5] -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入任意维度的Tensor。 支持的数据类型:float32,float64,int8,int32,int64。 - **axes** (list) - 输入一个或一列整数,代表要压缩的轴。axes的范围: :math:`[-rank(input), rank(input))` 。 axes为负数时, :math:`axes=axes+rank(input)` 。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 返回对维度进行压缩后的Tensor。数据类型与输入Tensor一致。 +返回 +:::::::::::: + 返回对维度进行压缩后的Tensor。数据类型与输入Tensor一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/ssd_loss_cn.rst b/docs/api/paddle/fluid/layers/ssd_loss_cn.rst index 1fff5eb8cfa..c360cd55d47 100644 --- a/docs/api/paddle/fluid/layers/ssd_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/ssd_loss_cn.rst @@ -42,7 +42,9 @@ ssd_loss 5.3计算总体加权损失。 -参数: +参数 +:::::::::::: + - **location** (Variable)- 位置预测,具有形状[N,Np,4]的3D-Tensor,N是batch大小,Np是每个实例的预测总数。 4是坐标的维数,布局是[xmin,ymin,xmax,ymax],xmin,ymin代表box左上坐标,xmax,ymax代表box右下坐标,数据类型为float32或float64。 - **confidence** (Variable) - 置信度(分类)预测,具有形状[N,Np,C]的3D-Tensor,N是batch大小,Np是每个实例的预测总数,C是类别数量,数据类型为float32或float64。 - **gt_box** (Variable)- 真实框(bbox),具有形状[Ng,4]的2D LoDTensor,Ng是mini-batch输入的真实框(bbox)的总数,4是坐标的维数,布局是[xmin,ymin,xmax,ymax],xmin,ymin代表box左上坐标,xmax,ymax代表box右下坐标,数据类型为float32或float64。 @@ -60,11 +62,16 @@ ssd_loss - **normalize** (bool)- 是否通过输出位置的总数将SSD损失标准化,默认为True。 - **sample_size** (int)- 负样本框的最大样本大小,仅在 ``mining_type`` 为'hard_example'时使用。 -返回: Variable(Tensor) 定位损失和置信度损失的加权和, 具有形状[N * Np,1], N是batch大小,Np是每个实例的预测总数,数据类型为float32或float64。 +返回 +:::::::::::: + Variable(Tensor) 定位损失和置信度损失的加权和, 具有形状[N * Np,1], N是batch大小,Np是每个实例的预测总数,数据类型为float32或float64。 -抛出异常: ``ValueError`` - 如果 ``mining_type`` 是'hard_example',目前只支持 ``max_negative`` 的挖掘类型。 +抛出异常 +:::::::::::: + ``ValueError`` - 如果 ``mining_type`` 是'hard_example',目前只支持 ``max_negative`` 的挖掘类型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/stack_cn.rst b/docs/api/paddle/fluid/layers/stack_cn.rst index b0c338f0515..a4a1387825c 100644 --- a/docs/api/paddle/fluid/layers/stack_cn.rst +++ b/docs/api/paddle/fluid/layers/stack_cn.rst @@ -54,15 +54,22 @@ stack [3.0, 4.0] [5.0, 6.0] ] ] -参数: +参数 +:::::::::::: + - **x** (list(Variable)|tuple(Variable)) – 输入 x 可以是单个Tensor,或是多个Tensor组成的列表。如果 x 是一个列表,那么这些Tensor的维度必须相同。 假设输入是N维Tensor :math:`[d_0,d_1,...,d_{n−1}]`,则输出变量的维度为N+1维 :math:`[d_0,d_1,...d_{axis-1},len(x),d_{axis}...,d_{n−1}]` 。支持的数据类型: float32,float64,int32,int64。 - **axis** (int, 可选) – 指定对输入Tensor进行堆叠运算的轴,有效 ``axis`` 的范围是: :math:`[-(R+1), R+1)`,R是输入中第一个Tensor的rank。如果 ``axis`` < 0,则 :math:`axis=axis+rank(x[0])+1` 。axis默认值为0。 -返回: 堆叠运算后的Tensor,数据类型与输入Tensor相同。输出维度等于 :math:`rank(x[0])+1` 维。 +返回 +:::::::::::: + 堆叠运算后的Tensor,数据类型与输入Tensor相同。输出维度等于 :math:`rank(x[0])+1` 维。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/strided_slice_cn.rst b/docs/api/paddle/fluid/layers/strided_slice_cn.rst index bc608cc55ce..cec39125166 100644 --- a/docs/api/paddle/fluid/layers/strided_slice_cn.rst +++ b/docs/api/paddle/fluid/layers/strided_slice_cn.rst @@ -44,7 +44,9 @@ strided_slice算子。 result=[[2],] -参数: +参数 +:::::::::::: + - **input** (Variable)- 多维 ``Tensor`` 或 ``LoDTensor``,数据类型为 ``float32``,``float64``,``int32``,或 ``int64``。 - **axes** (list|tuple)- 数据类型是 ``int32``。表示进行切片的轴。 @@ -53,17 +55,24 @@ strided_slice算子。 - **strides** (list|tuple|Variable)- 数据类型是 ``int32``。如果 ``strides`` 的类型是 list 或 tuple,它的元素可以是整数或者形状为[1]的 ``Tensor`` 或 ``LoDTensor``。如果 ``strides`` 的类型是 ``Variable``,则是1-D ``Tensor`` 或 ``LoDTensor``。表示在各个轴上切片的步长。 -返回:多维 ``Tensor`` 或 ``LoDTensor``,数据类型与 ``input`` 相同。 +返回 +:::::::::::: +多维 ``Tensor`` 或 ``LoDTensor``,数据类型与 ``input`` 相同。 + +返回类型 +:::::::::::: +Variable。 -返回类型:Variable。 +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError`:``starts`` 的类型应该是 list、tuple 或 Variable。 - :code:`TypeError`:``ends`` 的类型应该是 list、tuple 或 Variable。 - :code:`TypeError`:``strides`` 的类型应该是 list、tuple 或 Variable。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sum_cn.rst b/docs/api/paddle/fluid/layers/sum_cn.rst index 0dc93e01cf6..7b1b5665ebb 100755 --- a/docs/api/paddle/fluid/layers/sum_cn.rst +++ b/docs/api/paddle/fluid/layers/sum_cn.rst @@ -40,15 +40,22 @@ sum output = [[8, 10, 12], [14, 16, 18]] -参数: +参数 +:::::::::::: + **x** (Variable|list(Variable)) - 输入的一至多个Variable。如果输入了多个Variable,则不同Variable间的shape和数据类型应保持一致。Variable为多维Tensor或LoDTensor,数据类型支持:float32,float64,int32,int64 -返回:对输入 ``x`` 中的Variable求和后的结果,shape和数据类型与 ``x`` 一致 +返回 +:::::::::::: +对输入 ``x`` 中的Variable求和后的结果,shape和数据类型与 ``x`` 一致 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/sums_cn.rst b/docs/api/paddle/fluid/layers/sums_cn.rst index 7385626c3dc..23c4bf24145 100644 --- a/docs/api/paddle/fluid/layers/sums_cn.rst +++ b/docs/api/paddle/fluid/layers/sums_cn.rst @@ -31,15 +31,22 @@ sums [444., 555., 666.]] -参数: +参数 +:::::::::::: + - **input** (list) - 多个维度相同的Tensor组成的元组。支持的数据类型:float32,float64,int32,int64。 - **out** (Variable,可选) - 指定求和的结果Tensor,可以是程序中已经创建的任何Variable。默认值为None,此时将创建新的Variable来保存输出结果。 -返回:输入的和,数据类型和维度与输入Tensor相同。若 ``out`` 为 ``None`` ,返回值是一个新的Variable;否则,返回值就是 ``out`` 。 +返回 +:::::::::::: +输入的和,数据类型和维度与输入Tensor相同。若 ``out`` 为 ``None`` ,返回值是一个新的Variable;否则,返回值就是 ``out`` 。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/swish_cn.rst b/docs/api/paddle/fluid/layers/swish_cn.rst index 392858c851f..c3b2728ffec 100644 --- a/docs/api/paddle/fluid/layers/swish_cn.rst +++ b/docs/api/paddle/fluid/layers/swish_cn.rst @@ -13,19 +13,26 @@ swish .. math:: out = \frac{x}{1 + e^{- beta * x}} -参数: +参数 +:::::::::::: + - **x** (Variable) - 多维 Tensor 或 LoDTensor,数据类型为 float32,float64。 - **beta** (float) - Swish operator 的常量 beta,默认值为 1.0。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - Swish op 的结果,多维 Tensor 或 LoDTensor。数据类型为 float32 或 float64,数据类型以及形状和输入 x 一致。 -返回类型: +返回类型 +:::::::::::: + - Variable -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/target_assign_cn.rst b/docs/api/paddle/fluid/layers/target_assign_cn.rst index 7a8b47b33bc..9c148829d51 100644 --- a/docs/api/paddle/fluid/layers/target_assign_cn.rst +++ b/docs/api/paddle/fluid/layers/target_assign_cn.rst @@ -34,18 +34,25 @@ neg_indices中的第i个实例的索引称作neg_indice,则对于第i个实例 out[i][id][0 : K] = {mismatch_value, mismatch_value, ...} out_weight[i][id] = 1.0 -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入为3-D LoDTensor,为了方便在上述文档中解释,假如维度是[M,P,K]。 - **matched_indices** (Variable) - 输入为2-D Tensor,数据类型为int32,表示在输入中匹配位置,具体计算如上,同样,为了方便解释,假如维度大小为[N,P],如果 ``matched_indices[i][j]`` 为-1,表示在第 ``i`` 个实例中第j列项没有任何匹配项,输出会设置成 ``mismatch_value`` 。 - **negative_indices** (Variable,可选) - 维度为2-D LoDTensor,数据类型为int32。可以不设置,如果设置,会依据该位置索引再次给输出赋值,具体参考上述文档。 - **mismatch_value** (float32,可选) - 未匹配的位置填充值。 - **name** (str) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回一个元组(out,out_weight)。out是三维张量,维度为[N,P,K],N和P与 ``matched_indices`` 中的N和P一致,K和输入X中的K一致。 ``out_weight`` 的维度为[N,P,1]。 +返回 +:::::::::::: +返回一个元组(out,out_weight)。out是三维张量,维度为[N,P,K],N和P与 ``matched_indices`` 中的N和P一致,K和输入X中的K一致。 ``out_weight`` 的维度为[N,P,1]。 -返回类型:tuple(Variable) +返回类型 +:::::::::::: +tuple(Variable) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/teacher_student_sigmoid_loss_cn.rst b/docs/api/paddle/fluid/layers/teacher_student_sigmoid_loss_cn.rst index 562c1ee5110..60382b8de05 100644 --- a/docs/api/paddle/fluid/layers/teacher_student_sigmoid_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/teacher_student_sigmoid_loss_cn.rst @@ -25,17 +25,24 @@ teacher q值存在时,点击时label为z',否则为1 + z'。 - :math:`z'` :teacher q值。 -参数: +参数 +:::::::::::: + - **input** (Variable) – 形状为[N x 1]的2-d Tensor,其中N是批大小batch size。 该输入是由前一个运算计算而得的概率,数据类型为float32或者float64。 - **label** (Variable) – 具有形状[N x 1]的2-d Tensor的真实值,其中N是批大小batch_size,数据类型为float32或者float64。 - **soft_max_up_bound** (float) – 若input > soft_max_up_bound, 输入会被向下限制。默认为15.0 。 - **soft_max_lower_bound** (float) – 若input < soft_max_lower_bound, 输入将会被向上限制。默认为-15.0 。 -返回:具有形状[N x 1]的2-D Tensor,teacher_student_sigmoid_loss。 +返回 +:::::::::::: +具有形状[N x 1]的2-D Tensor,teacher_student_sigmoid_loss。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/tensor_array_to_tensor_cn.rst b/docs/api/paddle/fluid/layers/tensor_array_to_tensor_cn.rst index 777b9a572d2..8e83babe2c1 100644 --- a/docs/api/paddle/fluid/layers/tensor_array_to_tensor_cn.rst +++ b/docs/api/paddle/fluid/layers/tensor_array_to_tensor_cn.rst @@ -58,17 +58,24 @@ tensor_array_to_tensor output_index.data = [2, 2, 2] -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入的LoDTensorArray。支持的数据类型为:float32、float64、int32、int64。 - **axis** (int,可选) - 指定对输入Tensor进行运算的轴, ``axis`` 的有效范围是[-R, R),R是输入 ``input`` 中Tensor的Rank,``axis`` 为负时与 ``axis`` +R 等价。默认值为1。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **use_stack** (bool,可选) – 指明使用stack或concat进行运算,若为stack模式,要求LoDTensorArray中的所有Tensor具有相同的形状。默认值为False。 -返回:Variable的二元组, 包含了两个Tensor。第一个Tensor表示对数组内的元素进行stack或concat的输出结果,数据类型与数组中的Tensor相同;第二个Tensor包含了数组中各Tensor在 `axis` 维度的大小,数据类型为int32。 +返回 +:::::::::::: +Variable的二元组, 包含了两个Tensor。第一个Tensor表示对数组内的元素进行stack或concat的输出结果,数据类型与数组中的Tensor相同;第二个Tensor包含了数组中各Tensor在 `axis` 维度的大小,数据类型为int32。 -返回类型: tuple +返回类型 +:::::::::::: + tuple -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/thresholded_relu_cn.rst b/docs/api/paddle/fluid/layers/thresholded_relu_cn.rst index 79ad0a40814..943f4604de7 100644 --- a/docs/api/paddle/fluid/layers/thresholded_relu_cn.rst +++ b/docs/api/paddle/fluid/layers/thresholded_relu_cn.rst @@ -17,17 +17,24 @@ thresholded_relu 0, &otherwise \end{matrix}\right. -参数: +参数 +:::::::::::: + - **x** (Variable) -ThresholdedRelu Op 的输入,多维 Tensor 或 LoDTensor,数据类型为 float32,float64。 - **threshold** (float,可选)-激活函数的 threshold 值,如 threshold 值为 None,则其值为 1.0。 -返回: +返回 +:::::::::::: + - 多维 Tensor 或 LoDTensor, 数据类型为 float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 -返回类型: +返回类型 +:::::::::::: + - Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/topk_cn.rst b/docs/api/paddle/fluid/layers/topk_cn.rst index 0411b2cba8f..818b8d5c196 100644 --- a/docs/api/paddle/fluid/layers/topk_cn.rst +++ b/docs/api/paddle/fluid/layers/topk_cn.rst @@ -35,20 +35,27 @@ topk [0, 2]] -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入的Tensor,支持的数据类型: float32,float64。 - **k** (int|Variable) - 指定在输入Tensor最后一维中寻找最大前多少项。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - ``values``: 输入Tensor最后维切片的最大前k项。数据类型同输入Tensor一致。Tensor维度等于 :math:`input.shape[:-1]+ [k]` 。 - ``indices``: 输入Tensor最后维切片最大前k项值的索引,数据类型为int64,维度同values的维度。 -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` : 如果k<1或者k大于输入的最后维。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/uniform_random_cn.rst b/docs/api/paddle/fluid/layers/uniform_random_cn.rst index 14e92192646..c6458da0d01 100644 --- a/docs/api/paddle/fluid/layers/uniform_random_cn.rst +++ b/docs/api/paddle/fluid/layers/uniform_random_cn.rst @@ -18,7 +18,9 @@ uniform_random 则输出为: result=[[0.8505902, 0.8397286]] -参数: +参数 +:::::::::::: + - **shape** (list|tuple|Tensor) - 生成的随机Tensor的形状。如果 ``shape`` 是list、tuple,则其中的元素可以是int,或者是形状为[1]且数据类型为int32、int64的Tensor。如果 ``shape`` 是Tensor,则是数据类型为int32、int64的1-D Tensor。 - **dtype** (str|np.dtype|core.VarDesc.VarType, 可选) - 输出Tensor的数据类型,支持float32、float64。默认值为float32。 - **min** (float|int,可选) - 要生成的随机值范围的下限,min包含在范围中。支持的数据类型:float、int。默认值为-1.0。 @@ -26,14 +28,19 @@ uniform_random - **seed** (int,可选) - 随机种子,用于生成样本。0表示使用系统生成的种子。注意如果种子不为0,该操作符每次都生成同样的随机数。支持的数据类型:int。默认为 0。 - **name** (str, 可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: +返回 +:::::::::::: + Tensor:数值服从范围[``min``, ``max``)内均匀分布的随机Tensor,形状为 ``shape``,数据类型为 ``dtype``。 -抛出异常: +抛出异常 +:::::::::::: + - ``TypeError`` - 如果 ``shape`` 的类型不是list、tuple、Tensor。 - ``TypeError`` - 如果 ``dtype`` 不是float32、float64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/unique_cn.rst b/docs/api/paddle/fluid/layers/unique_cn.rst index 362d511d8b2..30584b06221 100644 --- a/docs/api/paddle/fluid/layers/unique_cn.rst +++ b/docs/api/paddle/fluid/layers/unique_cn.rst @@ -7,15 +7,22 @@ unique unique为 ``x`` 返回一个unique张量和一个指向该unique张量的索引。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 一个1维输入张量 - **dtype** (np.dtype|str, 可选) – 索引张量的类型,应该为int32或者int64。默认:int32. -返回:元组(out, index)。 ``out`` 为 ``x`` 的指定dtype的unique张量, ``index`` 是一个指向 ``out`` 的索引张量, 用户可以通过该函数来转换原始的 ``x`` 张量的索引。 +返回 +:::::::::::: +元组(out, index)。 ``out`` 为 ``x`` 的指定dtype的unique张量, ``index`` 是一个指向 ``out`` 的索引张量, 用户可以通过该函数来转换原始的 ``x`` 张量的索引。 -返回类型:元组(tuple) +返回类型 +:::::::::::: +元组(tuple) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/unique_with_counts_cn.rst b/docs/api/paddle/fluid/layers/unique_with_counts_cn.rst index 755fc858a41..49b2c2cd735 100644 --- a/docs/api/paddle/fluid/layers/unique_with_counts_cn.rst +++ b/docs/api/paddle/fluid/layers/unique_with_counts_cn.rst @@ -11,18 +11,25 @@ unique_with_counts 注:该OP仅支持 **CPU** ,同时仅支持 **Tensor** -参数: +参数 +:::::::::::: + - **x** (Variable) – 数据shape为 :math:`[N]` 的一维Tensor,数据类型为 float32,float64,int32,int64。 - **dtype** (np.dtype|core.VarDesc.VarType|str) – 索引和计数Tensor的类型,默认为 int32,数据类型需要为 int32或int64。 -返回: +返回 +:::::::::::: + - **out** 表示对输入进行去重后结果一维Tensor,数据shape为 :math:`[K]` ,K和输入x的shape中的N可能不一致。 - **index** 表示原始输入在去重后结果中的索引Tensor :math:`[N]` ,shape和输入x的shape一致。 - **count** 表示去重后元素的计数结果Tensor,数据shape为 :math:`[K]` ,数据shape和out的shape一致。 -返回类型:tuple,tuple中元素类型为Variable(Tensor),输出中的out和输入x的数据类型一致,输出中index以及count的数据类型为 int32,int64。 +返回类型 +:::::::::::: +tuple,tuple中元素类型为Variable(Tensor),输出中的out和输入x的数据类型一致,输出中index以及count的数据类型为 int32,int64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/unsqueeze_cn.rst b/docs/api/paddle/fluid/layers/unsqueeze_cn.rst index 3290bebea17..718f4b0f19e 100644 --- a/docs/api/paddle/fluid/layers/unsqueeze_cn.rst +++ b/docs/api/paddle/fluid/layers/unsqueeze_cn.rst @@ -24,16 +24,23 @@ unsqueeze Out.data = [[[[1, 2, 3]], [[4, 5, 6]]]] -参数: +参数 +:::::::::::: + - **input** (Variable)- 多维 ``Tensor``,数据类型为 ``float32``, ``float64``, ``int8``, ``int32``,或 ``int64``。 - **axes** (int|list|tuple|Variable) - 表示要插入维度的位置。数据类型是 ``int32`` 。如果 ``axes`` 的类型是 list 或 tuple,它的元素可以是整数或者形状为[1]的 ``Tensor`` 。如果 ``axes`` 的类型是 ``Variable``,则是1-D ``Tensor``。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值: ``None``。 -返回:扩展维度后的多维Tensor +返回 +:::::::::::: +扩展维度后的多维Tensor -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/warpctc_cn.rst b/docs/api/paddle/fluid/layers/warpctc_cn.rst index d4df2ff0c84..7efe86139a1 100644 --- a/docs/api/paddle/fluid/layers/warpctc_cn.rst +++ b/docs/api/paddle/fluid/layers/warpctc_cn.rst @@ -10,7 +10,9 @@ warpctc 该OP用于计算 `CTC loss `_ 。该OP的底层调用了第三方 `baidu-research::warp-ctc `_ 的实现。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 可以是3-D Tensor或2-D LoDTensor。当输入类型是3-D Tensor时,则表示输入是经过padding的定长序列,其 shape 必须是 ``[seq_length, batch_size, num_classes + 1]`` 。当输入类型是2-D LoDTensor时,则表示输入为变长序列,其shape必须为 ``[Lp,num_classes+1]`` , ``Lp`` 是所有输入序列长度之和。以上 shape 中的 ``num_classes`` 是实际类别数,不包括空白标签。该输入不需要经过 softmax 操作,因为该OP的内部对 ``input`` 做了 softmax 操作。数据类型仅支持float32。 - **label** (Variable) - 可以是3-D Tensor或2-D LoDTensor,需要跟 ``input`` 保持一致。当输入类型为3-D Tensor时,表示输入是经过 padding 的定长序列,其 shape 为 ``[batch_size, label_length]`` ,其中, ``label_length`` 是最长的 label 序列的长度。当输入类型是2-D LoDTensor时,则表示输入为变长序列,其shape必须为 ``[Lp, 1]`` , 其中 ``Lp`` 是所有 label 序列的长度和。 ``label`` 中的数值为字符ID。数据类型支持int32。 - **blank** (int,可选) - 空格标记的ID,其取值范围为 ``[0,num_classes+1)`` 。数据类型支持int32。缺省值为0。 @@ -18,11 +20,16 @@ warpctc - **input_length** (Variable) - 必须是1-D Tensor。仅在输入为定长序列时使用,表示输入数据中每个序列的长度,shape为 ``[batch_size]`` 。数据类型支持int64。默认为None。 - **label_length** (Variable) - 必须是1-D Tensor。仅在label为定长序列时使用,表示 label 中每个序列的长度,shape为 ``[batch_size]`` 。数据类型支持int64。默认为None。 -返回:Shape为[batch_size,1]的2-D Tensor,表示每一个序列的CTC loss。数据类型与 ``input`` 一致。 +返回 +:::::::::::: +Shape为[batch_size,1]的2-D Tensor,表示每一个序列的CTC loss。数据类型与 ``input`` 一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/where_cn.rst b/docs/api/paddle/fluid/layers/where_cn.rst index d483b8fa905..a68b78992f0 100644 --- a/docs/api/paddle/fluid/layers/where_cn.rst +++ b/docs/api/paddle/fluid/layers/where_cn.rst @@ -10,14 +10,21 @@ where 该OP计算输入元素中为True的元素在输入中的坐标(index)。 -参数: +参数 +:::::::::::: + - **condition** (Variable)– 输入秩至少为1的多维Tensor,数据类型是bool类型。 -返回:输出condition元素为True的坐标(index),将所有的坐标(index)组成一个2-D的Tensor。 +返回 +:::::::::::: +输出condition元素为True的坐标(index),将所有的坐标(index)组成一个2-D的Tensor。 -返回类型:Variable,数据类型是int64。 +返回类型 +:::::::::::: +Variable,数据类型是int64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/yolo_box_cn.rst b/docs/api/paddle/fluid/layers/yolo_box_cn.rst index 37c10f10eb2..4dab75eccd0 100644 --- a/docs/api/paddle/fluid/layers/yolo_box_cn.rst +++ b/docs/api/paddle/fluid/layers/yolo_box_cn.rst @@ -33,7 +33,9 @@ yolo_box score_{pred} = score_{conf} * score_{class} -参数: +参数 +:::::::::::: + - **x** (Variable) - YoloBox的输入张量是一个4-D张量,形状为[N,C,H,W]。第二维(C)存储每个anchor box位置坐标,每个anchor box的置信度分数和one hot key。通常,X应该是YOLOv3网络的输出。数据类型为float32或float64 - **img_size** (Variable) - YoloBox的图像大小张量,这是一个形状为[N,2]的二维张量。该张量保持每个输入图像的高度和宽度,用于对输出图像按输入图像比例调整输出框的大小。数据类型为int32。 - **anchors** (list | tuple) - anchor的宽度和高度,它将逐对解析 @@ -43,19 +45,26 @@ yolo_box - **clip_bbox** (bool) - 是否将输出的bbox裁剪到 :attr:`img_size` 范围内,默认为True。 - **name** (str|None) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 1. 框的坐标,形为[N,M,4]的三维张量 2. 框的分类得分, 形为 [N,M,class_num]的三维张量 -返回类型: 变量(Variable) +返回类型 +:::::::::::: + 变量(Variable) + +抛出异常 +:::::::::::: -抛出异常: - TypeError - yolov_box的输入x必须是Variable - TypeError - yolo框的anchors参数必须是list或tuple - TypeError - yolo box的class_num参数必须是整数 - TypeError - yolo框的conf_thresh参数必须是一个浮点数 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/yolov3_loss_cn.rst b/docs/api/paddle/fluid/layers/yolov3_loss_cn.rst index e4cc4e1bd1b..7864051b4fd 100644 --- a/docs/api/paddle/fluid/layers/yolov3_loss_cn.rst +++ b/docs/api/paddle/fluid/layers/yolov3_loss_cn.rst @@ -55,7 +55,9 @@ yolov3 loss前的网络输出形状为[N,C,H,W],H和W应该相同,用 -参数: +参数 +:::::::::::: + - **x** (Variable) – YOLOv3损失运算的输入张量,这是一个形状为[N,C,H,W]的四维Tensor。H和W应该相同,第二维(C)存储框的位置信息,以及每个anchor box的置信度得分和one-hot分类。数据类型为float32或float64。 - **gt_box** (Variable) – 真实框,应该是[N,B,4]的形状。第三维用来承载x、y、w、h,其中 x, y是真实框的中心坐标,w, h是框的宽度和高度,且x、y、w、h将除以输入图片的尺寸,缩放到[0,1]区间内。 N是batch size,B是图像中所含有的的最多的box数目。数据类型为float32或float64。 - **gt_label** (Variable) – 真实框的类id,应该形为[N,B]。数据类型为int32。 @@ -69,11 +71,17 @@ yolov3 loss前的网络输出形状为[N,C,H,W],H和W应该相同,用 - **name** (str|None) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 -返回: yolov3损失的值,具有形状[N]的1-D张量。 +返回 +:::::::::::: + yolov3损失的值,具有形状[N]的1-D张量。 + +返回类型 +:::::::::::: + 变量(Variable),数据类型与input一致。 -返回类型: 变量(Variable),数据类型与input一致。 +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` – yolov3_loss的输入x必须是Variable - ``TypeError`` – 输入yolov3_loss的gtbox必须是Variable - ``TypeError`` – 输入yolov3_loss的gtlabel必须是None或Variable @@ -83,7 +91,8 @@ yolov3 loss前的网络输出形状为[N,C,H,W],H和W应该相同,用 - ``TypeError`` – 输入yolov3_loss的ignore_thresh必须是一个浮点数float类型 - ``TypeError`` – 输入yolov3_loss的use_label_smooth必须是bool型 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/zeros_cn.rst b/docs/api/paddle/fluid/layers/zeros_cn.rst index d7a77f6688a..10e0b24cd19 100644 --- a/docs/api/paddle/fluid/layers/zeros_cn.rst +++ b/docs/api/paddle/fluid/layers/zeros_cn.rst @@ -7,14 +7,19 @@ zeros 该OP创建形状为 ``shape`` 、数据类型为 ``dtype`` 且值全为0的Tensor。 -参数: +参数 +:::::::::::: + - **shape** (tuple|list|Tensor) - 输出Tensor的形状, ``shape`` 的数据类型为int32或者int64。 - **dtype** (np.dtype|str) - 输出Tensor的数据类型,数据类型必须为bool、 float16、float32、float64、int32或int64。 - **force_cpu** (bool, 可选) - 是否强制将输出Tensor写入CPU内存。如果 ``force_cpu`` 为False,则将输出Tensor写入当前所在运算设备的内存,默认为False。 -返回:值全为0的Tensor,数据类型和 ``dtype`` 定义的类型一致。 +返回 +:::::::::::: +值全为0的Tensor,数据类型和 ``dtype`` 定义的类型一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/layers/zeros_like_cn.rst b/docs/api/paddle/fluid/layers/zeros_like_cn.rst index d75dc7cd102..9aa0ce7c496 100644 --- a/docs/api/paddle/fluid/layers/zeros_like_cn.rst +++ b/docs/api/paddle/fluid/layers/zeros_like_cn.rst @@ -11,15 +11,22 @@ zeros_like 该OP创建一个和x具有相同的形状和数据类型的全零Tensor。 -参数: +参数 +:::::::::::: + - **x** (Variable) – 指定输入为一个多维的Tensor,数据类型可以是bool,float32,float64,int32,int64。 - **out** (Variable|可选) – 如果为None,则创建一个Variable作为输出,创建后的Variable的数据类型,shape大小和输入变量x一致。如果是输入的一个Tensor,数据类型和数据shape大小需要和输入变量x一致。默认值为None。 -返回:返回一个多维的Tensor,具体的元素值和输入的数据类型相关,如果是bool类型的,则全False,其它均为0。数据shape大小和输入x一致。 +返回 +:::::::::::: +返回一个多维的Tensor,具体的元素值和输入的数据类型相关,如果是bool类型的,则全False,其它均为0。数据shape大小和输入x一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/metrics/Accuracy_cn.rst b/docs/api/paddle/fluid/metrics/Accuracy_cn.rst index 0cb6ea08703..a4d0bdda41a 100644 --- a/docs/api/paddle/fluid/metrics/Accuracy_cn.rst +++ b/docs/api/paddle/fluid/metrics/Accuracy_cn.rst @@ -9,14 +9,21 @@ Accuracy 该接口用来计算多个mini-batch的平均准确率。Accuracy对象有两个状态value和weight。Accuracy的定义参照 https://en.wikipedia.org/wiki/Accuracy_and_precision 。 -参数: +参数 +:::::::::::: + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:初始化后的 ``Accuracy`` 对象 +返回 +:::::::::::: +初始化后的 ``Accuracy`` 对象 -返回类型:Accuracy +返回类型 +:::::::::::: +Accuracy -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -40,24 +47,32 @@ Accuracy accuracy_manager.update(value = batch3_acc, weight = batch_size) print("expect accuracy: %.2f, get accuracy: %.2f" % (batch3_acc, accuracy_manager.eval())) -.. py:method:: update(value, weight) +方法 +:::::::::::: +update(value, weight) +''''''''' 该函数使用输入的(value, weight)来累计更新Accuracy对象的对应状态,更新方式如下: .. math:: \\ \begin{array}{l}{\text { self. value }+=\text { value } * \text { weight }} \\ {\text { self. weight }+=\text { weight }}\end{array} \\ -参数: +**参数** + - **value** (float|numpy.array) – mini-batch的正确率 - **weight** (int|float) – mini-batch的大小 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 该函数计算并返回累计的mini-batches的平均准确率。 -返回:累计的mini-batches的平均准确率 +**返回** +累计的mini-batches的平均准确率 -返回类型:float或numpy.array +**返回类型** +float或numpy.array diff --git a/docs/api/paddle/fluid/metrics/Auc_cn.rst b/docs/api/paddle/fluid/metrics/Auc_cn.rst index 8e6b7bfea5e..aababa51ed1 100644 --- a/docs/api/paddle/fluid/metrics/Auc_cn.rst +++ b/docs/api/paddle/fluid/metrics/Auc_cn.rst @@ -13,15 +13,22 @@ Auc 该接口创建四个局部变量true_positives, true_negatives, false_positives和false_negatives,用于计算Auc。为了离散化AUC曲线,使用临界值的线性间隔来计算召回率和准确率的值。用false positive的召回值高度计算ROC曲线面积,用recall的准确值高度计算PR曲线面积。 -参数: +参数 +:::::::::::: + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **curve** (str) - 将要计算的曲线名的详情,曲线包括ROC(默认)或者PR(Precision-Recall-curve)。 -返回:初始化后的 ``Auc`` 对象 +返回 +:::::::::::: +初始化后的 ``Auc`` 对象 -返回类型:Auc +返回类型 +:::::::::::: +Auc -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -47,21 +54,29 @@ Auc # 应为一个接近0.5的值,因为preds是随机指定的 print("auc for iteration %d is %.2f" % (batch_id, auc_metric.eval())) -.. py:method:: update(preds, labels) +方法 +:::::::::::: +update(preds, labels) +''''''''' 用给定的预测值和标签更新Auc曲线。 -参数: +**参数** + - **preds** (numpy.array) - 维度为[batch_size, 2],preds[i][j]表示将实例i划分为类别j的概率。 - **labels** (numpy.array) - 维度为[batch_size, 1],labels[i]为0或1,代表实例i的标签。 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 该函数计算并返回Auc值。 -返回:Auc值 +**返回** +Auc值 -返回类型:float +**返回类型** +float diff --git a/docs/api/paddle/fluid/metrics/ChunkEvaluator_cn.rst b/docs/api/paddle/fluid/metrics/ChunkEvaluator_cn.rst index c289db61aed..30ced3f1fc9 100644 --- a/docs/api/paddle/fluid/metrics/ChunkEvaluator_cn.rst +++ b/docs/api/paddle/fluid/metrics/ChunkEvaluator_cn.rst @@ -9,14 +9,21 @@ ChunkEvaluator 该接口使用mini-batch的chunk_eval累计的counter numbers,来计算准确率、召回率和F1值。ChunkEvaluator有三个状态num_infer_chunks,num_label_chunks和num_correct_chunks,分别对应语块数目、标签中的语块数目、正确识别的语块数目。对于chunking的基础知识,请参考 https://www.aclweb.org/anthology/N01-1025 。ChunkEvalEvaluator计算块检测(chunk detection)的准确率,召回率和F1值,支持IOB, IOE, IOBES和IO标注方案。 -参数: +参数 +:::::::::::: + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:初始化后的 ``ChunkEvaluator`` 对象 +返回 +:::::::::::: +初始化后的 ``ChunkEvaluator`` 对象 -返回类型:ChunkEvaluator +返回类型 +:::::::::::: +ChunkEvaluator -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -45,25 +52,33 @@ ChunkEvaluator print("precision: %.2f, recall: %.2f, f1: %.2f" % (numpy_precision, numpy_recall, numpy_f1)) -.. py:method:: update(num_infer_chunks, num_label_chunks, num_correct_chunks) +方法 +:::::::::::: +update(num_infer_chunks, num_label_chunks, num_correct_chunks) +''''''''' 该函数使用输入的(num_infer_chunks, num_label_chunks, num_correct_chunks)来累计更新ChunkEvaluator对象的对应状态,更新方式如下: .. math:: \\ \begin{array}{l}{\text { self. num_infer_chunks }+=\text { num_infer_chunks }} \\ {\text { self. num_Label_chunks }+=\text { num_label_chunks }} \\ {\text { self. num_correct_chunks }+=\text { num_correct_chunks }}\end{array} \\ -参数: +**参数** + - **num_infer_chunks** (int|numpy.array) – 给定mini-batch的语块数目。 - **num_label_chunks** (int|numpy.array) - 给定mini-batch的标签中的语块数目。 - **num_correct_chunks** (int|numpy.array)— 给定mini-batch的正确识别的语块数目。 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 该函数计算并返回准确率,召回率和F1值。 -返回:准确率,召回率和F1值 +**返回** +准确率,召回率和F1值 -返回类型:float +**返回类型** +float diff --git a/docs/api/paddle/fluid/metrics/CompositeMetric_cn.rst b/docs/api/paddle/fluid/metrics/CompositeMetric_cn.rst index 2b9382f7870..e638cf472e2 100644 --- a/docs/api/paddle/fluid/metrics/CompositeMetric_cn.rst +++ b/docs/api/paddle/fluid/metrics/CompositeMetric_cn.rst @@ -14,7 +14,8 @@ CompositeMetric 继承自:MetricBase -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -39,35 +40,47 @@ CompositeMetric print("expect recall: %.2f, got %.2f" % (3. / 4, numpy_recall ) ) -.. py:method:: add_metric(metric) +方法 +:::::::::::: +add_metric(metric) +''''''''' 向容器内添加一个新的评价指标。注意新添加的评价指标的输入参数列表必须与容器里已有的其他指标保持一致。 -参数: +**参数** + - **metric** (MetricBase) – 评价指标对象,一个MetricBase的实例。 -返回:无 +**返回** +无 -.. py:method:: update(preds, labels) +update(preds, labels) +''''''''' 更新容器中的每个评价指标。 -参数: +**参数** + - **preds** (numpy.array) - 当前mini-batch的预测结果,输入的shape和dtype应与该容器内添加的评价指标的要求保持一致。 - **labels** (numpy.array) - 当前mini-batch的真实标签,输入的shape和dtype应与该容器内添加的评价指标的要求保持一致 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 按照添加顺序计算出各个评价指标。 -参数: 无 +**参数** + 无 -返回: 列表存储的各个评价指标的计算结果。每个计算结果的数据类型和shape取决于被添加的评价指标的定义 +**返回** + 列表存储的各个评价指标的计算结果。每个计算结果的数据类型和shape取决于被添加的评价指标的定义 -返回类型: list +**返回类型** + list diff --git a/docs/api/paddle/fluid/metrics/DetectionMAP_cn.rst b/docs/api/paddle/fluid/metrics/DetectionMAP_cn.rst index 44d3700e553..74ab864599d 100644 --- a/docs/api/paddle/fluid/metrics/DetectionMAP_cn.rst +++ b/docs/api/paddle/fluid/metrics/DetectionMAP_cn.rst @@ -19,7 +19,9 @@ DetectionMAP - https://sanchom.wordpress.com/tag/average-precision/ - https://arxiv.org/abs/1512.0232 -参数: +参数 +:::::::::::: + - **input** (Variable) – detection的输出结果,一个 shape=[M, 6] 的 LoDtensor。布局为[label, confidence, xmin, ymin, xmax, ymax],label为类别标签,confidence为置信度,xmin,ymin为检测框左上点坐标,xmax,ymax为检测框右下点坐标,数据类型为float32或float64。 - **gt_label** (Variable) – ground truth label 的索引,它是一个形状为[N, 1]的LoDtensor,数据类型为float32或float64。 - **gt_box** (Variable) – ground truth bounds box (bbox),是一个具有形状的LoD张量[N, 4]。布局是[xmin, ymin, xmax, ymax],数据类型为float32或float64。 @@ -30,12 +32,17 @@ DetectionMAP - **evaluate_difficult** (bool) – 是否考虑 difficult ground truth 进行评价,默认为 True。当 gt_difficult 为 None 时,这个参数不起作用。 - **ap_version** (str) – 平均精度的计算方法,必须是 "integral" 或 "11point"。详情请查看 https://sanchom.wordpress.com/tag/average-precision/。 其中,11point为:11-point 插值平均精度。积分: precision-recall曲线的自然积分。 -返回:变量(Variable) 计算mAP的结果,其中数据类型为float32或float64。 +返回 +:::::::::::: +变量(Variable) 计算mAP的结果,其中数据类型为float32或float64。 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -70,15 +77,21 @@ DetectionMAP -.. py:method:: get_map_var() +方法 +:::::::::::: +get_map_var() +''''''''' -返回:当前 mini-batch 的 mAP 变量和不同 mini-batch 的 mAP 累加和 +**返回** +当前 mini-batch 的 mAP 变量和不同 mini-batch 的 mAP 累加和 -.. py:method:: reset(executor, reset_program=None) +reset(executor, reset_program=None) +''''''''' 在指定的 batch 结束或者用户指定的开始时重置度量状态。 -参数: +**参数** + - **executor** (Executor) – 执行reset_program的执行程序 - **reset_program** (Program|None, 可选) – 单个program 的 reset 过程。如果设置为 None,将创建一个 program diff --git a/docs/api/paddle/fluid/metrics/EditDistance_cn.rst b/docs/api/paddle/fluid/metrics/EditDistance_cn.rst index 9ffd2a0165d..98761d70566 100644 --- a/docs/api/paddle/fluid/metrics/EditDistance_cn.rst +++ b/docs/api/paddle/fluid/metrics/EditDistance_cn.rst @@ -10,7 +10,8 @@ EditDistance 用于管理字符串的编辑距离。编辑距离是通过计算将一个字符串转换为另一个字符串所需的最小编辑操作数(添加、删除或替换)来量化两个字符串(例如单词)彼此不相似的程度一种方法。 参考 https://en.wikipedia.org/wiki/Edit_distance。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -37,26 +38,35 @@ EditDistance print("the average edit distance for batch0 and batch1 is %.2f and the wrong instance ratio is %.2f " % (avg_distance, wrong_instance_ratio)) -.. py:method:: reset() +方法 +:::::::::::: +reset() +''''''''' 清空存储结果。 -参数:无 +**参数** +无 -返回:无 +**返回** +无 -.. py:method:: update(distances, seq_num) +update(distances, seq_num) +''''''''' 更新存储结果 -参数: +**参数** + - **distances** – 一个形状为(batch_size, 1)的numpy.array,每个元素代表两个序列间的距离。 - **seq_num** – 一个整型/浮点型值,代表序列对的数量。 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 返回两个浮点数: avg_distance:使用更新函数更新的所有序列对的平均距离。 diff --git a/docs/api/paddle/fluid/metrics/MetricBase_cn.rst b/docs/api/paddle/fluid/metrics/MetricBase_cn.rst index 91cfa45e4f8..76964238ed9 100644 --- a/docs/api/paddle/fluid/metrics/MetricBase_cn.rst +++ b/docs/api/paddle/fluid/metrics/MetricBase_cn.rst @@ -22,46 +22,63 @@ MetricBase是所有paddle.fluid.metrics下定义的所有python类的基类, 3. reset():清空累积的每个batch的评估结果。 -.. py:method:: __init__(name) +方法 +:::::::::::: +__init__(name) +''''''''' 构造函数,参数name表示当前创建的评估器的名字。 -参数: +**参数** + - **name** (str) - 当前创建的评估器的名字,用于区分不同的评估器,例如准确率(accuracy)或者其他自定义名字(如,my_evaluator)。 -返回:一个python对象,表示一个具体的评估器。 +**返回** +一个python对象,表示一个具体的评估器。 -返回类型:python对象 +**返回类型** +python对象 -.. py:method:: reset() +reset() +''''''''' 空累积的每个batch的评估结果。 -返回:无 +**返回** +无 -.. py:method:: update(preds,labels) +update(preds,labels) +''''''''' 给定当前计算当前batch的预测结果(preds)和标签(labels),计算这个batch的评估结果,并将这个评估结果在评估器内部记录下来,注意update函数并不会返回评估结果。 -参数: +**参数** + - **preds** (numpy.array) - 当前minibatch的预测结果。 - **labels** (numpy.array) - 当前minibatch的标签。 -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 合并当前累积的每个batch的评估结果,并返回整体评估结果。 -返回:当前累积batch的整体评估结果。 +**返回** +当前累积batch的整体评估结果。 -返回类型:float|list(float)|numpy.array +**返回类型** +float|list(float)|numpy.array -.. py:method:: get_config() +get_config() +''''''''' 获取当前评估器的状态,特指评估器内部没有 ``_`` 前缀的所有成员变量。 -返回:一个python字典,包含了当前评估器内部的状态。 +**返回** +一个python字典,包含了当前评估器内部的状态。 -返回类型:python字典(dict) +**返回类型** +python字典(dict) diff --git a/docs/api/paddle/fluid/metrics/Precision_cn.rst b/docs/api/paddle/fluid/metrics/Precision_cn.rst index 29a1cb89a9e..8e4b686764a 100644 --- a/docs/api/paddle/fluid/metrics/Precision_cn.rst +++ b/docs/api/paddle/fluid/metrics/Precision_cn.rst @@ -11,7 +11,8 @@ Precision 精确率Precision(也称为 positive predictive value,正预测值)是被预测为正样例中实际为正的比例。 https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers 该类管理二分类任务的precision分数。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -38,25 +39,34 @@ Precision -.. py:method:: update(preds, labels) +方法 +:::::::::::: +update(preds, labels) +''''''''' 使用当前mini-batch的预测结果更新精确率的计算。 -参数: +**参数** + - **preds** (numpy.array) - 当前mini-batch的预测结果,二分类sigmoid函数的输出,shape为[batch_size, 1],数据类型为'float64'或'float32'。 - **labels** (numpy.array) - 当前mini-batch的真实标签,输入的shape应与preds保持一致,shape为[batch_size, 1],数据类型为'int32'或'int64' -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 计算出最终的精确率。 -参数:无 +**参数** +无 -返回: 精确率的计算结果。标量输出,float类型 -返回类型:float +**返回** + 精确率的计算结果。标量输出,float类型 +**返回类型** +float diff --git a/docs/api/paddle/fluid/metrics/Recall_cn.rst b/docs/api/paddle/fluid/metrics/Recall_cn.rst index 3d4975fc55e..014fb7716fc 100644 --- a/docs/api/paddle/fluid/metrics/Recall_cn.rst +++ b/docs/api/paddle/fluid/metrics/Recall_cn.rst @@ -10,7 +10,8 @@ Recall 召回率Recall(也称为敏感度)是指得到的相关实例数占相关实例总数的比例。https://en.wikipedia.org/wiki/Precision_and_recall 该类管理二分类任务的召回率。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -34,26 +35,35 @@ Recall -.. py:method:: update(preds, labels) +方法 +:::::::::::: +update(preds, labels) +''''''''' 使用当前mini-batch的预测结果更新召回率的计算。 -参数: +**参数** + - **preds** (numpy.array) - 当前mini-batch的预测结果,二分类sigmoid函数的输出,shape为[batch_size, 1],数据类型为'float64'或'float32'。 - **labels** (numpy.array) - 当前mini-batch的真实标签,输入的shape应与preds保持一致,shape为[batch_size, 1],数据类型为'int32'或'int64' -返回:无 +**返回** +无 -.. py:method:: eval() +eval() +''''''''' 计算出最终的召回率。 -参数:无 +**参数** +无 -返回:召回率的计算结果。标量输出,float类型 -返回类型:float +**返回** +召回率的计算结果。标量输出,float类型 +**返回类型** +float diff --git a/docs/api/paddle/fluid/nets/glu_cn.rst b/docs/api/paddle/fluid/nets/glu_cn.rst index cdb49667152..fb5a3a9bce4 100644 --- a/docs/api/paddle/fluid/nets/glu_cn.rst +++ b/docs/api/paddle/fluid/nets/glu_cn.rst @@ -16,15 +16,22 @@ glu 参考论文: `Language Modeling with Gated Convolutional Networks `_ -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入变量,多维 Tensor 或 LoDTensor, 支持的数据类型为float32、float64 和 float16(GPU)。 - **dim** (int) - 拆分的维度。如果 :math:`dim<0` ,拆分的维为 :math:`rank(input) + dim` 。默认为 -1,即最后一维。 -返回: 计算结果,尺寸为输入大小的一半,数据类型与输入的数据类型相同 +返回 +:::::::::::: + 计算结果,尺寸为输入大小的一半,数据类型与输入的数据类型相同 -返回类型:变量(Variable) +返回类型 +:::::::::::: +变量(Variable) -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/nets/img_conv_group_cn.rst b/docs/api/paddle/fluid/nets/img_conv_group_cn.rst index 27cb510c8c2..fcc213d37f2 100644 --- a/docs/api/paddle/fluid/nets/img_conv_group_cn.rst +++ b/docs/api/paddle/fluid/nets/img_conv_group_cn.rst @@ -11,7 +11,9 @@ img_conv_group Image Convolution Group由Convolution2d,BatchNorm,DropOut和Pool2d组成。根据输入参数,img_conv_group将使用Convolution2d,BatchNorm,DropOut对Input进行连续计算,得到最后结果。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入,格式为[N,C,H,W]的4-D Tensor。数据类型:float32和float64。 - **conv_num_filter** (list | tuple) - 卷积中使用的滤波器数。 - **pool_size** (int | list | tuple) - 池化层中池化核的大小。如果pool_size是列表或元组,则它必须包含两个整数(pool_size_height,pool_size_width)。否则,pool_size_height = pool_size_width = pool_size。 @@ -25,11 +27,16 @@ Image Convolution Group由Convolution2d,BatchNorm,DropOut和Pool2d组成。 - **pool_type** (str) - 池化类型可以是最大池化的 ``max`` 和平均池化的 ``avg`` 。默认:max。 - **use_cudnn** (bool) - 是否使用cudnn内核,仅在安装cudnn库时才有效。默认值:True -返回: Tensor。使用Convolution2d,BatchNorm,DropOut和Pool2d进行串行计算后的最终结果。 +返回 +:::::::::::: + Tensor。使用Convolution2d,BatchNorm,DropOut和Pool2d进行串行计算后的最终结果。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/nets/scaled_dot_product_attention_cn.rst b/docs/api/paddle/fluid/nets/scaled_dot_product_attention_cn.rst index 6290de8c59e..c330e90ad50 100644 --- a/docs/api/paddle/fluid/nets/scaled_dot_product_attention_cn.rst +++ b/docs/api/paddle/fluid/nets/scaled_dot_product_attention_cn.rst @@ -22,18 +22,26 @@ scaled_dot_product_attention 要注意该接口实现支持的是batch形式, :math:`Attention(Q, K, V)` 中使用的矩阵乘是batch形式的矩阵乘法,参考 fluid.layers. :ref:`cn_api_fluid_layers_matmul` 。 -参数: +参数 +:::::::::::: + - **queries** (Variable) - 形状为 :math:`[N, L_q, d_k \times h]` 的三维Tensor,其中 :math:`N` 为batch_size, :math:`L_q` 为查询序列长度, :math:`d_k \times h` 为查询的特征维度大小,:math:`h` 为head数。数据类型为float32或float64。 - **keys** (Variable) - 形状为 :math:`[N, L_k, d_k \times h]` 的三维Tensor,其中 :math:`N` 为batch_size, :math:`L_k` 为键值序列长度, :math:`d_k \times h` 为键的特征维度大小,:math:`h` 为head数。数据类型与 ``queries`` 相同。 - **values** (Variable) - 形状为 :math:`[N, L_k, d_v \times h]` 的三维Tensor,其中 :math:`N` 为batch_size, :math:`L_k` 为键值序列长度, :math:`d_v \times h` 为值的特征维度大小,:math:`h` 为head数。数据类型与 ``queries`` 相同。 - **num_heads** (int) - 指明所使用的head数。head数为1时不对输入进行线性变换。默认值为1。 - **dropout_rate** (float) - 以指定的概率对要attention到的内容进行dropout。默认值为0,即不使用dropout。 -返回: 形状为 :math:`[N, L_q, d_v * h]` 的三维Tensor,其中 :math:`N` 为batch_size, :math:`L_q` 为查询序列长度, :math:`d_v * h` 为值的特征维度大小。与输入具有相同的数据类型。表示Multi-Head Attention的输出。 +返回 +:::::::::::: + 形状为 :math:`[N, L_q, d_v * h]` 的三维Tensor,其中 :math:`N` 为batch_size, :math:`L_q` 为查询序列长度, :math:`d_v * h` 为值的特征维度大小。与输入具有相同的数据类型。表示Multi-Head Attention的输出。 -返回类型: Variable +返回类型 +:::::::::::: + Variable -抛出异常: +抛出异常 +:::::::::::: + - :code:`ValueError`: ``queries`` 、 ``keys`` 和 ``values`` 必须都是三维。 - :code:`ValueError`: ``queries`` 和 ``keys`` 的最后一维(特征维度)大小必须相同。 - :code:`ValueError`: ``keys`` 和 ``values`` 的第二维(长度维度)大小必须相同。 @@ -41,7 +49,8 @@ scaled_dot_product_attention - :code:`ValueError`: ``values`` 的最后一维(特征维度)大小必须是 ``num_heads`` 的整数倍。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/nets/sequence_conv_pool_cn.rst b/docs/api/paddle/fluid/nets/sequence_conv_pool_cn.rst index 588fe5375f4..a83a205bc9a 100644 --- a/docs/api/paddle/fluid/nets/sequence_conv_pool_cn.rst +++ b/docs/api/paddle/fluid/nets/sequence_conv_pool_cn.rst @@ -13,7 +13,9 @@ sequence_conv_pool 该接口由序列卷积( :ref:`cn_api_fluid_layers_sequence_conv` )和池化( :ref:`cn_api_fluid_layers_sequence_pool` )组成 -参数: +参数 +:::::::::::: + - **input** (Variable) - sequence_conv的输入,LoDTensor, lod_level为1,支持时间长度可变的输入序列。当前输入为shape为(T,N)的矩阵,T是mini-batch中的总时间步数,N是input_hidden_size。数据类型为float32或者float64 - **num_filters** (int)- 卷积核的数目,整数 - **filter_size** (int)- 卷积核的大小,整数 @@ -23,12 +25,17 @@ sequence_conv_pool - **bias_attr** (ParamAttr|bool,可选) – sequence_conv偏置的参数属性,类型可以是bool,ParamAttr或者None。如果设置为False,则不会向输出单元添加偏置。如果将参数设置为ParamAttr的None或one属性,sequence_conv将创建ParamAttr作为bias_attr。如果未设置bias_attr的初始化器,则初始化偏差为零。默认值为None - **name** (str|None,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None -返回:经过sequence_conv和sequence_pool两个操作之后的结果所表示的Tensor,数据类型与 ``input`` 相同 +返回 +:::::::::::: +经过sequence_conv和sequence_pool两个操作之后的结果所表示的Tensor,数据类型与 ``input`` 相同 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/nets/simple_img_conv_pool_cn.rst b/docs/api/paddle/fluid/nets/simple_img_conv_pool_cn.rst index f5c7e4a4a79..9a3a8840a74 100644 --- a/docs/api/paddle/fluid/nets/simple_img_conv_pool_cn.rst +++ b/docs/api/paddle/fluid/nets/simple_img_conv_pool_cn.rst @@ -11,7 +11,9 @@ simple_img_conv_pool ``simple_img_conv_pool`` 由一个conv2d( :ref:`cn_api_fluid_layers_conv2d` )和一个pool2d( :ref:`cn_api_fluid_layers_pool2d` ) OP组成。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 输入图像, 4-D Tensor, 格式为[N,C,H,W]。数据类型是float32或者float64 - **num_filters** (int) - 卷积核的数目,整数。 - **filter_size** (int | list | tuple) - conv2d卷积核大小,整数或者整型列表或者整型元组。如果 ``filter_size`` 是列表或元组,则它必须包含两个整数(filter_size_H,filter_size_W)。如果是整数,则filter_size_H = filter_size_W = filter_size。 @@ -30,11 +32,16 @@ simple_img_conv_pool - **use_cudnn** (bool,可选) - 是否使用cudnn内核,仅在安装cudnn库时才有效。默认值:True。 - **name** (str|None,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None -返回: 输入input经过conv2d和pool2d之后输入的结果,数据类型与input相同 +返回 +:::::::::::: + 输入input经过conv2d和pool2d之后输入的结果,数据类型与input相同 -返回类型: Variable +返回类型 +:::::::::::: + Variable -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/one_hot_cn.rst b/docs/api/paddle/fluid/one_hot_cn.rst index 2aaaf117e6f..fae69d5fb1d 100644 --- a/docs/api/paddle/fluid/one_hot_cn.rst +++ b/docs/api/paddle/fluid/one_hot_cn.rst @@ -61,16 +61,23 @@ one_hot X中第2维的值是5,超过了depth,而allow_out_of_range=False表示不允许超过,因此抛异常。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 维度为 :math:`[N_1, ..., N_n, 1]` 的多维Tensor或LoDTensor,维度至少两维,且最后一维必须是1。数据类型为int32或int64。 - **depth** (int) - 用于定义一个one-hot向量的长度。若输入为词id,则 ``depth`` 通常取值为词典大小。 - **allow_out_of_range** (bool) - 指明input中所包含的id值是否可以大于depth值。当超过depth时,如果 `allow_out_of_range` 为False,则会抛出 `Illegal value` 的异常;如果设置为True,该id对应的向量为0向量。默认值为False。 -返回:转换后的one_hot Tensor或LoDTensor,数据类型为float32。 +返回 +:::::::::::: +转换后的one_hot Tensor或LoDTensor,数据类型为float32。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/optimizer/MomentumOptimizer_cn.rst b/docs/api/paddle/fluid/optimizer/MomentumOptimizer_cn.rst index c2c39c5a8fa..e9e80f2838e 100644 --- a/docs/api/paddle/fluid/optimizer/MomentumOptimizer_cn.rst +++ b/docs/api/paddle/fluid/optimizer/MomentumOptimizer_cn.rst @@ -18,7 +18,9 @@ MomentumOptimizer &\quad param = param - (gradient + mu * velocity) * learning\_rate\\ & else:\\&\quad param = param - learning\_rate * velocity -参数: +参数 +:::::::::::: + - **learning_rate** (float|Variable) - 学习率,用于参数更新。作为数据参数,可以是浮点型值或含有一个浮点型值的变量。 - **momentum** (float) - 动量因子。 - **parameter_list** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 @@ -30,7 +32,8 @@ MomentumOptimizer 默认值为None,此时将不进行梯度裁剪。 - **name** (str, 可选) - 可选的名称前缀,一般无需设置,默认值为None。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -61,21 +64,27 @@ MomentumOptimizer -.. py:method:: minimize(loss, startup_program=None, parameter_list=None, no_grad_set=None) +方法 +:::::::::::: +minimize(loss, startup_program=None, parameter_list=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameter_list中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Variable) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameter_list中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameter_list** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 -返回类型: tuple +**返回类型** + tuple -**代码示例**: +**代码示例** .. code-block:: python @@ -106,7 +115,8 @@ MomentumOptimizer -.. py:method:: clear_gradients() +clear_gradients() +''''''''' **注意:** @@ -134,7 +144,8 @@ MomentumOptimizer optimizer.clear_gradients() -.. py:method:: set_lr() +set_lr() +''''''''' **注意:** @@ -142,10 +153,12 @@ MomentumOptimizer 手动设置当前 ``optimizer`` 的学习率。当使用LearningRateDecay时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float|Variable) - 需要设置的学习率的值。 -返回:无 +**返回** +无 **代码示例** @@ -178,7 +191,8 @@ MomentumOptimizer -.. py:method:: current_step_lr() +current_step_lr() +''''''''' **注意:** @@ -186,9 +200,11 @@ MomentumOptimizer 获取当前步骤的学习率。当不使用LearningRateDecay时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:当前步骤的学习率。 +**返回** +当前步骤的学习率。 -返回类型:float +**返回类型** +float **代码示例** diff --git a/docs/api/paddle/fluid/optimizer/SGDOptimizer_cn.rst b/docs/api/paddle/fluid/optimizer/SGDOptimizer_cn.rst index 582c590bb04..5cd047ce0bc 100644 --- a/docs/api/paddle/fluid/optimizer/SGDOptimizer_cn.rst +++ b/docs/api/paddle/fluid/optimizer/SGDOptimizer_cn.rst @@ -14,7 +14,9 @@ SGDOptimizer \\param\_out=param-learning\_rate*grad\\ -参数: +参数 +:::::::::::: + - **learning_rate** (float|Variable) - 用于更新参数的学习率。可以是浮点值,也可以是具有一个浮点值作为数据元素的变量。 - **parameter_list** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **regularization** (WeightDecayRegularizer,可选) - 正则化方法。支持两种正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 @@ -25,7 +27,8 @@ SGDOptimizer - **name** (str, 可选) - 可选的名称前缀,一般无需设置,默认值为None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -56,18 +59,24 @@ SGDOptimizer -.. py:method:: minimize(loss, startup_program=None, parameter_list=None, no_grad_set=None) +方法 +:::::::::::: +minimize(loss, startup_program=None, parameter_list=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameter_list中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Variable) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameter_list中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameter_list** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 -返回类型: tuple +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回类型** + tuple **代码示例** @@ -100,7 +109,8 @@ SGDOptimizer -.. py:method:: clear_gradients() +clear_gradients() +''''''''' **注意:** @@ -127,7 +137,8 @@ SGDOptimizer optimizer.minimize(out) optimizer.clear_gradients() -.. py:method:: set_lr() +set_lr() +''''''''' **注意:** @@ -135,10 +146,12 @@ SGDOptimizer 手动设置当前 ``optimizer`` 的学习率。当使用LearningRateDecay时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float|Variable) - 需要设置的学习率的值。 -返回:无 +**返回** +无 **代码示例** @@ -170,7 +183,8 @@ SGDOptimizer # current lr is 0.7 -.. py:method:: current_step_lr() +current_step_lr() +''''''''' **注意:** @@ -178,9 +192,11 @@ SGDOptimizer 获取当前步骤的学习率。当不使用LearningRateDecay时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:当前步骤的学习率。 +**返回** +当前步骤的学习率。 -返回类型:float +**返回类型** +float **代码示例** diff --git a/docs/api/paddle/fluid/profiler/profiler_cn.rst b/docs/api/paddle/fluid/profiler/profiler_cn.rst index d227698a0c2..f3d61d77b94 100644 --- a/docs/api/paddle/fluid/profiler/profiler_cn.rst +++ b/docs/api/paddle/fluid/profiler/profiler_cn.rst @@ -35,16 +35,21 @@ profiler prof.step() prof.summary() -参数: +参数 +:::::::::::: + - **state** (str) – 性能分析状态, 取值为 'CPU' 或 'GPU' 或 'All'。'CPU'表示只分析CPU上的性能;'GPU'表示同时分析CPU和GPU上的性能;'All'表示除了同时分析CPU和GPU上的性能外,还将生成 `性能分析的时间轴信息 <../../advanced_usage/development/profiling/timeline_cn.html>`_ 。 - **sorted_key** (str,可选) – 性能分析结果的打印顺序,取值为None、'call'、'total'、'max'、'min'、'ave'之一。默认值为None,表示按照第一次结束时间顺序打印;'call'表示按调用的数量进行排序;'total'表示按总执行时间排序;'max'表示按最大执行时间排序;'min'表示按最小执行时间排序;'ave'表示按平均执行时间排序。 - **profile_path** (str,可选) – 如果性能分析状态为'All', 将生成的时间轴信息写入profile_path,默认输出文件为 ``/tmp/profile`` 。 - **tracer_option** (str,可选) – 性能分析选项取值为 'Default' 或 'OpDetail' 或 'AllOpDetail', 此选项用于设置性能分析层次并打印不同层次的性能分析结果, `Default` 选项打印不同Op类型的性能分析结果, `OpDetail` 则会打印不同OP类型更详细的性能分析结果,比如compute和data transform。 `AllOpDetail` 和 `OpDetail` 类似,但是打印的是不同Op名字的性能分析结果。 -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` – 如果state取值不在 ['CPU', 'GPU', 'All']中,或sorted_key取值不在 [None, 'calls', 'total', 'max', 'min', 'ave']中,则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/profiler/reset_profiler_cn.rst b/docs/api/paddle/fluid/profiler/reset_profiler_cn.rst index 7813eecf600..afe540df275 100644 --- a/docs/api/paddle/fluid/profiler/reset_profiler_cn.rst +++ b/docs/api/paddle/fluid/profiler/reset_profiler_cn.rst @@ -10,7 +10,8 @@ reset_profiler .. warning:: 该API将在未来废弃,对CPU和GPU的性能分析请参考使用paddle最新的性能分析器 :ref:`Profiler ` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/profiler/start_profiler_cn.rst b/docs/api/paddle/fluid/profiler/start_profiler_cn.rst index 6c05d070458..4a335a772b5 100644 --- a/docs/api/paddle/fluid/profiler/start_profiler_cn.rst +++ b/docs/api/paddle/fluid/profiler/start_profiler_cn.rst @@ -37,14 +37,19 @@ start_profiler #train() prof.step() -参数: +参数 +:::::::::::: + - **state** (str) – 性能分析状态, 取值为 'CPU' 或 'GPU' 或 'All'。'CPU'表示只分析CPU上的性能;'GPU'表示同时分析CPU和GPU上的性能;'All'表示除了同时分析CPU和GPU上的性能外,还将生成性能分析的时间轴信息 :ref:`fluid_timeline` 。 - **tracer_option** (str,可选) – 性能分析选项取值为 'Default' 或 'OpDetail' 或 'AllOpDetail', 此选项用于设置性能分析层次并打印不同层次的性能分析结果, `Default` 选项打印不同Op类型的性能分析结果, `OpDetail` 则会打印不同OP类型更详细的性能分析结果,比如compute和data transform。 `AllOpDetail` 和 `OpDetail` 类似,但是打印的是不同Op名字的性能分析结果。 -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` – 如果state取值不在 ['CPU', 'GPU', 'All']中或者tracer_option取值不在['Default', 'OpDetail', 'AllOpDetail']中,则抛出异常 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/profiler/stop_profiler_cn.rst b/docs/api/paddle/fluid/profiler/stop_profiler_cn.rst index fd450e667dd..e5ae5bd78a5 100644 --- a/docs/api/paddle/fluid/profiler/stop_profiler_cn.rst +++ b/docs/api/paddle/fluid/profiler/stop_profiler_cn.rst @@ -41,15 +41,20 @@ stop_profiler -参数: +参数 +:::::::::::: + - **sorted_key** (str,可选) – 性能分析结果的打印顺序,取值为None、'call'、'total'、'max'、'min'、'ave'之一。默认值为None,表示按照第一次结束时间顺序打印;'call'表示按调用的数量进行排序;'total'表示按总执行时间排序;'max'表示按最大执行时间排序;'min'表示按最小执行时间排序;'ave'表示按平均执行时间排序。 - **profile_path** (str,可选) – 如果性能分析状态为'All', 将生成的时间轴信息写入profile_path,默认输出文件为 ``/tmp/profile`` 。 -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` – 如果sorted_key取值不在 [None, 'calls', 'total', 'max', 'min', 'ave']中,则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/reader/PyReader_cn.rst b/docs/api/paddle/fluid/reader/PyReader_cn.rst index 10920cb264f..fba72ff9168 100644 --- a/docs/api/paddle/fluid/reader/PyReader_cn.rst +++ b/docs/api/paddle/fluid/reader/PyReader_cn.rst @@ -11,7 +11,9 @@ PyReader 在python中为数据输入创建一个reader对象。将使用python线程预取数据,并将其异步插入队列。当调用Executor.run(…)时,将自动提取队列中的数据。 -参数: +参数 +:::::::::::: + - **feed_list** (list(Variable)|tuple(Variable)) - feed变量列表,由 ``fluid.layers.data()`` 创建。 - **capacity** (int) - PyReader对象内部维护队列的容量大小。单位是batch数量。若reader读取速度较快,建议设置较大的capacity值。 - **use_double_buffer** (bool) - 是否使用 ``double_buffer_reader`` 。若use_double_buffer=True,PyReader会异步地预读取下一个batch的数据,可加速数据读取过程,但同时会占用少量的CPU/GPU存储,即一个batch输入数据的存储空间。 @@ -19,12 +21,17 @@ PyReader - **return_list** (bool) - 每个设备上的数据是否以list形式返回。仅在iterable = True模式下有效。若return_list = False,每个设备上的返回数据均是str -> LoDTensor的映射表,其中映射表的key是每个输入变量的名称。若return_list = True,则每个设备上的返回数据均是list(LoDTensor)。推荐在静态图模式下使用return_list = False,在动态图模式下使用return_list = True。 -返回: 被创建的reader对象 +返回 +:::::::::::: + 被创建的reader对象 -返回类型: reader (Reader) +返回类型 +:::::::::::: + reader (Reader) -**代码示例** +代码示例 +:::::::::::: 1.如果iterable=False,则创建的PyReader对象几乎与 ``fluid.layers.py_reader()`` 相同。算子将被插入program中。用户应该在每个epoch之前调用 ``start()`` ,并在epoch结束时捕获 ``Executor.run()`` 抛出的 ``fluid.core.EOFException`` 。一旦捕获到异常,用户应该调用 ``reset()`` 手动重置reader。 @@ -147,7 +154,10 @@ PyReader for image, label in py_reader(): relu = fluid.layers.relu(image) -.. py:method:: start() +方法 +:::::::::::: +start() +''''''''' 启动数据输入线程。只能在reader对象不可迭代时调用。 @@ -181,7 +191,8 @@ PyReader reader.reset() break -.. py:method:: reset() +reset() +''''''''' 当 ``fluid.core.EOFException`` 抛出时重置reader对象。只能在reader对象不可迭代时调用。 @@ -215,7 +226,8 @@ PyReader reader.reset() break -.. py:method:: decorate_sample_generator(sample_generator, batch_size, drop_last=True, places=None) +decorate_sample_generator(sample_generator, batch_size, drop_last=True, places=None) +''''''''' 设置PyReader对象的数据源。 @@ -225,7 +237,8 @@ PyReader 如果所有的输入都没有LOD,这个方法比 ``decorate_sample_list_generator(paddle.batch(sample_generator, ...))`` 更快。 -参数: +**参数** + - **sample_generator** (generator) – Python生成器,yield 类型为list(numpy.ndarray) - **batch_size** (int) – batch size,必须大于0 - **drop_last** (bool) – 当样本数小于batch数量时,是否删除最后一个batch @@ -273,7 +286,8 @@ PyReader for data in reader(): executor.run(feed=data, fetch_list=[loss]) -.. py:method:: decorate_sample_list_generator(reader, places=None) +decorate_sample_list_generator(reader, places=None) +''''''''' 设置PyReader对象的数据源。 @@ -281,7 +295,8 @@ PyReader 当PyReader对象不可迭代时,必须设置 ``places`` 。 -参数: +**参数** + - **reader** (generator) – 返回列表(numpy.ndarray)类型的批处理数据的Python生成器 - **places** (None|list(CUDAPlace)|list(CPUPlace)) – 位置列表。当PyReader可迭代时必须被提供 @@ -328,7 +343,8 @@ PyReader for data in reader(): executor.run(feed=data, fetch_list=[loss]) -.. py:method:: decorate_batch_generator(reader, places=None) +decorate_batch_generator(reader, places=None) +''''''''' 设置PyReader对象的数据源。 @@ -336,7 +352,8 @@ PyReader 当PyReader对象不可迭代时,必须设置 ``places`` 。 -参数: +**参数** + - **reader** (generator) – 返回LoDTensor类型的批处理数据的Python生成器 - **places** (None|list(CUDAPlace)|list(CPUPlace)) – 位置列表。当PyReader可迭代时必须被提供 @@ -384,6 +401,7 @@ PyReader executor.run(feed=data, fetch_list=[loss]) -.. py:method:: next() +next() +''''''''' 获取下一个数据。用户不应直接调用此方法。此方法用于PaddlePaddle框架内部实现Python 2.x的迭代器协议。 diff --git a/docs/api/paddle/fluid/require_version_cn.rst b/docs/api/paddle/fluid/require_version_cn.rst index 19f14cb37fe..913cfce7261 100644 --- a/docs/api/paddle/fluid/require_version_cn.rst +++ b/docs/api/paddle/fluid/require_version_cn.rst @@ -9,13 +9,19 @@ require_version 该接口用于检查已安装的飞桨版本是否介于[``min_version``, ``max_version``]之间(包含 ``min_version`` 和 ``max_version`` ),如果已安装的版本低于 ``min_version`` 或者高于 ``max_version`` ,将会抛出异常。该接口无返回值。 -参数: +参数 +:::::::::::: + - **min_version** (str) - 指定所需要的最低版本(如‘1.4.0’) - **max_version** (str, optional) – 指定可接受的最高版本(如‘1.7.0’),默认值None,表示任意大于等于 ``min_version`` 的版本都可以接受。 -返回:无 +返回 +:::::::::::: +无 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` – ``min_version`` 的类型不是str。 - ``TypeError`` – ``max_version`` 的类型不是str或type(None)。 @@ -24,7 +30,8 @@ require_version - ``Exception`` – 已安装的版本低于 ``min_version`` 或者高于 ``max_version`` 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/set_flags_cn.rst b/docs/api/paddle/fluid/set_flags_cn.rst index a4f6fe1cd02..d497b4e02ac 100644 --- a/docs/api/paddle/fluid/set_flags_cn.rst +++ b/docs/api/paddle/fluid/set_flags_cn.rst @@ -6,10 +6,13 @@ set_flags .. py:function:: paddle.fluid.set_flags(flags) 用于设置Paddle框架中环境变量FLAGS的值。 -参数: +参数 +:::::::::::: + - **flags** (dict) - 包含想要设置的环境变量FLAGS的名称和值的字典。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/fluid/transpiler/DistributeTranspilerConfig_cn.rst b/docs/api/paddle/fluid/transpiler/DistributeTranspilerConfig_cn.rst index c9a7af6880f..587fd848c03 100644 --- a/docs/api/paddle/fluid/transpiler/DistributeTranspilerConfig_cn.rst +++ b/docs/api/paddle/fluid/transpiler/DistributeTranspilerConfig_cn.rst @@ -11,20 +11,27 @@ DistributeTranspilerConfig 单机任务切换为分布式任务的配置类,用户可根据需求进行配置,如指定同步/异步训练,指定节点个数及模型切分逻辑。 -返回:None +返回 +:::::::::::: +None -.. py:attribute:: slice_var_up (bool) +属性 +:::::::::::: +slice_var_up (bool) +''''''''' 是否为Pserver将张量切片, 默认为True, bool类型属性, 默认为True。该参数将指定是否将参数/梯度切分后均匀分布于多个PServer上。slice_var_up为True的情况下,会将参数均匀切分后分布于多个PServer端,使每个PServer的负载相对均衡。 -.. py:attribute:: split_method (PSDispatcher) +split_method (PSDispatcher) +''''''''' 参数分发的方式,当前支持的方法包括 :ref:`cn_api_fluid_transpiler_RoundRobin` 和 :ref:`cn_api_fluid_transpiler_HashName` 两种, 默认为RoundRobin。 注意: 尝试选择最佳方法来达到负载均衡。 -.. py:attribute:: min_block_size (int) +min_block_size (int) +''''''''' 参数切片时,最小数据块的大小,默认为8192。 diff --git a/docs/api/paddle/fluid/transpiler/DistributeTranspiler_cn.rst b/docs/api/paddle/fluid/transpiler/DistributeTranspiler_cn.rst index 2bfb8528eb4..327fc8f8b5a 100644 --- a/docs/api/paddle/fluid/transpiler/DistributeTranspiler_cn.rst +++ b/docs/api/paddle/fluid/transpiler/DistributeTranspiler_cn.rst @@ -15,15 +15,22 @@ DistributeTranspiler 在NCCL2模式下, 通过 ``transpile`` 将用于单机训练的 ``program`` 转译为可用于NCCL2的分布式架构来进行训练的program。在NCCL2模式下,transpiler会在 ``startup_program`` 中附加一个 ``NCCL_ID`` 广播算子(broadcasting operators)来实现在该集群中所有工作结点共享``NCCL_ID`` 。 调用 ``transpile_nccl2`` 后, 你 **必须** 将 ``trainer_id`` , ``num_trainers`` 参数提供给 ``Executor`` 来启动NCCL2分布式模式。 -参数: +参数 +:::::::::::: + - **config** (DistributeTranspilerConfig) DistributeTranspiler属性配置实例,定义了program转变所需要的属性, 请参考:`DistributeTranspilerConfig` 相关文档。 -返回:初始化后的DistributeTranspiler实例 +返回 +:::::::::::: +初始化后的DistributeTranspiler实例 -返回类型:实例(DistributeTranspiler) +返回类型 +:::::::::::: +实例(DistributeTranspiler) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -71,11 +78,15 @@ DistributeTranspiler -.. py:method:: transpile(trainer_id, program=None, pservers='127.0.0.1:6174', trainers=1, sync_mode=True, startup_program=None, current_endpoint='127.0.0.1:6174') +方法 +:::::::::::: +transpile(trainer_id, program=None, pservers='127.0.0.1:6174', trainers=1, sync_mode=True, startup_program=None, current_endpoint='127.0.0.1:6174') +''''''''' 通过此方法,可根据用户配置将单机的program转换为当前节点可用的数据并行的分布式program。 -参数: +**参数** + - **trainer_id** (int) – 当前Trainer worker的id, 如果有n个Trainer worker, id 取值范围为0 ~ n-1 - **program** (Program|None) – 待transpile(转译)的main program, 默认为 ``fluid.default_main_program()`` - **pservers** (str) – 内容为Pserver列表的字符串,格式为:按逗号区分不同的Pserver,每个Pserver的格式为 *ip地址:端口号* @@ -84,7 +95,8 @@ DistributeTranspiler - **startup_program** (Program|None) – 待transpile(转译)的startup program,默认为 ``fluid.default_startup_program()`` - **current_endpoint** (str) – 当需要把program转译(transpile)至NCCL2模式时,需要将当前endpoint(终端)传入该参数。PServer模型下,当用户需要使用增量训练时,必须要指定该参数。 -返回:None +**返回** +None **代码示例** @@ -100,7 +112,8 @@ DistributeTranspiler current_endpoint="127.0.0.1:7000") -.. py:method:: get_trainer_program(wait_port=True) +get_trainer_program(wait_port=True) +''''''''' 该方法可以得到Trainer侧的program。Trainer侧的program相较于原始的单机执行的program,主要有以下不同: @@ -108,12 +121,15 @@ DistributeTranspiler - 删除了参数更新optimizer相关op,参数的更新由Pserver(参数服务器)执行 - 在每个参数的反向梯度计算op后,添加了 ``Send_op`` 与 ``Recv_op`` ,用于发送参数的梯度与接受更新后的参数 -参数: +**参数** + - **wait_port** (bool,默认值True) - 是否等待参数服务器准备就绪后再返回program -返回: Trainer侧的program +**返回** + Trainer侧的program -返回类型: Program +**返回类型** + Program **代码示例** @@ -129,7 +145,8 @@ DistributeTranspiler trainer_program = t.get_trainer_program() -.. py:method:: get_pserver_program(endpoint) +get_pserver_program(endpoint) +''''''''' 该方法可以得到Pserver(参数服务器)侧的program。Pserver侧的program相较于原始的单机执行的program,主要有以下不同: @@ -138,12 +155,15 @@ DistributeTranspiler - 0号block仅包含变量的定义及 ``listen_and_serv_op`` - Pserver为每个需要进行更新的参数新建了一个独立的block -参数: +**参数** + - **endpoint** (str) – 当前Pserver终端 -返回: 当前Pserver需要执行的program +**返回** + 当前Pserver需要执行的program -返回类型: Program +**返回类型** + Program **代码示例** @@ -161,17 +181,21 @@ DistributeTranspiler pserver_program = t.get_pserver_program(current_endpoint) -.. py:method:: get_pserver_programs(endpoint) +get_pserver_programs(endpoint) +''''''''' 该方法可以得到Pserver侧用于分布式训练的 ``main_program`` 和 ``startup_program`` 。该函数返回的 ``main_program`` 与函数 ``get_pserver_program`` 的返回值一致。 -参数: +**参数** + - **endpoint** (str) – 当前Pserver终端 -返回: (main_program, startup_program), “Program”类型的元组 +**返回** + (main_program, startup_program), “Program”类型的元组 -返回类型: tuple +**返回类型** + tuple **代码示例** @@ -190,20 +214,24 @@ DistributeTranspiler pserver_program, pserver_startup_program = t.get_pserver_programs(current_endpoint) -.. py:method:: get_startup_program(endpoint, pserver_program=None, startup_program=None) +get_startup_program(endpoint, pserver_program=None, startup_program=None) +''''''''' **该函数已停止使用** 获取当前Pserver的startup_program,如果有多个被分散到不同blocks的变量,则修改operator的输入变量。 -参数: +**参数** + - **endpoint** (str) – 当前Pserver终端 - **pserver_program** (Program) – 已停止使用。 先调用get_pserver_program - **startup_program** (Program) – 已停止使用。应在初始化时传入startup_program -返回: Pserver侧的startup_program +**返回** + Pserver侧的startup_program -返回类型: Program +**返回类型** + Program **代码示例** diff --git a/docs/api/paddle/fluid/transpiler/HashName_cn.rst b/docs/api/paddle/fluid/transpiler/HashName_cn.rst index ad7fcc97bba..47e3b67cefb 100644 --- a/docs/api/paddle/fluid/transpiler/HashName_cn.rst +++ b/docs/api/paddle/fluid/transpiler/HashName_cn.rst @@ -11,14 +11,21 @@ HashName 该方法使用 python ``Hash()`` 函数将变量散列到多个parameter server节点。 -参数: +参数 +:::::::::::: + - **pserver_endpoints** (list) - endpoint (ip:port)的 list -返回:实例化后的HashName的对象 +返回 +:::::::::::: +实例化后的HashName的对象 -返回类型:HashName +返回类型 +:::::::::::: +HashName -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -30,11 +37,15 @@ HashName rr.dispatch(vars) -.. py:method:: reset() +方法 +:::::::::::: +reset() +''''''''' 该方法将重置HashName内置的计数, 计数将重置为0。 -返回:无。 +**返回** +无。 **代码示例** diff --git a/docs/api/paddle/full_cn.rst b/docs/api/paddle/full_cn.rst index a6b48d145fd..6bbf336b45e 100644 --- a/docs/api/paddle/full_cn.rst +++ b/docs/api/paddle/full_cn.rst @@ -9,16 +9,21 @@ full 该OP创建形状大小为 ``shape`` 并且数据类型为 ``dtype`` 的Tensor,其中元素值均为 ``fill_value`` 。 -参数: +参数 +:::::::::::: + - **shape** (list|tuple|Tensor) – 指定创建Tensor的形状(shape), 数据类型为int32 或者int64。 - **fill_value** (bool|float|int|Tensor) - 用于初始化输出Tensor的常量数据的值。注意:该参数不可超过输出变量数据类型的表示范围。 - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型。若为None,则输出变量的数据类型和输入变量相同,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回一个存储结果的Tensor,数据类型和dtype相同。 +返回 +:::::::::::: +返回一个存储结果的Tensor,数据类型和dtype相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/full_like_cn.rst b/docs/api/paddle/full_like_cn.rst index 5d6b7e3e030..aedb32fabb1 100644 --- a/docs/api/paddle/full_like_cn.rst +++ b/docs/api/paddle/full_like_cn.rst @@ -8,13 +8,17 @@ full_like 该OP创建一个和 ``x`` 具有相同的形状并且数据类型为 ``dtype`` 的Tensor,其中元素值均为 ``fill_value`` , 当 ``dtype`` 为None的时候,Tensor数据类型和输入 ``x`` 相同。 -参数: +参数 +:::::::::::: + - **x** (Tensor) – 输入Tensor, 输出Tensor和x具有相同的形状,x的数据类型可以是bool,float16,float32,float64,int32,int64。 - **fill_value** (bool|float|int) - 用于初始化输出张量的常量数据的值。注意:该参数不可超过输出变量数据类型的表示范围。 - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型。若参数为None,则输出变量的数据类型和输入变量相同,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回一个存储结果的Tensor,数据类型和dtype相同。 +返回 +:::::::::::: +返回一个存储结果的Tensor,数据类型和dtype相同。 **代码示例**: diff --git a/docs/api/paddle/gather_cn.rst b/docs/api/paddle/gather_cn.rst index 63db5833326..1d3e3693699 100644 --- a/docs/api/paddle/gather_cn.rst +++ b/docs/api/paddle/gather_cn.rst @@ -31,7 +31,8 @@ gather **返回**:和输入的秩相同的输出Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/gather_nd_cn.rst b/docs/api/paddle/gather_nd_cn.rst index f2ed2ccd5b8..3742e938ffd 100644 --- a/docs/api/paddle/gather_nd_cn.rst +++ b/docs/api/paddle/gather_nd_cn.rst @@ -49,15 +49,20 @@ gather_nd = [23] -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,数据类型可以是int32,int64,float32,float64, bool。 - **index** (Tensor) - 输入的索引Tensor,其数据类型int32或者int64。它的维度 :code:`index.rank` 必须大于1,并且 :code:`index.shape[-1] <= x.rank` 。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:shape为index.shape[:-1] + x.shape[index.shape[-1]:]的Tensor,数据类型与 :code:`x` 一致。 +返回 +:::::::::::: +shape为index.shape[:-1] + x.shape[index.shape[-1]:]的Tensor,数据类型与 :code:`x` 一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/get_cuda_rng_state_cn.rst b/docs/api/paddle/get_cuda_rng_state_cn.rst index 09ef4433eec..150a3bfe94f 100644 --- a/docs/api/paddle/get_cuda_rng_state_cn.rst +++ b/docs/api/paddle/get_cuda_rng_state_cn.rst @@ -7,14 +7,19 @@ get_cuda_rng_state 获取cuda随机数生成器的状态信息 -参数: +参数 +:::::::::::: + 无 -返回: +返回 +:::::::::::: + GeneratorState:对象 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/get_default_dtype_cn.rst b/docs/api/paddle/get_default_dtype_cn.rst index cedfe95fb87..df33175c285 100644 --- a/docs/api/paddle/get_default_dtype_cn.rst +++ b/docs/api/paddle/get_default_dtype_cn.rst @@ -9,13 +9,18 @@ get_default_dtype 得到当前全局的dtype。 该值初始是float32。 -参数: +参数 +:::::::::::: + 无 -返回: string,这个全局dtype仅支持float16、float32、float64 +返回 +:::::::::::: + string,这个全局dtype仅支持float16、float32、float64 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/get_flags_cn.rst b/docs/api/paddle/get_flags_cn.rst index d340cb42aeb..a14a434476a 100644 --- a/docs/api/paddle/get_flags_cn.rst +++ b/docs/api/paddle/get_flags_cn.rst @@ -8,14 +8,19 @@ get_flags 获取指定的Paddle 环境变量FLAGS状态。详情请查看 :ref:`cn_guides_flags_flags` -参数: +参数 +:::::::::::: + - **flags** (list of FLAGS [*]) - 想要获取的FLAGS标志列表 -返回: +返回 +:::::::::::: + -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/grad_cn.rst b/docs/api/paddle/grad_cn.rst index ad0dc8d7e0d..53e74ba1597 100644 --- a/docs/api/paddle/grad_cn.rst +++ b/docs/api/paddle/grad_cn.rst @@ -5,11 +5,15 @@ grad **注意:该API仅支持【动态图】模式** -.. py:method:: paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False, no_grad_vars=None) +方法 +:::::::::::: +paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False, no_grad_vars=None) +''''''''' 对于每个 `inputs` ,计算所有 `outputs` 相对于其的梯度和。 -参数: +**参数** + - **outputs** (Tensor|list(Tensor)|tuple(Tensor)) – 用于计算梯度的图的输出变量,或多个输出变量构成的list/tuple。 - **inputs** (Tensor|list(Tensor)|tuple(Tensor)) - 用于计算梯度的图的输入变量,或多个输入变量构成的list/tuple。该API的每个返回值对应每个 `inputs` 的梯度。 - **grad_outputs** (Tensor|list(Tensor|None)|tuple(Tensor|None), 可选) - `outputs` 变量梯度的初始值。若 `grad_outputs` 为None,则 `outputs` 梯度的初始值均为全1的Tensor。若 `grad_outputs` 不为None,它必须与 `outputs` 的长度相等,此时,若 `grad_outputs` 的第i个元素为None,则第i个 `outputs` 的梯度初始值为全1的Tensor;若 `grad_outputs` 的第i个元素为Tensor,则第i个 `outputs` 的梯度初始值为 `grad_outputs` 的第i个元素。默认值为None。 @@ -19,9 +23,10 @@ grad - **allow_unused** (bool, 可选) - 决定当某些 `inputs` 变量不在计算图中时抛出错误还是返回None。若某些 `inputs` 变量不在计算图中(即它们的梯度为None),则当allowed_unused=False时会抛出错误,当allow_unused=True时会返回None作为这些变量的梯度。默认值为False。 - **no_grad_vars** (Tensor|list(Tensor)|tuple(Tensor)|set(Tensor), 可选) - 指明不需要计算梯度的变量。默认值为None。 -返回: tuple(Tensor),其长度等于 `inputs` 中的变量个数,且第i个返回的变量是所有 `outputs` 相对于第i个 `inputs` 的梯度之和。 +**返回** + tuple(Tensor),其长度等于 `inputs` 中的变量个数,且第i个返回的变量是所有 `outputs` 相对于第i个 `inputs` 的梯度之和。 -**示例代码 1** +**代码示例 1** .. code-block:: python import paddle @@ -55,7 +60,7 @@ grad print(test_dygraph_grad(create_graph=False)) # [2.] print(test_dygraph_grad(create_graph=True)) # [4.] -**示例代码 2** +**代码示例 2** .. code-block:: python import paddle diff --git a/docs/api/paddle/greater_equal_cn.rst b/docs/api/paddle/greater_equal_cn.rst index 5f76233d3af..88be1898e49 100644 --- a/docs/api/paddle/greater_equal_cn.rst +++ b/docs/api/paddle/greater_equal_cn.rst @@ -9,17 +9,24 @@ greater_equal **注:该OP输出的结果不返回梯度。** -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/histogram_cn.rst b/docs/api/paddle/histogram_cn.rst index 3478c722f9a..e0dbfa902f4 100644 --- a/docs/api/paddle/histogram_cn.rst +++ b/docs/api/paddle/histogram_cn.rst @@ -7,18 +7,25 @@ histogram 计算输入张量的直方图。以min和max为range边界,将其均分成bins个直条,然后将排序好的数据划分到各个直条(bins)中。如果min和max都为0, 则利用数据中的最大最小值作为边界。 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入Tensor。维度为多维,数据类型为int32, int64, float32或float64。 - **bins** (int) - 直方图 bins(直条)的个数,默认为100。 - **min** (int) - range的下边界(包含),默认为0。 - **max** (int) - range的上边界(包含),默认为0。 -返回:Tensor,数据为int64类型,维度为(nbins,)。 +返回 +:::::::::::: +Tensor,数据为int64类型,维度为(nbins,)。 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 当输入 ``bin``, ``min``, ``max``不合法时。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/imag_cn.rst b/docs/api/paddle/imag_cn.rst index 98923bd977b..eb37e2aa8cc 100644 --- a/docs/api/paddle/imag_cn.rst +++ b/docs/api/paddle/imag_cn.rst @@ -7,13 +7,18 @@ imag 返回一个包含输入复数Tensor的虚部数值的新Tensor。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,其数据类型可以为complex64或complex128。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor,包含原复数Tensor的虚部数值。 +返回 +:::::::::::: +Tensor,包含原复数Tensor的虚部数值。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/in_dynamic_mode_cn.rst b/docs/api/paddle/in_dynamic_mode_cn.rst index 8d90c265ce8..9ed2207fcbc 100644 --- a/docs/api/paddle/in_dynamic_mode_cn.rst +++ b/docs/api/paddle/in_dynamic_mode_cn.rst @@ -12,11 +12,16 @@ in_dynamic_mode 可以通过 :ref:`cn_api_paddle_enable_static` 开启静态图模式, :ref:`cn_api_paddle_disable_static` 关闭静态图模式。 -返回:如果paddle当前是在动态图模式运行,则返回 ``True`` ,否则返回 ``False`` +返回 +:::::::::::: +如果paddle当前是在动态图模式运行,则返回 ``True`` ,否则返回 ``False`` -返回类型:bool +返回类型 +:::::::::::: +bool -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/increment_cn.rst b/docs/api/paddle/increment_cn.rst index f2c87326d41..6fd66d5df53 100644 --- a/docs/api/paddle/increment_cn.rst +++ b/docs/api/paddle/increment_cn.rst @@ -18,7 +18,8 @@ increment **返回**: Tensor,形状和数据类型同输入 ``x`` 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/incubate/ModelAverage_cn.rst b/docs/api/paddle/incubate/ModelAverage_cn.rst index 3df9126624e..ec33e1368f5 100644 --- a/docs/api/paddle/incubate/ModelAverage_cn.rst +++ b/docs/api/paddle/incubate/ModelAverage_cn.rst @@ -43,7 +43,8 @@ COPY-FROM: paddle.incubate.ModelAverage **返回** tuple(optimize_ops, params_grads),其中 optimize_ops 为参数优化 OP 列表;param_grads 为由 (param, param_grad) 组成的列表,其中 param 和 param_grad 分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.incubate.ModelAverage.minimize @@ -55,7 +56,8 @@ COPY-FROM: paddle.incubate.ModelAverage.minimize **返回** None -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.incubate.ModelAverage.step @@ -68,7 +70,8 @@ COPY-FROM: paddle.incubate.ModelAverage.step - **executor** (Executor) – 静态图模式下当前网络的执行器;动态图模式下默认值为 None。 - **need_restore** (bool) - 恢复标志变量;设为True 时,执行完成后会将网络的 ``Parameters``恢复为网络默认的值,设为 False 将不会恢复。默认值为 True。 -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.incubate.ModelAverage.apply @@ -80,5 +83,6 @@ COPY-FROM: paddle.incubate.ModelAverage.apply **参数** - **executor** (Executor) – 静态图模式下当前网络的执行器;动态图模式下默认值为 None。 -**代码示例** +代码示例 +:::::::::::: COPY-FROM: paddle.incubate.ModelAverage.restore \ No newline at end of file diff --git a/docs/api/paddle/incubate/nn/functional/fused_multi_head_attention_cn.rst b/docs/api/paddle/incubate/nn/functional/fused_multi_head_attention_cn.rst index c6a2f941e7c..a7ccc145ef8 100644 --- a/docs/api/paddle/incubate/nn/functional/fused_multi_head_attention_cn.rst +++ b/docs/api/paddle/incubate/nn/functional/fused_multi_head_attention_cn.rst @@ -43,7 +43,9 @@ fused_multi_head_attention 算子目前只支持在GPU下运行,其包含的 如果想得到单独的q, k 或v的 weight,可以通过转置和切分得到。 -参数: +参数 +:::::::::::: + :::::::::: - **x** (Tensor) - 输入的 ``Tensor`` ,代表 Query,是一个三维 tensor,形状为 ``[batch_size, sequence_length, embed_dim]`` 。其中,batch_size 是一次训练所处理的样本个数(句子个数);sequence_length 代表每一个样本序列(每句话)中的 word 个数;embed_dim 代表 word 经过 embedding 后得到的向量长度。 - **qkv_weight** (Tensor) - 代表 Attention 中计算 q, k, v 时的权重,是一个四维 tensor,形状为 ``[3, num_heads, head_dim, embed_dim]`` 。其中,3 代表 qkv_weight 是包含了 q, k, v 三个权重矩阵,num_heads 代表 multi-head attention 中的 head 数量,head_dim 代表 head 的维度。 diff --git a/docs/api/paddle/index_sample_cn.rst b/docs/api/paddle/index_sample_cn.rst index 3da82fa5ec7..32fd913f550 100644 --- a/docs/api/paddle/index_sample_cn.rst +++ b/docs/api/paddle/index_sample_cn.rst @@ -19,7 +19,8 @@ index_sample **返回**: -**Tensor** ,数据类型与输入 ``x`` 相同,维度与 ``index`` 相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/index_select_cn.rst b/docs/api/paddle/index_select_cn.rst index d395a4c16b8..ed9653e9b7e 100644 --- a/docs/api/paddle/index_select_cn.rst +++ b/docs/api/paddle/index_select_cn.rst @@ -19,7 +19,8 @@ index_select -**Tensor**: 返回一个数据类型同输入的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/inner_cn.rst b/docs/api/paddle/inner_cn.rst index a4591d54e3d..65a557ec21b 100644 --- a/docs/api/paddle/inner_cn.rst +++ b/docs/api/paddle/inner_cn.rst @@ -10,13 +10,17 @@ inner 对于1维Tensor计算普通内积,对于大于1维的Tensor计算最后一个维度的乘积和,此时两个输入Tensor最后一个维度长度需要相等。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 一个N维Tensor或者标量Tensor, 如果是N维Tensor最后一个维度长度需要跟y保持一致。 - **y** (Tensor) - 一个N维Tensor或者标量Tensor, 如果是N维Tensor最后一个维度长度需要跟x保持一致。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, x、y的内积结果,Tensor shape为 x.shape[:-1] + y.shape[:-1]。 diff --git a/docs/api/paddle/io/BatchSampler_cn.rst b/docs/api/paddle/io/BatchSampler_cn.rst index f05a710a905..d021b49583e 100644 --- a/docs/api/paddle/io/BatchSampler_cn.rst +++ b/docs/api/paddle/io/BatchSampler_cn.rst @@ -13,7 +13,9 @@ BatchSampler ``__len__``: 每epoch中mini-batch数。 -参数: +参数 +:::::::::::: + - **dataset** (Dataset) - 此参数必须是 ``paddle.io.Dataset`` 或 ``paddle.io.IterableDataset`` 的一个子类实例或实现了 ``__len__`` 的Python对象,用于生成样本下标。默认值为None。 - **sampler** (Sampler) - 此参数必须是 ``paddle.io.Sampler`` 的子类实例,用于迭代式获取样本下标。``dataset`` 和 ``sampler`` 参数只能设置一个。默认值为None。 - **shuffle** (bool) - 是否需要在生成样本下标时打乱顺序。默认值为False。 @@ -22,11 +24,16 @@ BatchSampler 见 ``paddle.io.DataLoader`` 。 -返回:返回样本下标数组的迭代器。 +返回 +:::::::::::: +返回样本下标数组的迭代器。 -返回类型: BatchSampler +返回类型 +:::::::::::: + BatchSampler -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/ChainDataset_cn.rst b/docs/api/paddle/io/ChainDataset_cn.rst index 5983b9a6d0d..e8000f96a7e 100644 --- a/docs/api/paddle/io/ChainDataset_cn.rst +++ b/docs/api/paddle/io/ChainDataset_cn.rst @@ -9,12 +9,17 @@ ChainDataset 用于级联的数据集须都是 ``paddle.io.IterableDataset`` 数据集,将各流式数据集按顺序级联为一个数据集。 -参数: +参数 +:::::::::::: + - **datasets** (list of IterableDataset) - 待级联的多个数据集。 -返回:Dataset,级联后的流式数据集 +返回 +:::::::::::: +Dataset,级联后的流式数据集 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/ComposeDataset_cn.rst b/docs/api/paddle/io/ComposeDataset_cn.rst index 83ff8eda0dc..b746d214954 100644 --- a/docs/api/paddle/io/ComposeDataset_cn.rst +++ b/docs/api/paddle/io/ComposeDataset_cn.rst @@ -9,12 +9,17 @@ ComposeDataset 这个数据集用于将多个映射式(map-style)且长度相等数据集按字段组合为一个新的数据集。 -参数: +参数 +:::::::::::: + - **datasets** (list of Dataset) - 待组合的多个数据集。 -返回:Dataset,字段组合后的数据集 +返回 +:::::::::::: +Dataset,字段组合后的数据集 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/DataLoader_cn.rst b/docs/api/paddle/io/DataLoader_cn.rst index 8c9bc3f41fd..1fe462b3f0f 100644 --- a/docs/api/paddle/io/DataLoader_cn.rst +++ b/docs/api/paddle/io/DataLoader_cn.rst @@ -25,7 +25,9 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma 当禁用自动组batch时, ``default_collate_fn`` 将不对输入数据做任何处理。 -参数: +参数 +:::::::::::: + - **dataset** (Dataset) - DataLoader从此参数给定数据集中加载数据,此参数必须是 ``paddle.io.Dataset`` 或 ``paddle.io.IterableDataset`` 的一个子类实例。 - **feed_list** (list(Tensor)|tuple(Tensor)) - feed变量列表,由 ``paddle.static.data()`` 创建。当 ``return_list`` 为False时,此参数必须设置。默认值为None。 - **places** (list(Place)|tuple(Place)) - 数据需要放置到的Place列表。在静态图和动态图模式中,此参数均必须设置。在动态图模式中,此参数列表长度必须是1。默认值为None。 @@ -41,11 +43,16 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma - **timeout** (int) - 从子进程输出队列获取mini-batch数据的超时时间。默认值为0。 - **worker_init_fn** (callable) - 子进程初始化函数,此函数会被子进程初始化时被调用,并传递 ``worker id`` 作为参数。默认值为None。 -返回:迭代 ``dataset`` 数据的迭代器,迭代器返回的数据中的每个元素都是一个Tensor。 +返回 +:::::::::::: +迭代 ``dataset`` 数据的迭代器,迭代器返回的数据中的每个元素都是一个Tensor。 -返回类型: DataLoader +返回类型 +:::::::::::: + DataLoader -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -108,7 +115,10 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma simple_net.clear_gradients() print("Epoch {} batch {}: loss = {}".format(e, i, np.mean(loss.numpy()))) -.. py:method:: from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=True, return_list=False, use_multiprocess=False, drop_last=True) +方法 +:::::::::::: +from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=True, return_list=False, use_multiprocess=False, drop_last=True) +''''''''' .. warning:: 这个API将在未来版本废弃,推荐使用支持多进程并发加速的 ``paddle.io.DataLoader`` @@ -125,7 +135,8 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma 如果iterable = False,本方法创建的DataLoader对象提供 :code:`start()` 和 :code:`reset()` 方法控制数据读取过程。 -参数: +**参数** + - **feed_list** (list(Tensor)|tuple(Tensor)) - feed变量列表,由 ``paddle.static.data()`` 创建。 - **capacity** (int) - DataLoader对象内部维护队列的容量大小。单位是batch数量。若reader读取速度较快,建议设置较大的capacity值。 - **use_double_buffer** (bool) - 是否使用 ``double_buffer_reader`` 。若use_double_buffer=True,DataLoader会异步地预读取下一个batch的数据,可加速数据读取过程,但同时会占用少量的CPU/GPU存储,即一个batch输入数据的存储空间。 @@ -134,9 +145,11 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma - **use_multiprocess** (bool) - 设置是否是用多进程加速动态图的数据载入过程。注意:该参数的设置仅在动态图模式下有效, 在静态图模式下,该参数设置与否均无任何影响。默认值为False。 - **drop_last** (bool): 是否丢弃最后的不足CPU/GPU设备数的批次。默认值为True。在网络训练时,用户不能设置drop_last=False,此时所有CPU/GPU设备均应从DataLoader中读取到数据。在网络预测时,用户可以设置drop_last=False,此时最后不足CPU/GPU设备数的批次可以进行预测。 -返回: 被创建的DataLoader对象 +**返回** + 被创建的DataLoader对象 -返回类型: loader (DataLoader) +**返回类型** + loader (DataLoader) **代码示例 1** @@ -339,7 +352,8 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma print("Epoch {} batch {}: loss = {}".format( epoch_id, batch_id, np.mean(loss.numpy()))) -**代码示例 3** +代码示例 3 +:::::::::::: .. code-block:: python @@ -389,21 +403,25 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma print(run_inference(drop_last=False)) # [1.0, 4.0, 9.0] -.. py:method:: from_dataset(dataset, places, drop_last=True) +from_dataset(dataset, places, drop_last=True) +''''''''' .. warning:: 这个API将在未来版本废弃,推荐使用支持多进程并发加速的 ``paddle.io.DataLoader`` 创建一个DataLoader对象用于加载Dataset产生的数据。目前,Dataset仅支持Linux系统下使用。 -参数: +**参数** + - **dataset** (InMemoryDataset|QueueDataset) - Dataset对象。 - **places** (list(CUDAPlace)|list(CPUPlace)) - DataLoader对象返回数据所在的place。 - **drop_last** (bool) - 是否丢弃最后样本数量不足batch size的batch。若drop_last = True则丢弃,若drop_last = False则不丢弃。 -返回: 被创建的DataLoader对象,可以for-range的方式循环迭代 +**返回** + 被创建的DataLoader对象,可以for-range的方式循环迭代 -返回类型: loader (DataLoader) +**返回类型** + loader (DataLoader) **代码示例** diff --git a/docs/api/paddle/io/Dataset_cn.rst b/docs/api/paddle/io/Dataset_cn.rst index 1e793ac5984..b4a766733ff 100644 --- a/docs/api/paddle/io/Dataset_cn.rst +++ b/docs/api/paddle/io/Dataset_cn.rst @@ -15,7 +15,8 @@ Dataset 见 ``paddle.io.DataLoader`` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/DistributedBatchSampler_cn.rst b/docs/api/paddle/io/DistributedBatchSampler_cn.rst index 0d46abbd8de..2be551769e8 100644 --- a/docs/api/paddle/io/DistributedBatchSampler_cn.rst +++ b/docs/api/paddle/io/DistributedBatchSampler_cn.rst @@ -11,7 +11,9 @@ DistributedBatchSampler .. note:: 假定Dataset的大小是固定的。 -参数: +参数 +:::::::::::: + - **dataset** (paddle.io.Dataset) - 此参数必须是 ``paddle.io.Dataset`` 的一个子类实例或实现了 ``__len__`` 的Python对象,用于生成样本下标。默认值为None。 - **batch_size** (int) - 每mini-batch中包含的样本数。 - **num_replicas** (int, optional) - 分布式训练时的进程个数。如果是None,会依据 ``paddle.distributed.ParallenEnv`` 获取值。默认是None。 @@ -20,11 +22,16 @@ DistributedBatchSampler - **drop_last** (bool) - 是否需要丢弃最后无法凑整一个mini-batch的样本。默认值为False。 -返回:返回样本下标数组的迭代器。 +返回 +:::::::::::: +返回样本下标数组的迭代器。 -返回类型: DistributedBatchSampler +返回类型 +:::::::::::: + DistributedBatchSampler -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -56,10 +63,13 @@ DistributedBatchSampler 设置epoch数。当设置``shuffle=True``时,此epoch被用作随机种子。默认情况下,用户可以不用此接口设置,每个epoch时,所有的进程(workers)使用不同的顺序。如果每个epoch设置相同的数字,每个epoch数据的读取顺序将会相同。 -参数: +参数 +:::::::::::: + - **epoch** (int) - epoch数。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/IterableDataset_cn.rst b/docs/api/paddle/io/IterableDataset_cn.rst index 3d078616a64..7302c1e77e7 100644 --- a/docs/api/paddle/io/IterableDataset_cn.rst +++ b/docs/api/paddle/io/IterableDataset_cn.rst @@ -16,7 +16,8 @@ IterableDataset 见 ``paddle.io.DataLoader`` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -43,7 +44,8 @@ IterableDataset 1. 通过 ``__iter__`` 函数划分各子进程的数据 -**代码示例1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -86,7 +88,8 @@ IterableDataset 2. 通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据 -**代码示例2** +代码示例 2 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/Sampler_cn.rst b/docs/api/paddle/io/Sampler_cn.rst index 838eb6d50b2..80091d8a438 100644 --- a/docs/api/paddle/io/Sampler_cn.rst +++ b/docs/api/paddle/io/Sampler_cn.rst @@ -13,16 +13,23 @@ Sampler ``__len__``: ``data_source`` 中的样本数 -参数: +参数 +:::::::::::: + - **data_source** (Dataset) - 此参数必须是 ``paddle.io.Dataset`` 或 ``paddle.io.IterableDataset`` 的一个子类实例或实现了 ``__len__`` 的Python对象,用于生成样本下标。默认值为None。 可见 ``paddle.io.BatchSampler`` 和 ``paddle.io.DataLoader`` -返回:返回样本下标的迭代器。 +返回 +:::::::::::: +返回样本下标的迭代器。 -返回类型: Sampler +返回类型 +:::::::::::: + Sampler -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/SequenceSampler_cn.rst b/docs/api/paddle/io/SequenceSampler_cn.rst index 1af7c682b9f..b9d806c2058 100644 --- a/docs/api/paddle/io/SequenceSampler_cn.rst +++ b/docs/api/paddle/io/SequenceSampler_cn.rst @@ -7,14 +7,21 @@ SequenceSampler 顺序迭代 ``data_source`` 返回样本下标,即一次返回 ``0, 1, 2, ..., len(data_source) - 1`` -参数: +参数 +:::::::::::: + - **data_source** (Dataset) - 此参数必须是 ``paddle.io.Dataset`` 或 ``paddle.io.IterableDataset`` 的一个子类实例或实现了 ``__len__`` 的Python对象,用于生成样本下标。默认值为None。 -返回:返回样本下标的迭代器。 +返回 +:::::::::::: +返回样本下标的迭代器。 -返回类型: SequenceSampler +返回类型 +:::::::::::: + SequenceSampler -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/TensorDataset_cn.rst b/docs/api/paddle/io/TensorDataset_cn.rst index 42c09fed35c..aaefc1da847 100644 --- a/docs/api/paddle/io/TensorDataset_cn.rst +++ b/docs/api/paddle/io/TensorDataset_cn.rst @@ -9,14 +9,21 @@ TensorDataset 每个张量的形状应为[N,...],而N是样本数,每个张量表示样本中一个字段,TensorDataset中通过在第一维索引张量来获取每个样本。 -参数: +参数 +:::::::::::: + - **tensors** (list of Tensors) - Tensor列表,这些Tensor的第一维形状相同 -返回:由张量列表定义的数据集 +返回 +:::::::::::: +由张量列表定义的数据集 -返回类型: Dataset +返回类型 +:::::::::::: + Dataset -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/WeightedRandomSampler_cn.rst b/docs/api/paddle/io/WeightedRandomSampler_cn.rst index 8a933fd1496..9d2883be862 100644 --- a/docs/api/paddle/io/WeightedRandomSampler_cn.rst +++ b/docs/api/paddle/io/WeightedRandomSampler_cn.rst @@ -7,16 +7,23 @@ WeightedRandomSampler 通过制定的权重随机采样,采样下标范围在 ``[0, len(weights) - 1]`` , 如果 ``replacement`` 为 ``True`` ,则下标可被采样多次 -参数: +参数 +:::::::::::: + - **weights** (numpy.ndarray|paddle.Tensor|tuple|list) - 权重序列,需要是numpy数组,paddle.Tensor,list或者tuple类型。 - **num_samples** (int) - 采样样本数。 - **replacement** (bool) - 是否采用有放回的采样,默认值为True -返回: 返回根据权重随机采样下标的采样器 +返回 +:::::::::::: + 返回根据权重随机采样下标的采样器 -返回类型: WeightedRandomSampler +返回类型 +:::::::::::: + WeightedRandomSampler -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/io/random_split_cn.rst b/docs/api/paddle/io/random_split_cn.rst index f40da2e8987..cc58a49a1a7 100644 --- a/docs/api/paddle/io/random_split_cn.rst +++ b/docs/api/paddle/io/random_split_cn.rst @@ -7,15 +7,20 @@ random_split 给定子集合dataset的长度数组,随机切分出原数据集合的非重复子集合。 -参数: +参数 +:::::::::::: + - **dataset** (Dataset) - 此参数必须是 ``paddle.io.Dataset`` 或 ``paddle.io.IterableDataset`` 的一个子类实例或实现了 ``__len__`` 的Python对象,用于生成样本下标。默认值为None。 - **lengths** (list) - 总和为原数组长度的,子集合长度数组。 - **generator** (Generator) - 指定采样 ``data_source`` 的采样器。默认值为None。 -返回: list, 返回按给定长度数组描述随机分割的原数据集合的非重复子集合。 +返回 +:::::::::::: + list, 返回按给定长度数组描述随机分割的原数据集合的非重复子集合。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/is_empty_cn.rst b/docs/api/paddle/is_empty_cn.rst index 6b7953eb462..0c00c553dcd 100644 --- a/docs/api/paddle/is_empty_cn.rst +++ b/docs/api/paddle/is_empty_cn.rst @@ -10,14 +10,19 @@ is_empty 测试变量是否为空 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 测试的变量 - **name** (str,可选)- 输出的名字。默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回:Tensor,布尔类型的Tensor,如果变量x为空则值为真 +返回 +:::::::::::: +Tensor,布尔类型的Tensor,如果变量x为空则值为真 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/is_tensor_cn.rst b/docs/api/paddle/is_tensor_cn.rst index 8682407e410..8335098cb58 100644 --- a/docs/api/paddle/is_tensor_cn.rst +++ b/docs/api/paddle/is_tensor_cn.rst @@ -7,13 +7,18 @@ is_tensor 该函数用来测试输入对象是否是paddle.Tensor -参数: +参数 +:::::::::::: + - **x** (Object) - 测试的对象。 -返回:布尔值,如果x是paddle.Tensor的话返回True,否则返回False。 +返回 +:::::::::::: +布尔值,如果x是paddle.Tensor的话返回True,否则返回False。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/jit/ProgramTranslator_cn.rst b/docs/api/paddle/jit/ProgramTranslator_cn.rst index c93d1304c23..0affd00e837 100644 --- a/docs/api/paddle/jit/ProgramTranslator_cn.rst +++ b/docs/api/paddle/jit/ProgramTranslator_cn.rst @@ -7,12 +7,17 @@ ProgramTranslator 将动态图函数转为静态图函数的类。该类是个单例(singleton)。 -参数: +参数 +:::::::::::: + 无。 -返回:ProgramTranslator 单例对象。 +返回 +:::::::::::: +ProgramTranslator 单例对象。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -22,16 +27,21 @@ ProgramTranslator paddle.jit.ProgramTranslator() paddle.jit.ProgramTranslator.get_instance() -.. py:method:: enable(enable_static) +方法 +:::::::::::: +enable(enable_static) +''''''''' 全局开启或关闭动态图转化为静态图。 -参数: +**参数** + - **enable_static** (bool) - 设置True或者False来打开或关闭动静转化 。 -返回:None。 +**返回** +None。 -**示例代码** +**代码示例** .. code-block:: python @@ -54,17 +64,20 @@ ProgramTranslator # ProgramTranslator被关闭所以func会以动态图模式运行 print(func(x)) # [[0. 0.]] -.. py:method:: get_output(dygraph_func, *args, **kwargs) +get_output(dygraph_func, *args, **kwargs) +''''''''' 返回动态图函数输出的Tensor,但是该动态图函数的数值计算过程会被转化为静态图模式运行。 -参数: +**参数** + - **dygraph_func** (callable) - 动态图函数。 - **args, kwargs** - 动态图函数的输入。 -返回:包含数值结果的Tensor或者Tensor的元组,是输入动态图函数的返回值。 +**返回** +包含数值结果的Tensor或者Tensor的元组,是输入动态图函数的返回值。 -**示例代码** +**代码示例** .. code-block:: python @@ -85,16 +98,19 @@ ProgramTranslator x_v = prog_trans.get_output(func, x) print(x_v) # [[0. 0.]] -.. py:method:: get_func(dygraph_func) +get_func(dygraph_func) +''''''''' 返回一个可调用函数,该函数将输入动态图函数接口转化为静态图组网接口。组网接口不像动态图接口,其并不直接返回数据结果。用户需要自行处理对应的Program和Eexecutor。 -参数: +**参数** + - **dygraph_func** (callable) - 动态图函数。 -返回:将动态图接口转为静态图组网接口的可调用函数。 +**返回** +将动态图接口转为静态图组网接口的可调用函数。 -**示例代码** +**代码示例** .. code-block:: python @@ -113,21 +129,24 @@ ProgramTranslator static_func = prog_trans.get_func(func) print(callable(static_func)) # True -.. py:method:: get_program(dygraph_func, *args, **kwargs) +get_program(dygraph_func, *args, **kwargs) +''''''''' 返回动态图函数转化后的静态图Program和输入输出Varaible。用户可以使用Executor来执行该Program。 -参数: +**参数** + - **dygraph_func** (callable) - 动态图函数。 - **args, kwargs** - 动态图函数的输入。 -返回:元组(main_program, startup_program, inputs, outputs) +**返回** +元组(main_program, startup_program, inputs, outputs) main_program: 转化后的main program。 startup_program: 转化后的startup program。 inputs: 输入Tensor的列表,这些Tensor可以在执行去feed。 outputs: 输出Tensor的列表,这些Tensor可以在运行时被fetch。 -**示例代码** +**代码示例** .. code-block:: python @@ -151,16 +170,19 @@ ProgramTranslator print([o.name for o in outputs]) # [u'_generated_var_4'] 需要被fetch的输出Tensor名字,对应x_v -.. py:method:: get_code(dygraph_func) +get_code(dygraph_func) +''''''''' 返回动态图函数转化后的静态图代码字符串。 -参数: +**参数** + - **dygraph_func** (callable) - 动态图函数。 -返回:转化后的静态图代码字符串。 +**返回** +转化后的静态图代码字符串。 -**示例代码** +**代码示例** .. code-block:: python @@ -181,13 +203,15 @@ ProgramTranslator print(type(code)) # -.. py:method:: get_program_cache() +get_program_cache() +''''''''' 返回ProgramCache单例。这个方法是PaddlePaddle开发者用来管理ProgramTranslator中的Program缓存,普通用户不需要使用这个方法。 -返回:ProgramTranslator中的ProgramCache。 +**返回** +ProgramTranslator中的ProgramCache。 -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/jit/TracedLayer_cn.rst b/docs/api/paddle/jit/TracedLayer_cn.rst index c0fa91336a4..2035c5d4326 100644 --- a/docs/api/paddle/jit/TracedLayer_cn.rst +++ b/docs/api/paddle/jit/TracedLayer_cn.rst @@ -17,17 +17,23 @@ TracedLayer使用 ``Executor`` 和 ``CompiledProgram`` 运行静态图模型。 TracedLayer只能用于将data independent的动态图模型转换为静态图模型,即待转换的动态图模型不应随tensor数据或维度的变化而变化。 -.. py:staticmethod:: trace(layer, inputs) +方法 +:::::::::::: +**static** trace(layer, inputs) +''''''''' 创建TracedLayer对象的唯一接口,该接口会调用 ``layer(*inputs)`` 方法运行动态图模型并将其转换为静态图模型。 -参数: +**参数** + - **layer** (dygraph.Layer) - 待追踪的动态图layer对象。 - **inputs** (list(Variable)) - 动态图layer对象的输入变量列表。 -返回: 包含2个元素的tuple,其中第一个元素是 ``layer(*inputs)`` 的输出结果,第二个元素是转换后得到的TracedLayer对象。 +**返回** + 包含2个元素的tuple,其中第一个元素是 ``layer(*inputs)`` 的输出结果,第二个元素是转换后得到的TracedLayer对象。 -返回类型: tuple +**返回类型** + tuple **代码示例** @@ -55,15 +61,18 @@ TracedLayer只能用于将data independent的动态图模型转换为静态图 # 将静态图模型保存为预测模型 static_layer.save_inference_model(path='./saved_infer_model') -.. py:method:: set_strategy(build_strategy=None, exec_strategy=None) +set_strategy(build_strategy=None, exec_strategy=None) +''''''''' 设置构建和执行静态图模型的相关策略。 -参数: +**参数** + - **build_strategy** (BuildStrategy, 可选) - TracedLayer内部 ``CompiledProgram`` 的构建策略。 - **exec_strategy** (ExecutionStrategy, 可选) - TracedLayer内部 ``CompiledProgram`` 的执行策略。 -返回: 无 +**返回** + 无 **代码示例** @@ -93,18 +102,21 @@ TracedLayer只能用于将data independent的动态图模型转换为静态图 static_layer.set_strategy(build_strategy=build_strategy, exec_strategy=exec_strategy) out_static_graph = static_layer([in_var]) -.. py:method:: save_inference_model(path, feed=None, fetch=None) +save_inference_model(path, feed=None, fetch=None) +''''''''' 将TracedLayer保存为用于预测部署的模型。保存的预测模型可被C++预测接口加载。 ``path`` 是存储目标的前缀,存储的模型结构 ``Program`` 文件的后缀为 ``.pdmodel``,存储的持久参数变量文件的后缀为 ``.pdiparams``. -参数: +**参数** + - **path** (str) - 存储模型的路径前缀。格式为 ``dirname/file_prefix`` 或者 ``file_prefix`` 。 - **feed** (list(int), 可选) - 预测模型输入变量的索引。若为None,则TracedLayer的所有输入变量均会作为预测模型的输入。默认值为None。 - **fetch** (list(int), 可选) - 预测模型输出变量的索引。若为None,则TracedLayer的所有输出变量均会作为预测模型的输出。默认值为None。 -返回: 无 +**返回** + 无 **代码示例** diff --git a/docs/api/paddle/jit/TranslatedLayer_cn.rst b/docs/api/paddle/jit/TranslatedLayer_cn.rst index 563f373f5c3..ce57202a91b 100644 --- a/docs/api/paddle/jit/TranslatedLayer_cn.rst +++ b/docs/api/paddle/jit/TranslatedLayer_cn.rst @@ -11,7 +11,8 @@ TranslatedLayer .. note:: ``TranslatedLayer`` 对象不能够通过构造函数创建,仅能够通过 :ref:`cn_api_paddle_jit_load` 接口载入构建。 -**示例代码:** +代码示例 +:::::::::::: .. code-block:: python import numpy as np @@ -97,18 +98,24 @@ TranslatedLayer train(translated_layer, loader, loss_fn, adam) -.. py:method:: program(method_name='forward'): +方法 +:::::::::::: +program(method_name='forward'): +''''''''' 获取TranslatedLayer中指定方法对应的Program。 -参数: +**参数** + - **method_name** (string) - 要获取的Porgram对应的方法名。默认值为"forward"。 -返回:Program +**返回** +Program -返回类型:Program +**返回类型** +Program -**示例代码:** +**代码示例** .. code-block:: python import numpy as np diff --git a/docs/api/paddle/jit/set_code_level_cn.rst b/docs/api/paddle/jit/set_code_level_cn.rst index dfce37a70ca..2a8167fcbd1 100644 --- a/docs/api/paddle/jit/set_code_level_cn.rst +++ b/docs/api/paddle/jit/set_code_level_cn.rst @@ -15,12 +15,15 @@ set_code_level 函数 ``set_code_level`` 的优先级高于环境变量 ``TRANSLATOR_CODE_LEVEL``。 -参数: +参数 +:::::::::::: + - **level** (int) - 打印的代码级别。默认值为100,这意味着打印的是所有 AST Transformer 转化后的代码。 - **also_to_stdout** (bool) - 表示是否也将代码输出到 ``sys.stdout``。默认值 False,表示仅输出到 ``sys.stderr``。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/jit/set_verbosity_cn.rst b/docs/api/paddle/jit/set_verbosity_cn.rst index b5e35dd2a11..a07679eb9ef 100644 --- a/docs/api/paddle/jit/set_verbosity_cn.rst +++ b/docs/api/paddle/jit/set_verbosity_cn.rst @@ -15,11 +15,14 @@ set_verbosity 函数 ``set_verbosity`` 的优先级高于环境变量 ``TRANSLATOR_VERBOSITY``。 -参数: +参数 +:::::::::::: + - **level** (int) - 日志详细级别。值越大,表示越详细。默认值为0,表示不显示日志。 - **also_to_stdout** (bool) - 表示是否也将日志信息输出到 ``sys.stdout``。默认值 False,表示仅输出到 ``sys.stderr``。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/jit/to_static_cn.rst b/docs/api/paddle/jit/to_static_cn.rst index a0d09e81771..765bfd7c1ab 100644 --- a/docs/api/paddle/jit/to_static_cn.rst +++ b/docs/api/paddle/jit/to_static_cn.rst @@ -8,13 +8,16 @@ to_static 本装饰器将函数内的动态图API转化为静态图API。此装饰器自动处理静态图模式下的Program和Executor,并将结果作为动态图Tensor返回。输出的动态图Tensor可以继续进行动态图训练、预测或其他运算。如果被装饰的函数里面调用其他动态图函数,被调用的函数也会被转化为静态图函数。 -参数: +参数 +:::::::::::: + - **function** (callable) - 待转换的动态图函数。若以装饰器形式使用,则被装饰函数默认会被解析为此参数值,无需显式指定。 - **input_spec** (list[InputSpec]|tuple[InputSpec]) - 用于指定被装饰函数中输入 Tensor 的 shape、dtype 和 name 信息,为包含 InputSpec 的 list/tuple 类型。 - **build_strategy** (BuildStrategy|None): 通过配置 build_strategy,对转换后的计算图进行优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于 build_strategy 更多信息,请参阅 ``paddle.static.BuildStrategy`` 。 默认为 None。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/kron_cn.rst b/docs/api/paddle/kron_cn.rst index 7f6831f64f8..c4ceb83900b 100644 --- a/docs/api/paddle/kron_cn.rst +++ b/docs/api/paddle/kron_cn.rst @@ -36,18 +36,23 @@ Kronecker Product 算子。 k_{t} = i_{t} * s_{t} + j_{t}, t = 0, 1, ..., N -参数: +参数 +:::::::::::: + - **x** (Tensor) – Kron OP 的第一个输入。多维 Tensor,数据类型为 float16, float32, float64, int32 或 int64。 - **y** (Tensor) – Kron OP 的第二个输入。多维 Tensor,数据类型为 float16, float32, float64, int32 或 int64,与 x 相同。 - **out** (Tensor, 可选) - 指定算子输出结果的 Tensor,可以是程序中已经创建的任何 Tensor。默认值为 None,此时将创建新的 Tensor 来保存输出结果。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 -返回: +返回 +:::::::::::: + - Kron OP 的输出。多维 Tensor,数据类型为 float16, float32, float64, int32 或 int64,与 x 一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/less_equal_cn.rst b/docs/api/paddle/less_equal_cn.rst index b18df229a61..6254cf89a7f 100644 --- a/docs/api/paddle/less_equal_cn.rst +++ b/docs/api/paddle/less_equal_cn.rst @@ -9,17 +9,24 @@ less_equal **注:该OP输出的结果不返回梯度。** -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/less_than_cn.rst b/docs/api/paddle/less_than_cn.rst index bf3e968e13c..c47db024961 100644 --- a/docs/api/paddle/less_than_cn.rst +++ b/docs/api/paddle/less_than_cn.rst @@ -9,17 +9,24 @@ less_than **注:该OP输出的结果不返回梯度。** -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/cholesky_cn.rst b/docs/api/paddle/linalg/cholesky_cn.rst index 0aa081fd454..7a81d8e29ba 100644 --- a/docs/api/paddle/linalg/cholesky_cn.rst +++ b/docs/api/paddle/linalg/cholesky_cn.rst @@ -12,16 +12,23 @@ cholesky 则分解形式为 :math:`A = U ^ {T} U` , 返回的矩阵U是上三角矩阵。 否则,分解形式为 :math:`A = LL ^ {T}` ,并返回矩阵 :math:`L` 是下三角矩阵。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入变量为多维Tensor,它的维度应该为 `[*, M, N]` ,其中*为零或更大的批次尺寸,并且最里面的两个维度上的矩阵都应为对称的正定矩阵,支持数据类型为float32,float64。 - **upper** (bool)- 指示是否返回上三角矩阵或下三角矩阵。默认值:False。 - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 与 `x` 具有相同形状和数据类型的Tensor。它代表了Cholesky分解生成的三角矩阵。 +返回 +:::::::::::: + 与 `x` 具有相同形状和数据类型的Tensor。它代表了Cholesky分解生成的三角矩阵。 -返回类型: 变量(Tensor) +返回类型 +:::::::::::: + 变量(Tensor) -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/cholesky_solve_cn.rst b/docs/api/paddle/linalg/cholesky_solve_cn.rst index 08112d83451..e6f8a96dd6a 100644 --- a/docs/api/paddle/linalg/cholesky_solve_cn.rst +++ b/docs/api/paddle/linalg/cholesky_solve_cn.rst @@ -9,14 +9,18 @@ cholesky_solve 输入x、y是2维矩阵,或者2维矩阵以batch形式组成的3维矩阵。如果输入是batch形式的3维矩阵,则输出也是batch形式的3维矩阵。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 线性方程中的B矩阵。是2维矩阵或者2维矩阵以batch形式组成的3维矩阵。 - **y** (Tensor) - 线性方程中A矩阵的Cholesky分解矩阵u,上三角或者下三角矩阵。是2维矩阵或者2维矩阵以batch形式组成的3维矩阵。 - **upper** (bool, 可选) - 输入x是否是上三角矩阵,True为上三角矩阵,False为下三角矩阵。默认值False。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, 线性方程的解X。 diff --git a/docs/api/paddle/linalg/cond_cn.rst b/docs/api/paddle/linalg/cond_cn.rst index 719dc79b7f1..65fba2fed64 100644 --- a/docs/api/paddle/linalg/cond_cn.rst +++ b/docs/api/paddle/linalg/cond_cn.rst @@ -8,13 +8,17 @@ cond 根据范数种类 ``p`` 计算一个或一批矩阵的条件数,也可以通过 paddle.cond 来调用。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入可以是形状为 ``(*, m, n)`` 的矩阵Tensor, ``*`` 为零或更大的批次维度,此时 ``p`` 为 `2` 或 `-2` ;也可以是形状为 ``(*, n, n)`` 的可逆(批)方阵Tensor,此时 ``p`` 为任意已支持的值。数据类型为 float32 或 float64 。 - **p** (float|string,可选) : 范数种类。目前支持的值为 `fro` 、 `nuc` 、 `1` 、 `-1` 、 `2` 、 `-2` 、 `inf` 、 `-inf` 。默认值为 `None` ,即范数种类为 `2` 。 - **name** (str,可选) - 默认值为 `None` ,一般无需设置,具体用法请参见 :ref:`api_guide_Name` 。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, 条件数的计算结果, 数据类型和输入 ``x`` 的一致。 diff --git a/docs/api/paddle/linalg/cov_cn.rst b/docs/api/paddle/linalg/cov_cn.rst index 84049366713..c25a2cbf785 100644 --- a/docs/api/paddle/linalg/cov_cn.rst +++ b/docs/api/paddle/linalg/cov_cn.rst @@ -11,7 +11,9 @@ cov 协方差矩阵是一个方阵,用于指示每两个输入元素之间的协方差值。 例如对于有N个元素的输入X=[x1,x2,…xN]T,协方差矩阵的元素Cij表示输入xi和xj之间的协方差,Cij表示xi其自身的协方差。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 一个N(N<=2)维矩阵,包含多个变量。默认矩阵的每行是一个观测变量,由参数rowvar设置。 - **rowvar** (bool, 可选) - 若是True,则每行作为一个观测变量;若是False,则每列作为一个观测变量。默认True。 @@ -20,7 +22,9 @@ cov - **aweights** (Tensor, 可选) - 包含整数观测权重的1维Tensor,表示每一个观测向量的重要性,重要性越高对应值越大。其维度值应该与输入x的观测维度值相等,为None则不起作用,默认None。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, 输入x的协方差矩阵。假设x是[m,n]的矩阵,rowvar=True, 则输出为[m,m]的矩阵。 diff --git a/docs/api/paddle/linalg/det_cn.rst b/docs/api/paddle/linalg/det_cn.rst index 6b5fdf2a366..32f635a1495 100644 --- a/docs/api/paddle/linalg/det_cn.rst +++ b/docs/api/paddle/linalg/det_cn.rst @@ -6,11 +6,15 @@ det .. py:function:: paddle.linalg.det(x) 计算批量矩阵的行列式值。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入一个或批量矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor out_value, 输出矩阵的行列式值 Shape为。 ``[*]`` 。 diff --git a/docs/api/paddle/linalg/eig_cn.rst b/docs/api/paddle/linalg/eig_cn.rst index 1a48e9d4e99..d79fa654bb5 100644 --- a/docs/api/paddle/linalg/eig_cn.rst +++ b/docs/api/paddle/linalg/eig_cn.rst @@ -14,12 +14,16 @@ eig - 该API当前只能在CPU上执行。 - 对于输入是实数和复数类型,输出的数据类型均为复数。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 输入一个或一批矩阵。 ``x`` 的形状应为 ``[*, M, M]`` , 数据类型支持float32,float64,complex64和complex128。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor Eigenvalues, 输出Shape为 ``[*, M]`` 的矩阵,表示特征值。 - Tensor Eigenvectors, 输出Shape为 ``[*, M, M]`` 矩阵,表示特征向量。 diff --git a/docs/api/paddle/linalg/eigh_cn.rst b/docs/api/paddle/linalg/eigh_cn.rst index 8dc964d5cd9..9d1599290f0 100644 --- a/docs/api/paddle/linalg/eigh_cn.rst +++ b/docs/api/paddle/linalg/eigh_cn.rst @@ -6,13 +6,17 @@ eigh .. py:function:: paddle.linalg.eigh(x, UPLO='L', name=None) 计算厄米特矩阵或者实数对称矩阵的特征值和特征向量。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入一个或一批厄米特矩阵或者实数对称矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64,complex64,complex128。 - **UPLO** (str,可选) : 表示计算上三角或者下三角矩阵,默认值为 'L',表示计算下三角矩阵的特征值和特征向量,'U'表示计算上三角矩阵的特征值和特征向量。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor out_value, 输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 - Tensor out_vector, 输出矩阵的特征向量,与特征值一一对应,Shape为 ``[*, M, M]`` 。 diff --git a/docs/api/paddle/linalg/eigvalsh_cn.rst b/docs/api/paddle/linalg/eigvalsh_cn.rst index 88f582d8c4e..9c76ef12979 100644 --- a/docs/api/paddle/linalg/eigvalsh_cn.rst +++ b/docs/api/paddle/linalg/eigvalsh_cn.rst @@ -6,13 +6,17 @@ eigvalsh .. py:function:: paddle.linalg.eigvalsh(x, UPLO='L', name=None) 计算厄米特矩阵或者实数对称矩阵的特征值。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入一个或一批厄米特矩阵或者实数对称矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64,complex64,complex128。 - **UPLO** (str,可选) : 表示计算上三角或者下三角矩阵,默认值为 'L',表示计算下三角矩阵的特征值,'U'表示计算上三角矩阵的特征值。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor 输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 diff --git a/docs/api/paddle/linalg/lstsq_cn.rst b/docs/api/paddle/linalg/lstsq_cn.rst index 94f6913f6b7..f95403793f2 100644 --- a/docs/api/paddle/linalg/lstsq_cn.rst +++ b/docs/api/paddle/linalg/lstsq_cn.rst @@ -8,7 +8,9 @@ lstsq 求解线性方程组的最小二乘问题。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 形状为 ``(*, M, N)`` 的矩阵Tensor, ``*`` 为零或更大的批次维度。数据类型为 float32 或 float64 。 - **y** (Tensor) : 形状为 ``(*, M, K)`` 的矩阵Tensor, ``*`` 为零或更大的批次维度。数据类型为 float32 或 float64 。 @@ -16,7 +18,9 @@ lstsq - **driver** (str,可选) : 默认值为 `None` ,用来指定计算使用的 LAPACK 库方法。CPU 下该参数的合法值为 'gels', 'gelsy' (默认) , 'gelsd', 'gelss';CUDA 下该参数的合法值为 'gels' (默认) 。 - **name** (str,可选) : 默认值为 `None` ,一般无需设置,具体用法请参见 :ref:`api_guide_Name` 。 -返回: +返回 +:::::::::::: + ::::::::: - 一个包含 ``solution``、``residuals``、``rank`` 和 ``singular_values`` 的 Tuple 。 ``solution`` 指最小二乘解,形状为 ``(*, N, K)`` 的 Tensor。 diff --git a/docs/api/paddle/linalg/lu_cn.rst b/docs/api/paddle/linalg/lu_cn.rst index 6229768bfd2..797d339ead1 100644 --- a/docs/api/paddle/linalg/lu_cn.rst +++ b/docs/api/paddle/linalg/lu_cn.rst @@ -24,14 +24,18 @@ lu LU和pivot可以通过调用paddle.linalg.lu_unpack展开获得L、U、P矩阵。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 需要进行LU分解的输入矩阵x,x是维度大于2维的矩阵。 - **pivot** (bool, 可选) - LU分解时是否进行旋转。若为True则执行旋转操作,若为False则不执行旋转操作,该选项只在gpu下起作用, cpu下暂不支持为False,会报错。默认True。 - **get_infos** (bool, 可选) - 是否返回分解状态信息,若为True,则返回分解状态Tensor,否则不返回。默认False。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor LU, LU分解结果矩阵LU,由L、U拼接组成。 - Tensor(dtype=int) Pivots, 旋转矩阵对应的旋转序列,详情见说明部分pivot部分, 对于输入[*,m,n]的x,Pivots shape为[*, m]。 diff --git a/docs/api/paddle/linalg/lu_unpack_cn.rst b/docs/api/paddle/linalg/lu_unpack_cn.rst index 7a83db7e6ad..416185e8fc1 100644 --- a/docs/api/paddle/linalg/lu_unpack_cn.rst +++ b/docs/api/paddle/linalg/lu_unpack_cn.rst @@ -17,7 +17,9 @@ lu_unpack swap(ones[i], ones[pivots[i]]) return ones -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - paddle.linalg.lu返回结果的LU矩阵。 - **y** (Tensor) - paddle.linalg.lu返回结果的pivot序列。 @@ -25,7 +27,9 @@ lu_unpack - **unpack_pivots** (bool, 可选) - 若为True,则对输入y(pivots)序列进行展开,得到转换矩阵P。默认True。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor L, 由LU展开得到的L矩阵,若unpack_ludata为False,则为None。 - Tensor U, 由LU展开得到的U矩阵,若unpack_ludata为False,则为None。 diff --git a/docs/api/paddle/linalg/matrix_power_cn.rst b/docs/api/paddle/linalg/matrix_power_cn.rst index 17d306d83c5..d4f89cace3f 100644 --- a/docs/api/paddle/linalg/matrix_power_cn.rst +++ b/docs/api/paddle/linalg/matrix_power_cn.rst @@ -27,7 +27,9 @@ matrix_power - **n** (int) : 输入的幂次, 类型为 int。 它可以是任意整数。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, 这个(或这批)矩阵 ``x`` 经过 ``n`` 次幂运算后的结果, 数据类型和输入 ``x`` 的一致。 diff --git a/docs/api/paddle/linalg/multi_dot_cn.rst b/docs/api/paddle/linalg/multi_dot_cn.rst index 294d630c84f..3a80145cb64 100755 --- a/docs/api/paddle/linalg/multi_dot_cn.rst +++ b/docs/api/paddle/linalg/multi_dot_cn.rst @@ -25,7 +25,9 @@ Multi_dot会选择计算量最小的乘法顺序进行计算。(a, b)和(b, c) - **x** ([tensor]): 输入的是一个tensor列表。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor,输出Tensor diff --git a/docs/api/paddle/linalg/pinv_cn.rst b/docs/api/paddle/linalg/pinv_cn.rst index eb95bc7c633..2135b70c335 100644 --- a/docs/api/paddle/linalg/pinv_cn.rst +++ b/docs/api/paddle/linalg/pinv_cn.rst @@ -17,7 +17,9 @@ pinv - **hermitian** (bool,可选) : 是否为 ``hermitian`` 矩阵或者实对称矩阵,默认值为False。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor,输入矩阵的伪逆矩阵,数据类型和输入数据类型一致。形状为(N, M)或(B, N, M)。 diff --git a/docs/api/paddle/linalg/qr_cn.rst b/docs/api/paddle/linalg/qr_cn.rst index 0c3cea5c20c..215a716370e 100644 --- a/docs/api/paddle/linalg/qr_cn.rst +++ b/docs/api/paddle/linalg/qr_cn.rst @@ -16,13 +16,17 @@ qr 其中,:math:`Q` 是正交矩阵,:math:`R` 是上三角矩阵。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入进行正交三角分解的一个或一批方阵, 类型为 Tensor。 ``x`` 的形状应为 ``[*, M, N]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 - **mode** (str, 可选) : 控制正交三角分解的行为,默认是 ``reduced`` ,假设 ``x`` 形状应为 ``[*, M, N]`` 和 ``K = min(M, N)``:如果 ``mode = "reduced"`` ,则 :math:`Q` 形状为 ``[*, M, K]`` 和 :math:`R` 形状为 ``[*, K, N]`` ; 如果 ``mode = "complete"`` ,则 :math:`Q` 形状为 ``[*, M, M]`` 和 :math:`R` 形状为 ``[*, M, N]`` ; 如果 ``mode = "r"`` ,则不返回 :math:`Q`, 只返回 :math:`R` 且形状为 ``[*, K, N]`` 。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor Q, 正交三角分解的Q正交矩阵,需注意如果 ``mode = "reduced"`` ,则不返回Q矩阵,只返回R矩阵。 - Tensor R, 正交三角分解的R上三角矩阵。 diff --git a/docs/api/paddle/linalg/slogdet_cn.rst b/docs/api/paddle/linalg/slogdet_cn.rst index 758acc253ab..b3d64f1f9cb 100644 --- a/docs/api/paddle/linalg/slogdet_cn.rst +++ b/docs/api/paddle/linalg/slogdet_cn.rst @@ -6,11 +6,15 @@ slogdet .. py:function:: paddle.linalg.slogdet(x) 计算批量矩阵的行列式值的符号值和行列式值绝对值的自然对数值。如果行列式值为0,则符号值为0,自然对数值为-inf。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入一个或批量矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor out_value, 输出矩阵的行列式值 Shape为。 ``[2, *]`` 。 diff --git a/docs/api/paddle/linalg/solve_cn.rst b/docs/api/paddle/linalg/solve_cn.rst index 0e9714926a8..b15a1cca431 100644 --- a/docs/api/paddle/linalg/solve_cn.rst +++ b/docs/api/paddle/linalg/solve_cn.rst @@ -24,7 +24,9 @@ solve - **y** (Tensor) : 输入的欲进行线性方程组求解的右值, 类型为 Tensor。 ``y`` 的形状应为 ``[*, M, K]``, 其中 ``*`` 为零或更大的批次维度, 数据类型和 ``x`` 相同。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, 这个(或这批)矩阵 ``x`` 与 ``y`` 经过运算后的结果, 数据类型和输入 ``x`` 的一致。 diff --git a/docs/api/paddle/linalg/svd_cn.rst b/docs/api/paddle/linalg/svd_cn.rst index 03573cc71f2..334621c90c7 100644 --- a/docs/api/paddle/linalg/svd_cn.rst +++ b/docs/api/paddle/linalg/svd_cn.rst @@ -16,13 +16,17 @@ svd 值得注意的是,:math:`S` 是向量,从大到小表示每个奇异值。而 :math:`VH` 则是V的共轭转置。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) : 输入的欲进行奇异值分解的一个或一批方阵, 类型为 Tensor。 ``x`` 的形状应为 ``[*, M, N]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 - **full_matrics** (bool) : 是否计算完整的U和V矩阵, 类型为 bool 默认为 False。 这个参数会影响U和V生成的Shape。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor U, 奇异值分解的U矩阵。如果full_matrics设置为False,则Shape为 ``[*, M, K]`` ,如果full_metrics设置为True,那么Shape为 ``[*, M, M]`` 。其中K为M和N的最小值。 - Tensor S, 奇异值向量,Shape为 ``[*, K]`` 。 diff --git a/docs/api/paddle/linalg/triangular_solve_cn.rst b/docs/api/paddle/linalg/triangular_solve_cn.rst index 4330a30eeb3..83277664dad 100644 --- a/docs/api/paddle/linalg/triangular_solve_cn.rst +++ b/docs/api/paddle/linalg/triangular_solve_cn.rst @@ -33,7 +33,9 @@ triangular_solve - **unitriangular** (bool, 可选) - 如果为True,则将系数矩阵 ``x`` 对角线元素假设为1来求解方程。默认为False。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, 线程方程组的解, 数据类型和 ``x`` 一致。 diff --git a/docs/api/paddle/linspace_cn.rst b/docs/api/paddle/linspace_cn.rst index 44f75fb00a0..ca2bea38790 100644 --- a/docs/api/paddle/linspace_cn.rst +++ b/docs/api/paddle/linspace_cn.rst @@ -8,17 +8,22 @@ linspace 该OP返回一个Tensor,Tensor的值为在区间start和stop上均匀间隔的num个值,输出Tensor的长度为num。 **注意:该OP不进行梯度计算** -参数: +参数 +:::::::::::: + - **start** (int|float|Tensor) – ``start`` 是区间开始的变量,可以是一个浮点标量,或是一个shape为[1]的Tensor,该Tensor的数据类型可以是float32,float64,int32 或者int64。 - **stop** (int|float|Tensor) – ``stop`` 是区间结束的变量,可以是一个浮点标量,或是一个shape为[1]的Tensor,该Tensor的数据类型可以是float32,float64,int32或者int64。 - **num** (int|Tensor) – ``num`` 是给定区间内需要划分的区间数,可以是一个整型标量,或是一个shape为[1]的Tensor,该Tensor的数据类型需为int32。 - **dtype** (np.dtype|str, 可选) – 输出Tensor的数据类型,可以是float32,float64, int32或者int64。如果dtype的数据类型为None,输出Tensor数据类型为float32。 - **name** (str, 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:表示等间隔划分结果的1-D Tensor,该Tensor的shape大小为 :math:`[num]` ,在mum为1的情况下,仅返回包含start元素值的Tensor。 +返回 +:::::::::::: +表示等间隔划分结果的1-D Tensor,该Tensor的shape大小为 :math:`[num]` ,在mum为1的情况下,仅返回包含start元素值的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/log10_cn.rst b/docs/api/paddle/log10_cn.rst index 0452af5d8c1..e95dbd0a6f7 100755 --- a/docs/api/paddle/log10_cn.rst +++ b/docs/api/paddle/log10_cn.rst @@ -15,16 +15,23 @@ Log10激活函数(计算底为10的对数) \\Out=log_{10} x\\ -参数: +参数 +:::::::::::: + - **x** (Tensor) – 该OP的输入为Tensor。数据类型为float32,float64。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:Log10算子底为10对数输出 +返回 +:::::::::::: +Log10算子底为10对数输出 -返回类型: Tensor - 该OP的输出为Tensor,数据类型为输入一致。 +返回类型 +:::::::::::: + Tensor - 该OP的输出为Tensor,数据类型为输入一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/log1p_cn.rst b/docs/api/paddle/log1p_cn.rst index 70841e09b58..7e11938564f 100644 --- a/docs/api/paddle/log1p_cn.rst +++ b/docs/api/paddle/log1p_cn.rst @@ -15,13 +15,18 @@ log1p \\Out=ln(x+1)\\ -参数: +参数 +:::::::::::: + - **x** (Tensor) – 指定输入为一个多维的Tensor。数据类型为float32,float64。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:Tensor, Log1p算子自然对数输出,数据类型,形状为输入一致 +返回 +:::::::::::: +Tensor, Log1p算子自然对数输出,数据类型,形状为输入一致 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/log_cn.rst b/docs/api/paddle/log_cn.rst index 77a566cb8de..f10da1c157d 100644 --- a/docs/api/paddle/log_cn.rst +++ b/docs/api/paddle/log_cn.rst @@ -15,13 +15,18 @@ Log激活函数(计算自然对数) \\Out=ln(x)\\ -参数: +参数 +:::::::::::: + - **x** (Tensor) – 该OP的输入为Tensor。数据类型为float32,float64。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:Tensor, Log算子自然对数输出,数据类型与输入一致。 +返回 +:::::::::::: +Tensor, Log算子自然对数输出,数据类型与输入一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/logical_and_cn.rst b/docs/api/paddle/logical_and_cn.rst index 7f2fcae57a0..6b6f4b729ec 100644 --- a/docs/api/paddle/logical_and_cn.rst +++ b/docs/api/paddle/logical_and_cn.rst @@ -13,15 +13,20 @@ logical_and .. note:: ``paddle.logical_and`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 `Tensor` ,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **y** (Tensor)- 输入的 `Tensor` ,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **out** (Tensor,可选)- 指定算子输出结果的 `Tensor` ,可以是程序中已经创建的任何Tensor。默认值为None,此时将创建新的Tensor来保存输出结果。 - **name** (str,可选)- 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 -返回: ``Tensor`` , 维度``x`` 维度相同,存储运算后的结果。 +返回 +:::::::::::: + ``Tensor`` , 维度``x`` 维度相同,存储运算后的结果。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/logical_not_cn.rst b/docs/api/paddle/logical_not_cn.rst index 09db05f2fe3..7cd20bad942 100644 --- a/docs/api/paddle/logical_not_cn.rst +++ b/docs/api/paddle/logical_not_cn.rst @@ -13,16 +13,23 @@ logical_not .. math:: Out = !X -参数: +参数 +:::::::::::: + - **x** (Tensor)- 逻辑非运算的输入,是一个 Tensor,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **out** (Tensor,可选)- 指定算子输出结果的 Tensor,可以是程序中已经创建的任何 Tensor。默认值为None,此时将创建新的Tensor来保存输出结果。 - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法参见 :ref:`api_guide_Name` ,默认值为None。 -返回:与 ``x`` 维度相同,数据类型相同的 Tensor。 +返回 +:::::::::::: +与 ``x`` 维度相同,数据类型相同的 Tensor。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/logical_or_cn.rst b/docs/api/paddle/logical_or_cn.rst index f876280c599..833b6ed3744 100644 --- a/docs/api/paddle/logical_or_cn.rst +++ b/docs/api/paddle/logical_or_cn.rst @@ -13,15 +13,20 @@ logical_or .. note:: ``paddle.logical_or`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 `Tensor` ,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **y** (Tensor)- 输入的 `Tensor` ,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **out** (Tensor,可选)- 指定算子输出结果的 `Tensor` ,可以是程序中已经创建的任何Tensor。默认值为None,此时将创建新的Tensor来保存输出结果。 - **name** (str,可选)- 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 -返回: ``Tensor`` , 维度``x`` 维度相同,存储运算后的结果。 +返回 +:::::::::::: + ``Tensor`` , 维度``x`` 维度相同,存储运算后的结果。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/logical_xor_cn.rst b/docs/api/paddle/logical_xor_cn.rst index 371cfb6302d..9ce0dc90609 100644 --- a/docs/api/paddle/logical_xor_cn.rst +++ b/docs/api/paddle/logical_xor_cn.rst @@ -13,15 +13,20 @@ logical_xor .. note:: ``paddle.logical_xor`` 遵守broadcasting,如您想了解更多,请参见 :ref:`cn_user_guide_broadcasting` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入的 `Tensor` ,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **y** (Tensor)- 输入的 `Tensor` ,支持的数据类型为bool, int8, int16, in32, in64, float32, float64。 - **out** (Tensor,可选)- 指定算子输出结果的 `Tensor` ,可以是程序中已经创建的任何Tensor。默认值为None,此时将创建新的Tensor来保存输出结果。 - **name** (str,可选)- 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 -返回: ``Tensor`` , 维度``x`` 维度相同,存储运算后的结果。 +返回 +:::::::::::: + ``Tensor`` , 维度``x`` 维度相同,存储运算后的结果。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/logit_cn.rst b/docs/api/paddle/logit_cn.rst index 9f944bfd884..52cfe1411a8 100644 --- a/docs/api/paddle/logit_cn.rst +++ b/docs/api/paddle/logit_cn.rst @@ -23,7 +23,9 @@ logit \right. -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - eps (float, 可选) - 传入该参数后可将 ``x`` 的范围控制在[eps, 1-eps],默认值为 None。 diff --git a/docs/api/paddle/masked_select_cn.rst b/docs/api/paddle/masked_select_cn.rst index 19eb6f82e8b..84d39349b10 100644 --- a/docs/api/paddle/masked_select_cn.rst +++ b/docs/api/paddle/masked_select_cn.rst @@ -9,19 +9,26 @@ masked_select 该OP返回一个1-D 的Tensor, Tensor的值是根据 ``mask`` 对输入 ``x`` 进行选择的, ``mask`` 的数据类型是bool 。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor, 数据类型为float32, float64,int32 或者int64。 - **mask** (Tensor) - 用于索引的二进制掩码的Tensor,数据类型维bool。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回一个根据 ``mask`` 选择的的Tensor +返回 +:::::::::::: +返回一个根据 ``mask`` 选择的的Tensor + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError``: - 如果 ``x`` 不是 Tensor 或者 ``x`` 是Tensor的时候的数据类型不是 float32, float64, int32, int64其中之一。 - ``TypeError``: - 如果 ``mask`` 不是 Tensor 或者 ``mask`` 是Tensor的时候的数据类型不是 bool。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/matmul_cn.rst b/docs/api/paddle/matmul_cn.rst index e71cd9374b2..4d8a76d269b 100644 --- a/docs/api/paddle/matmul_cn.rst +++ b/docs/api/paddle/matmul_cn.rst @@ -32,7 +32,9 @@ matmul - **transpose_y** (bool,可选) : 相乘前是否转置 y,默认值为False。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor,矩阵相乘后的结果,数据类型和输入数据类型一致。 diff --git a/docs/api/paddle/meshgrid_cn.rst b/docs/api/paddle/meshgrid_cn.rst index 380387f5cfe..370fb5c58cb 100644 --- a/docs/api/paddle/meshgrid_cn.rst +++ b/docs/api/paddle/meshgrid_cn.rst @@ -10,16 +10,23 @@ meshgrid 该OP的输入是张量或者包含张量的列表, 包含 k 个一维张量,对每个张量做扩充操作,输出 k 个 k 维张量。 -参数: +参数 +:::::::::::: + - \* **args** (Tensor|Tensor数组)- 输入变量为 k 个一维张量,形状分别为(N1,), (N2,), ..., (Nk, )。支持数据类型为float32,float64,int32,int64。 - ** **kargs** (可选)- 目前只接受name参数(str),具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + k 个 k 维张量,每个张量的形状均为(N1, N2, ..., Nk)。 -返回类型: Tensor,k个Tensor,每个Tensor的形状分别为N1, N2, ... , Nk。 +返回类型 +:::::::::::: + Tensor,k个Tensor,每个Tensor的形状分别为N1, N2, ... , Nk。 -**代码示例** +代码示例 +:::::::::::: diff --git a/docs/api/paddle/metric/Auc_cn.rst b/docs/api/paddle/metric/Auc_cn.rst index 3718e8a994f..19cdd0ba01e 100644 --- a/docs/api/paddle/metric/Auc_cn.rst +++ b/docs/api/paddle/metric/Auc_cn.rst @@ -12,7 +12,9 @@ Auc 该接口创建四个局部变量true_positives, true_negatives, false_positives和false_negatives,用于计算Auc。为了离散化AUC曲线,使用临界值的线性间隔来计算召回率和准确率的值。用false positive的召回值高度计算ROC曲线面积,用recall的准确值高度计算PR曲线面积。 -参数: +参数 +:::::::::::: + ::::::::: - **curve** (str) - 将要计算的曲线名的模式,包括'ROC'(默认)或者'PR'(Precision-Recall-curve)。 - **num_thresholds** (int) - 离散化AUC曲线的整数阈值数,默认是4095。 @@ -97,7 +99,9 @@ reset() 清空状态和计算结果。 -返回:无 +返回 +:::::::::::: +无 accumulate() @@ -105,7 +109,9 @@ accumulate() 累积的统计指标,计算和返回AUC值。 -返回:AUC值,一个标量。 +返回 +:::::::::::: +AUC值,一个标量。 name() @@ -113,4 +119,6 @@ name() 返回Metric实例的名字, 参考上述的name,默认是'auc'。 -返回: 评估的名字,string类型。 +返回 +:::::::::::: + 评估的名字,string类型。 diff --git a/docs/api/paddle/metric/Metric_cn.rst b/docs/api/paddle/metric/Metric_cn.rst index aa1fa9570b5..6ca53dd1132 100644 --- a/docs/api/paddle/metric/Metric_cn.rst +++ b/docs/api/paddle/metric/Metric_cn.rst @@ -83,7 +83,9 @@ reset() 清空状态和计算结果。 -返回:无 +返回 +:::::::::::: +无 update(*args) @@ -101,7 +103,9 @@ accumulate() 累积的统计指标,计算和返回评估结果。 -返回:评估结果,一般是个标量 或 多个标量。 +返回 +:::::::::::: +评估结果,一般是个标量 或 多个标量。 name() @@ -109,7 +113,9 @@ name() 返回Metric的名字, 一般通过__init__构造函数传入。 -返回: 评估的名字,string类型。 +返回 +:::::::::::: + 评估的名字,string类型。 compute() diff --git a/docs/api/paddle/metric/Precision_cn.rst b/docs/api/paddle/metric/Precision_cn.rst index 432f0c74ee7..554fe52e4c4 100644 --- a/docs/api/paddle/metric/Precision_cn.rst +++ b/docs/api/paddle/metric/Precision_cn.rst @@ -81,14 +81,18 @@ update(preds, labels, *args) - **preds** (numpy.array | Tensor): 预测输出结果通常是sigmoid函数的输出,是一个数据类型为float64或float32的向量。 - **labels** (numpy.array | Tensor): 真实标签的shape和:code: `preds` 相同,数据类型为int32或int64。 -返回: 无。 +返回 +:::::::::::: + 无。 reset() ::::::::: 清空状态和计算结果。 -返回:无 +返回 +:::::::::::: +无 accumulate() @@ -96,7 +100,9 @@ accumulate() 累积的统计指标,计算和返回precision值。 -返回:precision值,一个标量。 +返回 +:::::::::::: +precision值,一个标量。 name() @@ -104,4 +110,6 @@ name() 返回Metric实例的名字, 参考上述的name,默认是'precision'。 -返回: 评估的名字,string类型。 +返回 +:::::::::::: + 评估的名字,string类型。 diff --git a/docs/api/paddle/metric/Recall_cn.rst b/docs/api/paddle/metric/Recall_cn.rst index d1bf83ee821..933d13625f3 100644 --- a/docs/api/paddle/metric/Recall_cn.rst +++ b/docs/api/paddle/metric/Recall_cn.rst @@ -81,7 +81,9 @@ update(preds, labels, *args) - **preds** (numpy.array | Tensor): 预测输出结果通常是sigmoid函数的输出,是一个数据类型为float64或float32的向量。 - **labels** (numpy.array | Tensor): 真实标签的shape和:code: `preds` 相同,数据类型为int32或int64。 -返回: 无。 +返回 +:::::::::::: + 无。 reset() @@ -89,7 +91,9 @@ reset() 清空状态和计算结果。 -返回:无 +返回 +:::::::::::: +无 accumulate() @@ -97,7 +101,9 @@ accumulate() 累积的统计指标,计算和返回recall值。 -返回:precision值,一个标量。 +返回 +:::::::::::: +precision值,一个标量。 name() @@ -105,4 +111,6 @@ name() 返回Metric实例的名字, 参考上述的name,默认是'recall'。 -返回: 评估的名字,string类型。 +返回 +:::::::::::: + 评估的名字,string类型。 diff --git a/docs/api/paddle/mm_cn.rst b/docs/api/paddle/mm_cn.rst index 7fa1c15fd8e..86373b90b52 100644 --- a/docs/api/paddle/mm_cn.rst +++ b/docs/api/paddle/mm_cn.rst @@ -14,13 +14,17 @@ mm 如果原始 Tensor input 或 mat2 的秩为 1 且未转置,则矩阵相乘后的前置或附加维度 1 将移除。 -参数: +参数 +:::::::::::: + - **input** (Tensor) : 输入变量,类型为 Tensor 或 LoDTensor。 - **mat2** (Tensor) : 输入变量,类型为 Tensor 或 LoDTensor。 - **out** (Tensor, 可选) – 指定存储运算结果的Tensor。如果设置为None或者不设置,将创建新的Tensor存储运算结果,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - Tensor,矩阵相乘后的结果。 @@ -57,7 +61,8 @@ mm out: [1] -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/multinomial_cn.rst b/docs/api/paddle/multinomial_cn.rst index 62a7ec923b7..ed8f7f18cce 100644 --- a/docs/api/paddle/multinomial_cn.rst +++ b/docs/api/paddle/multinomial_cn.rst @@ -10,19 +10,26 @@ multinomial 该OP以输入 ``x`` 为概率,生成一个多项分布的Tensor。 输入 ``x`` 是用来随机采样的概率分布, ``x`` 中每个元素都应该大于等于0,且不能都为0。 -参数 ``replacement`` 表示它是否是一个可放回的采样,如果 ``replacement`` 为True, 能重复对一种类别采样。 +参数 +:::::::::::: +``replacement`` 表示它是否是一个可放回的采样,如果 ``replacement`` 为True, 能重复对一种类别采样。 + +参数 +:::::::::::: -参数: - **x** (Tensor) - 输入的概率值。数据类型为 ``float32`` 、``float64`` . - **num_samples** (int, 可选) - 采样的次数(可选,默认值为1)。 - **replacement** (bool, 可选) - 是否是可放回的采样(可选,默认值为False)。 - **name** (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回: +返回 +:::::::::::: + Tensor:多项分布采样得到的随机Tensor,为 ``num_samples`` 次采样得到的类别下标。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/multiplex_cn.rst b/docs/api/paddle/multiplex_cn.rst index 55546725358..b3aba0fc33f 100644 --- a/docs/api/paddle/multiplex_cn.rst +++ b/docs/api/paddle/multiplex_cn.rst @@ -33,14 +33,19 @@ multiplex [1,2,4,2] // out[2] = inputs[index[2]][2] = inputs[1][2] = [1,2,4,2] [2,3,3,4]] // out[3] = inputs[index[3]][3] = inputs[2][3] = [2,3,3,4] -参数: +参数 +:::::::::::: + - **inputs** (list) - 为输入Tensor列表,列表元素为数据类型为float32,float64,int32,int64的多维Tensor。所有输入Tensor的shape应相同,秩必须至少为2。 - **index** (Tensor)- 用来选择输入Tensor中的某些行构建输出Tensor的索引,为数据类型为int32或int64、shape为[M, 1]的2-D Tensor,其中M为输入Tensor个数。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor, 进行Multiplex运算后的输出Tensor。 +返回 +:::::::::::: +Tensor, 进行Multiplex运算后的输出Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/BatchNorm1D_cn.rst b/docs/api/paddle/nn/BatchNorm1D_cn.rst index c155123a59a..491a533606c 100644 --- a/docs/api/paddle/nn/BatchNorm1D_cn.rst +++ b/docs/api/paddle/nn/BatchNorm1D_cn.rst @@ -35,7 +35,9 @@ BatchNorm1D - :math:`\gamma` : 可训练的比例参数 - :math:`\beta` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -45,7 +47,9 @@ BatchNorm1D - **name** (string, 可选) – BatchNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为(批大小,通道数)的2-D Tensor 或(批大小, 通道数,长度)的3-D Tensor。 @@ -55,7 +59,8 @@ BatchNorm1D 目前训练时设置track_running_stats为False是无效的,实际还是会按照True的方案保存全局均值和方差。之后的版本会修复此问题。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/BatchNorm2D_cn.rst b/docs/api/paddle/nn/BatchNorm2D_cn.rst index d838cfe6454..f28a5fcab66 100644 --- a/docs/api/paddle/nn/BatchNorm2D_cn.rst +++ b/docs/api/paddle/nn/BatchNorm2D_cn.rst @@ -35,7 +35,9 @@ BatchNorm2D - :math:`\gamma` : 可训练的比例参数 - :math:`\beta` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -45,7 +47,9 @@ BatchNorm2D - **name** (string, 可选) – BatchNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为(批大小,通道数, 高度,宽度)的4-D Tensor 或(批大小, 通道数,宽度,高度)的4-D Tensor。 @@ -55,7 +59,8 @@ BatchNorm2D 目前训练时设置track_running_stats为False是无效的,实际还是会按照True的方案保存全局均值和方差。之后的版本会修复此问题。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/BatchNorm3D_cn.rst b/docs/api/paddle/nn/BatchNorm3D_cn.rst index 689444684d8..631a05fd4d6 100644 --- a/docs/api/paddle/nn/BatchNorm3D_cn.rst +++ b/docs/api/paddle/nn/BatchNorm3D_cn.rst @@ -35,7 +35,9 @@ BatchNorm3D - :math:`\gamma` : 可训练的比例参数 - :math:`\beta` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -45,7 +47,9 @@ BatchNorm3D - **name** (string, 可选) – BatchNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为(批大小,通道数, 维度,高度,宽度)的5-D Tensor。 @@ -55,7 +59,8 @@ BatchNorm3D 目前训练时设置track_running_stats为False是无效的,实际还是会按照True的方案保存全局均值和方差。之后的版本会修复此问题。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/BatchNorm_cn.rst b/docs/api/paddle/nn/BatchNorm_cn.rst index b0c3d16eabf..42500d0c0ed 100644 --- a/docs/api/paddle/nn/BatchNorm_cn.rst +++ b/docs/api/paddle/nn/BatchNorm_cn.rst @@ -37,7 +37,9 @@ BatchNorm - :math:`\gamma` : 可训练的比例参数 - :math:`\beta` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **num_channels** (int) - 指明输入 ``Tensor`` 的通道数量。 - **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 - **is_test** (bool, 可选) - 指示是否在测试阶段,非训练阶段使用训练过程中统计到的全局均值和全局方差。默认值:False。 @@ -54,9 +56,12 @@ BatchNorm - **use_global_stats** (bool, 可选) – 指示是否使用全局均值和方差。在预测或测试模式下,将 ``use_global_stats`` 设置为true或将 ``is_test`` 设置为true,这两种行为是等效的。在训练模式中,当设置 ``use_global_stats`` 为True时,在训练期间也将使用全局均值和方差。默认值:False。 - **trainable_statistics** (bool, 可选) - eval模式下是否计算mean均值和var方差。eval模式下,trainable_statistics为True时,由该批数据计算均值和方差。默认值:False。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/BeamSearchDecoder_cn.rst b/docs/api/paddle/nn/BeamSearchDecoder_cn.rst index a0e4b70aa83..112e1ec6324 100644 --- a/docs/api/paddle/nn/BeamSearchDecoder_cn.rst +++ b/docs/api/paddle/nn/BeamSearchDecoder_cn.rst @@ -14,7 +14,9 @@ BeamSearchDecoder **注意** 在使用beam search解码时,cell的输入和状态将被扩展到 :math:`beam\_size` ,得到 :math:`[batch\_size * beam\_size, ...]` 一样的形状,这个操作在BeamSearchDecoder中自动完成,因此,其他任何在 :code:`cell.call` 中使用的tensor,如果形状为 :math:`[batch\_size, ...]` ,都必须先手动使用 :code:`BeamSearchDecoder.tile_beam_merge_with_batch` 接口扩展。最常见的情况是带注意机制的编码器输出。 -参数: +参数 +:::::::::::: + - **cell** (RNNCell) - RNNCell的实例或者具有相同接口定义的对象。 - **start_token** (int) - 起始标记id。 - **end_token** (int) - 结束标记id。 @@ -22,9 +24,12 @@ BeamSearchDecoder - **embedding_fn** (可选) - 处理选中的候选id的接口。它通常是一个将词id转换为词嵌入的嵌入层,其返回值将作为 :code:`cell.call` 接口的 :code:`input` 参数。**注意** ,这里要使用 :ref:`cn_api_nn_Embedding` 而非 :ref:`cn_api_fluid_layers_embedding`,因为选中的id的形状是 :math:`[batch\_size, beam\_size]` ,如果使用后者则还需要在这里提供unsqueeze。如果 :code:`embedding_fn` 未提供,则必须在 :code:`cell.call` 中实现词嵌入转换。默认值None。 - **output_fn** (可选) - 处理cell输出的接口,在计算得分和选择候选标记id之前使用。默认值None。 -返回:BeamSearchDecoder 的一个实例,可以用于传入 `paddle.nn.dynamic\_decode` 以实现解码过程。 +返回 +:::::::::::: +BeamSearchDecoder 的一个实例,可以用于传入 `paddle.nn.dynamic\_decode` 以实现解码过程。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -46,124 +51,166 @@ BeamSearchDecoder max_step_num=10) -.. py:method:: tile_beam_merge_with_batch(x, beam_size) +方法 +:::::::::::: +tile_beam_merge_with_batch(x, beam_size) +''''''''' 扩展tensor的batch维度。此函数的输入是形状为 :math:`[batch\_size, s_0, s_1, ...]` 的tensor t,由minibatch中的样本 :math:`t[0], ..., t[batch\_size - 1]` 组成。将其扩展为形状是 :math:`[batch\_size * beam\_size, s_0, s_1, ...]` 的tensor,由 :math:`t[0], t[0], ..., t[1], t[1], ...` 组成, 每个minibatch中的样本重复 :math:`beam\_size` 次。 -参数: +**参数** + - **x** (Variable) - 形状为 :math:`[batch\_size, ...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 - **beam_size** (int) - 在beam search中使用的beam宽度。 -返回:形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 +**返回** +形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: _split_batch_beams(x) +_split_batch_beams(x) +''''''''' 将形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor变换为形状为 :math:`[batch\_size, beam\_size, ...]` 的新tensor。 -参数: +**参数** + - **x** (Variable) - 形状为 :math:`[batch\_size * beam\_size, ...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 -返回:形状为 :math:`[batch\_size, beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 +**返回** +形状为 :math:`[batch\_size, beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: _merge_batch_beams(x) +_merge_batch_beams(x) +''''''''' 将形状为 :math:`[batch\_size, beam\_size, ...]` 的tensor变换为形状为 :math:`[batch\_size * beam\_size,...]` 的新tensor。 -参数: +**参数** + - **x** (Variable) - 形状为 :math:`[batch\_size, beam_size,...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 -返回:形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 +**返回** +形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: _expand_to_beam_size(x) +_expand_to_beam_size(x) +''''''''' 此函数输入形状为 :math:`[batch\_size,s_0,s_1,...]` 的tensor t,由minibatch中的样本 :math:`t[0],...,t[batch\_size-1]` 组成。将其扩展为形状 :math:`[ batch\_size,beam\_size,s_0,s_1,...]` 的tensor,由 :math:`t[0],t[0],...,t[1],t[1],...` 组成,其中每个minibatch中的样本重复 :math:`beam\_size` 次。 -参数: +**参数** + - **x** (Variable) - 形状为 :math:`[batch\_size, ...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 -返回:具有与 :code:`x` 相同的形状和数据类型的tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的tensor(tensor中所有概率质量被分配给EOS标记)。 +**返回** +具有与 :code:`x` 相同的形状和数据类型的tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的tensor(tensor中所有概率质量被分配给EOS标记)。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: _mask_probs(probs, finished) +_mask_probs(probs, finished) +''''''''' 屏蔽对数概率。该函数使已完成的beam将所有概率质量分配给EOS标记,而未完成的beam保持不变。 -参数: +**参数** + - **probs** (Variable) - 形状为 :math:`[batch\_size,beam\_size,vocab\_size]` 的tensor,表示对数概率。其数据类型应为float32。 - **finish** (Variable) - 形状为 :math:`[batch\_size,beam\_size]` 的tensor,表示所有beam的完成状态。其数据类型应为bool。 -返回:具有与 :code:`x` 相同的形状和数据类型的tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的tensor(tensor中所有概率质量被分配给EOS标记)。 +**返回** +具有与 :code:`x` 相同的形状和数据类型的tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的tensor(tensor中所有概率质量被分配给EOS标记)。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: _gather(x, indices, batch_size) +_gather(x, indices, batch_size) +''''''''' 对tensor :code:`x` 根据索引 :code:`indices` 收集。 -参数: +**参数** + - **x** (Variable) - 形状为 :math:`[batch\_size, beam\_size,...]` 的tensor。 - **index** (Variable) - 一个形状为 :math:`[batch\_size, beam\_size]` 的int64 tensor,表示我们用来收集的索引。 - **batch_size** (Variable) - 形状为 :math:`[1]` 的tensor。其数据类型应为int32或int64。 -返回:具有与 :code:``x` 相同的形状和数据类型的tensor,表示收集后的tensor。 +**返回** +具有与 :code:``x` 相同的形状和数据类型的tensor,表示收集后的tensor。 -返回类型:Variable +**返回类型** +Variable -.. py:method:: initialize(initial_cell_states) +initialize(initial_cell_states) +''''''''' 初始化BeamSearchDecoder。 -参数: +**参数** + - **initial_cell_states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。调用者提供的参数。 -返回:一个元组 :code:`(initial_inputs, initial_states, finished)`。:code:`initial_inputs` 是一个tensor,当 :code:`embedding_fn` 为None时,该tensor t的形状为 :math:`[batch\_size,beam\_size]` ,值为 :code:`start_token` ;否则使用 :code:`embedding_fn(t)` 返回的值。:code:`initial_states` 是tensor变量的嵌套结构(命名元组,字段包括 :code:`cell_states,log_probs,finished,lengths`),其中 :code:`log_probs,finished,lengths` 都含有一个tensor,形状为 :math:`[batch\_size, beam\_size]`,数据类型为float32,bool,int64。:code:`cell_states` 具有与输入参数 :code:`initial_cell_states` 相同结构的值,但形状扩展为 :math:`[batch\_size,beam\_size,...]`。 :code:`finished` 是一个布尔型tensor,由False填充,形状为 :math:`[batch\_size,beam\_size]`。 +**返回** +一个元组 :code:`(initial_inputs, initial_states, finished)`。:code:`initial_inputs` 是一个tensor,当 :code:`embedding_fn` 为None时,该tensor t的形状为 :math:`[batch\_size,beam\_size]` ,值为 :code:`start_token` ;否则使用 :code:`embedding_fn(t)` 返回的值。:code:`initial_states` 是tensor变量的嵌套结构(命名元组,字段包括 :code:`cell_states,log_probs,finished,lengths`),其中 :code:`log_probs,finished,lengths` 都含有一个tensor,形状为 :math:`[batch\_size, beam\_size]`,数据类型为float32,bool,int64。:code:`cell_states` 具有与输入参数 :code:`initial_cell_states` 相同结构的值,但形状扩展为 :math:`[batch\_size,beam\_size,...]`。 :code:`finished` 是一个布尔型tensor,由False填充,形状为 :math:`[batch\_size,beam\_size]`。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: _beam_search_step(time, logits, next_cell_states, beam_state) +_beam_search_step(time, logits, next_cell_states, beam_state) +''''''''' 计算得分并选择候选id。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - **logits** (Variable) - 形状为 :math:`[batch\_size,beam\_size,vocab\_size]` 的tensor,表示当前时间步的logits。其数据类型为float32。 - **next_cell_states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。它的结构,形状和数据类型与 :code:`initialize()` 的返回值 :code:`initial_states` 中的 :code:`cell_states` 相同。它代表该cell的下一个状态。 - **beam_state** (Variable) - tensor变量的结构。在第一个解码步骤与 :code:`initialize()` 返回的 :code:`initial_states` 同,其他步骤与 :code:`step()` 返回的 :code:`beam_search_state` 相同。 -返回:一个元组 :code:`(beam_search_output, beam_search_state)`。:code:`beam_search_output` 是tensor变量的命名元组,字段为 :code:`scores,predicted_ids parent_ids`。其中 :code:`scores,predicted_ids,parent_ids` 都含有一个tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`beam_search_state` 具有与输入参数 :code:`beam_state` 相同的结构,形状和数据类型。 +**返回** +一个元组 :code:`(beam_search_output, beam_search_state)`。:code:`beam_search_output` 是tensor变量的命名元组,字段为 :code:`scores,predicted_ids parent_ids`。其中 :code:`scores,predicted_ids,parent_ids` 都含有一个tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`beam_search_state` 具有与输入参数 :code:`beam_state` 相同的结构,形状和数据类型。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: step(time, inputs, states, **kwargs) +step(time, inputs, states, **kwargs) +''''''''' 执行beam search解码步骤,该步骤使用 :code:`cell` 来计算概率,然后执行beam search步骤以计算得分并选择候选标记ID。 -参数: +**参数** + - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。。 - **inputs** (Variable) - tensor变量。在第一个解码时间步时与由 :code:`initialize()` 返回的 :code:`initial_inputs` 相同,其他时间步与由 :code:`step()` 返回的 :code:`next_inputs` 相同。 - **states** (Variable) - tensor变量的结构。在第一个解码时间步时与 :code:`initialize()` 返回的 :code:`initial_states` 相同,其他时间步与由 :code:`step()` 返回的 :code:`beam_search_state` 相同。 - **kwargs** - 附加的关键字参数,由调用者提供。 -返回:一个元组 :code:`(beam_search_output,beam_search_state,next_inputs,finish)` 。:code:`beam_search_state` 和参数 :code:`states` 具有相同的结构,形状和数据类型。 :code:`next_inputs` 与输入参数 :code:`inputs` 具有相同的结构,形状和数据类型。 :code:`beam_search_output` 是tensor变量的命名元组(字段包括 :code:`scores,predicted_ids,parent_ids` ),其中 :code:`scores,predicted_ids,parent_ids` 都含有一个tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`finished` 是一个bool类型的tensor,形状为 :math:`[batch\_size,beam\_size]`。 +**返回** +一个元组 :code:`(beam_search_output,beam_search_state,next_inputs,finish)` 。:code:`beam_search_state` 和参数 :code:`states` 具有相同的结构,形状和数据类型。 :code:`next_inputs` 与输入参数 :code:`inputs` 具有相同的结构,形状和数据类型。 :code:`beam_search_output` 是tensor变量的命名元组(字段包括 :code:`scores,predicted_ids,parent_ids` ),其中 :code:`scores,predicted_ids,parent_ids` 都含有一个tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`finished` 是一个bool类型的tensor,形状为 :math:`[batch\_size,beam\_size]`。 -返回类型:tuple +**返回类型** +tuple -.. py:method:: finalize(outputs, final_states, sequence_lengths) +finalize(outputs, final_states, sequence_lengths) +''''''''' 使用 :code:`gather_tree` 沿beam search树回溯并构建完整的预测序列。 -参数: +**参数** + - **outputs** (Variable) - tensor变量组成的结构(命名元组),该结构和数据类型与 :code:`output_dtype` 相同。tensor将所有时间步的输出堆叠,因此具有形状 :math:`[time\_step,batch\_size,...]`。 - **final_states** (Variable) - tensor变量组成的结构(命名元组)。它是 :code:`decoder.step` 在最后一个解码步骤返回的 :code:`next_states`,因此具有与任何时间步的 :code:`state` 相同的结构、形状和数据类型。 - **sequence_lengths** (Variable) - tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为int64。它包含解码期间确定的每个beam的序列长度。 -返回:一个元组 :code:`(predicted_ids, final_states)`。:code:`predicted_ids` 是一个tensor,形状为 :math:`[time\_step,batch\_size,beam\_size]`,数据类型为int64。:code:`final_states` 与输入参数 :code:`final_states` 相同。 +**返回** +一个元组 :code:`(predicted_ids, final_states)`。:code:`predicted_ids` 是一个tensor,形状为 :math:`[time\_step,batch\_size,beam\_size]`,数据类型为int64。:code:`final_states` 与输入参数 :code:`final_states` 相同。 -返回类型:tuple +**返回类型** +tuple diff --git a/docs/api/paddle/nn/BiRNN_cn.rst b/docs/api/paddle/nn/BiRNN_cn.rst index f108fcb5cbe..1b6b6e0e55b 100644 --- a/docs/api/paddle/nn/BiRNN_cn.rst +++ b/docs/api/paddle/nn/BiRNN_cn.rst @@ -11,7 +11,9 @@ BiRNN 该OP是双向循环神经网络(BiRNN)的封装,将输入的前向cell和后向cell封装为一个双向循环神经网络。该网络单独执行前向和后向cell的计算并将输出拼接。 -参数: +参数 +:::::::::::: + - **cell_fw** (RNNCellBase) - 前向cell。RNNCellBase类的一个实例。 - **cell_bw** (RNNCellBase) - 后向cell。RNNCellBase类的一个实例。 - **time_major** (bool,可选) - 指定input的第一个维度是否是time steps。默认为False。 @@ -29,7 +31,8 @@ BiRNN 该类是一个封装rnn cell的低级api,用户在使用forward函数时须确保initial_states满足cell的要求。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/ClipGradByGlobalNorm_cn.rst b/docs/api/paddle/nn/ClipGradByGlobalNorm_cn.rst index 405ccb67741..39e6db19583 100644 --- a/docs/api/paddle/nn/ClipGradByGlobalNorm_cn.rst +++ b/docs/api/paddle/nn/ClipGradByGlobalNorm_cn.rst @@ -29,11 +29,14 @@ ClipGradByGlobalNorm \\global\_norm=\sqrt{\sum_{i=0}^{n-1}(l2norm(t\_list[i]))^2}\\ -参数: +参数 +:::::::::::: + - **clip_norm** (float) - 所允许的范数最大值 - **group_name** (str, optional) - 剪切的组名 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/ClipGradByNorm_cn.rst b/docs/api/paddle/nn/ClipGradByNorm_cn.rst index 7061c0b1271..4c4a0502d01 100644 --- a/docs/api/paddle/nn/ClipGradByNorm_cn.rst +++ b/docs/api/paddle/nn/ClipGradByNorm_cn.rst @@ -36,10 +36,13 @@ ClipGradByNorm .. math:: \\norm(X) = (\sum_{i=1}^{n}|x_i|^2)^{\frac{1}{2}}\\ -参数: +参数 +:::::::::::: + - **clip_norm** (float) - 所允许的二范数最大值。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/ClipGradByValue_cn.rst b/docs/api/paddle/nn/ClipGradByValue_cn.rst index f62b46c057e..f4541930b15 100644 --- a/docs/api/paddle/nn/ClipGradByValue_cn.rst +++ b/docs/api/paddle/nn/ClipGradByValue_cn.rst @@ -20,11 +20,14 @@ ClipGradByValue - 任何大于 ``max`` 的值都被设置为 ``max`` -参数: +参数 +:::::::::::: + - **max** (foat) - 要修剪的最大值。 - **min** (float,optional) - 要修剪的最小值。如果用户没有设置,将被自动设置为 ``-max`` (此时 ``max`` 必须大于0)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Conv1DTranspose_cn.rst b/docs/api/paddle/nn/Conv1DTranspose_cn.rst index f67c1788614..7068a811853 100644 --- a/docs/api/paddle/nn/Conv1DTranspose_cn.rst +++ b/docs/api/paddle/nn/Conv1DTranspose_cn.rst @@ -27,7 +27,9 @@ Conv1DTranspose - :math:`Out` : 输出值,NCL或NLC格式的3-D Tensor, 和 ``X`` 的形状可能不同 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入特征的通道数。 - **out_channels** (int) - 卷积核的个数,和输出特征通道数相同。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含一个整数的元组或列表,表示卷积核的长度。 @@ -68,7 +70,8 @@ Conv1DTranspose L'_{out} = (L_{in}-1)*stride + dilation*(kernel\_size-1)+1 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Conv1D_cn.rst b/docs/api/paddle/nn/Conv1D_cn.rst index 4641381e533..acf0f57d4b2 100644 --- a/docs/api/paddle/nn/Conv1D_cn.rst +++ b/docs/api/paddle/nn/Conv1D_cn.rst @@ -26,7 +26,9 @@ Conv1D - :math:`Out` :输出值,NCL或NLC格式的3-D Tensor, 和 ``X`` 的形状可能不同 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入特征的通道数。 - **out_channels** (int) - 由卷积操作产生的输出的通道数。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含一个整数的元组或列表,表示卷积核的长度。 @@ -42,10 +44,14 @@ Conv1D 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` 形状: @@ -71,7 +77,7 @@ Conv1D -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/nn/Conv2DTranspose_cn.rst b/docs/api/paddle/nn/Conv2DTranspose_cn.rst index 1013722b357..f35e7a427ec 100644 --- a/docs/api/paddle/nn/Conv2DTranspose_cn.rst +++ b/docs/api/paddle/nn/Conv2DTranspose_cn.rst @@ -35,7 +35,9 @@ Conv2DTranspose 如果指定了output_size, ``conv2d_transpose`` 可以自动计算卷积核的大小。 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入图像的通道数。 - **out_channels** (int) - 卷积核的个数,和输出特征图通道数相同。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含两个整数的元组或列表,分别表示卷积核的高和宽。如果为单个整数,表示卷积核的高和宽都等于该整数。 @@ -80,7 +82,9 @@ Conv2DTranspose & H'_{out} = (H_{in}-1)*strides[0] + dilations[0]*(kernel\_size[0]-1)+1\\ & W'_{out} = (W_{in}-1)*strides[1] + dilations[1]*(kernel\_size[1]-1)+1 \\ -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` : 如果输入的shape、filter_size、stride、padding和groups不匹配,抛出ValueError - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 @@ -90,7 +94,8 @@ Conv2DTranspose - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Conv2D_cn.rst b/docs/api/paddle/nn/Conv2D_cn.rst index c845d4928b0..fa0327a661f 100644 --- a/docs/api/paddle/nn/Conv2D_cn.rst +++ b/docs/api/paddle/nn/Conv2D_cn.rst @@ -26,7 +26,9 @@ Conv2D - :math:`Out` :输出值,NCHW或NHWC格式的4-D Tensor, 和 ``X`` 的形状可能不同 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入图像的通道数。 - **out_channels** (int) - 由卷积操作产生的输出的通道数。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含两个整数的元组或列表,分别表示卷积核的高和宽。如果为单个整数,表示卷积核的高和宽都等于该整数。 @@ -42,10 +44,14 @@ Conv2D 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` 形状: @@ -80,7 +86,8 @@ Conv2D W_{out} = \frac{\left ( W_{in} -\left ( dilation[1]*\left ( kernel\_size[1]-1 \right )+1 \right ) \right )}{stride[1]}+1 -抛出异常: +**抛出异常** + - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 @@ -91,7 +98,7 @@ Conv2D - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/nn/Conv3DTranspose_cn.rst b/docs/api/paddle/nn/Conv3DTranspose_cn.rst index a17b84a7662..d163046e49a 100755 --- a/docs/api/paddle/nn/Conv3DTranspose_cn.rst +++ b/docs/api/paddle/nn/Conv3DTranspose_cn.rst @@ -34,7 +34,9 @@ Conv3DTranspose 如果指定了output_size, 该算子可以自动计算卷积核的大小。 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入图像的通道数。 - **out_channels** (int) - 卷积核的个数,和输出特征图个数相同。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含三个整数的元组或列表,分别表示卷积核的深度,高和宽。如果为单个整数,表示卷积核的深度,高和宽都等于该整数。默认:None。output_size和kernel_size不能同时为None。 @@ -82,7 +84,9 @@ Conv3DTranspose & H'_{out} = (H_{in}-1)*strides[1] + dilations[1]*(kernel\_size[1]-1)+1\\ & W'_{out} = (W_{in}-1)*strides[2] + dilations[2]*(kernel\_size[2]-1)+1 \\ -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` : 如果输入的shape、kernel_size、stride、padding和groups不匹配,抛出ValueError - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 @@ -92,7 +96,8 @@ Conv3DTranspose - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Conv3D_cn.rst b/docs/api/paddle/nn/Conv3D_cn.rst index e57dee5a0fd..9ae78e5a5cd 100644 --- a/docs/api/paddle/nn/Conv3D_cn.rst +++ b/docs/api/paddle/nn/Conv3D_cn.rst @@ -25,7 +25,9 @@ Conv3D - :math:`\sigma` :激活函数 - :math:`Out` :输出值, NCDHW或NDHWC格式的5-D Tensor,和 ``X`` 的形状可能不同 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入图像的通道数。 - **out_channels** (int) - 由卷积操作产生的输出的通道数。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含三个整数的元组或列表,分别表示卷积核的深度,高和宽。如果为单个整数,表示卷积核的深度,高和宽都等于该整数。 @@ -41,10 +43,14 @@ Conv3D 属性 :::::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` 形状: @@ -82,7 +88,8 @@ Conv3D W_{out} = \frac{\left ( W_{in} -\left ( dilation[2]*\left ( kernel\_size[2]-1 \right )+1 \right ) \right )}{stride[2]}+1 -抛出异常: +**抛出异常** + - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。 - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 @@ -93,7 +100,7 @@ Conv3D - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/nn/CosineSimilarity_cn.rst b/docs/api/paddle/nn/CosineSimilarity_cn.rst index f586e4f9857..c4c6774e494 100644 --- a/docs/api/paddle/nn/CosineSimilarity_cn.rst +++ b/docs/api/paddle/nn/CosineSimilarity_cn.rst @@ -8,13 +8,18 @@ CosineSimilarity 计算x1与x2沿axis维度的余弦相似度。 -参数: +参数 +:::::::::::: + - **axis** (int) - 指定计算的维度,会在该维度上计算余弦相似度,默认值为1。 - **eps** (float) - 很小的值,防止计算时分母为0,默认值为1e-8。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Embedding_cn.rst b/docs/api/paddle/nn/Embedding_cn.rst index 9b9b6aa6890..af0e9b5f844 100644 --- a/docs/api/paddle/nn/Embedding_cn.rst +++ b/docs/api/paddle/nn/Embedding_cn.rst @@ -36,7 +36,9 @@ Embedding -参数: +参数 +:::::::::::: + - **num_embeddings** (int) - 嵌入字典的大小, input中的id必须满足 ``0 =< id < num_embeddings`` 。 。 - **embedding_dim** (int) - 每个嵌入向量的维度。 - **padding_idx** (int|long|None) - padding_idx的配置区间为 ``[-weight.shape[0], weight.shape[0]``,如果配置了padding_idx,那么在训练过程中遇到此id时,其参数及对应的梯度将会以0进行填充。 @@ -46,11 +48,16 @@ Embedding - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:input映射后得到的Embedding Tensor,数据类型和词嵌入的定义类型一致。 +返回 +:::::::::::: +input映射后得到的Embedding Tensor,数据类型和词嵌入的定义类型一致。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Flatten_cn.rst b/docs/api/paddle/nn/Flatten_cn.rst index 11986698ab6..7cbd5142e1a 100644 --- a/docs/api/paddle/nn/Flatten_cn.rst +++ b/docs/api/paddle/nn/Flatten_cn.rst @@ -10,14 +10,19 @@ Flatten 该接口用于构造一个 ``Flatten`` 类的可调用对象。更多信息请参见代码示例。它实现将一个连续维度的Tensor展平成一维Tensor。 -参数: +参数 +:::::::::::: + - start_axis (int,可选) - 展开的起始维度,默认值为1。 - stop_axis (int,可选) - 展开的结束维度,默认值为-1。 -返回: 无。 +返回 +:::::::::::: + 无。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/GRUCell_cn.rst b/docs/api/paddle/nn/GRUCell_cn.rst index 76ab581b7b5..17cde0ef0a5 100644 --- a/docs/api/paddle/nn/GRUCell_cn.rst +++ b/docs/api/paddle/nn/GRUCell_cn.rst @@ -31,7 +31,9 @@ GRUCell 详情请参考论文 :`An Empirical Exploration of Recurrent Network Architectures `_。 -参数: +参数 +:::::::::::: + - **input_size** (int) - 输入的大小。 - **hidden_size** (int) - 隐藏状态大小。 - **weight_ih_attr** (ParamAttr,可选) - weight_ih的参数。默认为None。 @@ -58,7 +60,8 @@ GRUCell 所有的变换矩阵的权重和偏置都默认初始化为Uniform(-std, std),其中std = :math:`\frac{1}{\sqrt{hidden\_size}}`。对于参数初始化,详情请参考 :ref:`cn_api_fluid_ParamAttr`。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/GRU_cn.rst b/docs/api/paddle/nn/GRU_cn.rst index 51f64f913d9..91d1abcee82 100644 --- a/docs/api/paddle/nn/GRU_cn.rst +++ b/docs/api/paddle/nn/GRU_cn.rst @@ -28,7 +28,9 @@ GRU 其中: - :math:`\sigma` :sigmoid激活函数。 -参数: +参数 +:::::::::::: + - **input_size** (int) - 输入 :math:`x` 的大小。 - **hidden_size** (int) - 隐藏状态 :math:`h` 大小。 - **num_layers** (int,可选) - 循环网络的层数。例如,将层数设为2,会将两层GRU网络堆叠在一起,第二层的输入来自第一层的输出。默认为1。 @@ -49,7 +51,8 @@ GRU - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为True,则Tensor的形状为[time_steps,batch_size,num_directions * hidden_size],如果time_major为False,则Tensor的形状为[batch_size,time_steps,num_directions * hidden_size],当direction设置为bidirectional时,num_directions等于2,否则等于1。`time_steps` 指输出序列的长度。 - **final_states** (Tensor) - 最终状态。形状为[num_layers * num_directions, batch_size, hidden_size],当direction设置为bidirectional时,num_directions等于2,返回值的前向和后向的状态的索引是0,2,4,6...和1,3,5,7...,否则等于1。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/GroupNorm_cn.rst b/docs/api/paddle/nn/GroupNorm_cn.rst index 714883b3536..4105fd4f6b1 100644 --- a/docs/api/paddle/nn/GroupNorm_cn.rst +++ b/docs/api/paddle/nn/GroupNorm_cn.rst @@ -9,7 +9,9 @@ GroupNorm 该接口用于构建 ``GroupNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了组归一化层的功能。更多详情请参考: `Group Normalization `_ 。 -参数: +参数 +:::::::::::: + - **num_groups** (int) - 从通道中分离出来的 ``group`` 的数目。 - **num_channels** (int) - 输入的通道数。 - **epsilon** (float, 可选) - 为防止方差除零,增加一个很小的值。默认值:1e-05。 @@ -18,13 +20,16 @@ GroupNorm - **data_format** (string, 可选) - 只支持“NCHW”(num_batches,channels,height,width)格式。默认值:“NCHW”。 - **name** (string, 可选) – GroupNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为(批大小, 通道数, \*) 的Tensor。 - output: 和输入形状一样。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Hardsigmoid_cn.rst b/docs/api/paddle/nn/Hardsigmoid_cn.rst index bafc70ecb37..d1f528dcc05 100644 --- a/docs/api/paddle/nn/Hardsigmoid_cn.rst +++ b/docs/api/paddle/nn/Hardsigmoid_cn.rst @@ -20,7 +20,9 @@ Hardsigmoid激活层。sigmoid的分段线性逼近激活函数,速度比sigmo 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/Hardswish_cn.rst b/docs/api/paddle/nn/Hardswish_cn.rst index b58f2d19c23..33a5ba47a2a 100644 --- a/docs/api/paddle/nn/Hardswish_cn.rst +++ b/docs/api/paddle/nn/Hardswish_cn.rst @@ -20,7 +20,9 @@ Hardswish激活函数。在MobileNetV3架构中被提出,相较于swish函数 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/InstanceNorm1D_cn.rst b/docs/api/paddle/nn/InstanceNorm1D_cn.rst index 32956da06c4..14a3de02f05 100644 --- a/docs/api/paddle/nn/InstanceNorm1D_cn.rst +++ b/docs/api/paddle/nn/InstanceNorm1D_cn.rst @@ -21,7 +21,9 @@ Note: `H` 是高度, `W` 是宽度. -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -31,7 +33,9 @@ Note: - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为(批大小,通道数)的2-D Tensor 或(批大小, 通道数,长度)的3-D Tensor。 @@ -41,7 +45,8 @@ Note: 目前设置track_running_stats和momentum是无效的。之后的版本会修复此问题。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/InstanceNorm2D_cn.rst b/docs/api/paddle/nn/InstanceNorm2D_cn.rst index 89aa531e474..138ca440db4 100644 --- a/docs/api/paddle/nn/InstanceNorm2D_cn.rst +++ b/docs/api/paddle/nn/InstanceNorm2D_cn.rst @@ -20,7 +20,9 @@ Note: `H` 是高度, `W` 是宽度. -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -30,7 +32,9 @@ Note: - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为(批大小,通道数,高度,宽度)的4-D Tensor。 @@ -40,7 +44,8 @@ Note: 目前设置track_running_stats和momentum是无效的。之后的版本会修复此问题。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/InstanceNorm3D_cn.rst b/docs/api/paddle/nn/InstanceNorm3D_cn.rst index 071b01ab93b..f9cc7dead37 100644 --- a/docs/api/paddle/nn/InstanceNorm3D_cn.rst +++ b/docs/api/paddle/nn/InstanceNorm3D_cn.rst @@ -19,7 +19,9 @@ Note: `H` 是高度, `W` 是宽度. -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -29,7 +31,9 @@ Note: - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 形状为5-D Tensor。 @@ -39,7 +43,8 @@ Note: 目前设置track_running_stats和momentum是无效的。之后的版本会修复此问题。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/KLDivLoss_cn.rst b/docs/api/paddle/nn/KLDivLoss_cn.rst index 281e54bd3d0..5d7e9dbfc0c 100644 --- a/docs/api/paddle/nn/KLDivLoss_cn.rst +++ b/docs/api/paddle/nn/KLDivLoss_cn.rst @@ -22,7 +22,9 @@ kL发散损失计算如下: 当 ``reduction`` 为 ``batchmean`` 时,输出损失为[N]的形状,N为批大小,输出为所有损失的总和除以批量大小。 -参数: +参数 +:::::::::::: + - **reduction** (str,可选) - 要应用于输出的reduction类型,可用类型为‘none’ | ‘batchmean’ | ‘mean’ | ‘sum’,‘none’表示无reduction,‘batchmean’ 表示输出的总和除以批大小,‘mean’ 表示所有输出的平均值,‘sum’表示输出的总和。 形状: @@ -30,7 +32,8 @@ kL发散损失计算如下: - **label** (Tensor): - 标签,维度是[N, *], 与 ``input`` 相同。数据类型为:float32、float64。 - **output** (Tensor): - 输入 ``input`` 和标签 ``label`` 间的kl散度。如果 `reduction` 是 ``'none'``, 则输出Loss的维度为 [N, *], 与输入 ``input`` 相同。如果 `reduction` 是 ``'batchmean'`` 、 ``'mean'`` 或 ``'sum'``, 则输出Loss的维度为 [1]。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/LSTMCell_cn.rst b/docs/api/paddle/nn/LSTMCell_cn.rst index 7d89a4a688c..6857e81aec1 100644 --- a/docs/api/paddle/nn/LSTMCell_cn.rst +++ b/docs/api/paddle/nn/LSTMCell_cn.rst @@ -31,7 +31,9 @@ LSTMCell 详情请参考论文 :`An Empirical Exploration of Recurrent Network Architectures `_。 -参数: +参数 +:::::::::::: + - **input_size** (int) - 输入的大小。 - **hidden_size** (int) - 隐藏状态大小。 - **weight_ih_attr** (ParamAttr,可选) - weight_ih的参数。默认为None。 @@ -58,7 +60,8 @@ LSTMCell 所有的变换矩阵的权重和偏置都默认初始化为Uniform(-std, std),其中std = :math:`\frac{1}{\sqrt{hidden\_size}}`。对于参数初始化,详情请参考 :ref:`cn_api_fluid_ParamAttr`。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/LSTM_cn.rst b/docs/api/paddle/nn/LSTM_cn.rst index 6c0598818b0..06390e6d9c9 100644 --- a/docs/api/paddle/nn/LSTM_cn.rst +++ b/docs/api/paddle/nn/LSTM_cn.rst @@ -33,7 +33,9 @@ LSTM 其中: - :math:`\sigma` :sigmoid激活函数。 -参数: +参数 +:::::::::::: + - **input_size** (int) - 输入 :math:`x` 的大小。 - **hidden_size** (int) - 隐藏状态 :math:`h` 大小。 - **num_layers** (int,可选) - 循环网络的层数。例如,将层数设为2,会将两层GRU网络堆叠在一起,第二层的输入来自第一层的输出。默认为1。 @@ -54,7 +56,8 @@ LSTM - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为True,则Tensor的形状为[time_steps,batch_size,num_directions * hidden_size],如果time_major为False,则Tensor的形状为[batch_size,time_steps,num_directions * hidden_size],当direction设置为bidirectional时,num_directions等于2,否则等于1。`time_steps` 指输出序列的长度。 - **final_states** (tuple) - 最终状态,一个包含h和c的元组。形状为[num_layers * num_directions, batch_size, hidden_size],当direction设置为bidirectional时,num_directions等于2,返回值的前向和后向的状态的索引是0,2,4,6...和1,3,5,7...,否则等于1。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/LayerDict_cn.rst b/docs/api/paddle/nn/LayerDict_cn.rst index 6daea6f1ead..88fd800d9a6 100644 --- a/docs/api/paddle/nn/LayerDict_cn.rst +++ b/docs/api/paddle/nn/LayerDict_cn.rst @@ -10,12 +10,17 @@ LayerDict LayerDict用于保存子层到有序字典中,它包含的子层将被正确地注册和添加。列表中的子层可以像常规python 有序字典一样被访问。 -参数: +参数 +:::::::::::: + - **sublayers** (LayerDict|OrderedDict|list[(key, Layer)],可选) - 键值对的可迭代对象,值的类型为 `paddle.nn.Layer` 。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -51,11 +56,15 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 len(layers_dict) #0 -.. py:method:: clear() +方法 +:::::::::::: +clear() +''''''''' 清除LayerDict 中所有的子层。 -参数: +**参数** + 无。 **代码示例** @@ -79,11 +88,13 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 len(layer_dict) #0 -.. py:method:: pop() +pop() +''''''''' 移除LayerDict 中的键 并且返回该键对应的子层。 -参数: +**参数** + - **key** (str) - 要移除的key。 **代码示例** @@ -107,11 +118,13 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 len(layer_dict) #2 -.. py:method:: keys() +keys() +''''''''' 返回LayerDict 中键的可迭代对象。 -参数: +**参数** + 无。 **代码示例** @@ -136,11 +149,13 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 #conv3d -.. py:method:: items() +items() +''''''''' 返回LayerDict 中键/值对的可迭代对象。 -参数: +**参数** + 无。 **代码示例** @@ -165,11 +180,13 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 #conv3d : Conv3D(4, 6, kernel_size=[3, 3, 3], data_format=NCDHW) -.. py:method:: values() +values() +''''''''' 返回LayerDict 中值的可迭代对象。 -参数: +**参数** + 无。 **代码示例** @@ -194,11 +211,13 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 #Conv3D(4, 6, kernel_size=[3, 3, 3], data_format=NCDHW) -.. py:method:: update() +update() +''''''''' 更新子层中的键/值对到LayerDict中,会覆盖已经存在的键。 -参数: +**参数** + - **sublayers** (LayerDict|OrderedDict|list[(key, Layer)]) - 键值对的可迭代对象,值的类型为 `paddle.nn.Layer` 。 **代码示例** diff --git a/docs/api/paddle/nn/LayerList_cn.rst b/docs/api/paddle/nn/LayerList_cn.rst index cba7a83574f..274ee0546f8 100644 --- a/docs/api/paddle/nn/LayerList_cn.rst +++ b/docs/api/paddle/nn/LayerList_cn.rst @@ -10,12 +10,17 @@ LayerList LayerList用于保存子层列表,它包含的子层将被正确地注册和添加。列表中的子层可以像常规python列表一样被索引。 -参数: +参数 +:::::::::::: + - **sublayers** (iterable,可选) - 要保存的子层。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -34,11 +39,15 @@ LayerList用于保存子层列表,它包含的子层将被正确地注册和 x = self.linears[i // 2](x) + l(x) return x -.. py:method:: append() +方法 +:::::::::::: +append() +''''''''' 添加一个子层到整个list的最后。 -参数: +**参数** + - **sublayer** (Layer) - 要添加的子层。 **代码示例** @@ -53,11 +62,13 @@ LayerList用于保存子层列表,它包含的子层将被正确地注册和 print(len(linears)) # 11 -.. py:method:: insert() +insert() +''''''''' 向list中插入一个子层,到给定的index前面。 -参数: +**参数** + - **index ** (int) - 要插入的位置。 - **sublayers** (Layer) - 要插入的子层。 @@ -72,11 +83,13 @@ LayerList用于保存子层列表,它包含的子层将被正确地注册和 linears.insert(3, another) print(linears[3] is another) # True -.. py:method:: extend() +extend() +''''''''' 添加多个子层到整个list的最后。 -参数: +**参数** + - **sublayers** (iterable of Layer) - 要添加的所有子层。 **代码示例** diff --git a/docs/api/paddle/nn/LayerNorm_cn.rst b/docs/api/paddle/nn/LayerNorm_cn.rst index 61b58c3934d..492ffa8bad1 100644 --- a/docs/api/paddle/nn/LayerNorm_cn.rst +++ b/docs/api/paddle/nn/LayerNorm_cn.rst @@ -23,20 +23,25 @@ LayerNorm - :math:`b` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **normalized_shape** (int 或 list 或 tuple) – 需规范化的shape,期望的输入shape为 ``[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]`` 。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)。 - **epsilon** (float, 可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。 - **weight_attr** (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果为False固定为1,不进行学习。默认值为None, 表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。如果为False固定为0,不进行学习。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **name** (string, 可选) – LayerNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 形状: - input: 2-D, 3-D, 4-D或5D 的Tensor。 - output: 和输入形状一样。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Layer_cn.rst b/docs/api/paddle/nn/Layer_cn.rst index 8785e8a9fa1..bda5eeb5d1d 100644 --- a/docs/api/paddle/nn/Layer_cn.rst +++ b/docs/api/paddle/nn/Layer_cn.rst @@ -10,17 +10,25 @@ Layer 基于OOD实现的动态图Layer,包含该Layer的参数、前序运行的结构等信息。 -参数: +参数 +:::::::::::: + - **name_scope** (str,可选) - 为Layer内部参数命名而采用的名称前缀。如果前缀为“mylayer”,在一个类名为MyLayer的Layer中,参数名为“mylayer_0.w_n”,其中w是参数的名称,n为自动生成的具有唯一性的后缀。如果为None,前缀名将为小写的类名。默认值为None。 - **dtype** (str可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 "float32"。 -返回:无 +返回 +:::::::::::: +无 -.. py:method:: train() +方法 +:::::::::::: +train() +''''''''' 将此层及其所有子层设置为训练模式。这只会影响某些模块,如Dropout和BatchNorm。 -返回:无 +**返回** +无 **代码示例** @@ -46,11 +54,13 @@ Layer mylayer.train() # set mylayer._dropout to train mode out = mylayer(x) -.. py:method:: eval() +eval() +''''''''' 将此层及其所有子层设置为预测模式。这只会影响某些模块,如Dropout和BatchNorm。 -返回:无 +**返回** +无 **代码示例** @@ -75,11 +85,13 @@ Layer out = mylayer(x) print(out) -.. py:method:: full_name() +full_name() +''''''''' Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__.__name__ 。 -返回:str, Layer的全名 +**返回** +str, Layer的全名 **代码示例** @@ -98,7 +110,8 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__ linear_net = LinearNet() print(linear_net.full_name()) # demo_linear_net_0 -.. py:method:: register_forward_pre_hook(hook) +register_forward_pre_hook(hook) +''''''''' 为Layer注册一个 ``forward pre-hook`` 函数,该 ``hook`` 函数将会在 ``forward`` 函数调用之前被调用。 @@ -106,10 +119,12 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__ hook(Layer, input) -> None or modified input -参数: +**参数** + - **hook** (function) - 被注册为 ``forward pre-hook`` 的函数 -返回:HookRemoveHelper,可通过调用 ``hook_remove_helper.remove()`` 来删除注册的hook函数。 +**返回** +HookRemoveHelper,可通过调用 ``hook_remove_helper.remove()`` 来删除注册的hook函数。 **代码示例** @@ -141,7 +156,8 @@ hook(Layer, input) -> None or modified input # hook change the linear's input to input * 2, so out0 is equal to out1. assert (out0.numpy() == out1.numpy()).any() -.. py:method:: register_forward_post_hook(hook) +register_forward_post_hook(hook) +''''''''' 为Layer注册一个 ``forward post-hook`` 函数,该 ``hook`` 函数将会在 ``forward`` 函数调用之后被调用。 @@ -149,10 +165,12 @@ hook(Layer, input) -> None or modified input hook(Layer, input, output) -> None or modified output -参数: +**参数** + - **hook** (function) - 被注册为 ``forward post-hook`` 的函数 -返回:HookRemoveHelper,可通过调用 ``hook_remove_helper.remove()`` 来删除注册的hook函数。 +**返回** +HookRemoveHelper,可通过调用 ``hook_remove_helper.remove()`` 来删除注册的hook函数。 **代码示例** @@ -181,18 +199,21 @@ hook(Layer, input, output) -> None or modified output # hook change the linear's output to output * 2, so out0 is equal to out1 * 2. assert (out0.numpy() == (out1.numpy()) * 2).any() -.. py:method:: create_parameter(shape, attr=None, dtype="float32", is_bias=False, default_initializer=None) +create_parameter(shape, attr=None, dtype="float32", is_bias=False, default_initializer=None) +''''''''' 为Layer创建参数。 -参数: +**参数** + - **shape** (list) - 参数的形状。列表中的数据类型必须为int。 - **attr** (ParamAttr,可选) - 指定权重参数属性的对象,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。默认值为None。 - **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为“float32”。 - **is_bias** (bool, 可选) - 是否是偏置参数。默认值:False。 - **default_initializer** (Initializer, 可选) - 默认的参数初始化方法。如果设置为None,则设置非bias参数的初始化方式为 paddle.nn.initializer.Xavier ,设置bias参数的初始化方式为 paddle.nn.initializer.Constant 。默认值:None。 -返回:Tensor, 创建的参数变量 +**返回** +Tensor, 创建的参数变量 **代码示例** @@ -214,16 +235,19 @@ hook(Layer, input, output) -> None or modified output for name, param in mylayer.named_parameters(): print(name, param) # will print w_tmp,_linear.weight,_linear.bias -.. py:method:: create_variable(name=None, persistable=None, dtype=None) +create_variable(name=None, persistable=None, dtype=None) +''''''''' 为Layer创建变量。 -参数: +**参数** + - **name** (str, 可选) - 变量名。默认值:None。 - **persistable** (bool, 可选) - 是否为持久性变量,后续会被移出。默认值:None。 - **dtype** (str, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 "float32" 。 -返回:Tensor, 返回创建的 ``Tensor`` +**返回** +Tensor, 返回创建的 ``Tensor`` **代码示例** @@ -246,16 +270,19 @@ hook(Layer, input, output) -> None or modified output return out -.. py:method:: create_tensor(name=None, persistable=None, dtype=None) +create_tensor(name=None, persistable=None, dtype=None) +''''''''' 为Layer创建变量。 -参数: +**参数** + - **name** (str, 可选) - 变量名。默认值:None。 - **persistable** (bool, 可选) - 是否为持久性变量,后续会被移出。默认值:None。 - **dtype** (str, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 "float32" 。 -返回:Tensor, 返回创建的 ``Tensor`` +**返回** +Tensor, 返回创建的 ``Tensor`` **代码示例** @@ -279,14 +306,17 @@ hook(Layer, input, output) -> None or modified output return out -.. py:method:: parameters(include_sublayers=True) +parameters(include_sublayers=True) +''''''''' 返回一个由当前层及其子层的所有参数组成的列表。 -参数: +**参数** + - **include_sublayers** (bool, 可选) - 是否返回子层的参数。如果为True,返回的列表中包含子层的参数。默认值:True。 -返回:list, 一个由当前层及其子层的所有参数组成的列表,列表中的元素类型为Parameter(Tensor)。 +**返回** +list, 一个由当前层及其子层的所有参数组成的列表,列表中的元素类型为Parameter(Tensor)。 **代码示例** @@ -297,11 +327,13 @@ hook(Layer, input, output) -> None or modified output linear = paddle.nn.Linear(1,1) print(linear.parameters()) # print linear_0.w_0 and linear_0.b_0 -.. py:method:: children() +children() +''''''''' 返回所有子层的迭代器。 -返回:iterator, 子层的迭代器。 +**返回** +iterator, 子层的迭代器。 **代码示例** @@ -317,11 +349,13 @@ hook(Layer, input, output) -> None or modified output print(layer_list) # [, ] -.. py:method:: named_children() +named_children() +''''''''' 返回所有子层的迭代器,生成子层名称和子层的元组。 -返回:iterator, 产出子层名称和子层的元组的迭代器。 +**返回** +iterator, 产出子层名称和子层的元组的迭代器。 **代码示例** @@ -337,14 +371,17 @@ hook(Layer, input, output) -> None or modified output # ('0', ) # ('1', ) -.. py:method:: sublayers(include_self=False) +sublayers(include_self=False) +''''''''' 返回一个由所有子层组成的列表。 -参数: +**参数** + - **include_self** (bool, 可选) - 是否包含本层。如果为True,则包括本层。默认值:False -返回: list, 一个由所有子层组成的列表,列表中的元素类型为Layer。 +**返回** + list, 一个由所有子层组成的列表,列表中的元素类型为Layer。 **代码示例** @@ -366,11 +403,13 @@ hook(Layer, input, output) -> None or modified output mylayer = MyLayer() print(mylayer.sublayers()) # [, ] -.. py:method:: clear_gradients() +clear_gradients() +''''''''' 清除该层所有参数的梯度。 -返回:无 +**返回** +无 **代码示例** @@ -389,15 +428,18 @@ hook(Layer, input, output) -> None or modified output adam.step() linear.clear_gradients() -.. py:method:: named_parameters(prefix='', include_sublayers=True) +named_parameters(prefix='', include_sublayers=True) +''''''''' 返回层中所有参数的迭代器,生成名称和参数的元组。 -参数: +**参数** + - **prefix** (str, 可选) - 在所有参数名称前加的前缀。默认值:''。 - **include_sublayers** (bool, 可选) - 是否返回子层的参数。如果为True,返回的列表中包含子层的参数。默认值:True。 -返回:iterator, 产出名称和参数的元组的迭代器。 +**返回** +iterator, 产出名称和参数的元组的迭代器。 **代码示例** @@ -411,16 +453,19 @@ hook(Layer, input, output) -> None or modified output for name, param in model.named_parameters(): print(name, param) -.. py:method:: named_sublayers(prefix='', include_self=False, layers_set=None) +named_sublayers(prefix='', include_self=False, layers_set=None) +''''''''' 返回层中所有子层上的迭代器,生成名称和子层的元组。重复的子层只产生一次。 -参数: +**参数** + - **prefix** (str, 可选) - 在所有参数名称前加的前缀。默认值:''。 - **include_self** (bool, 可选) - 是否包含该层自身。默认值:False。 - **layers_set** (set, 可选): 记录重复子层的集合。默认值:None。 -返回:iterator, 产出名称和子层的元组的迭代器。 +**返回** +iterator, 产出名称和子层的元组的迭代器。 **代码示例** @@ -434,7 +479,8 @@ hook(Layer, input, output) -> None or modified output for prefix, layer in model.named_sublayers(): print(prefix, layer) -.. py:method:: register_buffer(name, tensor, persistable=True) +register_buffer(name, tensor, persistable=True) +''''''''' 将一个Tensor注册为buffer。 @@ -442,12 +488,14 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 注册的buffer默认是可持久性的,会被保存到 ``state_dict`` 中。如果指定 ``persistable`` 参数为False,则会注册一个非持久性的buffer,即不会同步和保存到 ``state_dict`` 中。 -参数: +**参数** + - **name** (str) - 注册buffer的名字。可以通过此名字来访问已注册的buffer。 - **tensor** (Tensor) - 将被注册为buffer的变量。 - **persistable** (bool, 可选) - 注册的buffer是否需要可持久性地保存到 ``state_dict`` 中。 -返回:None +**返回** +None **代码示例** @@ -463,14 +511,17 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 # get the buffer by attribute. print(linear.buf_name) -.. py:method:: buffers(include_sublayers=True) +buffers(include_sublayers=True) +''''''''' 返回一个由当前层及其子层的所有buffers组成的列表。 -参数: +**参数** + - **include_sublayers** (bool, 可选) - 是否返回子层的buffers。如果为True,返回的列表中包含子层的buffers。默认值:True。 -返回:list, 一个由当前层及其子层的所有buffers组成的列表,列表中的元素类型为Tensor。 +**返回** +list, 一个由当前层及其子层的所有buffers组成的列表,列表中的元素类型为Tensor。 **代码示例** @@ -486,15 +537,18 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 print(linear.buffers()) # == print([linear.buf_name]) -.. py:method:: named_buffers(prefix='', include_sublayers=True) +named_buffers(prefix='', include_sublayers=True) +''''''''' 返回层中所有buffers的迭代器,生成名称和buffer的元组。 -参数: +**参数** + - **prefix** (str, 可选) - 在所有buffer名称前加的前缀。默认值:''。 - **include_sublayers** (bool, 可选) - 是否返回子层的buffers。如果为True,返回的列表中包含子层的buffers。默认值:True。 -返回:iterator, 产出名称和buffer的元组的迭代器。 +**返回** +iterator, 产出名称和buffer的元组的迭代器。 **代码示例** @@ -520,25 +574,31 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 for name, buffer in model.named_buffers(): print(name, buffer) -.. py:method:: forward(*inputs, **kwargs) +forward(*inputs, **kwargs) +''''''''' 定义每次调用时执行的计算。应该被所有子类覆盖。 -参数: +**参数** + - **\*inputs** (tuple) - 解包后的tuple参数。 - **\*\*kwargs** (dict) - 解包后的dict参数。 -返回: 无 +**返回** + 无 -.. py:method:: add_sublayer(name, sublayer) +add_sublayer(name, sublayer) +''''''''' 添加子层实例。可以通过self.name访问该sublayer。 -参数: +**参数** + - **name** (str) - 子层名。 - **sublayer** (Layer) - Layer实例。 -返回:Layer, 添加的子层 +**返回** +Layer, 添加的子层 **代码示例** @@ -568,15 +628,18 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 print(prefix, layer) -.. py:method:: add_parameter(name, parameter) +add_parameter(name, parameter) +''''''''' 添加参数实例。可以通过self.name访问该parameter。 -参数: +**参数** + - **name** (str) - 参数名。 - **parameter** (Parameter) - Parameter实例。 -返回:Parameter, 传入的参数实例 +**返回** +Parameter, 传入的参数实例 **代码示例** @@ -599,15 +662,18 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 print(name, param) # will print w_tmp,_linear.weight,_linear.bias -.. py:method:: state_dict(destination=None, include_sublayers=True) +state_dict(destination=None, include_sublayers=True) +''''''''' 获取当前层及其子层的所有参数和可持久性buffers。并将所有参数和buffers存放在dict结构中。 -参数: +**参数** + - **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数和可持久性buffers都将存放在 ``destination`` 中。 默认值:None。 - **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。 -返回:dict, 包含所有参数和可持久行buffers的dict +**返回** +dict, 包含所有参数和可持久行buffers的dict **代码示例** @@ -620,15 +686,18 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 state_dict = emb.state_dict() paddle.save( state_dict, "paddle_dy.pdparams") -.. py:method:: set_state_dict(state_dict, use_structured_name=True) +set_state_dict(state_dict, use_structured_name=True) +''''''''' 根据传入的 ``state_dict`` 设置参数和可持久性buffers。 所有参数和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。 -参数: +**参数** + - **state_dict** (dict) - 包含所有参数和可持久性buffers的dict。 - **use_structured_name** (bool, 可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。 -返回:无 +**返回** +无 **代码示例** @@ -643,11 +712,13 @@ buffer是一个不可训练的变量,不会被优化器更新,但在评估 para_state_dict = paddle.load("paddle_dy.pdparams") emb.set_state_dict(para_state_dict) -.. py:method:: to(device=None, dtype=None, blocking=None) +to(device=None, dtype=None, blocking=None) +''''''''' 根据给定的device、dtype和blocking 转换 Layer中的parameters 和 buffers。 -参数: +**参数** + - **device** (str|paddle.CPUPlace()|paddle.CUDAPlace()|paddle.CUDAPinnedPlace()|paddle.XPUPlace()|None, 可选) - 希望存储Layer 的设备位置。如果为None, 设备位置和原始的Tensor 的设备位置一致。如果设备位置是string 类型,取值可为 ``cpu``, ``gpu:x`` and ``xpu:x`` ,这里的 ``x`` 是 GPUs 或者 XPUs的编号。默认值:None。 - **dtype** (str|numpy.dtype|paddle.dtype|None, 可选) - 数据的类型。如果为None, 数据类型和原始的Tensor 一致。默认值:None。 - **blocking** (bool|None, 可选)- 如果为False并且当前Tensor处于固定内存上,将会发生主机到设备端的异步拷贝。否则,会发生同步拷贝。如果为None,blocking 会被设置为True。默认为False。 diff --git a/docs/api/paddle/nn/Linear_cn.rst b/docs/api/paddle/nn/Linear_cn.rst index 9c6137582f0..7ee03707a4a 100644 --- a/docs/api/paddle/nn/Linear_cn.rst +++ b/docs/api/paddle/nn/Linear_cn.rst @@ -30,11 +30,15 @@ Linear层只接受一个Tensor作为输入,形状为 :math:`[batch\_size, *, i 属性 ::::::::: -.. py:attribute:: weight +属性 +:::::::::::: +weight +''''''''' 本层的可学习参数,类型为 ``Parameter`` 。 -.. py:attribute:: bias +bias +''''''''' 本层的可学习偏置,类型为 ``Parameter`` 。 @@ -44,8 +48,7 @@ Linear层只接受一个Tensor作为输入,形状为 :math:`[batch\_size, *, i - 输入:形状为 :math:`[batch\_size, *, in\_features]` 的多维Tensor。 - 输出:形状为 :math:`[batch\_size, *, out\_features]` 的多维Tensor。 -代码示例 -::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/nn/MSELoss_cn.rst b/docs/api/paddle/nn/MSELoss_cn.rst index b60037bebca..2336efb2b7b 100644 --- a/docs/api/paddle/nn/MSELoss_cn.rst +++ b/docs/api/paddle/nn/MSELoss_cn.rst @@ -24,7 +24,9 @@ MSELoss .. math:: Out = \operatorname{sum}((input - label)^2) -参数: +参数 +:::::::::::: + - **reduction** (str, 可选) - 约简方式,可以是 'none' | 'mean' | 'sum'。设为'none'时不使用约简,设为'mean'时返回loss的均值,设为'sum'时返回loss的和。 形状: @@ -32,10 +34,13 @@ MSELoss - **label** (Tensor) - 目标值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 -返回:变量(Tensor), 预测值和目标值的均方差, 数值类型与输入相同 +返回 +:::::::::::: +变量(Tensor), 预测值和目标值的均方差, 数值类型与输入相同 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Maxout_cn.rst b/docs/api/paddle/nn/Maxout_cn.rst index a3c8159ff40..8ef8e8270c5 100644 --- a/docs/api/paddle/nn/Maxout_cn.rst +++ b/docs/api/paddle/nn/Maxout_cn.rst @@ -18,7 +18,9 @@ Maxout激活层. &0 \le j < s \\ &0 \le k < groups -参数: +参数 +:::::::::::: + :::::::::: - groups (int) - 指定将输入张量的channel通道维度进行分组的数目。输出的通道数量为通道数除以组数。 - axis (int, 可选) - 指定通道所在维度的索引。当数据格式为NCHW时,axis应该被设置为1,当数据格式为NHWC时,axis应该被设置为-1或者3。默认值为1。 diff --git a/docs/api/paddle/nn/MultiHeadAttention_cn.rst b/docs/api/paddle/nn/MultiHeadAttention_cn.rst index f8d27ca470c..f180be35585 100644 --- a/docs/api/paddle/nn/MultiHeadAttention_cn.rst +++ b/docs/api/paddle/nn/MultiHeadAttention_cn.rst @@ -14,7 +14,9 @@ MultiHeadAttention 细节可参考论文 `Attention is all you need `_ 。 -参数: +参数 +:::::::::::: + - **embed_dim** (int) - 输入输出的维度。 - **num_heads** (int) - 多头注意力机制的Head数量。 - **dropout** (float,可选) - 注意力目标的随机失活率。0表示不加dropout。默认值:0。 @@ -25,7 +27,8 @@ MultiHeadAttention - **bias_attr** (ParamAttr,可选)- 指定偏置参数属性的对象。默认值:``None``,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Pad1D_cn.rst b/docs/api/paddle/nn/Pad1D_cn.rst index 3e285333d3a..e33ceb97f08 100644 --- a/docs/api/paddle/nn/Pad1D_cn.rst +++ b/docs/api/paddle/nn/Pad1D_cn.rst @@ -8,7 +8,9 @@ Pad1D 按照 padding、mode 和 value 属性对输入进行填充。 -参数: +参数 +:::::::::::: + - **padding** (Tensor | List[int] | int) - 填充大小。如果是int,则在所有待填充边界使用相同的填充, 否则填充的格式为[pad_left, pad_right]。 - **mode** (str) - padding的四种模式,分别为 ``'constant'``, ``'reflect'``, ``'replicate'`` 和 ``'circular'``。 @@ -18,9 +20,12 @@ Pad1D - **data_format** (str) - 指定输入的format,可为 ``'NCL'`` 或者 ``'NLC'``,默认值为 ``'NCL'``。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Pad2D_cn.rst b/docs/api/paddle/nn/Pad2D_cn.rst index 9420be0fb1b..6084de999f7 100644 --- a/docs/api/paddle/nn/Pad2D_cn.rst +++ b/docs/api/paddle/nn/Pad2D_cn.rst @@ -8,7 +8,9 @@ Pad2D 按照 padding、mode 和 value 属性对输入进行填充。 -参数: +参数 +:::::::::::: + - **padding** (Tensor | List[int] | int]) - 填充大小。如果是int,则在所有待填充边界使用相同的填充, 否则填充的格式为[pad_left, pad_right, pad_top, pad_bottom]。 - **mode** (str) - padding的四种模式,分别为 ``'constant'``, ``'reflect'``, ``'replicate'`` 和 ``'circular'``。 @@ -18,9 +20,12 @@ Pad2D - **data_format** (str) - 指定输入的format,可为 ``'NCHW'`` 或者 ``'NHWC'``,默认值为 ``'NCHW'``。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Pad3D_cn.rst b/docs/api/paddle/nn/Pad3D_cn.rst index 8634c943347..4531abcaa7e 100644 --- a/docs/api/paddle/nn/Pad3D_cn.rst +++ b/docs/api/paddle/nn/Pad3D_cn.rst @@ -8,7 +8,9 @@ Pad3D 按照 padding、mode 和 value 属性对输入进行填充。 -参数: +参数 +:::::::::::: + - **padding** (Tensor | List[int] | int) - 填充大小。如果是int,则在所有待填充边界使用相同的填充, 否则填充的格式为[pad_left, pad_right, pad_top, pad_bottom, pad_front, pad_back]。 - **mode** (str) - padding的四种模式,分别为 ``'constant'``, ``'reflect'``, ``'replicate'`` 和 ``'circular'``。 @@ -18,9 +20,12 @@ Pad3D - **data_format** (str) - 指定输入的format,可为 ``'NCDHW'`` 或者 ``'NDHWC'``,默认值为 ``'NCDHW'``。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/ParameterList_cn.rst b/docs/api/paddle/nn/ParameterList_cn.rst index c9fc3939ff0..77f59cfc2ba 100644 --- a/docs/api/paddle/nn/ParameterList_cn.rst +++ b/docs/api/paddle/nn/ParameterList_cn.rst @@ -10,12 +10,17 @@ ParameterList 参数列表容器。此容器的行为类似于Python列表,但它包含的参数将被正确地注册和添加。 -参数: +参数 +:::::::::::: + - **parameters** (iterable,可选) - 可迭代的Parameters。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/RNNCellBase_cn.rst b/docs/api/paddle/nn/RNNCellBase_cn.rst index 77bfbe35094..90c9a648b83 100644 --- a/docs/api/paddle/nn/RNNCellBase_cn.rst +++ b/docs/api/paddle/nn/RNNCellBase_cn.rst @@ -15,12 +15,16 @@ RNNCellBase 根据输入的形状,数据类型和值生成初始状态。 -参数: +参数 +:::::::::::: + - **batch_ref** (Tensor) - 一个Tensor,其形状决定了生成初始状态使用的batch_size。当batch_ref形状为d时,d[batch_dim_idx]为batch_size。 - **shape** (list|tuple,可选) - 隐藏层的形状(可以是多层嵌套的),列表或元组的第一位为batch_size,默认为-1。shape为None时,使用state_shape(property)。默认为None。 - **dtype** (str|list|tuple,可选) - 数据类型(可以是多层嵌套的,但嵌套结构要和shape相同。或者所有Tensor的数据类型相同时可以只输入一个dtype。)。当dtype为None且state_dtype(property)不可用时,则使用paddle默认的float类型。默认为None。 - **init_value** (float,可选) -用于初始状态的浮点数值。默认为0。 - **batch_dim_idx** (int,可选) - 用于指定batch_size在batch_ref的索引位置的整数值。默认为0。 -返回: +返回 +:::::::::::: + - **init_state** (Tensor|tuple|list) - 根据输出的数据类型,形状和嵌套层级返回的初始状态Tensor。 diff --git a/docs/api/paddle/nn/RNN_cn.rst b/docs/api/paddle/nn/RNN_cn.rst index 6aff7387232..f566ce34c4a 100644 --- a/docs/api/paddle/nn/RNN_cn.rst +++ b/docs/api/paddle/nn/RNN_cn.rst @@ -11,7 +11,9 @@ RNN 该OP是循环神经网络(RNN)的封装,将输入的Cell封装为一个循环神经网络。它能够重复执行 :code:`cell.forward()` 直到遍历完input中的所有Tensor。 -参数: +参数 +:::::::::::: + - **cell** (RNNCellBase) - RNNCellBase类的一个实例。 - **is_reverse** (bool,可选) - 指定遍历input的方向。默认为False - **time_major** (bool,可选) - 指定input的第一个维度是否是time steps。默认为False。 @@ -29,7 +31,8 @@ RNN 该类是一个封装rnn cell的低级api,用户在使用forward函数时须确保initial_states满足cell的要求。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Sequential_cn.rst b/docs/api/paddle/nn/Sequential_cn.rst index 9af4e95ecd7..1a17bbd14a0 100644 --- a/docs/api/paddle/nn/Sequential_cn.rst +++ b/docs/api/paddle/nn/Sequential_cn.rst @@ -10,12 +10,17 @@ Sequential 顺序容器。子Layer将按构造函数参数的顺序添加到此容器中。传递给构造函数的参数可以Layers或可迭代的name Layer元组。 -参数: +参数 +:::::::::::: + - **layers** (tuple) - Layers或可迭代的name Layer对。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/SimpleRNNCell_cn.rst b/docs/api/paddle/nn/SimpleRNNCell_cn.rst index 09957186698..5c8820314e7 100644 --- a/docs/api/paddle/nn/SimpleRNNCell_cn.rst +++ b/docs/api/paddle/nn/SimpleRNNCell_cn.rst @@ -23,7 +23,9 @@ SimpleRNNCell 详情请参考论文 :`Finding Structure in Time `_。 -参数: +参数 +:::::::::::: + - **input_size** (int) - 输入的大小。 - **hidden_size** (int) - 隐藏状态大小。 - **activation** (str, 可选) - 简单循环神经网络单元的激活函数。可以是tanh或relu。默认为tanh。 @@ -51,7 +53,8 @@ SimpleRNNCell 所有的变换矩阵的权重和偏置都默认初始化为Uniform(-std, std),其中std = :math:`\frac{1}{\sqrt{hidden\_size}}`。对于参数初始化,详情请参考 :ref:`cn_api_fluid_ParamAttr`。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/SimpleRNN_cn.rst b/docs/api/paddle/nn/SimpleRNN_cn.rst index 6408d46f1e7..c51e9232127 100644 --- a/docs/api/paddle/nn/SimpleRNN_cn.rst +++ b/docs/api/paddle/nn/SimpleRNN_cn.rst @@ -19,7 +19,9 @@ SimpleRNN y_{t} & = h_{t} -参数: +参数 +:::::::::::: + - **input_size** (int) - 输入 :math:`x` 的大小。 - **hidden_size** (int) - 隐藏状态 :math:`h` 大小。 - **num_layers** (int,可选) - 循环网络的层数。例如,将层数设为2,会将两层GRU网络堆叠在一起,第二层的输入来自第一层的输出。默认为1。 @@ -41,7 +43,8 @@ SimpleRNN - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为False,则Tensor的形状为[batch_size,time_steps,num_directions * hidden_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,num_directions * hidden_size],当direction设置为bidirectional时,num_directions等于2,否则等于1。 `time_steps` 指输出序列的长度。 - **final_states** (Tensor) - 最终状态。形状为[num_layers * num_directions, batch_size, hidden_size],当direction设置为bidirectional时,num_directions等于2,返回值的前向和后向的状态的索引是0,2,4,6...和1,3,5,7...,否则等于1。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/SyncBatchNorm_cn.rst b/docs/api/paddle/nn/SyncBatchNorm_cn.rst index 875a3efddf0..4af14d5c6f2 100644 --- a/docs/api/paddle/nn/SyncBatchNorm_cn.rst +++ b/docs/api/paddle/nn/SyncBatchNorm_cn.rst @@ -38,7 +38,9 @@ SyncBatchNorm 如果您想用容器封装您的模型,而且您的模型在预测阶段中包含 ``SyncBatchNorm`` 这个算子的话,请使用 ``nn.LayerList`` 或者 ``nn.Sequential`` 而不要直接使用 ``list`` 来封装模型。 -参数: +参数 +:::::::::::: + - **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。 - **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。 - **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。 @@ -49,7 +51,8 @@ SyncBatchNorm - input: 一个二维到五维的 ``Tensor`` 。 - output: 和input 相同形状的 ``Tensor`` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -71,13 +74,18 @@ convert_sync_batchnorm(layer) 该接口用于把 ``BatchNorm*d`` 层转换为 ``SyncBatchNorm`` 层。 -参数: +参数 +:::::::::::: + - **layer** (paddle.nn.Layer) - 包含一个或多个 ``BatchNorm*d`` 层的模型。 -返回: +返回 +:::::::::::: + 如果原始模型中有 ``BatchNorm*d`` 层, 则把 ``BatchNorm*d`` 层转换为 ``SyncBatchNorm`` 层的原始模型。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/TransformerDecoderLayer_cn.rst b/docs/api/paddle/nn/TransformerDecoderLayer_cn.rst index ef4daa0a37a..ae1aa65d58e 100644 --- a/docs/api/paddle/nn/TransformerDecoderLayer_cn.rst +++ b/docs/api/paddle/nn/TransformerDecoderLayer_cn.rst @@ -12,7 +12,9 @@ TransformerDecoderLayer Transformer解码器层由三个子层组成:多头自注意力机制、编码-解码交叉注意力机制(encoder-decoder cross attention)和前馈神经网络。如果 ``normalize_before`` 为 ``True``,则对每个子层的输入进行层标准化(Layer Normalization),对每个子层的输出进行dropout和残差连接(residual connection)。否则(即 ``normalize_before`` 为 ``False``),则对每个子层的输入不进行处理,只对每个子层的输出进行dropout、残差连接(residual connection)和层标准化(Layer Normalization)。 -参数: +参数 +:::::::::::: + - **d_model** (int) - 输入输出的维度。 - **nhead** (int) - 多头注意力机制的Head数量。 - **dim_feedforward** (int) - 前馈神经网络中隐藏层的大小。 @@ -25,7 +27,8 @@ Transformer解码器层由三个子层组成:多头自注意力机制、编码 - **bias_attr** (ParamAttr|tuple|bool,可选)- 指定偏置参数属性的对象。如果是 ``tuple``,多头自注意力机制的偏置参数属性使用 ``bias_attr[0]``,编码-解码交叉注意力机制的偏置参数属性使用 ``bias_attr[1]``,前馈神经网络的偏置参数属性使用 ``bias_attr[2]``。如果该值是 ``ParamAttr``,则多头自注意力机制、编码-解码交叉注意力机制和前馈神经网络的偏置参数属性都使用 ``ParamAttr``。如果该参数为 ``bool`` 类型,只支持为 ``False``,表示没有偏置参数。默认值:``None``,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/TransformerDecoder_cn.rst b/docs/api/paddle/nn/TransformerDecoder_cn.rst index 53fe056d030..1e6b5a73206 100644 --- a/docs/api/paddle/nn/TransformerDecoder_cn.rst +++ b/docs/api/paddle/nn/TransformerDecoder_cn.rst @@ -12,13 +12,16 @@ TransformerDecoder Transformer解码器由多个Transformer解码器层(``TransformerDecoderLayer``)叠加组成的。 -参数: +参数 +:::::::::::: + - **decoder_layer** (Layer) - ``TransformerDecoderLayer`` 的一个实例,作为Transformer解码器的第一层,其他层将根据它的配置进行构建。 - **num_layers** (int) - ``TransformerDecoderLayer`` 层的叠加数量。 - **norm** (LayerNorm,可选) - 层标准化(Layer Normalization)。如果提供该参数,将对解码器的最后一层的输出进行层标准化。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/TransformerEncoderLayer_cn.rst b/docs/api/paddle/nn/TransformerEncoderLayer_cn.rst index 9c763098413..3e3fe71601a 100644 --- a/docs/api/paddle/nn/TransformerEncoderLayer_cn.rst +++ b/docs/api/paddle/nn/TransformerEncoderLayer_cn.rst @@ -12,7 +12,9 @@ TransformerEncoderLayer Transformer编码器层由两个子层组成:多头自注意力机制和前馈神经网络。如果 ``normalize_before`` 为 ``True``,则对每个子层的输入进行层标准化(Layer Normalization),对每个子层的输出进行dropout和残差连接(residual connection)。否则(即 ``normalize_before`` 为 ``False``),则对每个子层的输入不进行处理,只对每个子层的输出进行dropout、残差连接(residual connection)和层标准化(Layer Normalization)。 -参数: +参数 +:::::::::::: + - **d_model** (int) - 输入输出的维度。 - **nhead** (int) - 多头注意力机制的Head数量。 - **dim_feedforward** (int) - 前馈神经网络中隐藏层的大小。 @@ -25,7 +27,8 @@ Transformer编码器层由两个子层组成:多头自注意力机制和前馈 - **bias_attr** (ParamAttr|tuple|bool,可选)- 指定偏置参数属性的对象。如果是 ``tuple``,多头自注意力机制的偏置参数属性使用 ``bias_attr[0]``,前馈神经网络的偏置参数属性使用 ``bias_attr[1]``。如果该参数值是 ``ParamAttr``,则多头自注意力机制和前馈神经网络的偏置参数属性都使用 ``ParamAttr``。如果该参数为 ``bool`` 类型,只支持为 ``False``,表示没有偏置参数。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/TransformerEncoder_cn.rst b/docs/api/paddle/nn/TransformerEncoder_cn.rst index 1325f0c1632..91f206cff95 100644 --- a/docs/api/paddle/nn/TransformerEncoder_cn.rst +++ b/docs/api/paddle/nn/TransformerEncoder_cn.rst @@ -12,13 +12,16 @@ TransformerEncoder Transformer编码器由多个Transformer编码器层(``TransformerEncoderLayer``)叠加组成的。 -参数: +参数 +:::::::::::: + - **encoder_layer** (Layer) - ``TransformerEncoderLayer`` 的一个实例,作为Transformer编码器的第一层,其他层将根据它的配置进行构建。 - **num_layers** (int) - ``TransformerEncoderLayer`` 层的叠加数量。 - **norm** (LayerNorm,可选) - 层标准化(Layer Normalization)。如果提供该参数,将对编码器的最后一层的输出进行层标准化。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Transformer_cn.rst b/docs/api/paddle/nn/Transformer_cn.rst index a8421f46fab..c0f84dec21a 100644 --- a/docs/api/paddle/nn/Transformer_cn.rst +++ b/docs/api/paddle/nn/Transformer_cn.rst @@ -16,7 +16,9 @@ Transformer模型由一个 ``TransformerEncoder`` 实例和一个 ``TransformerD 用户可以使用相应的参数配置模型结构。请注意 ``normalize_before`` 的用法与某些类似Transformer的模型例如BERT和GPT2的用法不同,它表示在哪里(多头注意力机制或前馈神经网络的输入还是输出)进行层标准化(Layer Normalization)。该模型默认的结构是对每个子层的output进行层归一化,并在最后一个编码器/解码器的输出上进行另一个层归一化操作。 -参数: +参数 +:::::::::::: + - **d_model** (int,可选) - 编码器和解码器的输入输出的维度。默认值:512。 - **nhead** (int,可选) - 多头注意力机制的Head数量。默认值:8。 - **num_encoder_layers** (int,可选) - 编码器中 ``TransformerEncoderLayer`` 的层数。默认值:6。 @@ -33,7 +35,8 @@ Transformer模型由一个 ``TransformerEncoder`` 实例和一个 ``TransformerD - **custom_decoder** (Layer,可选) - 若提供该参数,则将 ``custom_decoder`` 作为解码器。默认值:``None``。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python @@ -59,12 +62,16 @@ Transformer模型由一个 ``TransformerEncoder`` 实例和一个 ``TransformerD -.. py:method:: forward(self, src, tgt, src_mask=None, tgt_mask=None, memory_mask=None) +方法 +:::::::::::: +forward(self, src, tgt, src_mask=None, tgt_mask=None, memory_mask=None) +''''''''' 将 Transformer 应用于源序列和目标序列。 -参数: +**参数** + - **src** (Tensor) - Transformer 编码器的输入。它的形状应该是 ``[batch_size, source_length, d_model]``。数据类型为 float32 或是 float64。 - **tgt** (Tensor) - Transformer 解码器的输入。它的形状应该是 ``[batch_size, target_length, d_model]]``。数据类型为 float32 或是 float64。 - **src_mask** (Tensor,可选) - 在编码器的多头注意力机制(Multi-head Attention)中,用于避免注意到序列中无关的位置的表示的 Tensor。它的形状应该是,或者能被广播到 ``[batch_size, nhead, source_length, source_length]``。当 ``src_mask`` 的数据类型是 ``bool`` 时,无关的位置所对应的值应该为 ``False`` 并且其余为 ``True``。当 ``src_mask`` 的数据类型为 ``int`` 时,无关的位置所对应的值应该为 0 并且其余为 1。当 ``src_mask`` 的数据类型为 ``float`` 时,无关的位置所对应的值应该为 ``-INF`` 并且其余为 0。当输入中不包含无关项的时候,当前值可以为 ``None``,表示不做 mask 操作。默认值为 ``None``。 @@ -72,23 +79,27 @@ Transformer模型由一个 ``TransformerEncoder`` 实例和一个 ``TransformerD - **memory_mask** (Tensor,可选) - 在解码器的交叉注意力机制(Cross Attention)中,用于避免注意到序列中无关的位置的表示的 Tensor,通常情况下指的是 padding 的部分。它的形状应该是,或者能被广播到 ``[batch_size, nhead, target_length, source_length]``。当 ``src_mask`` 的数据类型是 ``bool`` 时,无关的位置所对应的值应该为 ``False`` 并且其余为 ``True``。当 ``src_mask`` 的数据类型为 ``int`` 时,无关的位置所对应的值应该为 0 并且其余为 1。当 ``src_mask`` 的数据类型为 ``float`` 时,无关的位置所对应的值应该为 ``-INF`` 并且其余为 0。当输入中不包含无关项的时候,当前值可以为 ``None``,表示不做 mask 操作。默认值为 ``None``。 -返回:Tensor,Transformer 解码器的输出。其形状和数据类型与 ``tgt`` 相同。 +**返回** +Tensor,Transformer 解码器的输出。其形状和数据类型与 ``tgt`` 相同。 -.. py:method:: generate_square_subsequent_mask(self, length) +generate_square_subsequent_mask(self, length) +''''''''' 生成一个方形的掩码并且生成的掩码确保对于位置 i 的预测只依赖于已知的结果,即位置小于 i 所对应的结果。 -参数: +**参数** + - **length** (int|Tensor) - 序列的长度,``length`` 的数据类型为 int32 或者 int64。若为 Tensor,则当前 Tensor 需仅包含一个数值。 -返回:Tensor,根据输入的 ``length`` 具体的大小生成的形状为 ``[length, length]`` 方形的掩码。 +**返回** +Tensor,根据输入的 ``length`` 具体的大小生成的形状为 ``[length, length]`` 方形的掩码。 -**代码示例**: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/nn/Unfold_cn.rst b/docs/api/paddle/nn/Unfold_cn.rst index 41a6b3b2005..d8d731c6b44 100644 --- a/docs/api/paddle/nn/Unfold_cn.rst +++ b/docs/api/paddle/nn/Unfold_cn.rst @@ -28,7 +28,9 @@ unfold out.shape = [5, 90, 625] -参数: +参数 +:::::::::::: + - **kernel_size** (int|list of int) – 卷积核的尺寸,整数或者整型列表。如果为整型列表,应包含两个元素 ``[k_h, k_w]`` ,卷积核大小为 ``k_h * k_w`` ;如果为整数k,会被当作整型列表 ``[k, k]`` 处理 - **strides** (int|list of int,可选) – 卷积步长,整数或者整型列表。如果为整型列表,应该包含两个元素 ``[stride_h, stride_w]`` 。如果为整数,则 ``stride_h = stride_w = strides`` 。默认值为1 - **paddings** (int|list of int,可选) – 每个维度的扩展, 整数或者整型列表。如果为整型列表,长度应该为4或者2;长度为4 对应的padding参数是:[padding_top, padding_left,padding_bottom, padding_right],长度为2对应的padding参数是[padding_h, padding_w],会被当作[padding_h, padding_w, padding_h, padding_w]处理。如果为整数padding,则会被当作[padding, padding, padding, padding]处理。默认值为0 @@ -41,7 +43,8 @@ unfold - **输出** : 形状如上面所描述的[N, Cout, Lout],Cout每一个滑动block里面覆盖的元素个数,Lout是滑动block的个数,数据类型与 ``x`` 相同 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Upsample_cn.rst b/docs/api/paddle/nn/Upsample_cn.rst index 177f8ea9449..81727ddd134 100644 --- a/docs/api/paddle/nn/Upsample_cn.rst +++ b/docs/api/paddle/nn/Upsample_cn.rst @@ -158,7 +158,9 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致。对于3-D Tensor,支持 NCHW(num_batches, channels, width),对于4-D Tensor,支持 NCHW(num_batches, channels, height, width) 或者 NHWC(num_batches, height, width, channels),对于5-D Tensor,支持 NCDHW(num_batches, channels, depth, height, width)或者 NDHWC(num_batches, depth, height, width, channels),默认值:'NCHW'。 - **name** (str|None, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:3-D Tensor,形状为 (num_batches, channels, out_w) ;4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 +返回 +:::::::::::: +3-D Tensor,形状为 (num_batches, channels, out_w) ;4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 代码示例 diff --git a/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst b/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst index 9b07d3e811f..32bd439dbb1 100644 --- a/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst +++ b/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst @@ -22,16 +22,22 @@ UpsamplingBilinear2D https://en.wikipedia.org/wiki/Bilinear_interpolation -参数: +参数 +:::::::::::: + - **size** (list|tuple|Tensor|None) - 输出Tensor,输入为4D张量,形状为为(out_h, out_w)的2-D Tensor。如果 :code:`size` 是列表,每一个元素可以是整数或者形状为[1]的变量。如果 :code:`size` 是变量,则其维度大小为1。默认值为None。 - **scale_factor** (float|Tensor|list|tuple|None)-输入的高度或宽度的乘数因子。 ``size`` 和 ``scale_factor`` 至少要设置一个。 ``size`` 的优先级高于 ``scale_factor`` 。默认值为None。如果 ``scale_factor`` 是一个list或tuple,它必须与输入的shape匹配。 - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致。对于4-D Tensor,支持 NCHW(num_batches, channels, height, width) 或者 NHWC(num_batches, height, width, channels),默认值:'NCHW'。 - **name** (str|None, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 + +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError` - out_shape应该是一个列表、元组或变量。 - :code:`ValueError` - out_shape 和 scale 不可同时为 None。 - :code:`ValueError` - out_shape 的长度必须为2如果输入是4D张量。 @@ -39,7 +45,8 @@ https://en.wikipedia.org/wiki/Bilinear_interpolation - :code:`ValueError` - data_format 只能取 ‘NCHW’、‘NHWC’ -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst b/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst index d75f32fa719..9f8425b3599 100644 --- a/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst +++ b/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst @@ -50,16 +50,22 @@ UpsamplingNearest2D https://en.wikipedia.org/wiki/Nearest-neighbor_interpolation -参数: +参数 +:::::::::::: + - **size** (list|tuple|Tensor|None) - 输出Tensor,输入为4D张量,形状为(out_h, out_w)的2-D Tensor。如果 :code:`size` 是列表,每一个元素可以是整数或者形状为[1]的变量。如果 ``size`` 是变量,则其维度大小为1。默认值为None。 - **scale_factor** (float|Tensor|list|None)-输入的高度或宽度的乘数因子。 ``size`` 和 ``scale_factor`` 至少要设置一个。 ``size`` 的优先级高于 ``scale_factor`` 。默认值为None。如果 ``scale_factor`` 是一个list或tuple,它必须与输入的shape匹配。 - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致。对于4-D Tensor,支持 NCHW(num_batches, channels, height, width) 或者 NHWC(num_batches, height, width, channels),默认值:'NCHW'。 - **name** (str|None, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 + +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError` - out_shape应该是一个列表、元组或变量。 - :code:`ValueError` - out_shape 和 scale 不可同时为 None。 - :code:`ValueError` - out_shape 的长度必须为2如果输入是4D张量。 @@ -67,7 +73,8 @@ https://en.wikipedia.org/wiki/Nearest-neighbor_interpolation - :code:`ValueError` - data_format 只能取 ‘NCHW’、‘NHWC’ -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/ZeroPad2D_cn.rst b/docs/api/paddle/nn/ZeroPad2D_cn.rst index 27bc7339472..5cdfe8a4cc1 100644 --- a/docs/api/paddle/nn/ZeroPad2D_cn.rst +++ b/docs/api/paddle/nn/ZeroPad2D_cn.rst @@ -16,7 +16,9 @@ ZeroPad2D - **data_format** (str) - 指定输入的format,可为 ``'NCHW'`` 或者 ``'NHWC'``,默认值为 ``'NCHW'``。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 -返回:无 +返回 +:::::::::::: +无 形状 ::::::::: diff --git a/docs/api/paddle/nn/dynamic_decode_cn.rst b/docs/api/paddle/nn/dynamic_decode_cn.rst index fa54baf05ed..530bf3e6190 100644 --- a/docs/api/paddle/nn/dynamic_decode_cn.rst +++ b/docs/api/paddle/nn/dynamic_decode_cn.rst @@ -5,7 +5,10 @@ dynamic_decode -.. py:method:: paddle.nn.dynamic_decode(decoder, inits=None, max_step_num=None, output_time_major=False, impute_finished=False, is_test=False, return_length=False, **kwargs): +方法 +:::::::::::: +paddle.nn.dynamic_decode(decoder, inits=None, max_step_num=None, output_time_major=False, impute_finished=False, is_test=False, return_length=False, **kwargs): +''''''''' @@ -14,7 +17,8 @@ dynamic_decode :code:`decode.initialize()` 会在解码循环之前被调用一次。如果 :code:`decoder` 实现了 :code:`finalize` 方法,则 :code:`decoder.finalize()` 在解码循环后将被调用一次。 -参数: +**参数** + - **decoder** (Decoder) - 解码器的实例。 - **inits** (object,可选) - 传递给 :code:`decoder.initialize` 的参数。默认为None。 - **max_step_num** (int,可选) - 最大步数。如果未提供,解码直到解码过程完成( :code:`decode.step()` 返回的表示完成状态的Tensor中的值全部为True)。默认为None。 @@ -24,11 +28,13 @@ dynamic_decode - **return_length** (bool,可选) - 标识是否在返回的元组中额外包含一个存放了所有解码序列实际长度的Tensor。默认为False。 - **kwargs** - 其他命名关键字参数。这些参数将传递给 :code:`decoder.step`。 -返回:若 :code:`return_length` 为True,则返回三元组 :code:`(final_outputs, final_states, sequence_lengths)` ,否则返回二元组 :code:`(final_outputs, final_states)` 。 :code:`final_outputs, final_states` 包含了最终的输出和状态,这两者都是Tensor或Tensor的嵌套结构。:code:`final_outputs` 具有与 :code:`decoder.step()` 返回的 :code:`outputs` 相同的结构和数据类型, 且其中的每个tensor都是将所有解码步中与其对应的的输出进行堆叠的结果;如果 :code:`decoder` 实现了 :code:`finalize` 方法,这些tensor也可能会通过 :code:`decoder.finalize()` 进行修改。:code:`final_states` 是最后时间步的状态,和 :code:`decoder.initialize()` 返回的初始状态具有相同的结构,形状和数据类型。:code:`sequence_lengths` 是int64类型的tensor,和 :code:`decoder.initialize()` 返回的 :code:`finished` 具有相同的形状,其保存了所有解码序列实际长度。 +**返回** +若 :code:`return_length` 为True,则返回三元组 :code:`(final_outputs, final_states, sequence_lengths)` ,否则返回二元组 :code:`(final_outputs, final_states)` 。 :code:`final_outputs, final_states` 包含了最终的输出和状态,这两者都是Tensor或Tensor的嵌套结构。:code:`final_outputs` 具有与 :code:`decoder.step()` 返回的 :code:`outputs` 相同的结构和数据类型, 且其中的每个tensor都是将所有解码步中与其对应的的输出进行堆叠的结果;如果 :code:`decoder` 实现了 :code:`finalize` 方法,这些tensor也可能会通过 :code:`decoder.finalize()` 进行修改。:code:`final_states` 是最后时间步的状态,和 :code:`decoder.initialize()` 返回的初始状态具有相同的结构,形状和数据类型。:code:`sequence_lengths` 是int64类型的tensor,和 :code:`decoder.initialize()` 返回的 :code:`finished` 具有相同的形状,其保存了所有解码序列实际长度。 -返回类型:tuple +**返回类型** +tuple -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/nn/functional/affine_grid_cn.rst b/docs/api/paddle/nn/functional/affine_grid_cn.rst index 200833f2379..715def3ec93 100644 --- a/docs/api/paddle/nn/functional/affine_grid_cn.rst +++ b/docs/api/paddle/nn/functional/affine_grid_cn.rst @@ -8,16 +8,21 @@ affine_grid 该OP用于生成仿射变换前后的feature maps的坐标映射关系。在视觉应用中,根据该OP得到的映射关系,将输入feature map的像素点变换到对应的坐标,就得到了经过仿射变换的feature map。 -参数: +参数 +:::::::::::: + - **theta** (Tensor) - Shape为 ``[batch_size, 2, 3]`` 的Tensor,表示batch_size个 ``2X3`` 的变换矩阵。数据类型支持float32,float64。 - **out_shape** (Tensor | list | tuple) - 类型可以是1-D Tensor、list或tuple。用于表示在仿射变换中的输出的shape,其格式 ``[N, C, H, W]`` ,分别为输出feature map的batch size、channel数量、高和宽。数据类型支持int32。 - **align_corners** (bool, optional): 一个可选的bool型参数,如果为True,则将输入和输出张量的4个角落像素的中心对齐,并保留角点像素的值。 默认值:True。 - **name** (None|str) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 -返回: Tensor。Shape为 ``[N, H, W, 2]`` 的4-D Tensor,表示仿射变换前后的坐标的映射关系。其中,N、H、W分别为仿射变换中输出feature map的batch size、高和宽。 数据类型与 ``theta`` 一致。 +返回 +:::::::::::: + Tensor。Shape为 ``[N, H, W, 2]`` 的4-D Tensor,表示仿射变换前后的坐标的映射关系。其中,N、H、W分别为仿射变换中输出feature map的batch size、高和宽。 数据类型与 ``theta`` 一致。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/batch_norm_cn.rst b/docs/api/paddle/nn/functional/batch_norm_cn.rst index 56e65a34e5b..fbfc1c48fa3 100644 --- a/docs/api/paddle/nn/functional/batch_norm_cn.rst +++ b/docs/api/paddle/nn/functional/batch_norm_cn.rst @@ -9,7 +9,9 @@ batch_norm 详情见 :ref:`cn_api_nn_BatchNorm1D` 。 -参数: +参数 +:::::::::::: + - **x** (int) - 输入,数据类型为float32, float64。 - **running_mean** (Tensor) - 均值的Tensor。 - **running_var** (Tensor) - 方差的Tensor。 @@ -21,10 +23,13 @@ batch_norm - **name** (string, 可选) – BatchNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/celu_cn.rst b/docs/api/paddle/nn/functional/celu_cn.rst index 23412584c9e..fe9369da2de 100644 --- a/docs/api/paddle/nn/functional/celu_cn.rst +++ b/docs/api/paddle/nn/functional/celu_cn.rst @@ -15,7 +15,9 @@ celu激活层(CELU Activation Operator) 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float16、float32、float64。 - alpha (float, 可选) - celu的alpha值,默认值为1.0。 diff --git a/docs/api/paddle/nn/functional/class_center_sample_cn.rst b/docs/api/paddle/nn/functional/class_center_sample_cn.rst index 802f2d83e7f..6da7af77b28 100644 --- a/docs/api/paddle/nn/functional/class_center_sample_cn.rst +++ b/docs/api/paddle/nn/functional/class_center_sample_cn.rst @@ -19,18 +19,25 @@ class_center_sample 如果正类别中心数量大于给定的 ``num_samples``,将保留所有的正类别中心,因此 ``sampled_class_center`` 的维度将是 [``num_positive_class_centers``]。 -参数: +参数 +:::::::::::: + - **label** (Tensor) - 1-D Tensor,数据类型为 int32 或者 int64,每个元素的取值范围在 [0, num_classes)。 - **num_classes** (int) - 一个正整数,表示当前卡的类别数,注意每张卡的 ``num_classes`` 可以是不同的值。 - **num_samples** (int) - 一个正整数,表示当前卡采样的类别中心数量。 - **group** (Group, 可选) - 通信组的抽象描述,具体可以参考 ``paddle.distributed.collective.Group``。默认值为 ``None``。 -返回: +返回 +:::::::::::: + ``Tensor`` 二元组 - (``remapped_label``, ``sampled_class_center``),``remapped_label`` 是重新映射后的标签,``sampled_class_center`` 是所采样的类别中心。 -抛出异常: +抛出异常 +:::::::::::: + - :code:`ValueError` - ``num_samples`` > ``num_classes`` 时抛出异常。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.nn.functional.class_center_sample:code-example1 COPY-FROM: paddle.nn.functional.class_center_sample:code-example2 diff --git a/docs/api/paddle/nn/functional/conv1d_cn.rst b/docs/api/paddle/nn/functional/conv1d_cn.rst index 19b75ce7f99..7f1aa001700 100755 --- a/docs/api/paddle/nn/functional/conv1d_cn.rst +++ b/docs/api/paddle/nn/functional/conv1d_cn.rst @@ -49,7 +49,9 @@ conv1d .. math:: L_{out} = \frac{\left ( L_{in} -\left ( dilation*\left ( L_{f}-1 \right )+1 \right ) \right )}{stride}+1 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入是形状为 :math:`[N, C, L]` 或 :math:`[N, L, C]` 的4-D Tensor,N是批尺寸,C是通道数,L是特征长度,数据类型为float16, float32或float64。 - **weight** (Tensor)) - 形状为 :math:`[M, C/g, kL]` 的卷积核。 M是输出通道数, g是分组的个数,kL是卷积核的长度度。 - **bias** (int|list|tuple,可选) - 偏置项,形状为: :math:`[M,]` 。 @@ -60,10 +62,13 @@ conv1d - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCL"和"NLC"。N是批尺寸,C是通道数,L是特征长度。默认值:"NCL"。 - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 -返回:3-D Tensor,数据类型与 ``x`` 一致。返回卷积的结果。 +返回 +:::::::::::: +3-D Tensor,数据类型与 ``x`` 一致。返回卷积的结果。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst b/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst index 1347b41e0dd..0f4ae13a1c0 100644 --- a/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst +++ b/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst @@ -65,7 +65,9 @@ conv1d_transpose 由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入是形状为 :math:`[N, C, L]` 或 :math:`[N, L, C]` 的3-D Tensor,N是批尺寸,C是通道数,L是特征长度,数据类型为float16, float32或float64。 - **weight** (Tensor) - 形状为 :math:`[C, M/g, kL]` 的卷积核(卷积核)。 M是输出通道数, g是分组的个数,kL是卷积核的长度。 - **bias** (int|list|tuple,可选) - 偏置项,形状为: :math:`[M,]` 。 @@ -79,10 +81,13 @@ conv1d_transpose - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 -返回:3-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +3-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/conv2d_cn.rst b/docs/api/paddle/nn/functional/conv2d_cn.rst index 412ed132269..2b92f0d6b9f 100755 --- a/docs/api/paddle/nn/functional/conv2d_cn.rst +++ b/docs/api/paddle/nn/functional/conv2d_cn.rst @@ -57,7 +57,9 @@ conv2d W_{out} = \frac{\left ( W_{in} -\left ( dilation[1]*\left ( W_{f}-1 \right )+1 \right ) \right )}{stride[1]}+1 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入是形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。 - **weight** (Tensor)) - 形状为 :math:`[M, C/g, kH, kW]` 的卷积核。 M是输出通道数, g是分组的个数,kH是卷积核的高度,kW是卷积核的宽度。 - **bias** (int|list|tuple) - 偏置项,形状为: :math:`[M,]` 。 @@ -68,10 +70,13 @@ conv2d - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 -返回:4-D Tensor,数据类型与 ``x`` 一致。返回卷积的结果。 +返回 +:::::::::::: +4-D Tensor,数据类型与 ``x`` 一致。返回卷积的结果。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst b/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst index cd2db2aed10..9b7bd52d437 100644 --- a/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst +++ b/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst @@ -67,7 +67,9 @@ conv2d_transpose 由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入是形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。 - **weight** (Tensor) - 形状为 :math:`[C, M/g, kH, kW]` 的卷积核(卷积核)。 M是输出通道数, g是分组的个数,kH是卷积核的高度,kW是卷积核的宽度。 - **bias** (int|list|tuple) - 偏置项,形状为: :math:`[M,]` 。 @@ -81,9 +83,12 @@ conv2d_transpose - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 -返回:4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/conv3d_cn.rst b/docs/api/paddle/nn/functional/conv3d_cn.rst index 7f939324076..a6b0f98018e 100755 --- a/docs/api/paddle/nn/functional/conv3d_cn.rst +++ b/docs/api/paddle/nn/functional/conv3d_cn.rst @@ -33,7 +33,9 @@ conv3d 输出形状: :math:`(N, C_{out}, D_{out}, H_{out}, W_{out})` -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入是形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。 - **weight** (Tensor) - 形状为 :math:`[M, C/g, kH, kW]` 的卷积核(卷积核)。 M是输出通道数, g是分组的个数,kH是卷积核的高度,kW是卷积核的宽度。 - **bias** (int|list|tuple) - 偏置项,形状为: :math:`[M,]` 。 @@ -46,11 +48,17 @@ conv3d - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 -返回:5-D Tensor,数据类型与 ``input`` 一致。返回卷积计算的结果。 +返回 +:::::::::::: +5-D Tensor,数据类型与 ``input`` 一致。返回卷积计算的结果。 + +返回类型 +:::::::::::: +Tensor。 -返回类型:Tensor。 +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``use_cudnn`` 不是bool值。 - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。 - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 @@ -62,7 +70,8 @@ conv3d - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst b/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst index fd2becaf54a..5596a9e962c 100755 --- a/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst +++ b/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst @@ -72,7 +72,9 @@ conv3d_transpose 由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 形状为 :math:`[N, C, D, H, W]` 或 :math:`[N, D, H, W, C]` 的5-D Tensor,N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度,数据类型:float32或float64。 - **weight** (Tensor) - 形状为 :math:`[C, M/g, kD, kH, kW]` 的卷积核。 M是输出通道数, g是分组的个数,kD是卷积核的深度,kH是卷积核的高度,kW是卷积核的宽度。 - **bias** (int|list|tuple) - 偏置项,形状为: :math:`[M,]` 。 @@ -86,11 +88,17 @@ conv3d_transpose - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 -返回:5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 + +返回类型 +:::::::::::: +Tensor -返回类型:Tensor +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果输入的shape、kernel_size、stride、padding和groups不匹配。 - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。 - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 @@ -100,7 +108,8 @@ conv3d_transpose - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/cosine_similarity_cn.rst b/docs/api/paddle/nn/functional/cosine_similarity_cn.rst index ad50eedbe7c..1862c8e813f 100644 --- a/docs/api/paddle/nn/functional/cosine_similarity_cn.rst +++ b/docs/api/paddle/nn/functional/cosine_similarity_cn.rst @@ -7,20 +7,27 @@ cosine_similarity 该OP用于计算x1与x2沿axis维度的余弦相似度。 -参数: +参数 +:::::::::::: + - **x1** (Tensor) - Tensor,数据类型支持float32, float64。 - **x2** (Tensor) - Tensor,数据类型支持float32, float64。 - **axis** (int) - 指定计算的维度,会在该维度上计算余弦相似度,默认值为1。 - **eps** (float) - 很小的值,防止计算时分母为0,默认值为1e-8。 -返回: 余弦相似度的计算结果,数据类型与x1, x2相同。 +返回 +:::::::::::: + 余弦相似度的计算结果,数据类型与x1, x2相同。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/diag_embed_cn.rst b/docs/api/paddle/nn/functional/diag_embed_cn.rst index 88d5d523b05..aeff27dcb24 100644 --- a/docs/api/paddle/nn/functional/diag_embed_cn.rst +++ b/docs/api/paddle/nn/functional/diag_embed_cn.rst @@ -17,15 +17,20 @@ diag_embed - 如果 offset > 0,则填充主对角线右上的对角线。 - 如果 offset < 0,则填充主对角线左下的对角线。 -参数: +参数 +:::::::::::: + - **input** (Tensor|numpy.ndarray)- 输入变量,至少为 1D 数组,支持数据类型为 float32,float64,int32,int64。 - **offset** (int ,可选)- 从指定的二维平面中获取对角线的位置,默认值为 0,既主对角线。 - **dim1** (int , 可选)- 填充对角线的二维平面的第一维,默认值为 -2。 - **dim2** (int , 可选)- 填充对角线的二维平面的第二维,默认值为 -1。 -返回: 指定二维平面填充了对角线的 Tensor。数据类型和输入数据类型一致。 +返回 +:::::::::::: + 指定二维平面填充了对角线的 Tensor。数据类型和输入数据类型一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/dice_loss_cn.rst b/docs/api/paddle/nn/functional/dice_loss_cn.rst index d397564a45e..dcd7c764eb0 100644 --- a/docs/api/paddle/nn/functional/dice_loss_cn.rst +++ b/docs/api/paddle/nn/functional/dice_loss_cn.rst @@ -17,15 +17,20 @@ dice_loss定义为: &= \frac{(total\_area−intersection\_area)−intersection\_area}{total\_area}\\ &= \frac{union\_area−intersection\_area}{total\_area} -参数: +参数 +:::::::::::: + - **input** (Tensor) - 分类的预测概率,秩大于等于2的多维Tensor,维度为 :math:`[N_1, N_2, ..., N_k, D]` 。第一个维度的大小是batch_size,最后一维的大小D是类别数目。数据类型是float32或者float64 - **label** (Tensor)- 正确的标注数据(groud truth),与输入 ``input`` 的秩相同的Tensor,维度为 :math:`[N_1, N_2, ..., N_k, 1]` 。第一个维度的大小是batch_size,最后一个维度的大小是1。数据类型为int32或者int64 - **epsilon** (float,可选) - 将会加到分子和分母上的数,浮点型的数值。如果输入和标签都为空,则确保dice为1。默认值:0.00001 -返回: Tensor,shape为[batch_size, 1],数据类型与 ``input`` 相同 +返回 +:::::::::::: + Tensor,shape为[batch_size, 1],数据类型与 ``input`` 相同 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/elu_cn.rst b/docs/api/paddle/nn/functional/elu_cn.rst index 4fac0845e59..ea21c7e5f2f 100644 --- a/docs/api/paddle/nn/functional/elu_cn.rst +++ b/docs/api/paddle/nn/functional/elu_cn.rst @@ -21,7 +21,9 @@ elu激活层(ELU Activation Operator) 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - alpha (float, 可选) - elu的alpha值,默认值为1.0。 diff --git a/docs/api/paddle/nn/functional/embedding_cn.rst b/docs/api/paddle/nn/functional/embedding_cn.rst index 5fbadbc6009..e84ec5993b2 100644 --- a/docs/api/paddle/nn/functional/embedding_cn.rst +++ b/docs/api/paddle/nn/functional/embedding_cn.rst @@ -36,7 +36,9 @@ embedding 输入的padding_idx小于0,则自动转换为padding_idx = -1 + 128 = 127, 对于输入id为127的词,进行padding处理。 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 存储id信息的Tensor,数据类型必须为:int32/int64。input中的id必须满足 ``0 =< id < size[0]`` 。 - **weight** (Tensor) - 存储词嵌入权重参数的Tensor,形状为(num_embeddings, embedding_dim)。 @@ -45,11 +47,16 @@ embedding - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:input映射后得到的Embedding Tensor,数据类型和权重定义的类型一致。 +返回 +:::::::::::: +input映射后得到的Embedding Tensor,数据类型和权重定义的类型一致。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/gather_tree_cn.rst b/docs/api/paddle/nn/functional/gather_tree_cn.rst index 573351d6f1f..ebfc4ba0654 100644 --- a/docs/api/paddle/nn/functional/gather_tree_cn.rst +++ b/docs/api/paddle/nn/functional/gather_tree_cn.rst @@ -40,13 +40,18 @@ gather_tree -参数: +参数 +:::::::::::: + - **ids** (Tensor) - 形状为 :math:`[length, batch\_size, beam\_size]` 的三维 Tensor,数据类型是 int32 或 int64。包含了所有时间步选择的 id。 - **parents** (Tensor) - 形状和数据类型均与 ``ids`` 相同的 Tensor。包含了束搜索中每一时间步所选 id 对应的 parent。 -返回:和 ``ids`` 具有相同形状和数据类型的 Tensor。包含了根据 parent 回溯而收集产生的完整 id 序列。 +返回 +:::::::::::: +和 ``ids`` 具有相同形状和数据类型的 Tensor。包含了根据 parent 回溯而收集产生的完整 id 序列。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/gelu_cn.rst b/docs/api/paddle/nn/functional/gelu_cn.rst index d73eb105c6a..4dc227ea641 100644 --- a/docs/api/paddle/nn/functional/gelu_cn.rst +++ b/docs/api/paddle/nn/functional/gelu_cn.rst @@ -21,7 +21,9 @@ gelu激活层(GELU Activation Operator) 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - approximate (bool, 可选) - 是否使用近似计算,默认值为 False,表示不使用近似计算。 diff --git a/docs/api/paddle/nn/functional/glu_cn.rst b/docs/api/paddle/nn/functional/glu_cn.rst index c678db47784..36979d972d4 100644 --- a/docs/api/paddle/nn/functional/glu_cn.rst +++ b/docs/api/paddle/nn/functional/glu_cn.rst @@ -11,7 +11,9 @@ glu .. math:: \mathrm{GLU}(a, b) = a \otimes \sigma(b) -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - axis (int, 可选) - 沿着该轴将输入二等分。D 为输入的维数,则 ``axis`` 应该在 [-D, D) 的范围内。如 ``axis`` 为负数,则相当于 ``axis +D``. diff --git a/docs/api/paddle/nn/functional/grid_sample_cn.rst b/docs/api/paddle/nn/functional/grid_sample_cn.rst index f31bbc6f7ea..78fa5e99f08 100644 --- a/docs/api/paddle/nn/functional/grid_sample_cn.rst +++ b/docs/api/paddle/nn/functional/grid_sample_cn.rst @@ -52,7 +52,9 @@ step 2: output = wn * d_e * d_s + en * d_w * d_s + ws * d_e * d_n + es * d_w * d_n -参数: +参数 +:::::::::::: + - **x** (Tensor): 输入张量,维度为 :math:`[N, C, H, W]` 的4-D Tensor,N为批尺寸,C是通道数,H是特征高度,W是特征宽度, 数据类型为float32或float64。 - **grid** (Tensor): 输入网格数据张量,维度为 :math:`[N, H, W, 2]` 的4-D Tensor,N为批尺寸,H是特征高度,W是特征宽度, 数据类型为float32或float64。 - **mode** (str, optional): 插值方式,可以为 'bilinear' 或者 'nearest'. 默认值:'bilinear'。 @@ -60,11 +62,16 @@ step 2: - **align_corners** (bool, optional): 一个可选的bool型参数,如果为True,则将输入和输出张量的4个角落像素的中心对齐,并保留角点像素的值。 默认值:True。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 -返回: 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor +返回 +:::::::::::: + 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor -返回类型:变量(Tensor),数据类型与 ``x`` 一致 +返回类型 +:::::::::::: +变量(Tensor),数据类型与 ``x`` 一致 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/hardsigmoid_cn.rst b/docs/api/paddle/nn/functional/hardsigmoid_cn.rst index 8b32d41a92f..63a7aee2e0c 100644 --- a/docs/api/paddle/nn/functional/hardsigmoid_cn.rst +++ b/docs/api/paddle/nn/functional/hardsigmoid_cn.rst @@ -20,7 +20,9 @@ hardsigmoid激活层。sigmoid的分段线性逼近激活函数,速度比sigmo 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - slope (float, 可选) - hardsigmoid的斜率。默认值为0.1666667。 diff --git a/docs/api/paddle/nn/functional/hardswish_cn.rst b/docs/api/paddle/nn/functional/hardswish_cn.rst index 551c170f017..91dc321c2af 100644 --- a/docs/api/paddle/nn/functional/hardswish_cn.rst +++ b/docs/api/paddle/nn/functional/hardswish_cn.rst @@ -20,7 +20,9 @@ hardswish激活函数。在MobileNetV3架构中被提出,相较于swish函数 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/instance_norm_cn.rst b/docs/api/paddle/nn/functional/instance_norm_cn.rst index 3e3062b9c0e..a74d7b3c224 100644 --- a/docs/api/paddle/nn/functional/instance_norm_cn.rst +++ b/docs/api/paddle/nn/functional/instance_norm_cn.rst @@ -9,7 +9,9 @@ instance_norm 详情见 :ref:`cn_api_nn_InstanceNorm1D` 。 -参数: +参数 +:::::::::::: + - **x** (int) - 输入,数据类型为float32, float64。 - **running_mean** (Tensor) - 均值的Tensor。 - **running_var** (Tensor) - 方差的Tensor。 @@ -21,10 +23,13 @@ instance_norm - **data_format** (string, 可选) - 指定输入数据格式,数据格式可以为“NC", "NCL", "NCHW" 或者"NCDHW"。默认值:"NCHW"。 - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/interpolate_cn.rst b/docs/api/paddle/nn/functional/interpolate_cn.rst index 891096cd01b..b9d6b6dbd83 100644 --- a/docs/api/paddle/nn/functional/interpolate_cn.rst +++ b/docs/api/paddle/nn/functional/interpolate_cn.rst @@ -138,7 +138,9 @@ https://en.wikipedia.org/wiki/Trilinear_interpolation 有关双三次插值的详细信息,请参阅维基百科: https://en.wikipedia.org/wiki/Bicubic_interpolation -参数: +参数 +:::::::::::: + - **x** (Tensor) - 4-D或5-D Tensor,数据类型为float32、float64或uint8,其数据格式由参数 ``data_format`` 指定。 - **size** (list|tuple|Tensor|None) - 输出Tensor,输入为4D张量时,形状为为(out_h, out_w)的2-D Tensor。输入为5-D Tensor时,形状为(out_d, out_h, out_w)的3-D Tensor。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者形状为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。默认值为None。 - **scale_factor** (float|Tensor|list|tuple|None)-输入的高度或宽度的乘数因子 。 out_shape和scale至少要设置一个。out_shape的优先级高于scale。默认值为None。如果scale_factor是一个list或tuple,它必须与输入的shape匹配。 @@ -148,10 +150,14 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致。对于4-D Tensor,支持 NCHW(num_batches, channels, height, width) 或者 NHWC(num_batches, height, width, channels),对于5-D Tensor,支持 NCDHW(num_batches, channels, depth, height, width)或者 NDHWC(num_batches, depth, height, width, channels),默认值:'NCHW'。 - **name** (str|None, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 + +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError` - out_shape应该是一个列表、元组或张量。 - :code:`TypeError` - actual_shape应该是变量或None。 - :code:`ValueError` - interpolate的"mode"只能是"BILINEAR"或"TRILINEAR"或"NEAREST"或"BICUBIC"或"LINEAR"或"AREA"。 @@ -167,7 +173,8 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation - :code:`ValueError` - align_mode 只能取 ‘0’ 或 ‘1’。 - :code:`ValueError` - data_format 只能取 'NCW', 'NCHW'、'NHWC'、'NCDHW' 或者 'NDHWC'。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/label_smooth_cn.rst b/docs/api/paddle/nn/functional/label_smooth_cn.rst index 0ff68cbce81..5624090f30e 100644 --- a/docs/api/paddle/nn/functional/label_smooth_cn.rst +++ b/docs/api/paddle/nn/functional/label_smooth_cn.rst @@ -22,15 +22,20 @@ label_smooth 关于更多标签平滑的细节, `查看论文 `_ 。 -参数: +参数 +:::::::::::: + - **label** (Tensor) - 包含标签数据的输入变量。 标签数据应使用 one-hot 表示,是维度为 :math:`[N_1, ..., Depth]` 的多维Tensor,其中Depth为字典大小。 - **prior_dist** (Tensor,可选) - 用于平滑标签的先验分布,是维度为 :math:`[1,class\_num]` 的2D Tensor。 如果未设置,则使用均匀分布。默认值为None。 - **epsilon** (float,可选) - 用于混合原始真实分布和固定分布的权重。默认值为0.1。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:为平滑后标签的 ``Tensor`` 。 +返回 +:::::::::::: +为平滑后标签的 ``Tensor`` 。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/layer_norm_cn.rst b/docs/api/paddle/nn/functional/layer_norm_cn.rst index 194f6f756ea..f5aea333fc2 100644 --- a/docs/api/paddle/nn/functional/layer_norm_cn.rst +++ b/docs/api/paddle/nn/functional/layer_norm_cn.rst @@ -9,7 +9,9 @@ layer_norm 详情见 :ref:`cn_api_nn_LayerNorm` . -参数: +参数 +:::::::::::: + - **x** (int) - 输入,数据类型为float32, float64。 - **normalized_shape** (int|list|tuple) - 期望的输入是 :math:`[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]` ,如果是一个整数,会作用在最后一个维度。 - **weight** (Tensor) - 权重的Tensor, 默认为None。 @@ -18,9 +20,12 @@ layer_norm - **name** (string, 可选) – LayerNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/log_loss_cn.rst b/docs/api/paddle/nn/functional/log_loss_cn.rst index 9d8a37f5d9a..4a649cc2907 100644 --- a/docs/api/paddle/nn/functional/log_loss_cn.rst +++ b/docs/api/paddle/nn/functional/log_loss_cn.rst @@ -17,17 +17,22 @@ log_loss Out = -label * \log{(input + \epsilon)} - (1 - label) * \log{(1 - input + \epsilon)} -参数: +参数 +:::::::::::: + - **input** (Tensor) – 形为 [N x 1] 的二维张量, 其中 N 为 batch 大小。该输入是由前驱算子计算得来的概率, 数据类型是 float32。 - **label** (Tensor) – 形为 [N x 1] 的二维张量,真值标签, 其中 N 为 batch 大小,数据类型是 float32。 - **epsilon** (float) – epsilon - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: Tensor, 形状为[N x 1], 数据类型为 float32 +返回 +:::::::::::: + Tensor, 形状为[N x 1], 数据类型为 float32 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst b/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst index 3e98dc40a3b..8f2c6567999 100644 --- a/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst +++ b/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst @@ -13,7 +13,9 @@ margin_cross_entropy 提示: 这个 API 支持单卡,也支持多卡(模型并行),使用模型并行时,``logits.shape[-1]`` 在每张卡上可以不同。 -参数: +参数 +:::::::::::: + - **logits** (Tensor) - 2-D Tensor,维度为 ``[N, local_num_classes]``,``logits`` 为归一化后的 ``X`` 与归一化后的 ``W`` 矩阵乘得到,数据类型为 float16,float32 或者 float64。如果用了模型并行,则 ``logits == sahrd_logits``。 - **label** (Tensor) - 维度为 ``[N]`` 或者 ``[N, 1]`` 的标签。 - **margin1** (float,可选) - 公式中的 ``m1``。默认值为 ``1.0``。 @@ -24,12 +26,17 @@ margin_cross_entropy - **return_softmax** (bool,可选) - 是否返回 ``softmax`` 概率值。默认值为 ``None``。 - **reduction** (str, 可选)- 是否对 ``loss`` 进行归约。可选值为 ``'none'`` | ``'mean'`` | ``'sum'``。如果 ``reduction='mean'``,则对 ``loss`` 进行平均,如果 ``reduction='sum'``,则对 ``loss`` 进行求和,``reduction='None'``,则直接返回 ``loss``。默认值为 ``'mean'``。 -返回: +返回 +:::::::::::: + - ``Tensor`` (``loss``) 或者 ``Tensor`` 二元组 (``loss``, ``softmax``) - 如果 ``return_softmax=False`` 返回 ``loss``,否则返回 (``loss``, ``softmax``)。当使用模型并行时 ``softmax == shard_softmax``,否则 ``softmax`` 的维度与 ``logits`` 相同。如果 ``reduction == None``,``loss`` 的维度为 ``[N, 1]``,否则为 ``[1]``。 -抛出异常: +抛出异常 +:::::::::::: + - :code:`ValueError` - ``logits_dims - 1 != label_dims and logits_dims != label_dims`` 时抛出异常。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.nn.functional.margin_cross_entropy:code-example1 COPY-FROM: paddle.nn.functional.margin_cross_entropy:code-example2 \ No newline at end of file diff --git a/docs/api/paddle/nn/functional/maxout_cn.rst b/docs/api/paddle/nn/functional/maxout_cn.rst index 65f2c12fd84..2f1fcb40f02 100644 --- a/docs/api/paddle/nn/functional/maxout_cn.rst +++ b/docs/api/paddle/nn/functional/maxout_cn.rst @@ -18,7 +18,9 @@ maxout激活层. &0 \le j < s \\ &0 \le k < groups -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入是形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float32或float64。 - groups (int) - 指定将输入张量的channel通道维度进行分组的数目。输出的通道数量为通道数除以组数。 diff --git a/docs/api/paddle/nn/functional/mse_loss_cn.rst b/docs/api/paddle/nn/functional/mse_loss_cn.rst index dfc86af4743..78e52631082 100644 --- a/docs/api/paddle/nn/functional/mse_loss_cn.rst +++ b/docs/api/paddle/nn/functional/mse_loss_cn.rst @@ -25,7 +25,9 @@ mse_loss Out = \operatorname{sum}((input - label)^2) -参数: +参数 +:::::::::::: + ::::::::: - **input** (Tensor) - 预测值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 - **label** (Tensor) - 目标值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 diff --git a/docs/api/paddle/nn/functional/normalize_cn.rst b/docs/api/paddle/nn/functional/normalize_cn.rst index bc319ed334a..20735f85b19 100644 --- a/docs/api/paddle/nn/functional/normalize_cn.rst +++ b/docs/api/paddle/nn/functional/normalize_cn.rst @@ -29,7 +29,9 @@ normalize ::::::::: ``Tensor``, 输出的形状和数据类型和 ``x`` 相同。 -抛出异常: +抛出异常 +:::::::::::: + ::::::::: - ``TypeError`` - 当参数 ``p`` 或者 ``axis`` 的类型不符合要求时。或者当参数 ``x`` 的类型或数据类型不符合要求时。 diff --git a/docs/api/paddle/nn/functional/npair_loss_cn.rst b/docs/api/paddle/nn/functional/npair_loss_cn.rst index 0ca985c579b..4d7ad52e66d 100644 --- a/docs/api/paddle/nn/functional/npair_loss_cn.rst +++ b/docs/api/paddle/nn/functional/npair_loss_cn.rst @@ -9,7 +9,9 @@ npair_loss NPair损失需要成对的数据。NPair损失分为两部分:第一部分是对嵌入向量进行L2正则化;第二部分是每一对数据的相似性矩阵的每一行和映射到ont-hot之后的标签的交叉熵损失的和。 -参数: +参数 +:::::::::::: + ::::::::: - **anchor** (Tensor) - 锚点图像的嵌入特征,形状为[batch_size, embedding_dims]的2-D `Tensor` 。数据类型:float32和float64。 - **positive** (Tensor) - 正例图像的嵌入特征,形状为[batch_size, embedding_dims]的2-D `Tensor` 。数据类型:float32和float64。 @@ -17,12 +19,15 @@ NPair损失需要成对的数据。NPair损失分为两部分:第一部分是 - **l2_reg** (float) - 嵌入向量的L2正则化系数,默认:0.002。 -返回: +返回 +:::::::::::: + ::::::::: 经过npair loss计算之后的结果 `Tensor` 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/one_hot_cn.rst b/docs/api/paddle/nn/functional/one_hot_cn.rst index 232d5b19df1..9fb9c73ab3c 100644 --- a/docs/api/paddle/nn/functional/one_hot_cn.rst +++ b/docs/api/paddle/nn/functional/one_hot_cn.rst @@ -37,14 +37,19 @@ one_hot X中第2维的值是5,超过了num_classes,因此抛异常。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 维度为 :math:`[N_1, ..., N_n]` 的多维Tensor,维度至少1维。数据类型为int32或int64。 - **num_classes** (int) - 用于定义一个one-hot向量的长度。若输入为词id,则 ``num_classes`` 通常取值为词典大小。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor,转换后的one_hot Tensor,数据类型为float32。 +返回 +:::::::::::: +Tensor,转换后的one_hot Tensor,数据类型为float32。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/pad_cn.rst b/docs/api/paddle/nn/functional/pad_cn.rst index 690c0772d6d..f5a339469ac 100644 --- a/docs/api/paddle/nn/functional/pad_cn.rst +++ b/docs/api/paddle/nn/functional/pad_cn.rst @@ -9,7 +9,9 @@ pad -参数: +参数 +:::::::::::: + - **x** (Tensor) - Tensor,format可以为 ``'NCL'``, ``'NLC'``, ``'NCHW'``, ``'NHWC'``, ``'NCDHW'`` 或 ``'NDHWC'``,默认值为 ``'NCHW'``,数据类型支持float16, float32, float64, int32, int64。 - **pad** (Tensor | List[int] | Tuple[int]) - 填充大小。如果 ``mode`` 为 ``'constant'``,并且 ``pad`` 的长度为 ``x`` 维度的2倍时, @@ -23,9 +25,13 @@ pad - **data_format** (str) - 指定 ``x`` 的format,可为 ``'NCL'``, ``'NLC'``, ``'NCHW'``, ``'NHWC'``, ``'NCDHW'`` 或 ``'NDHWC'``,默认值为 ``'NCHW'``。 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 -返回: 对 ``x`` 进行 ``'pad'`` 的结果,数据类型和 ``x`` 相同。 +返回 +:::::::::::: + 对 ``x`` 进行 ``'pad'`` 的结果,数据类型和 ``x`` 相同。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor **示例**: @@ -76,7 +82,8 @@ pad [5. 6. 4. 5. 6. 4. 5.] [2. 3. 1. 2. 3. 1. 2.]]]]] -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/relu6_cn.rst b/docs/api/paddle/nn/functional/relu6_cn.rst index 1f3b0392518..6e1e471adb0 100644 --- a/docs/api/paddle/nn/functional/relu6_cn.rst +++ b/docs/api/paddle/nn/functional/relu6_cn.rst @@ -13,7 +13,9 @@ relu6激活层 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/selu_cn.rst b/docs/api/paddle/nn/functional/selu_cn.rst index c57714b3665..d8a65ead4ba 100644 --- a/docs/api/paddle/nn/functional/selu_cn.rst +++ b/docs/api/paddle/nn/functional/selu_cn.rst @@ -17,7 +17,9 @@ selu激活层 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - scale (float, 可选) - selu激活计算公式中的scale值,必须大于1.0。默认值为1.0507009873554804934193349852946。 diff --git a/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst b/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst index e6e23486693..0d3932d1c99 100644 --- a/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst +++ b/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst @@ -31,7 +31,9 @@ softmax_with_cross_entropy log\_max\_sum_j &= \log\sum_{i=0}^{K}\exp(logits_i - max_j)\\ softmax_j &= \exp(logits_j - max_j - {log\_max\_sum}_j) -参数: +参数 +:::::::::::: + - **logits** (Tensor) - 维度为任意维的多维 ``Tensor`` ,数据类型为float32或float64。表示未缩放的输入。 - **label** (Tensor) - 如果 ``soft_label`` 为True, ``label`` 是一个和 ``logits`` 维度相同的的 ``Tensor`` 。如果 ``soft_label`` 为False, ``label`` 是一个在axis维度上大小为1,其它维度上与 ``logits`` 维度相同的 ``Tensor`` 。 - **soft_label** (bool, 可选) - 指明是否将输入标签当作软标签。默认值:False。 @@ -40,13 +42,18 @@ softmax_with_cross_entropy - **return_softmax** (bool, 可选) – 指明是否在返回交叉熵计算结果的同时返回softmax结果。默认值:False。 - **axis** (int, 可选) – 执行softmax计算的维度索引。其范围为 :math:`[-1,rank-1]` ,其中 ``rank`` 是输入 ``logits`` 的秩。默认值:-1。 -返回: +返回 +:::::::::::: + - 如果 ``return_softmax`` 为 False,则返回交叉熵损失结果的 ``Tensor`` ,数据类型和 ``logits`` 一致,除了 ``axis`` 维度上的形状为1,其余维度和 ``logits`` 一致。 - 如果 ``return_softmax`` 为 True,则返回交叉熵损失结果的 ``Tensor`` 和softmax结果的 ``Tensor`` 组成的元组。其中交叉熵损失结果的数据类型和 ``logits`` 一致,除了 ``axis`` 维度上的形状为1,其余维度上交叉熵损失结果和 ``logits`` 一致;softmax结果的数据类型和 ``logits`` 一致,维度和 ``logits`` 一致。 -返回类型:变量或者两个变量组成的元组 +返回类型 +:::::::::::: +变量或者两个变量组成的元组 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/softplus_cn.rst b/docs/api/paddle/nn/functional/softplus_cn.rst index 48d1144c1c1..2a36b1b2878 100644 --- a/docs/api/paddle/nn/functional/softplus_cn.rst +++ b/docs/api/paddle/nn/functional/softplus_cn.rst @@ -14,7 +14,9 @@ softplus激活层 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - beta (float, 可选) - Softplus激活计算公式中的beta值。默认值为1。 diff --git a/docs/api/paddle/nn/functional/softshrink_cn.rst b/docs/api/paddle/nn/functional/softshrink_cn.rst index 75bde51ebf8..b1fc1a1bec9 100644 --- a/docs/api/paddle/nn/functional/softshrink_cn.rst +++ b/docs/api/paddle/nn/functional/softshrink_cn.rst @@ -17,7 +17,9 @@ softshrink激活层 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - threshold (float, 可选) - softshrink激活计算公式中的threshold值,必须大于等于零。默认值为0.5。 diff --git a/docs/api/paddle/nn/functional/softsign_cn.rst b/docs/api/paddle/nn/functional/softsign_cn.rst index 47ccd48d474..da7ddfa05a8 100644 --- a/docs/api/paddle/nn/functional/softsign_cn.rst +++ b/docs/api/paddle/nn/functional/softsign_cn.rst @@ -13,7 +13,9 @@ softsign激活层 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/sparse_attention_cn.rst b/docs/api/paddle/nn/functional/sparse_attention_cn.rst index 06e73583f75..005c1d86b6a 100755 --- a/docs/api/paddle/nn/functional/sparse_attention_cn.rst +++ b/docs/api/paddle/nn/functional/sparse_attention_cn.rst @@ -17,7 +17,9 @@ sparse_attention .. warning:: 目前该API只在CUDA11.3及以上版本中使用。 -参数: +参数 +:::::::::::: + ::::::::: - query (Tensor) - 输入的Tensor,代表注意力模块中的 ``query`` ,这是一个4维Tensor,形状为 :[batch_size, num_heads, seq_len, head_dim],数据类型为float32或float64。 - key (Tensor) - 输入的Tensor,代表注意力模块中的 ``key`` ,这是一个4维Tensor,形状为 :[batch_size, num_heads, seq_len, head_dim],数据类型为float32或float64。 @@ -25,7 +27,9 @@ sparse_attention - sparse_csr_offset (Tensor) - 输入的Tensor,注意力模块中的稀疏特性,稀疏特性使用CSR格式表示, ``offset`` 代表矩阵中每一行非零元的数量。这是一个3维Tensor,形状为 :[batch_size, num_heads, seq_len + 1],数据类型为int32。 - sparse_csr_columns (Tensor) - 输入的Tensor,注意力模块中的稀疏特性,稀疏特性使用CSR格式表示, ``colunms`` 代表矩阵中每一行非零元的列索引值。这是一个3维Tensor,形状为 :[batch_size, num_heads, sparse_nnz],数据类型为int32。 -返回: +返回 +:::::::::::: + ::::::::: ``Tensor`` ,代表注意力模块的结果。这是一个4维Tensor,形状为 :[batch_size, num_heads, seq_len, head_dim],数据类型为float32或float64。 diff --git a/docs/api/paddle/nn/functional/square_error_cost_cn.rst b/docs/api/paddle/nn/functional/square_error_cost_cn.rst index 117f76112f5..0481ca0a160 100644 --- a/docs/api/paddle/nn/functional/square_error_cost_cn.rst +++ b/docs/api/paddle/nn/functional/square_error_cost_cn.rst @@ -14,14 +14,19 @@ square_error_cost Out = (input-label)^{2} -参数: +参数 +:::::::::::: + - **input** (Tensor) - 预测值,维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 - **label** (Tensor) - 目标值,维度为 :math:`[N_1, N_2, ..., N_k, D]` 的多维Tensor,其中最后一维D是类别数目。数据类型为float32或float64。 -返回:Tensor, 预测值和目标值的方差 +返回 +:::::::::::: +Tensor, 预测值和目标值的方差 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/tanhshrink_cn.rst b/docs/api/paddle/nn/functional/tanhshrink_cn.rst index 882eff5b2f0..edd7e28a378 100644 --- a/docs/api/paddle/nn/functional/tanhshrink_cn.rst +++ b/docs/api/paddle/nn/functional/tanhshrink_cn.rst @@ -13,7 +13,9 @@ tanhshrink激活层 其中,:math:`x` 为输入的 Tensor -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/unfold_cn.rst b/docs/api/paddle/nn/functional/unfold_cn.rst index db6a2ef30f0..f324c5b4b30 100644 --- a/docs/api/paddle/nn/functional/unfold_cn.rst +++ b/docs/api/paddle/nn/functional/unfold_cn.rst @@ -39,7 +39,9 @@ unfold out.shape = [5, 90, 625] -参数: +参数 +:::::::::::: + - **x** (Tensor) – 输入4-D Tensor,形状为[N, C, H, W],数据类型为float32或者float64 - **kernel_size** (int|list of int) – 卷积核的尺寸,整数或者整型列表。如果为整型列表,应包含两个元素 ``[k_h, k_w]`` ,卷积核大小为 ``k_h * k_w`` ;如果为整数k,会被当作整型列表 ``[k, k]`` 处理 - **strides** (int|list of int,可选) – 卷积步长,整数或者整型列表。如果为整型列表,应该包含两个元素 ``[stride_h, stride_w]`` 。如果为整数,则 ``stride_h = stride_w = strides`` 。默认值为1 @@ -48,10 +50,13 @@ unfold - **name** (str|None,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -返回:Tensor, unfold操作之后的结果,形状如上面所描述的[N, Cout, Lout],Cout每一个滑动block里面覆盖的元素个数,Lout是滑动block的个数,数据类型与 ``x`` 相同 +返回 +:::::::::::: +Tensor, unfold操作之后的结果,形状如上面所描述的[N, Cout, Lout],Cout每一个滑动block里面覆盖的元素个数,Lout是滑动block的个数,数据类型与 ``x`` 相同 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/functional/upsample_cn.rst b/docs/api/paddle/nn/functional/upsample_cn.rst index 29d7d491259..8d2308074ec 100644 --- a/docs/api/paddle/nn/functional/upsample_cn.rst +++ b/docs/api/paddle/nn/functional/upsample_cn.rst @@ -137,7 +137,9 @@ https://en.wikipedia.org/wiki/Trilinear_interpolation 有关双三次插值的详细信息,请参阅维基百科: https://en.wikipedia.org/wiki/Bicubic_interpolation -参数: +参数 +:::::::::::: + - **x** (Tensor) - 4-D或5-D Tensor,数据类型为float32、float64或uint8,其数据格式由参数 ``data_format`` 指定。 - **size** (list|tuple|Tensor|None) - 输出Tensor,输入为4D张量时,形状为为(out_h, out_w)的2-D Tensor。输入为5-D Tensor时,形状为(out_d, out_h, out_w)的3-D Tensor。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者形状为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。默认值为None。 - **scale_factor** (float|Tensor|list|tuple|None)-输入的高度或宽度的乘数因子 。 out_shape和scale至少要设置一个。out_shape的优先级高于scale。默认值为None。如果scale_factor是一个list或tuple,它必须与输入的shape匹配。 @@ -147,10 +149,14 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation - **data_format** (str,可选)- 指定输入的数据格式,输出的数据格式将与输入保持一致。对于4-D Tensor,支持 NCHW(num_batches, channels, height, width) 或者 NHWC(num_batches, height, width, channels),对于5-D Tensor,支持 NCDHW(num_batches, channels, depth, height, width)或者 NDHWC(num_batches, depth, height, width, channels),默认值:'NCHW'。 - **name** (str|None, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 -返回:4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 +返回 +:::::::::::: +4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 + +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError` - out_shape应该是一个列表、元组或张量。 - :code:`TypeError` - actual_shape应该是变量或None。 - :code:`ValueError` - upsample的"resample"只能是"BILINEAR"或"TRILINEAR"或"NEAREST"或"BICUBIC"或"LINEAR"或"AREA"。 @@ -167,7 +173,8 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation - :code:`ValueError` - data_format 只能取 'NCW', 'NCHW'、'NHWC'、'NCDHW' 或者 'NDHWC'。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/Assign_cn.rst b/docs/api/paddle/nn/initializer/Assign_cn.rst index 6f819eb947e..c78583b17c0 100644 --- a/docs/api/paddle/nn/initializer/Assign_cn.rst +++ b/docs/api/paddle/nn/initializer/Assign_cn.rst @@ -8,14 +8,19 @@ Assign 该OP使用Numpy数组、Python列表、Tensor来初始化参数。 -参数: +参数 +:::::::::::: + - **value** (Tensor|numpy.ndarray|list) - 用于初始化参数的一个Numpy数组、Python列表、Tensor。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 由Numpy数组、Python列表、Tensor初始化的参数。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/Bilinear_cn.rst b/docs/api/paddle/nn/initializer/Bilinear_cn.rst index 6a93c599be0..0cbc4f4ef68 100644 --- a/docs/api/paddle/nn/initializer/Bilinear_cn.rst +++ b/docs/api/paddle/nn/initializer/Bilinear_cn.rst @@ -10,11 +10,14 @@ Bilinear 该接口为参数初始化函数,用于转置卷积函数中,对输入进行上采样。用户通过任意整型因子放大shape为(B,C,H,W)的特征图。 -返回:对象 +返回 +:::::::::::: +对象 用法如下: -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/Constant_cn.rst b/docs/api/paddle/nn/initializer/Constant_cn.rst index 34e39d2341a..a251c5cd365 100644 --- a/docs/api/paddle/nn/initializer/Constant_cn.rst +++ b/docs/api/paddle/nn/initializer/Constant_cn.rst @@ -10,12 +10,17 @@ Constant 该接口为常量初始化函数,用于权重初始化,通过输入的value值初始化输入变量; -参数: +参数 +:::::::::::: + - **value** (float16|float32) - 用于初始化输入变量的值; -返回:参数初始化类的实例 +返回 +:::::::::::: +参数初始化类的实例 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/KaimingNormal_cn.rst b/docs/api/paddle/nn/initializer/KaimingNormal_cn.rst index 34eb7d080c9..66f910d7a4f 100644 --- a/docs/api/paddle/nn/initializer/KaimingNormal_cn.rst +++ b/docs/api/paddle/nn/initializer/KaimingNormal_cn.rst @@ -18,16 +18,21 @@ KaimingNormal \sqrt{\frac{2.0}{fan\_in}} -参数: +参数 +:::::::::::: + - **fan_in** (float16|float32) - Kaiming Normal Initializer的fan_in。如果为None,fan_in沿伸自变量,多设置为None -返回:对象 +返回 +:::::::::::: +对象 .. note:: 在大多数情况下推荐设置fan_in为None -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/KaimingUniform_cn.rst b/docs/api/paddle/nn/initializer/KaimingUniform_cn.rst index ba3de972939..bb7a453f352 100644 --- a/docs/api/paddle/nn/initializer/KaimingUniform_cn.rst +++ b/docs/api/paddle/nn/initializer/KaimingUniform_cn.rst @@ -18,16 +18,21 @@ KaimingUniform x = \sqrt{\frac{6.0}{fan\_in}} -参数: +参数 +:::::::::::: + - **fan_in** (float16|float32) - Kaiming Uniform Initializer的fan_in。如果为None,fan_in沿伸自变量,多设置为None -返回:对象 +返回 +:::::::::::: +对象 .. note:: 在大多数情况下推荐设置fan_in为None -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/Normal_cn.rst b/docs/api/paddle/nn/initializer/Normal_cn.rst index e9e7bc1b3cc..e5d3fbd125f 100644 --- a/docs/api/paddle/nn/initializer/Normal_cn.rst +++ b/docs/api/paddle/nn/initializer/Normal_cn.rst @@ -8,15 +8,20 @@ Normal 随机正态(高斯)分布初始化函数。 -参数: +参数 +:::::::::::: + - **mean** (float,可选) - 正态分布的平均值。默认值为 0。 - **std** (float,可选) - 正态分布的标准差。默认值为 1.0。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 由随机正态(高斯)分布初始化的参数。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/TruncatedNormal_cn.rst b/docs/api/paddle/nn/initializer/TruncatedNormal_cn.rst index eafec808317..be277509a77 100644 --- a/docs/api/paddle/nn/initializer/TruncatedNormal_cn.rst +++ b/docs/api/paddle/nn/initializer/TruncatedNormal_cn.rst @@ -13,10 +13,13 @@ TruncatedNormal - **std** (float,可选) - 正态分布的标准差。默认值为 1.0。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 由随机截断正态(高斯)分布初始化的参数。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/Uniform_cn.rst b/docs/api/paddle/nn/initializer/Uniform_cn.rst index 305f9f09e95..18c8a0fe9f4 100644 --- a/docs/api/paddle/nn/initializer/Uniform_cn.rst +++ b/docs/api/paddle/nn/initializer/Uniform_cn.rst @@ -8,15 +8,20 @@ Uniform 随机均匀分布初始化函数。 -参数: +参数 +:::::::::::: + - **low** (float,可选) - 下界。默认值为 -1.0。 - **high** (float,可选) - 上界。默认值为 1.0。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 由随机均匀分布初始化的参数。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/XavierNormal_cn.rst b/docs/api/paddle/nn/initializer/XavierNormal_cn.rst index b12cea6d378..6757203f68e 100644 --- a/docs/api/paddle/nn/initializer/XavierNormal_cn.rst +++ b/docs/api/paddle/nn/initializer/XavierNormal_cn.rst @@ -16,15 +16,20 @@ XavierNormal x = \sqrt{\frac{2.0}{fan\_in+fan\_out}} -参数: +参数 +:::::::::::: + - **fan_in** (float,可选) - 用于Xavier初始化的fan_in,从tensor中推断。默认为None。 - **fan_out** (float,可选) - 用于Xavier初始化的fan_out,从tensor中推断。默认为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 由使用正态分布的Xavier权重初始化的参数。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/XavierUniform_cn.rst b/docs/api/paddle/nn/initializer/XavierUniform_cn.rst index f9441619e4c..18ab079c3b9 100644 --- a/docs/api/paddle/nn/initializer/XavierUniform_cn.rst +++ b/docs/api/paddle/nn/initializer/XavierUniform_cn.rst @@ -16,15 +16,20 @@ XavierUniform x = \sqrt{\frac{6.0}{fan\_in+fan\_out}} -参数: +参数 +:::::::::::: + - **fan_in** (float,可选) - 用于Xavier初始化的fan_in,从tensor中推断。默认为None。 - **fan_out** (float,可选) - 用于Xavier初始化的fan_out,从tensor中推断。默认为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + 由使用均匀分布的Xavier权重初始化的参数。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/initializer/set_global_initializer_cn.rst b/docs/api/paddle/nn/initializer/set_global_initializer_cn.rst index c21e0323bd3..6add3378537 100644 --- a/docs/api/paddle/nn/initializer/set_global_initializer_cn.rst +++ b/docs/api/paddle/nn/initializer/set_global_initializer_cn.rst @@ -12,13 +12,18 @@ set_global_initializer 如果创建网络层时还通过 ``param_attr`` 、 ``bias_attr`` 设置了初始化方式,这里的全局设置将不会生效,因为其优先级更低。 -参数: +参数 +:::::::::::: + - **weight_init** (Initializer) - 设置框架的全局的weight参数初始化方法。 - **bias_init** (Initializer,可选) - 设置框架的全局的bias参数初始化方法。默认:None。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/utils/remove_weight_norm_cn.rst b/docs/api/paddle/nn/utils/remove_weight_norm_cn.rst index 219a295ed4e..49ca990528b 100644 --- a/docs/api/paddle/nn/utils/remove_weight_norm_cn.rst +++ b/docs/api/paddle/nn/utils/remove_weight_norm_cn.rst @@ -7,14 +7,19 @@ remove_weight_norm 移除传入 ``layer`` 中的权重归一化。 -参数: +参数 +:::::::::::: + - **layer** (paddle.nn.Layer) - 要添加权重归一化的层。 - **name** (str, 可选) - 权重参数的名字。默认:'weight'. -返回: +返回 +:::::::::::: + ``Layer`` , 移除权重归一化hook之后的层 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/utils/spectral_norm_cn.rst b/docs/api/paddle/nn/utils/spectral_norm_cn.rst index 53011b29439..a04d8c0beeb 100644 --- a/docs/api/paddle/nn/utils/spectral_norm_cn.rst +++ b/docs/api/paddle/nn/utils/spectral_norm_cn.rst @@ -32,10 +32,13 @@ spectral_norm - **eps** (float, 可选) - ``eps`` 用于保证计算中的数值稳定性,分母会加上 ``eps`` 防止除零。默认值:1e-12。 - **dim** (int, 可选) - 将输入(weight)重塑为矩阵之前应排列到第一个的维度索引,如果input(weight)是fc层的权重,则应设置为0;如果input(weight)是conv层的权重,则应设置为1。默认值:None。 -返回: +返回 +:::::::::::: + ``Layer`` , 添加了权重谱归一化的层 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/utils/weight_norm_cn.rst b/docs/api/paddle/nn/utils/weight_norm_cn.rst index 63620d9b9bd..5fb7e20173b 100644 --- a/docs/api/paddle/nn/utils/weight_norm_cn.rst +++ b/docs/api/paddle/nn/utils/weight_norm_cn.rst @@ -12,15 +12,20 @@ weight_norm 权重归一化可以将神经网络中权重向量的长度与其方向解耦,权重归一化可以用两个变量(例如: 代表长度的变量 `weight_g` 和代表方向的变量 `weight_v`)来代替由名字(例如: `weight`)指定的变量。详细可以参考论文: `A Simple Reparameterization to Accelerate Training of Deep Neural Networks `_ -参数: +参数 +:::::::::::: + - **layer** (paddle.nn.Layer) - 要添加权重归一化的层。 - **name** (str, 可选) - 权重参数的名字。默认:'weight'. - **dim** (int|None, 可选) - 进行归一化操作的切片所在维度,是小于权重Tensor rank的非负数。比如卷积的权重shape是 [cout,cin,kh,kw] , rank是4,则dim可以选0,1,2,3;fc的权重shape是 [cout,cin] ,rank是2,dim可以选0,1。 如果为None就对所有维度上的元素做归一化。默认:0。 -返回: +返回 +:::::::::::: + ``Layer`` , 添加了权重归一化hook的层 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/no_grad_cn.rst b/docs/api/paddle/no_grad_cn.rst index 1dd4621169b..fb0fe1d0c84 100644 --- a/docs/api/paddle/no_grad_cn.rst +++ b/docs/api/paddle/no_grad_cn.rst @@ -11,7 +11,8 @@ no_grad 也可以用作一个装饰器(需要创建实例对象作为装饰器)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nonzero_cn.rst b/docs/api/paddle/nonzero_cn.rst index 18a6ee02cb4..3009323782e 100644 --- a/docs/api/paddle/nonzero_cn.rst +++ b/docs/api/paddle/nonzero_cn.rst @@ -19,7 +19,8 @@ nonzero **返回**: - **Tensor or tuple(1-D Tensor)**,数据类型为 **INT64** 。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/not_equal_cn.rst b/docs/api/paddle/not_equal_cn.rst index d75242ec71a..9833f8e52cc 100644 --- a/docs/api/paddle/not_equal_cn.rst +++ b/docs/api/paddle/not_equal_cn.rst @@ -9,17 +9,24 @@ not_equal **注:该OP输出的结果不返回梯度。** -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +返回 +:::::::::::: +输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/numel_cn.rst b/docs/api/paddle/numel_cn.rst index 3b52f9acb67..590a3c13a6f 100644 --- a/docs/api/paddle/numel_cn.rst +++ b/docs/api/paddle/numel_cn.rst @@ -8,13 +8,18 @@ numel 该OP返回一个长度为1并且元素值为输入 ``x`` 元素个数的Tensor。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,数据类型为int32,int64, float16, float32, float64, int32, int64 。 -返回: 返回长度为1并且元素值为 ``x`` 元素个数的Tensor。 +返回 +:::::::::::: + 返回长度为1并且元素值为 ``x`` 元素个数的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/optimizer/Adadelta_cn.rst b/docs/api/paddle/optimizer/Adadelta_cn.rst index fafc029f542..7d9f0675eaf 100644 --- a/docs/api/paddle/optimizer/Adadelta_cn.rst +++ b/docs/api/paddle/optimizer/Adadelta_cn.rst @@ -19,7 +19,9 @@ Adadelta优化器,具体细节可参考论文 `ADADELTA: AN ADAPTIVE LEARNING E(dx_t^2) &= \rho * E(dx_{t-1}^2) + (1-\rho) * (-g*learning\_rate)^2 -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRScheduleri, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **epsilon** (float, 可选) - 保持数值稳定性的短浮点类型值,默认值为1e-06 - **rho** (float, 可选) - 算法中的衰减率,默认值为0.95。 @@ -33,7 +35,8 @@ Adadelta优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `_。 -参数: +参数 +:::::::::::: + - **learning_rate** (float|Tensor) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个值为浮点型的Tensor. - **epsilon** (float, 可选) - 维持数值稳定性的浮点型值,默认值为1e-06. - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 @@ -34,7 +36,8 @@ Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以针 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None - **initial_accumulator_value** (float, 可选) - moment累加器的初始值,默认值为0.0 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/optimizer/AdamW_cn.rst b/docs/api/paddle/optimizer/AdamW_cn.rst index 42b355e50e5..42bee930c0f 100755 --- a/docs/api/paddle/optimizer/AdamW_cn.rst +++ b/docs/api/paddle/optimizer/AdamW_cn.rst @@ -25,7 +25,9 @@ AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `_ -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **beta1** (float|Tensor, 可选) - 一阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.9 - **beta2** (float|Tensor, 可选) - 二阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.999 @@ -39,7 +41,8 @@ AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `_ 的第二节 相关论文:`Adam: A Method for Stochastic Optimization `_ -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **beta1** (float|Tensor, 可选) - 一阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.9 - **beta2** (float|Tensor, 可选) - 二阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.999 @@ -40,7 +42,8 @@ Adam优化器出自 `Adam论文 `_ 的第二节 - **lazy_mode** (bool, 可选) - 设为True时,仅更新当前具有梯度的元素。官方Adam算法有两个移动平均累加器(moving-average accumulators)。累加器在每一步都会更新。在密集模式和稀疏模式下,两条移动平均线的每个元素都会更新。如果参数非常大,那么更新可能很慢。 lazy mode仅更新当前具有梯度的元素,所以它会更快。但是这种模式与原始的算法有不同的描述,可能会导致不同的结果,默认为False -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -82,7 +85,10 @@ Adam优化器出自 `Adam论文 `_ 的第二节 adam.step() adam.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -90,7 +96,8 @@ Adam优化器出自 `Adam论文 `_ 的第二节 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 **代码示例** @@ -110,17 +117,20 @@ Adam优化器出自 `Adam论文 `_ 的第二节 adam.step() adam.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -146,7 +156,8 @@ Adam优化器出自 `Adam论文 `_ 的第二节 adam.minimize(loss) adam.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -172,7 +183,8 @@ Adam优化器出自 `Adam论文 `_ 的第二节 optimizer.step() optimizer.clear_grad() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** @@ -180,10 +192,12 @@ Adam优化器出自 `Adam论文 `_ 的第二节 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float) - 需要设置的学习率的值。 -返回:None +**返回** +None **代码示例** @@ -208,7 +222,8 @@ Adam优化器出自 `Adam论文 `_ 的第二节 # current lr is 0.5 # current lr is 0.6 -.. py:method:: get_lr() +get_lr() +''''''''' **注意:** @@ -216,7 +231,8 @@ Adam优化器出自 `Adam论文 `_ 的第二节 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:float,当前步骤的学习率。 +**返回** +float,当前步骤的学习率。 **代码示例** diff --git a/docs/api/paddle/optimizer/Adamax_cn.rst b/docs/api/paddle/optimizer/Adamax_cn.rst index 59fe9382d0e..392e02c7e6d 100755 --- a/docs/api/paddle/optimizer/Adamax_cn.rst +++ b/docs/api/paddle/optimizer/Adamax_cn.rst @@ -27,7 +27,9 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 论文中没有 ``epsilon`` 参数。但是,为了保持数值稳定性, 避免除0错误, 此处增加了这个参数。 -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **beta1** (float, 可选) - 一阶矩估计的指数衰减率,默认值为0.9 - **beta2** (float, 可选) - 二阶矩估计的指数衰减率,默认值为0.999 @@ -43,7 +45,8 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 .. note:: 目前 ``Adamax`` 不支持 Sparse Parameter Optimization(稀疏参数优化)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -62,7 +65,10 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 adam.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -70,7 +76,8 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 **代码示例** @@ -90,17 +97,20 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 adam.step() adam.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -126,7 +136,8 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 adam.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -152,7 +163,8 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 optimizer.step() optimizer.clear_grad() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** @@ -160,10 +172,12 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float) - 需要设置的学习率的值。 -返回:None +**返回** +None **代码示例** @@ -188,7 +202,8 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 # current lr is 0.5 # current lr is 0.6 -.. py:method:: get_lr() +get_lr() +''''''''' **注意:** @@ -196,7 +211,8 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:float,当前步骤的学习率。 +**返回** +float,当前步骤的学习率。 **代码示例** diff --git a/docs/api/paddle/optimizer/Lamb_cn.rst b/docs/api/paddle/optimizer/Lamb_cn.rst index d26763e168c..88254f79c57 100755 --- a/docs/api/paddle/optimizer/Lamb_cn.rst +++ b/docs/api/paddle/optimizer/Lamb_cn.rst @@ -24,7 +24,9 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 其中 :math:`m` 表示第一个动量,:math:`v` 代表第二个动量,:math:`\eta` 代表学习率,:math:`\lambda` 代表LAMB的权重学习率。 -参数: +参数 +:::::::::::: + - **learning_rate** (float|Tensor, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个Tensor,默认值为0.001 - **lamb_weight_decay** (float,可选) – LAMB权重衰减率。默认值为0.01。 - **beta1** (float, 可选) - 第一个动量估计的指数衰减率。默认值为0.9。 @@ -38,7 +40,8 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 .. note:: 目前 ``Lamb`` 不支持 Sparse Parameter Optimization(稀疏参数优化)。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -55,7 +58,10 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 lamb.step() lamb.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -63,7 +69,8 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 **代码示例** @@ -83,17 +90,20 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 lamb.step() lamb.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -118,7 +128,8 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 lamb.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -144,7 +155,8 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 optimizer.step() optimizer.clear_grad() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** @@ -152,10 +164,12 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float) - 需要设置的学习率的值。 -返回:None +**返回** +None **代码示例** @@ -180,7 +194,8 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 # current lr is 0.5 # current lr is 0.6 -.. py:method:: get_lr() +get_lr() +''''''''' **注意:** @@ -188,7 +203,8 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:float,当前步骤的学习率。 +**返回** +float,当前步骤的学习率。 **代码示例** diff --git a/docs/api/paddle/optimizer/Momentum_cn.rst b/docs/api/paddle/optimizer/Momentum_cn.rst index 4b51c7afd37..f2d9c27f293 100644 --- a/docs/api/paddle/optimizer/Momentum_cn.rst +++ b/docs/api/paddle/optimizer/Momentum_cn.rst @@ -20,7 +20,9 @@ Momentum & else:\\&\quad param = param - learning\_rate * velocity -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRScheduler, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **momentum** (float, 可选) - 动量因子。 - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 @@ -32,7 +34,8 @@ Momentum -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -48,7 +51,10 @@ Momentum momentum.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -56,7 +62,8 @@ Momentum 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 @@ -74,17 +81,20 @@ Momentum momentum.step() momentum.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -106,7 +116,8 @@ Momentum momentum.minimize(loss) momentum.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -130,7 +141,8 @@ Momentum optimizer.step() optimizer.clear_grad() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** diff --git a/docs/api/paddle/optimizer/Optimizer_cn.rst b/docs/api/paddle/optimizer/Optimizer_cn.rst index 12184652973..103be170215 100755 --- a/docs/api/paddle/optimizer/Optimizer_cn.rst +++ b/docs/api/paddle/optimizer/Optimizer_cn.rst @@ -9,7 +9,9 @@ Optimizer 优化器的基类。 -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRSeduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 @@ -20,7 +22,8 @@ Optimizer - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -39,7 +42,10 @@ Optimizer adam.step() adam.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -47,7 +53,8 @@ Optimizer 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 **代码示例** @@ -68,17 +75,20 @@ Optimizer adam.step() adam.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -104,7 +114,8 @@ Optimizer adam.minimize(loss) adam.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -130,7 +141,8 @@ Optimizer optimizer.step() optimizer.clear_grad() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** @@ -138,10 +150,12 @@ Optimizer 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float) - 需要设置的学习率的值。 -返回:None +**返回** +None **代码示例** @@ -166,7 +180,8 @@ Optimizer # current lr is 0.5 # current lr is 0.6 -.. py:method:: get_lr() +get_lr() +''''''''' **注意:** @@ -174,7 +189,8 @@ Optimizer 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:float,当前步骤的学习率。 +**返回** +float,当前步骤的学习率。 **代码示例** diff --git a/docs/api/paddle/optimizer/RMSProp_cn.rst b/docs/api/paddle/optimizer/RMSProp_cn.rst index cbdeba8db5d..ab319cf3f89 100755 --- a/docs/api/paddle/optimizer/RMSProp_cn.rst +++ b/docs/api/paddle/optimizer/RMSProp_cn.rst @@ -31,7 +31,9 @@ RMSProp 其中, :math:`ρ` 是超参数,典型值为0.9,0.95等。 :math:`beta` 是动量术语。 :math:`epsilon` 是一个平滑项,用于避免除零,通常设置在1e-4到1e-8的范围内。 -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 全局学习率。 - **rho** (float,可选) - rho是等式中的 :math:`rho` ,默认值0.95。 - **epsilon** (float,可选) - 等式中的epsilon是平滑项,避免被零除,默认值1e-6。 @@ -45,10 +47,13 @@ RMSProp 默认值为None,此时将不进行梯度裁剪。 - **name** (str, 可选) - 可选的名称前缀,一般无需设置,默认值为None。 -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` -如果 ``learning_rate`` , ``rho`` , ``epsilon`` , ``momentum`` 为None。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -66,7 +71,10 @@ RMSProp rmsprop.step() rmsprop.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -74,7 +82,8 @@ RMSProp 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 **代码示例** @@ -91,20 +100,23 @@ RMSProp rmsprop.step() rmsprop.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 -**示例代码** +**代码示例** .. code-block:: python @@ -122,7 +134,8 @@ RMSProp rmsprop.step() rmsprop.clear_grad() -.. py:method:: clear_gradients() +clear_gradients() +''''''''' **注意:** @@ -146,7 +159,8 @@ RMSProp rmsprop.step() rmsprop.clear_gradients() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** @@ -154,10 +168,12 @@ RMSProp 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 -参数: +**参数** + value (float) - 需要设置的学习率的值。 -返回:None +**返回** +None **代码示例** @@ -182,7 +198,8 @@ RMSProp # current lr is 0.5 # current lr is 0.6 -.. py:method:: get_lr() +get_lr() +''''''''' **注意:** @@ -190,7 +207,8 @@ RMSProp 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 -返回:float,当前步骤的学习率。 +**返回** +float,当前步骤的学习率。 **代码示例** diff --git a/docs/api/paddle/optimizer/SGD_cn.rst b/docs/api/paddle/optimizer/SGD_cn.rst index 8a4ff2f4b10..9e7430ba65a 100644 --- a/docs/api/paddle/optimizer/SGD_cn.rst +++ b/docs/api/paddle/optimizer/SGD_cn.rst @@ -13,7 +13,9 @@ SGD 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +参数 +:::::::::::: + - **learning_rate** (float|_LRScheduler, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|Tensor, 可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01 @@ -23,7 +25,8 @@ SGD -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -40,7 +43,10 @@ SGD sgd.clear_grad() -.. py:method:: step() +方法 +:::::::::::: +step() +''''''''' **注意:** @@ -48,7 +54,8 @@ SGD 执行一次优化器并进行参数更新。 -返回:None。 +**返回** +None。 @@ -66,17 +73,20 @@ SGD sgd.step() sgd.clear_grad() -.. py:method:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' 为网络添加反向计算过程,并根据反向计算所得的梯度,更新parameters中的Parameters,最小化网络损失值loss。 -参数: +**参数** + - **loss** (Tensor) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None -返回: tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 +**返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -98,7 +108,8 @@ SGD sgd.minimize(loss) sgd.clear_grad() -.. py:method:: clear_grad() +clear_grad() +''''''''' **注意:** @@ -123,7 +134,8 @@ SGD optimizer.step() optimizer.clear_grad() -.. py:method:: set_lr(value) +set_lr(value) +''''''''' **注意:** diff --git a/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst b/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst index 597971a6e46..76cf8ac4c64 100644 --- a/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst @@ -22,16 +22,21 @@ CosineAnnealingDecay 这里只是实现了 ``cosine annealing`` 动态学习率,热启训练部分没有实现。 -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,也就是公式中的 :math:`\eta_{max}` ,数据类型为Python float。 - **T_max** (float|int) - 训练的上限轮数,是余弦衰减周期的一半。 - **eta_min** (float|int, 可选) - 学习率的最小值,即公式中的 :math:`\eta_{min}` 。默认值为0。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``CosineAnnealingDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``CosineAnnealingDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -81,17 +86,23 @@ CosineAnnealingDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst b/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst index a3bff2eb0c2..1f92fc72e22 100644 --- a/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst @@ -13,15 +13,20 @@ ExponentialDecay new\_learning\_rate = last\_learning\_rate * gamma -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **gamma** (float) - 衰减率,``new_lr = origin_lr * gamma`` 。gamma应该在区间 (0.0, 1.0) 内。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率 。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``ExponentialDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``ExponentialDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -71,17 +76,23 @@ ExponentialDecay # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst b/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst index 1f8cd3e655e..5ec824ee419 100644 --- a/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst @@ -15,15 +15,20 @@ InverseTimeDecay new\_learning\_rate = \frac{learning\_rate}{1 + gamma * epoch} -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **gamma** (float) - 衰减率,``new_lr = origin_lr * gamma`` 。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``InverseTimeDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``InverseTimeDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -72,16 +77,22 @@ InverseTimeDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst b/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst index 16e953d7b9d..d95fc04bc90 100644 --- a/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst +++ b/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst @@ -38,14 +38,19 @@ LRScheduler 你可以继承该基类实现任意的学习率策略,导出基类的方法为 ``form paddle.optimizer.lr import LRScheduler`` , 必须要重写该基类的 ``get_lr()`` 函数,否则会抛出 ``NotImplementedError`` 异常。 -参数: +参数 +:::::::::::: + - **learning_rate** (float, 可选) - 初始学习率,数据类型为Python float。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的实例对象。 +返回 +:::::::::::: +用于调整学习率的实例对象。 -**代码示例** +代码示例 +:::::::::::: 这里提供了重载基类 ``LRScheduler`` 并实现 ``StepLR`` 的示例,你可以根据你的需求来实现任意子类。 @@ -76,16 +81,22 @@ LRScheduler i = self.last_epoch // self.step_size return self.base_lr * (self.gamma**i) -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回:无。 +**返回** +无。 -**代码示例** : +代码示例 : +:::::::::::: 请参考 ``基类LRScheduler`` 的任意子类实现,这里以 ``StepLR`` 为例进行了示例: @@ -109,13 +120,15 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: get_lr() +get_lr() +''''''''' 如果一个子类继承了 ``基类LRScheduler`` ,则用户必须重写方法 ``get_lr()`` ,否则,将会抛出 ``NotImplementedError`` 异常, 上述给出了实现 ``StepLR`` 的一个简单示例。 -.. py:method:: _state_keys() +_state_keys() +''''''''' 该函数通过定义字典 ``self.keys`` 来设置 ``optimizer.state_dict()`` 时的存储对象,默认情况下:``self.keys=['last_epoch', 'last_lr']`` ,其中 ``last_epoch`` 是当前的epoch数,``last_lr`` 是当前的学习率值。 diff --git a/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst b/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst index 91bf6bccd16..a4c77a2e57f 100644 --- a/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst @@ -20,15 +20,20 @@ LambdaDecay ... -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **lr_lambda** (function):lr_lambda 为一个lambda函数,其通过 epoch 计算出一个因子,该因子会乘以初始学习率。 - **last_epoch** (int,可选): 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率 。 - **verbose** (bool,可选):如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``LambdaDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``LambdaDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -77,17 +82,23 @@ LambdaDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst b/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst index 89f744be65c..3f4b9476099 100644 --- a/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst +++ b/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst @@ -21,7 +21,9 @@ LinearWarmup 其中learning_rate为热身之后的学习率,可以是python的float类型或者 ``_LRScheduler`` 的任意子类。 -参数: +参数 +:::::::::::: + - **learning rate** (float|_LRScheduler) - 热启训练之后的学习率,可以是python的float类型或者 ``_LRScheduler`` 的任意子类。 - **warmup_steps** (int) - 进行warm up过程的步数。 - **start_lr** (float) - warm up的起始学习率。 @@ -30,9 +32,12 @@ LinearWarmup - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``LinearWarmup`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``LinearWarmup`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -83,17 +88,23 @@ LinearWarmup scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst b/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst index 9fb2a5e284e..ebd86cbcedc 100644 --- a/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst @@ -20,7 +20,9 @@ MultiStepDecay learning_rate = 0.005 if 50 <= epoch ... -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **milestones** (list) - 轮数下标列表。必须递增。 - **gamma** (float,可选) - 衰减率,``new_lr = origin_lr * gamma``, 衰减率必须小于等于1.0,默认值为0.1。 @@ -28,9 +30,12 @@ MultiStepDecay - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``MultiStepDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``MultiStepDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -79,17 +84,23 @@ MultiStepDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst b/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst index c298dd2c79f..8a58f15a800 100644 --- a/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst @@ -20,15 +20,20 @@ MultiplicativeDecay ... -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **lr_lambda** (function)- lr_lambda 为一个lambda函数,其通过 epoch 计算出一个因子,该因子会乘以当前学习率。 - **last_epoch** (int,可选)- 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选)- 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``MultiplicativeDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``MultiplicativeDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -50,17 +55,23 @@ MultiplicativeDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst b/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst index ef8a2db603b..44fda97cac1 100644 --- a/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst @@ -13,15 +13,20 @@ NaturalExpDecay new\_learning\_rate = learning\_rate * e^{- gamma * epoch} -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **gamma** (float) - 衰减率,gamma应该大于0.0,才能使学习率衰减。默认值为0.1。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``NaturalExpDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``NaturalExpDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -70,17 +75,23 @@ NaturalExpDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst b/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst index fff398b1811..8ec6444fbb8 100644 --- a/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst @@ -16,16 +16,21 @@ Noam衰减的计算方式如下: 关于Noam衰减的更多细节请参考 `attention is all you need `_ -参数: +参数 +:::::::::::: + - **d$_{model}$** (int) - 模型的输入、输出向量特征维度,为超参数。数据类型为Python int。 - **warmup_steps** (int) - 预热步数,为超参数。数据类型为Python int。 - **learning_rate** (float) - 初始学习率,数据类型为Python float。默认值为1.0。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 `True` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``NoamDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``NoamDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -76,17 +81,23 @@ Noam衰减的计算方式如下: -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst b/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst index 6f8493dae05..c3360f13eb0 100644 --- a/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst @@ -21,15 +21,20 @@ PiecewiseDecay ... -参数: +参数 +:::::::::::: + - **boundaries** (list) - 指定学习率的边界值列表。列表的数据元素为Python int类型。 - **values** (list) - 学习率列表。数据元素类型为Python float的列表。与边界值列表有对应的关系。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率 。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``PiecewiseDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``PiecewiseDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -78,16 +83,22 @@ PiecewiseDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst b/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst index 3d320b8e055..58bbb1b18d2 100644 --- a/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst @@ -25,7 +25,9 @@ PolynomialDecay new\_learning\_rate & = (learning\_rate-end\_lr)*(1-\frac{epoch}{decay\_steps})^{power}+end\_lr -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **decay_steps** (int) - 进行衰减的步长,这个决定了衰减周期。 - **end_lr** (float,可选)- 最小的最终学习率。默认值为0.0001。 @@ -34,10 +36,13 @@ PolynomialDecay - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 `True` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``PolynomialDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``PolynomialDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -86,17 +91,23 @@ PolynomialDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst b/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst index 4e0598d8c1c..d2afea25478 100644 --- a/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst +++ b/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst @@ -12,7 +12,9 @@ ReduceOnPlateau 此外,每降低一次学习率后,将会进入一个时长为 ``cooldown`` 个epoch的冷静期,在冷静期内,将不会监控 ``loss`` 的变化情况,也不会衰减。 在冷静期之后,会继续监控 ``loss`` 的上升或下降。 -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **mode** (str,可选) - ``'min'`` 和 ``'max'`` 之一。通常情况下,为 ``'min'`` ,此时当 ``loss`` 停止下降时学习率将衰减。默认:``'min'`` 。 (注意:仅在特殊用法时,可以将其设置为 ``'max'`` ,此时判断逻辑相反, ``loss`` 停止上升学习率才衰减) - **factor** (float,可选) - 学习率衰减的比例。``new_lr = origin_lr * factor`` ,它是值小于1.0的float型数字,默认: 0.1。 @@ -24,9 +26,12 @@ ReduceOnPlateau - **epsilon** (float,可选) - 如果新旧学习率间的差异小于epsilon ,则不会更新。默认值:1e-8。 - **verbose** (bool,可选) - 如果是 `True` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``ReduceOnPlateau`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``ReduceOnPlateau`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -76,17 +81,22 @@ ReduceOnPlateau # scheduler.step(out[0]) # If you update learning rate each epoch -.. py:method:: step(metrics, epoch=None) +方法 +:::::::::::: +step(metrics, epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,其根据传入的 metrics 调整optimizer中的学习率,调整后的学习率将会在下一个 ``step`` 时生效。 -参数: +**参数** + - **metrics** (Tensor|numpy.ndarray|float)- 用来判断是否需要降低学习率。如果 ``loss`` 连续 ``patience`` 个 ``step`` 没有下降, 将会降低学习率。可以是Tensor或者numpy.array,但是shape必须为[1],也可以是Python的float类型。 - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无 -**代码示例**: +**代码示例** 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/StepDecay_cn.rst b/docs/api/paddle/optimizer/lr/StepDecay_cn.rst index d298f10fda4..2f767249eab 100644 --- a/docs/api/paddle/optimizer/lr/StepDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/StepDecay_cn.rst @@ -20,7 +20,9 @@ StepDecay learning_rate = 0.005 if 60 <= epoch < 90 ... -参数: +参数 +:::::::::::: + - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - **step_size** (int) - 学习率衰减轮数间隔。 - **gamma** (float, 可选) - 衰减率,``new_lr = origin_lr * gamma`` ,衰减率必须小于等于1.0,默认值为0.1。 @@ -28,9 +30,12 @@ StepDecay - **verbose** (bool,可选) - 如果是 `True` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 -返回:用于调整学习率的 ``StepDecay`` 实例对象。 +返回 +:::::::::::: +用于调整学习率的 ``StepDecay`` 实例对象。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -79,17 +84,23 @@ StepDecay scheduler.step() # If you update learning rate each step # scheduler.step() # If you update learning rate each epoch -.. py:method:: step(epoch=None) +方法 +:::::::::::: +step(epoch=None) +''''''''' step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用之后将会根据epoch数来更新学习率,更新之后的学习率将会在优化器下一轮更新参数时使用。 -参数: +**参数** + - **epoch** (int,可选) - 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 -返回: +**返回** + 无。 -**代码示例** : +代码示例 : +:::::::::::: 参照上述示例代码。 diff --git a/docs/api/paddle/outer_cn.rst b/docs/api/paddle/outer_cn.rst index 333d0df89ce..ce8db9f22c6 100644 --- a/docs/api/paddle/outer_cn.rst +++ b/docs/api/paddle/outer_cn.rst @@ -10,13 +10,17 @@ outer 对于1维Tensor正常计算外积,对于大于1维的Tensor先展平为1维再计算外积。 -参数: +参数 +:::::::::::: + ::::::::: - **x** (Tensor) - 一个N维Tensor或者标量Tensor。 - **y** (Tensor) - 一个N维Tensor或者标量Tensor。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ::::::::: - Tensor, x、y的外积结果,Tensor shape为 [x.size, y.size]。 diff --git a/docs/api/paddle/prod_cn.rst b/docs/api/paddle/prod_cn.rst index 765ff5fdafb..383b2346ba1 100644 --- a/docs/api/paddle/prod_cn.rst +++ b/docs/api/paddle/prod_cn.rst @@ -9,17 +9,22 @@ prod 对指定维度上的Tensor元素进行求乘积运算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64、int32、int64。 - **axis** (int|list|tuple,可选) - 求乘积运算的维度。如果是None,则计算所有元素的乘积并返回包含单个元素的Tensor,否则该参数必须在 :math:`[-x.ndim, x.ndim)` 范围内。如果 :math:`axis[i] < 0` ,则维度将变为 :math:`x.ndim + axis[i]` ,默认为None。 - **keepdim** (bool,可选) - 是否在输出 `Tensor` 中保留减小的维度。如 `keepdim` 为True,否则结果张量的维度将比输入张量小,默认值为False。 - **dtype** (str,可选) - 输出Tensor的数据类型,支持int32、int64、float32、float64。如果指定了该参数,那么在执行操作之前,输入Tensor将被转换为dtype类型. 这对于防止数据类型溢出非常有用。若参数为空,则输出变量的数据类型和输入变量相同,默认为:None。 - **name** (str,可选)- 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 -返回:指定axis上累乘的结果的Tensor。 +返回 +:::::::::::: +指定axis上累乘的结果的Tensor。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/profiler/Profiler_cn.rst b/docs/api/paddle/profiler/Profiler_cn.rst index 406b1635fe3..62c1100612f 100644 --- a/docs/api/paddle/profiler/Profiler_cn.rst +++ b/docs/api/paddle/profiler/Profiler_cn.rst @@ -29,63 +29,64 @@ COPY-FROM: paddle.profiler.Profiler:code-example2 COPY-FROM: paddle.profiler.Profiler:code-example3 -.. py:method:: start() +方法 +:::::::::::: +start() +''''''''' 开启性能分析器,进入状态scheduler(0)。即 性能分析器状态从CLOSED -> scheduler(0), 并根据新的状态触发相应行为。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.Profiler.start:code-example4 -.. py:method:: stop() +stop() +''''''''' 停止性能分析器,并且进入状态CLOSED。即 性能分析器状态从当前状态 -> CLOSED,性能分析器关闭,如果有性能数据返回,调用on_trace_ready回调函数进行处理。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.Profiler.stop:code-example5 -.. py:method:: step() +step() +''''''''' 指示性能分析器进入下一个step,根据scheduler计算新的性能分析器状态,并根据新的状态触发相应行为。如果有性能数据返回,调用on_trace_ready回调函数进行处理。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.Profiler.step:code-example6 -.. py:method:: export(path, format="json") +export(path, format="json") +''''''''' 导出性能数据到文件。 -参数 -::::::::: +**参数** - **path** (str) – 性能数据导出的文件名。 - **format** (str, 可选) – 性能数据导出的格式,目前支持"json"和"pb"两种。即"json"为导出chrome tracing文件,"pb"为导出protobuf文件,默认值为"json"。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.Profiler.export:code-example7 .. _cn_api_profiler_profiler_summary: -.. py:method:: summary(sorted_by=SortedKeys.CPUTotal, op_detail=True, thread_sep=False, time_unit='ms') +summary(sorted_by=SortedKeys.CPUTotal, op_detail=True, thread_sep=False, time_unit='ms') +''''''''' 统计性能数据并打印表单。当前支持从总览、模型、分布式、算子、内存操作、自定义六个角度来对性能数据进行统计。 -参数 -::::::::: +**参数** - **sorted_by** ( :ref:`SortedKeys ` , 可选) – 表单的数据项排列方式, 默认值SortedKeys.CPUTotal。 - **op_detail** (bool, 可选) – 是否打印算子内各过程的详细信息,默认值True。 @@ -93,7 +94,6 @@ COPY-FROM: paddle.profiler.Profiler.export:code-example7 - **time_unit** (str, 可选) - 表单数据的时间单位,默认为'ms', 可选's', 'us', 'ns'。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.Profiler.summary:code-example8 \ No newline at end of file diff --git a/docs/api/paddle/profiler/RecordEvent_cn.rst b/docs/api/paddle/profiler/RecordEvent_cn.rst index 02d512337fe..b84783ae485 100644 --- a/docs/api/paddle/profiler/RecordEvent_cn.rst +++ b/docs/api/paddle/profiler/RecordEvent_cn.rst @@ -22,21 +22,23 @@ COPY-FROM: paddle.profiler.RecordEvent:code-example1 注意: RecordEvent只有在 :ref:`性能分析器 ` 处于RECORD状态才会生效。 -.. py:method:: begin() +方法 +:::::::::::: +begin() +''''''''' 记录开始的时间。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.RecordEvent.begin:code-example2 -.. py:method:: end() +end() +''''''''' 记录结束的时间。 -代码示例 -:::::::::: +**代码示例** COPY-FROM: paddle.profiler.RecordEvent.end:code-example3 diff --git a/docs/api/paddle/randperm_cn.rst b/docs/api/paddle/randperm_cn.rst index 3b489794fb1..30cd28b1c0f 100644 --- a/docs/api/paddle/randperm_cn.rst +++ b/docs/api/paddle/randperm_cn.rst @@ -7,7 +7,9 @@ randperm 该OP返回一个数值在0到n-1、随机排列的1-D Tensor,数据类型为 ``dtype``。 -参数: +参数 +:::::::::::: + :::::::::: - **n** (int) - 随机序列的上限(不包括在序列中),应该大于0。 - **dtype** (str|np.dtype, 可选) - 输出Tensor的数据类型,支持int32、int64、float32、float64。默认值为"int64". diff --git a/docs/api/paddle/rank_cn.rst b/docs/api/paddle/rank_cn.rst index 380081de125..bbcef517558 100644 --- a/docs/api/paddle/rank_cn.rst +++ b/docs/api/paddle/rank_cn.rst @@ -10,13 +10,18 @@ rank 该OP用于计算输入Tensor的维度(秩)。 -参数: +参数 +:::::::::::: + - **input** (Tensor) — 输入input是shape为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor,数据类型可以任意类型。 -返回:输出Tensor的秩,是一个0-D Tensor。 +返回 +:::::::::::: +输出Tensor的秩,是一个0-D Tensor。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/real_cn.rst b/docs/api/paddle/real_cn.rst index 252c133c38d..d34256bc3c6 100644 --- a/docs/api/paddle/real_cn.rst +++ b/docs/api/paddle/real_cn.rst @@ -7,13 +7,18 @@ real 返回一个包含输入复数Tensor的实部数值的新Tensor。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入Tensor,其数据类型可以为complex64或complex128。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor,包含原复数Tensor的实部数值。 +返回 +:::::::::::: +Tensor,包含原复数Tensor的实部数值。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/reciprocal_cn.rst b/docs/api/paddle/reciprocal_cn.rst index af77980ea9f..02b51d009c9 100644 --- a/docs/api/paddle/reciprocal_cn.rst +++ b/docs/api/paddle/reciprocal_cn.rst @@ -14,15 +14,20 @@ reciprocal 对输入Tensor取倒数 .. math:: out = \frac{1}{x} -参数: +参数 +:::::::::::: + - **x** - 输入的多维Tensor,支持的数据类型为float32,float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 对输入取倒数得到的Tensor,输出Tensor数据类型和维度与输入相同。 +返回 +:::::::::::: + 对输入取倒数得到的Tensor,输出Tensor数据类型和维度与输入相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/regularizer/L1Decay_cn.rst b/docs/api/paddle/regularizer/L1Decay_cn.rst index eb53a463488..5811e205380 100644 --- a/docs/api/paddle/regularizer/L1Decay_cn.rst +++ b/docs/api/paddle/regularizer/L1Decay_cn.rst @@ -4,7 +4,10 @@ L1Decay ------------------------------- -.. py:attribute:: paddle.regularizer.L1Decay(coeff=0.0) +属性 +:::::::::::: +paddle.regularizer.L1Decay(coeff=0.0) +''''''''' L1Decay实现L1权重衰减正则化,用于模型训练,使得权重矩阵稀疏。 @@ -21,10 +24,11 @@ L1Decay实现L1权重衰减正则化,用于模型训练,使得权重矩阵 .. math:: \\loss = coeff * reduce\_sum(abs(x))\\ -参数: +**参数** + - **coeff** (float) – L1正则化系数,默认值为0.0。 -**代码示例1** +**代码示例 1** .. code-block:: python @@ -47,7 +51,7 @@ L1Decay实现L1权重衰减正则化,用于模型训练,使得权重矩阵 momentum.clear_grad() -**代码示例2** +**代码示例 2** .. code-block:: python diff --git a/docs/api/paddle/regularizer/L2Decay_cn.rst b/docs/api/paddle/regularizer/L2Decay_cn.rst index 6792bdad002..b9544de9337 100644 --- a/docs/api/paddle/regularizer/L2Decay_cn.rst +++ b/docs/api/paddle/regularizer/L2Decay_cn.rst @@ -3,7 +3,10 @@ L2Decay ------------------------------- -.. py:attribute:: paddle.regularizer.L2Decay(coeff=0.0) +属性 +:::::::::::: +paddle.regularizer.L2Decay(coeff=0.0) +''''''''' L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模型对训练数据过拟合。 @@ -20,10 +23,11 @@ L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模 .. math:: \\loss = 0.5 * coeff * reduce\_sum(square(x))\\ -参数: +**参数** + - **coeff** (float) – 正则化系数,默认值为0.0。 -**代码示例1** +**代码示例 1** .. code-block:: python @@ -46,7 +50,7 @@ L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模 momentum.clear_grad() -**代码示例2** +**代码示例 2** .. code-block:: python diff --git a/docs/api/paddle/reshape_cn.rst b/docs/api/paddle/reshape_cn.rst index a1ad22b75f7..c280c0685e9 100644 --- a/docs/api/paddle/reshape_cn.rst +++ b/docs/api/paddle/reshape_cn.rst @@ -27,17 +27,22 @@ reshape 2. 给定一个形状为[2,4,6]的三维张量x,目标形状为[2,3,-1,2],则将x变换为形状为[2,3,4,2]的4-D张量,且x的数据保持不变。在这种情况下,目标形状的一个维度被设置为-1,这个维度的值是从x的元素总数和剩余维度推断出来的。 3. 给定一个形状为[2,4,6]的三维张量x,目标形状为[-1,0,3,2],则将x变换为形状为[2,4,3,2]的4-D张量,且x的数据保持不变。在这种情况下,0对应位置的维度值将从x的对应维数中复制,-1对应位置的维度值由x的元素总数和剩余维度推断出来。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- N-D ``Tensor``,数据类型为 ``float32``,``float64``,``int32``,``int64`` 或者 ``bool``。 - **shape** (list|tuple|Tensor)- 数据类型是 ``int32`` 。定义目标形状。目标形状最多只能有一个维度为-1。如果 ``shape`` 的类型是 list 或 tuple, 它的元素可以是整数或者形状为[1]的 ``Tensor``。如果 ``shape`` 的类型是 ``Tensor``,则是1-D的 ``Tensor``。 - **name** (str,可选)- 默认值为 `None`, 一般不需要设置。 具体用法请参见 :ref:`api_guide_Name` -返回: +返回 +:::::::::::: + ::::::::: ``Tensor``,改变形状后的 ``Tensor``,数据类型与 ``x`` 相同。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/roll_cn.rst b/docs/api/paddle/roll_cn.rst index 8c911b3c5d1..48ab1519a71 100644 --- a/docs/api/paddle/roll_cn.rst +++ b/docs/api/paddle/roll_cn.rst @@ -19,7 +19,8 @@ roll **返回**: - **Tensor**,数据类型同输入。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/round_cn.rst b/docs/api/paddle/round_cn.rst index 4dcde886b3a..60ef8994999 100644 --- a/docs/api/paddle/round_cn.rst +++ b/docs/api/paddle/round_cn.rst @@ -20,14 +20,19 @@ round out.shape = [4] out.data = [1., -1., 3., 1.] -参数: +参数 +:::::::::::: + - **x** (Tensor) - 支持任意维度的Tensor。数据类型为float32,float64或float16。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回类型为Tensor, 数据类型同输入一致。 +返回 +:::::::::::: +返回类型为Tensor, 数据类型同输入一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/rsqrt_cn.rst b/docs/api/paddle/rsqrt_cn.rst index 90803e90a44..c680f46e24d 100644 --- a/docs/api/paddle/rsqrt_cn.rst +++ b/docs/api/paddle/rsqrt_cn.rst @@ -18,13 +18,18 @@ rsqrt out = \frac{1}{\sqrt{x}} -参数: +参数 +:::::::::::: + - **x** (Tensor) – 输入是多维Tensor,数据类型可以是float32和float64。 - **name** (str,可选)— 这一层的名称(可选)。如果设置为None,则将自动命名这一层。默认值为None。 -返回:Tensor,对输入x进行rsqrt激活函数计算结果,数据shape、类型和输入x的shape、类型一致。 +返回 +:::::::::::: +Tensor,对输入x进行rsqrt激活函数计算结果,数据shape、类型和输入x的shape、类型一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/scale_cn.rst b/docs/api/paddle/scale_cn.rst index 3dc23d88499..9362f1426a3 100644 --- a/docs/api/paddle/scale_cn.rst +++ b/docs/api/paddle/scale_cn.rst @@ -22,7 +22,9 @@ scale .. math:: Out=scale*(X+bias) -参数: +参数 +:::::::::::: + - **x** (Tensor) - 要进行缩放的多维Tensor,数据类型可以为float32,float64,int8,int16,int32,int64,uint8。 - **scale** (float|Tensor) - 缩放的比例,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。 - **bias** (float) - 缩放的偏置。 @@ -30,9 +32,12 @@ scale - **act** (str,可选) - 应用于输出的激活函数,如tanh、softmax、sigmoid、relu等。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: Tensor,缩放后的计算结果。 +返回 +:::::::::::: + Tensor,缩放后的计算结果。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/scatter_nd_add_cn.rst b/docs/api/paddle/scatter_nd_add_cn.rst index 9460c40eb9f..08dd2191ae3 100644 --- a/docs/api/paddle/scatter_nd_add_cn.rst +++ b/docs/api/paddle/scatter_nd_add_cn.rst @@ -42,17 +42,24 @@ scatter_nd_add output = [[67, 19], [-16, -27]] -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入张量,数据类型可以是int32,int64,float32,float64。 - **index** (Tensor) - 输入的索引张量,数据类型为非负int32或非负int64。它的维度 :code:`index.ndim` 必须大于1,并且 :code:`index.shape[-1] <= x.ndim` - **updates** (Tensor) - 输入的更新张量,它必须和 :code:`x` 有相同的数据类型。形状必须是 :code:`index.shape[:-1] + x.shape[index.shape[-1]:]` 。 - **name** (string) - 该层的名字,默认值为None,表示会自动命名。 -返回:数据类型和形状都与 :code:`x` 相同的Tensor。 +返回 +:::::::::::: +数据类型和形状都与 :code:`x` 相同的Tensor。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/scatter_nd_cn.rst b/docs/api/paddle/scatter_nd_cn.rst index 87730951e9d..7892d318e73 100644 --- a/docs/api/paddle/scatter_nd_cn.rst +++ b/docs/api/paddle/scatter_nd_cn.rst @@ -10,17 +10,24 @@ scatter_nd 该OP根据 :code:`index` ,将 :code:`updates` 添加到一个新的张量中,从而得到输出的Tensor。这个操作与 :code:`scatter_nd_add` 类似,除了形状为 :code:`shape` 的张量是通过零初始化的。相应地, :code:`scatter_nd(index, updates, shape)` 等价于 :code:`scatter_nd_add(fluid.layers.zeros(shape, updates.dtype), index, updates)` 。如果 :code:`index` 有重复元素,则将累积相应的更新,因此,由于数值近似问题,索引中重复元素的顺序不同可能会导致不同的输出结果。具体的计算方法可以参见 :code:`scatter_nd_add` 。该OP是 :code:`gather_nd` 的反函数。 -参数: +参数 +:::::::::::: + - **index** (Tensor) - 输入的索引张量,数据类型为非负int32或非负int64。它的维度 :code:`index.ndim` 必须大于1,并且 :code:`index.shape[-1] <= len(shape)` - **updates** (Tensor) - 输入的更新张量。形状必须是 :code:`index.shape[:-1] + shape[index.shape[-1]:]` 。数据类型可以是float32,float64。 - **shape** (tuple|list) - 要求输出张量的形状。类型是tuple或者list。 - **name** (string) - 该层的名字,默认值为None,表示会自动命名。 -返回:数据类型与 :code:`updates` 相同,形状是 :code:`shape` 的Tensor。 +返回 +:::::::::::: +数据类型与 :code:`updates` 相同,形状是 :code:`shape` 的Tensor。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/seed_cn.rst b/docs/api/paddle/seed_cn.rst index a3ad54523e2..b46ef951a35 100644 --- a/docs/api/paddle/seed_cn.rst +++ b/docs/api/paddle/seed_cn.rst @@ -9,14 +9,19 @@ seed 设置全局默认generator的随机种子。 -参数: +参数 +:::::::::::: + - **seed** (int) - 要设置的的随机种子,推荐使用较大的整数。 -返回: +返回 +:::::::::::: + Generator:全局默认generator对象。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/set_cuda_rng_state_cn.rst b/docs/api/paddle/set_cuda_rng_state_cn.rst index 7e01d0d0cdb..6cb456a39b6 100644 --- a/docs/api/paddle/set_cuda_rng_state_cn.rst +++ b/docs/api/paddle/set_cuda_rng_state_cn.rst @@ -9,14 +9,19 @@ set_cuda_rng_state 设置cuda随机数生成器的状态信息 -参数: +参数 +:::::::::::: + - **state_list** (list [GeneratorState]) - 需要设置的随机数生成器状态信息列表,通过get_cuda_rng_state()获取。 -返回: +返回 +:::::::::::: + 无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/set_default_dtype_cn.rst b/docs/api/paddle/set_default_dtype_cn.rst index 9c6c6fe948a..920c019ce6b 100644 --- a/docs/api/paddle/set_default_dtype_cn.rst +++ b/docs/api/paddle/set_default_dtype_cn.rst @@ -9,13 +9,18 @@ set_default_dtype 设置默认的全局dtype。 默认的全局dtype最初是float32。 -参数: +参数 +:::::::::::: + - **d** (string|np.dtype) - 设为默认值的dtype。 它仅支持float16,float32和float64。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/set_flags_cn.rst b/docs/api/paddle/set_flags_cn.rst index cd7b5ea1ad3..492de466e9f 100644 --- a/docs/api/paddle/set_flags_cn.rst +++ b/docs/api/paddle/set_flags_cn.rst @@ -9,14 +9,19 @@ set_flags 设置Paddle 环境变量FLAGS,详情请查看 :ref:`cn_guides_flags_flags` -参数: +参数 +:::::::::::: + - **flags** (dict {flags: value}) - 设置FLAGS标志 -返回: +返回 +:::::::::::: + 无 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/shape_cn.rst b/docs/api/paddle/shape_cn.rst index 6a625d70006..23260d5b3e7 100755 --- a/docs/api/paddle/shape_cn.rst +++ b/docs/api/paddle/shape_cn.rst @@ -29,14 +29,19 @@ shape层。 输出shape: input.shape = [3, 2] -参数: +参数 +:::::::::::: + - **input** (Tensor)- 输入的多维Tensor或SelectedRows,数据类型为float16,float32,float64,int32,int64。如果输入是SelectedRows类型,则返回其内部持有Tensor的shape。 -返回: Tensor, 表示输入Tensor或SelectedRows的shape。 +返回 +:::::::::::: + Tensor, 表示输入Tensor或SelectedRows的shape。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/shard_index_cn.rst b/docs/api/paddle/shard_index_cn.rst index 292d5a4f940..62ad31b0e7b 100644 --- a/docs/api/paddle/shard_index_cn.rst +++ b/docs/api/paddle/shard_index_cn.rst @@ -17,16 +17,21 @@ shard_index v = v - shard_id * shard_size if shard_id * shard_size <= v < (shard_id+1) * shard_size else ignore_value -参数: +参数 +:::::::::::: + - input (Tensor)- 输入tensor,最后一维的维度值为1,数据类型为int64或int32。 - index_num (int) - 用户设置的大于\ `input`\ 最大值的整型值。 - nshards (int) - 分片数量。 - shard_id (int) - 当前分片ID。 - ignore_value (int) - 超出分片范围的默认值。 -返回:Tensor +返回 +:::::::::::: +Tensor -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/sign_cn.rst b/docs/api/paddle/sign_cn.rst index 5ebf76bfa21..969fac1a4d6 100644 --- a/docs/api/paddle/sign_cn.rst +++ b/docs/api/paddle/sign_cn.rst @@ -7,15 +7,22 @@ sign 此OP对输入x中每个元素进行正负判断,并且输出正负判断值:1代表正,-1代表负,0代表零。 -参数: +参数 +:::::::::::: + - **x** (Tensor) – 进行正负值判断的多维Tensor,数据类型为 float16, float32或float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:输出正负号Tensor,数据的shape大小及数据类型和输入 ``x`` 一致。 +返回 +:::::::::::: +输出正负号Tensor,数据的shape大小及数据类型和输入 ``x`` 一致。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/sin_cn.rst b/docs/api/paddle/sin_cn.rst index d28fdd28d83..1a9545797cf 100644 --- a/docs/api/paddle/sin_cn.rst +++ b/docs/api/paddle/sin_cn.rst @@ -10,13 +10,18 @@ sin 计算输入的正弦值。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 支持任意维度的Tensor。数据类型为float32,float64或float16。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回类型为Tensor, 数据类型同输入一致。 +返回 +:::::::::::: +返回类型为Tensor, 数据类型同输入一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/sinh_cn.rst b/docs/api/paddle/sinh_cn.rst index 20b7f2ebcfa..85b51133e02 100644 --- a/docs/api/paddle/sinh_cn.rst +++ b/docs/api/paddle/sinh_cn.rst @@ -16,13 +16,18 @@ sinh out = \frac{exp(x)-exp(-x)}{2} -参数: +参数 +:::::::::::: + - x (Tensor) - 输入的Tensor,数据类型为:float32、float64 、float16。 - name (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -返回:输出Tensor,与 ``x`` 维度相同、数据类型相同。 +返回 +:::::::::::: +输出Tensor,与 ``x`` 维度相同、数据类型相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/slice_cn.rst b/docs/api/paddle/slice_cn.rst index 45a9bc8d8ba..5654715119c 100755 --- a/docs/api/paddle/slice_cn.rst +++ b/docs/api/paddle/slice_cn.rst @@ -29,18 +29,25 @@ slice 则: result=[[2,3,4],] # 即 data[0:1, 1:4] -参数: +参数 +:::::::::::: + - **input** (Tensor)- 多维 ``Tensor``,数据类型为 ``float16``, ``float32``,``float64``,``int32``,或 ``int64``。 - **axes** (list|tuple)- 数据类型是 ``int32``。表示进行切片的轴。 - **starts** (list|tuple|Tensor)- 数据类型是 ``int32``。如果 ``starts`` 的类型是 list 或 tuple,它的元素可以是整数或者形状为[1]的 ``Tensor`` 。如果 ``starts`` 的类型是 ``Tensor``,则是1-D ``Tensor`` 。表示在各个轴上切片的起始索引值。 - **ends** (list|tuple|Tensor)- 数据类型是 ``int32``。如果 ``ends`` 的类型是 list 或 tuple,它的元素可以是整数或者形状为[1]的 ``Tensor`` 。如果 ``ends`` 的类型是 ``Tensor``,则是1-D ``Tensor`` 。表示在各个轴上切片的结束索引值。 -返回:多维 ``Tensor`` ,数据类型与 ``input`` 相同。 +返回 +:::::::::::: +多维 ``Tensor`` ,数据类型与 ``input`` 相同。 + +抛出异常 +:::::::::::: -抛出异常: - :code:`TypeError`:``starts`` 的类型应该是 list、tuple 或 Tensor。 - :code:`TypeError`:``ends`` 的类型应该是 list、tuple 或 Tensor。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/sort_cn.rst b/docs/api/paddle/sort_cn.rst index 4ba89b6f5ee..264e2496d3e 100644 --- a/docs/api/paddle/sort_cn.rst +++ b/docs/api/paddle/sort_cn.rst @@ -10,16 +10,21 @@ sort 对输入变量沿给定轴进行排序,输出排序好的数据,其维度和输入相同。默认升序排列,如果需要降序排列设置 ``descending=True`` 。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的多维 ``Tensor`` ,支持的数据类型:float32、float64、int16、int32、int64、uint8。 - **axis** (int,可选) - 指定对输入Tensor进行运算的轴, ``axis`` 的有效范围是[-R, R),R是输入 ``x`` 的Rank, ``axis`` 为负时与 ``axis`` +R 等价。默认值为0。 - **descending** (bool,可选) - 指定算法排序的方向。如果设置为True,算法按照降序排序。如果设置为False或者不设置,按照升序排序。默认值为False。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor, 排序后的输出(与 ``x`` 维度相同、数据类型相同)。 +返回 +:::::::::::: +Tensor, 排序后的输出(与 ``x`` 维度相同、数据类型相同)。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/sqrt_cn.rst b/docs/api/paddle/sqrt_cn.rst index 376eacb5cd0..f78ea4c0790 100644 --- a/docs/api/paddle/sqrt_cn.rst +++ b/docs/api/paddle/sqrt_cn.rst @@ -15,14 +15,19 @@ sqrt .. note:: 请确保输入中的数值是非负数。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 支持任意维度的Tensor。数据类型为float32,float64或float16。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回类型为Tensor, 数据类型同输入一致。 +返回 +:::::::::::: +返回类型为Tensor, 数据类型同输入一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/square_cn.rst b/docs/api/paddle/square_cn.rst index 5f30fc83a2f..0b332a9e744 100644 --- a/docs/api/paddle/square_cn.rst +++ b/docs/api/paddle/square_cn.rst @@ -13,15 +13,22 @@ square .. math:: out = x^2 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 任意维度的Tensor,支持的数据类型: float32,float64。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:返回取平方后的Tensor,维度和数据类型同输入一致。 +返回 +:::::::::::: +返回取平方后的Tensor,维度和数据类型同输入一致。 -返回类型:Tensor +返回类型 +:::::::::::: +Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/squeeze_cn.rst b/docs/api/paddle/squeeze_cn.rst index 8d1c31e7785..2d314d624eb 100644 --- a/docs/api/paddle/squeeze_cn.rst +++ b/docs/api/paddle/squeeze_cn.rst @@ -51,7 +51,8 @@ squeeze **返回**:对维度进行压缩后的Tensor,数据类型与输入Tensor一致。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/stack_cn.rst b/docs/api/paddle/stack_cn.rst index d340501d7be..c09b1e9ebf9 100644 --- a/docs/api/paddle/stack_cn.rst +++ b/docs/api/paddle/stack_cn.rst @@ -61,7 +61,8 @@ stack **返回**:堆叠运算后的Tensor,数据类型与输入Tensor相同。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/stanh_cn.rst b/docs/api/paddle/stanh_cn.rst index c3dc402bb18..ef64f393a7a 100644 --- a/docs/api/paddle/stanh_cn.rst +++ b/docs/api/paddle/stanh_cn.rst @@ -11,7 +11,9 @@ stanh 激活函数 out = b * \frac{e^{a * x} - e^{-a * x}}{e^{a * x} + e^{-a * x}} -参数: +参数 +:::::::::::: + :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - scale_a (float, 可选) - stanh激活计算公式中的输入缩放参数a。默认值为0.67。 diff --git a/docs/api/paddle/static/BuildStrategy_cn.rst b/docs/api/paddle/static/BuildStrategy_cn.rst index 81260c1b53e..531e9fea7ca 100644 --- a/docs/api/paddle/static/BuildStrategy_cn.rst +++ b/docs/api/paddle/static/BuildStrategy_cn.rst @@ -40,12 +40,14 @@ BuildStrategy,一个BuildStrategy的实例 places=places) -.. py:attribute:: debug_graphviz_path +属性 +:::::::::::: +debug_graphviz_path +''''''''' str类型。表示以graphviz格式向文件中写入计算图的路径,有利于调试。默认值为空字符串。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -58,12 +60,12 @@ str类型。表示以graphviz格式向文件中写入计算图的路径,有利 build_strategy.debug_graphviz_path = "./graph" -.. py:attribute:: enable_sequential_execution +enable_sequential_execution +''''''''' bool类型。如果设置为True,则算子的执行顺序将与算子定义的执行顺序相同。默认为False。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -76,12 +78,12 @@ bool类型。如果设置为True,则算子的执行顺序将与算子定义的 build_strategy.enable_sequential_execution = True -.. py:attribute:: fuse_broadcast_ops +fuse_broadcast_ops +''''''''' bool类型。表明是否融合(fuse) broadcast ops。该选项指在Reduce模式下有效,使程序运行更快。默认为False。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -94,12 +96,12 @@ bool类型。表明是否融合(fuse) broadcast ops。该选项指在Reduce模 build_strategy.fuse_broadcast_ops = True -.. py:attribute:: fuse_elewise_add_act_ops +fuse_elewise_add_act_ops +''''''''' bool类型。表明是否融合(fuse) elementwise_add_op和activation_op。这会使整体执行过程更快。默认为False。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -112,12 +114,12 @@ bool类型。表明是否融合(fuse) elementwise_add_op和activation_op。这 build_strategy.fuse_elewise_add_act_ops = True -.. py:attribute:: fuse_relu_depthwise_conv +fuse_relu_depthwise_conv +''''''''' bool类型。表明是否融合(fuse) relu和depthwise_conv2d,节省GPU内存并可能加速执行过程。此选项仅适用于GPU设备。默认为False。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -129,12 +131,12 @@ bool类型。表明是否融合(fuse) relu和depthwise_conv2d,节省GPU内存 build_strategy = static.BuildStrategy() build_strategy.fuse_relu_depthwise_conv = True -.. py:attribute:: gradient_scale_strategy +gradient_scale_strategy +''''''''' ``paddle.static.BuildStrategy.GradientScaleStrategy`` 类型。在 ``ParallelExecutor`` 中,存在三种定义loss对应梯度( *loss@grad* )的方式,分别为 ``CoeffNumDevice``, ``One`` 与 ``Customized``。默认情况下, ``ParallelExecutor`` 根据设备数目来设置 *loss@grad* 。如果用户需要自定义 *loss@grad* ,可以选择 ``Customized`` 方法。默认为 ``CoeffNumDevice`` 。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -184,17 +186,18 @@ bool类型。表明是否融合(fuse) relu和depthwise_conv2d,节省GPU内存 feed={"X": x, loss_grad_name : loss_grad}, fetch_list=[loss.name, loss_grad_name]) -.. py:attribute:: memory_optimize +memory_optimize +''''''''' bool类型或None。设为True时可用于减少总内存消耗,False表示不使用,None表示框架会自动选择使用或者不使用优化策略。当前,None意味着当GC不能使用时,优化策略将被使用。默认为None。 -.. py:attribute:: reduce_strategy +reduce_strategy +''''''''' ``static.BuildStrategy.ReduceStrategy`` 类型。在 ``ParallelExecutor`` 中,存在两种参数梯度聚合策略,即 ``AllReduce`` 和 ``Reduce`` 。如果用户需要在所有执行设备上独立地进行参数更新,可以使用 ``AllReduce`` 。如果使用 ``Reduce`` 策略,所有参数的优化将均匀地分配给不同的执行设备,随之将优化后的参数广播给其他执行设备。 默认值为 ``AllReduce`` 。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -206,12 +209,12 @@ bool类型或None。设为True时可用于减少总内存消耗,False表示不 build_strategy = static.BuildStrategy() build_strategy.reduce_strategy = static.BuildStrategy.ReduceStrategy.Reduce -.. py:attribute:: remove_unnecessary_lock +remove_unnecessary_lock +''''''''' bool类型。设置True会去除GPU操作中的一些锁操作, ``ParallelExecutor`` 将运行得更快,默认为True。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -224,12 +227,12 @@ bool类型。设置True会去除GPU操作中的一些锁操作, ``ParallelExec build_strategy.remove_unnecessary_lock = True -.. py:attribute:: sync_batch_norm +sync_batch_norm +''''''''' bool类型。表示是否使用同步的批正则化,即在训练阶段通过多个设备同步均值和方差。当前的实现不支持FP16训练和CPU。并且目前**仅支持**仅在一台机器上进行同步式批正则。默认为 False。 -代码示例 -::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/static/CompiledProgram_cn.rst b/docs/api/paddle/static/CompiledProgram_cn.rst index 7eb33207bdf..9dc2f9a7eb5 100644 --- a/docs/api/paddle/static/CompiledProgram_cn.rst +++ b/docs/api/paddle/static/CompiledProgram_cn.rst @@ -23,23 +23,24 @@ CompiledProgram,初始化后的 ``CompiledProgram`` 对象 COPY-FROM: paddle.static.CompiledProgram -.. py:method:: with_data_parallel(loss_name=None, build_strategy=None, exec_strategy=None, share_vars_from=None, places=None) +方法 +:::::::::::: +with_data_parallel(loss_name=None, build_strategy=None, exec_strategy=None, share_vars_from=None, places=None) +''''''''' 该接口用于将输入的Program或Graph进行转换,以便通过数据并行模式运行该模型。用户可以通过 `build_strategy` 和 `exec_strategy` 设置计算图构建和计算图执行过程中可以进行的一些优化,例如:将梯度聚合的AllReduce操作进行融合、指定计算图运行过程中使用的线程池大小等。 .. note:: 如果在构建CompiledProgram和调用with_data_parallel时都指定了build_strategy,在CompiledProgram中的build_strategy会被复写,因此,如果是数据并行训练,建议在调用with_data_parallel接口时设置build_strategy。 -参数 -::::::::: +**参数** - **loss_name** (str) - 该参数为模型最后得到的损失变量的名字,**注意:如果是模型训练,必须设置loss_name,否则计算结果可能会有问题。** 默认为:None。 - **build_strategy** (BuildStrategy): 通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多的信息,请参阅 ``fluid.BuildStrategy`` 。 默认为:None。 - **exec_strategy** (ExecutionStrategy) - 通过exec_strategy指定执行计算图过程可以调整的选项,例如线程池大小等。 关于exec_strategy更多信息,请参阅 ``fluid.ExecutionStrategy`` 。 默认为:None。 - **share_vars_from** (CompiledProgram) - 如果设置了share_vars_from,当前的CompiledProgram将与share_vars_from指定的CompiledProgram共享参数值。需要设置该参数的情况:模型训练过程中需要进行模型测试,并且训练和测试都是采用数据并行模式,那么测试对应的CompiledProgram在调用with_data_parallel时,需要将share_vars_from设置为训练对应的CompiledProgram。由于CompiledProgram只有在第一次执行时才会将变量分发到其他设备上,因此share_vars_from指定的CompiledProgram必须在当前CompiledProgram之前运行。默认为:None。 - **places** (list(CUDAPlace)|list(CPUPlace)) - 该参数指定模型运行所在的设备。如果希望在GPU0和GPU1上运行,places为[fluid.CUDAPlace(0), fluid.CUDAPlace(1)];如果希望使用2个CPU运行,places为[fluid.CPUPlace()] * 2。 如果没有设置该参数,即该参数为None,模型执行时,将从环境变量中获取可用的设备:如果使用GPU,模型执行时,从环境变量FLAGS_selected_gpus或CUDA_VISIBLE_DEVICES中获取当前可用的设备ID;如果使用CPU,模型执行时,从环境变量CPU_NUM中获取当前可利用的CPU个数。例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1。默认为:None。 -返回 -::::::::: +**返回** CompiledProgram,配置之后的 ``CompiledProgram`` 对象 .. note:: @@ -47,7 +48,6 @@ CompiledProgram,配置之后的 ``CompiledProgram`` 对象 2. 如果程序中既有模型训练又有模型测试,则构建模型测试所对应的CompiledProgram时必须设置share_vars_from,否则模型测试和模型训练所使用的参数是不一致。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.CompiledProgram.with_data_parallel diff --git a/docs/api/paddle/static/ExecutionStrategy_cn.rst b/docs/api/paddle/static/ExecutionStrategy_cn.rst index b2d174c6ab3..73f0f9f535b 100644 --- a/docs/api/paddle/static/ExecutionStrategy_cn.rst +++ b/docs/api/paddle/static/ExecutionStrategy_cn.rst @@ -41,12 +41,14 @@ ExecutionStrategy,一个ExecutionStrategy的实例 exec_strategy=exec_strategy) -.. py:attribute:: num_threads +属性 +:::::::::::: +num_threads +''''''''' int型成员。该选项表示当前 ``Executor`` 的线程池(thread pool)的大小, 此线程池可用来并发执行program中的operator(算子,运算)。如果 :math:`num\_threads=1` ,则所有的operator将一个接一个地执行,但在不同的program重复周期(iterations)中执行顺序可能不同。如果该选项没有被设置,则在 ``Executor`` 中,它会依据设备类型(device type)、设备数目(device count)而设置为相应值。对GPU,:math:`num\_threads=device\_count∗4` ;对CPU, :math:`num\_threads=CPU\_NUM∗4` 。在 ``Executor`` 中有关于 :math:`CPU\_NUM` 的详细解释。如果没有设置 :math:`CPU\_NUM` ,则设置默认值为1, 并提示用户进行 :math:`CPU\_NUM` 的设置。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -58,7 +60,8 @@ int型成员。该选项表示当前 ``Executor`` 的线程池(thread pool)的 exec_strategy = static.ExecutionStrategy() exec_strategy.num_threads = 4 -.. py:attribute:: num_iteration_per_drop_scope +num_iteration_per_drop_scope +''''''''' int型成员。该选项表示间隔多少次迭代之后清理一次临时变量。模型运行过程中,生成的中间临时变量将被放到local execution scope中,为了避免对临时变量频繁的申请与释放,通常将其设为较大的值(比如10或者100)。默认值为100。 @@ -66,8 +69,7 @@ int型成员。该选项表示间隔多少次迭代之后清理一次临时变 1. 如果你调用run的时候fetch了数据,ParallelExecutor将会在本轮迭代结束时清理临时变量。 2. 在一些NLP模型中,这个策略可能会造成的GPU显存不足,此时需要减少num_iteration_per_drop_scope的值。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -80,12 +82,12 @@ int型成员。该选项表示间隔多少次迭代之后清理一次临时变 exec_strategy.num_iteration_per_drop_scope = 10 -.. py:attribute:: num_iteration_per_run +num_iteration_per_run +''''''''' int型成员。它配置了当用户在python脚本中调用pe.run()时执行器会执行的迭代次数。Executor每次调用,会进行num_iteration_per_run次训练,它会使整体执行过程更快。默认值为1。 -代码示例 -::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/static/Executor_cn.rst b/docs/api/paddle/static/Executor_cn.rst index 83d2087dc23..07dfbbefb82 100644 --- a/docs/api/paddle/static/Executor_cn.rst +++ b/docs/api/paddle/static/Executor_cn.rst @@ -12,12 +12,17 @@ Executor Executor支持单GPU、多GPU以及CPU运行。 -参数: +参数 +:::::::::::: + - **place** (paddle.CPUPlace()|paddle.CUDAPlace(N)|None) – 该参数表示Executor执行所在的设备,这里的N为GPU对应的ID。当该参数为 `None` 时,PaddlePaddle会根据其安装版本设置默认的运行设备。当安装的Paddle为CPU版时,默认运行设置会设置成 `CPUPlace()` ,而当Paddle为GPU版时,默认运行设备会设置成 `CUDAPlace(0)` 。默认值为None。注意:多卡训练初始化Executor时也只用传入一个Place或None,其他API会处理使用的多卡,见 `多卡使用方式 `_ -返回:初始化后的 ``Executor`` 对象 +返回 +:::::::::::: +初始化后的 ``Executor`` 对象 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -71,14 +76,18 @@ Executor支持单GPU、多GPU以及CPU运行。 train_program).with_data_parallel(loss_name=loss.name) loss_data, = exe.run(compiled_prog, feed={"X": x}, fetch_list=[loss.name]) -.. py:method:: close() +方法 +:::::::::::: +close() +''''''''' 关闭执行器。该接口主要用于对于分布式训练,调用该接口后不可以再使用该执行器。该接口会释放在PServers上和目前Trainer有关联的资源。 -返回:无 +**返回** +无 -**示例代码** +**代码示例** .. code-block:: python @@ -90,11 +99,13 @@ Executor支持单GPU、多GPU以及CPU运行。 exe.close() -.. py:method:: run(program=None, feed=None, fetch_list=None, feed_var_name='feed', fetch_var_name='fetch', scope=None, return_numpy=True, use_program_cache=False, return_merged=True, use_prune=False) +run(program=None, feed=None, fetch_list=None, feed_var_name='feed', fetch_var_name='fetch', scope=None, return_numpy=True, use_program_cache=False, return_merged=True, use_prune=False) +''''''''' 执行指定的Program或者CompiledProgram。需要注意的是,执行器会执行Program或CompiledProgram中的所有算子,而不会根据fetch_list对Program或CompiledProgram中的算子进行裁剪。同时,需要传入运行该模型用到的scope,如果没有指定scope,执行器将使用全局scope,即paddle.static.global_scope()。 -参数: +**参数** + - **program** (Program|CompiledProgram) – 该参数为被执行的Program或CompiledProgram,如果未提供该参数,即该参数为None,在该接口内,main_program将被设置为paddle.static.default_main_program()。默认为:None。 - **feed** (list|dict) – 该参数表示模型的输入变量。如果是单卡训练,``feed`` 为 ``dict`` 类型,如果是多卡训练,参数 ``feed`` 可以是 ``dict`` 或者 ``list`` 类型变量,如果该参数类型为 ``dict`` ,feed中的数据将会被分割(split)并分送给多个设备(CPU/GPU),即输入数据被均匀分配到不同设备上;如果该参数类型为 ``list`` ,则列表中的各个元素都会直接分别被拷贝到各设备中。默认为:None。 - **fetch_list** (list) – 该参数表示模型运行之后需要返回的变量。默认为:None。 @@ -106,14 +117,15 @@ Executor支持单GPU、多GPU以及CPU运行。 - **return_merged** (bool) – 该参数表示是否按照执行设备维度将返回的计算结果(fetch list中指定的变量)进行合并。如果 ``return_merged`` 设为False,返回值类型是一个Tensor的二维列表( ``return_numpy`` 设为Fasle时)或者一个numpy.ndarray的二维列表( ``return_numpy`` 设为True时)。如果 ``return_merged`` 设为True,返回值类型是一个Tensor的一维列表( ``return_numpy`` 设为Fasle时)或者一个numpy.ndarray的一维列表( ``return_numpy`` 设为True时)。更多细节请参考示例代码2。如果返回的计算结果是变长的,请设置 ``return_merged`` 为False,即不按照执行设备维度合并返回的计算结果。该参数的默认值为True,但这仅是为了兼容性考虑,在未来的版本中默认值可能会更改为False。 - **use_prune** (bool) - 该参数表示输入Program是否会被裁剪。如果该参数为True,会根据feed和fetch_list裁剪Program,这意味着对生成fetch_list没有必要的算子和变量会被裁剪掉。默认为False,即算子和变量在运行过程不会被裁剪。注意如果Optimizer.minimize()返回的tuple被作为fetch_list参数,那么use_prune会被重载为True并且Program会被裁剪。 -返回:返回fetch_list中指定的变量值 +**返回** +返回fetch_list中指定的变量值 .. note:: 1. 如果是多卡训练,并且feed参数为dict类型,输入数据将被均匀分配到不同的卡上,例如:使用2块GPU训练,输入样本数为3,即[0, 1, 2],经过拆分之后,GPU0上的样本数为1,即[0],GPU1上的样本数为2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个batch的样本数是否少于当前可用的CPU核数或GPU卡数,如果是少于,建议丢弃该batch。 2. 如果可用的CPU核数或GPU卡数大于1,则fetch出来的结果为不同设备上的相同变量值(fetch_list中的变量)在第0维拼接在一起。 -**示例代码1** +**代码示例 1** .. code-block:: python @@ -142,7 +154,7 @@ Executor支持单GPU、多GPU以及CPU运行。 print(array_val) # [array([0.02153828], dtype=float32)] -**示例代码2** +**代码示例 2** .. code-block:: python @@ -210,11 +222,13 @@ Executor支持单GPU、多GPU以及CPU运行。 # [-0.44514108 -0.2345845 ]] -.. py:method:: infer_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False, fetch_list=None, fetch_info=None, print_period=100) +infer_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False, fetch_list=None, fetch_info=None, print_period=100) +''''''''' infer_from_dataset的文档与train_from_dataset几乎完全相同,只是在分布式训练中,推进梯度将在infer_from_dataset中禁用。 infer_from_dataset()可以非常容易地用于多线程中的评估。 -参数: +**参数** + - **program** (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的) - **dataset** (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的数据集。必要时请检查Dataset文件。默认为None - **scope** (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域 @@ -224,9 +238,10 @@ infer_from_dataset的文档与train_from_dataset几乎完全相同,只是在 - **fetch_info** (String List) – 每个变量的打印信息,默认为None - **print_period** (int) – 每两次打印之间间隔的mini-batches的数量,默认为100 -返回:None +**返回** +None -**示例代码** +**代码示例** .. code-block:: python @@ -248,13 +263,15 @@ infer_from_dataset的文档与train_from_dataset几乎完全相同,只是在 dataset=dataset) -.. py:method:: train_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False, fetch_list=None, fetch_info=None, print_period=100) +train_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False, fetch_list=None, fetch_info=None, print_period=100) +''''''''' 从预定义的数据集中训练。 数据集在paddle.fluid.dataset中定义。 给定程序(或编译程序),train_from_dataset将使用数据集中的所有数据样本。 输入范围可由用户给出。 默认情况下,范围是global_scope()。训练中的线程总数是thread。 训练中使用的线程数将是数据集中threadnum的最小值,同时也是此接口中线程的值。 可以设置debug,以便执行器显示所有算子的运行时间和当前训练任务的吞吐量。 注意:train_from_dataset将销毁每次运行在executor中创建的所有资源。 -参数: +**参数** + - **program** (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的) - **dataset** (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的数据集。必要时请检查Dataset文件。默认为None - **scope** (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域 @@ -264,9 +281,10 @@ infer_from_dataset的文档与train_from_dataset几乎完全相同,只是在 - **fetch_info** (String List) – 每个变量的打印信息,默认为None - **print_period** (int) – 每两次打印之间间隔的mini-batches的数量,默认为100 -返回:None +**返回** +None -**示例代码** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/static/ExponentialMovingAverage_cn.rst b/docs/api/paddle/static/ExponentialMovingAverage_cn.rst index cd86f05e61a..e93edd7c483 100644 --- a/docs/api/paddle/static/ExponentialMovingAverage_cn.rst +++ b/docs/api/paddle/static/ExponentialMovingAverage_cn.rst @@ -35,13 +35,17 @@ ExponentialMovingAverage COPY-FROM: paddle.static.ExponentialMovingAverage -.. py:method:: update() +方法 +:::::::::::: +update() +''''''''' ''''''''' 更新指数滑动平均,在训练过程中需调用此方法。 -.. py:method:: apply(executor, need_restore=True) +apply(executor, need_restore=True) +''''''''' ''''''''' 模型评测时,将滑动平均的结果作用在参数上。 @@ -51,7 +55,8 @@ COPY-FROM: paddle.static.ExponentialMovingAverage - **need_restore** (bool,可选) – 是否在结束后恢复原始参数,默认值为 ``True`` 。 -.. py:method:: restore(executor) +restore(executor) +''''''''' '''''''''' 恢复参数。 diff --git a/docs/api/paddle/static/InputSpec_cn.rst b/docs/api/paddle/static/InputSpec_cn.rst index 96e5ae8b831..e81f3b493e2 100644 --- a/docs/api/paddle/static/InputSpec_cn.rst +++ b/docs/api/paddle/static/InputSpec_cn.rst @@ -9,16 +9,23 @@ InputSpec 此接口常用于指定高层API中模型的输入张量信息,或动态图转静态图时,指定被 ``paddle.jit.to_static`` 装饰的forward函数每个输入参数的张量信息。 -参数: +参数 +:::::::::::: + - **shape** (list|tuple)- 声明维度信息的list或tuple,默认值为None。 - **dtype** (np.dtype|str,可选)- 数据类型,支持bool,float16,float32,float64,int8,int16,int32,int64,uint8。默认值为float32。 - **name** (str)- 被创建对象的名字,具体用法请参见 :ref:`api_guide_Name` 。 -返回:初始化后的 ``InputSpec`` 对象 +返回 +:::::::::::: +初始化后的 ``InputSpec`` 对象 -返回类型:InputSpec +返回类型 +:::::::::::: +InputSpec -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -30,17 +37,23 @@ InputSpec print(label) # InputSpec(shape=(-1, 1), dtype=VarType.INT64, name=label) -.. py:method:: from_tensor(tensor, name=None) +方法 +:::::::::::: +from_tensor(tensor, name=None) +''''''''' 该接口将根据输入Tensor的shape、dtype等信息构建InputSpec对象。 -参数: +**参数** + - **tensor** (Tensor) - 用于构建InputSpec的源Tensor - **name** (str): 被创建对象的名字,具体用法请参见 :ref:`api_guide_Name` 。 默认为:None。 -返回:根据Tensor信息构造的 ``InputSpec`` 对象 +**返回** +根据Tensor信息构造的 ``InputSpec`` 对象 -返回类型:InputSpec +**返回类型** +InputSpec **代码示例** @@ -56,17 +69,21 @@ InputSpec print(x_spec) # InputSpec(shape=(2, 2), dtype=VarType.FP32, name=x) -.. py:method:: from_numpy(ndarray, name=None) +from_numpy(ndarray, name=None) +''''''''' 该接口将根据输入numpy ndarray的shape、dtype等信息构建InputSpec对象。 -参数: +**参数** + - **ndarray** (Tensor) - 用于构建InputSpec的numpy ndarray - **name** (str): 被创建对象的名字,具体用法请参见 :ref:`api_guide_Name` 。 默认为:None。 -返回:根据ndarray信息构造的 ``InputSpec`` 对象 +**返回** +根据ndarray信息构造的 ``InputSpec`` 对象 -返回类型:InputSpec +**返回类型** +InputSpec **代码示例** @@ -81,15 +98,19 @@ InputSpec print(x_spec) # InputSpec(shape=(2, 2), dtype=VarType.FP32, name=x) -.. py:method:: batch(batch_size) +batch(batch_size) +''''''''' 该接口将batch_size插入到当前InputSpec对象的shape元组最前面。 -参数: +**参数** + - **batch_size** (int) - 被插入的batch size整型数值 -返回: 更新shape信息后的 ``InputSpec`` 对象 +**返回** + 更新shape信息后的 ``InputSpec`` 对象 -返回类型:InputSpec +**返回类型** +InputSpec **代码示例** @@ -103,13 +124,16 @@ InputSpec print(x_spec) # InputSpec(shape=(4, 64), dtype=VarType.FP32, name=x) -.. py:method:: unbatch() +unbatch() +''''''''' 该接口将当前InputSpec对象shape[0]值移除。 -返回: 更新shape信息后的 ``InputSpec`` 对象 +**返回** + 更新shape信息后的 ``InputSpec`` 对象 -返回类型:InputSpec +**返回类型** +InputSpec **代码示例** diff --git a/docs/api/paddle/static/IpuCompiledProgram_cn.rst b/docs/api/paddle/static/IpuCompiledProgram_cn.rst index 934463dc9ff..9e006bb639a 100644 --- a/docs/api/paddle/static/IpuCompiledProgram_cn.rst +++ b/docs/api/paddle/static/IpuCompiledProgram_cn.rst @@ -24,22 +24,22 @@ IpuCompiledProgram,初始化后的 ``IpuCompiledProgram`` 对象 COPY-FROM: paddle.static.IpuCompiledProgram -.. py:method:: compile(self, feed_list, fetch_list) +方法 +:::::::::::: +compile(self, feed_list, fetch_list) +''''''''' 该接口用于将Program进行编译,以便在ipu上运行。用户可以通过 `feed_list` 、`fetch_list` 传入计算图输入和输出的名字。 -参数 -::::::::: +**参数** - **feed_list** (list): 该参数为模型的输入变量的名字。 - **fetch_list** (list): 模型运行之后需要返回的变量的名字。 -返回 -::::::::: +**返回** Program,编译之后的 ``Program`` 对象 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuCompiledProgram.compile diff --git a/docs/api/paddle/static/IpuStrategy_cn.rst b/docs/api/paddle/static/IpuStrategy_cn.rst index b1360385a74..e8afbd2eb08 100644 --- a/docs/api/paddle/static/IpuStrategy_cn.rst +++ b/docs/api/paddle/static/IpuStrategy_cn.rst @@ -19,133 +19,133 @@ IpuStrategy COPY-FROM: paddle.static.IpuStrategy -.. py:method:: set_graph_config(self, num_ipus, is_training, micro_batch_size, enable_manual_shard) +方法 +:::::::::::: +set_graph_config(self, num_ipus, is_training, micro_batch_size, enable_manual_shard) +''''''''' 该接口用于向IpuStrategy实例传递IPU构图的Graph配置。 -参数 -::::::::: +**参数** - **num_ipus** (int,可选)- 指定IPU devices的个数,默认值为1,表示仅用一个IPU。 - **is_training** (bool,可选)- 声明是训练还是推理,默认值为True,表示使用训练模式。 - **micro_batch_size** (int,可选)- 当计算图输入的micro_batch_size可变时,指定计算图中输入micro_batch_size,默认值为1,表示如果micro_batch_size可变,将默认置1。 - **enable_manual_shard** (bool,可选)- 是否使能分割计算图到不同IPU进行运算。仅支持当num_ipus > 1时,enable_manual_shard可以置为True。默认值为False,表示不使能该功能。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.set_graph_config -.. py:method:: set_pipelining_config(self, enable_pipelining, batches_per_step, enable_gradient_accumulation, accumulation_factor) +set_pipelining_config(self, enable_pipelining, batches_per_step, enable_gradient_accumulation, accumulation_factor) +''''''''' 该接口用于向IpuStrategy实例传递IPU构图的子图数据流水线配置。 -参数 -::::::::: +**参数** - **enable_pipelining** (bool,可选)- 是否使能子图之间的数据流水线。仅支持当enable_manual_shard=True时,enable_pipelining可以置为True。默认值为False,表示不使能该功能。 - **batches_per_step** (int,可选)- 指定数据流水线每次运算多少个batch的数据。默认值为1,表示不使能数据流水线功能。 - **enable_gradient_accumulation** (bool,可选)- 是否使能梯度累积,只用于训练模式。默认值为Flase,表示不使能梯度累积功能。 - **accumulation_factor** (int,可选)- 指定累积运算多少个batch更新一次权重。默认值为1,表示不使能权重累积更新功能。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.set_pipelining_config -.. py:method:: set_precision_config(self, enable_fp16) +set_precision_config(self, enable_fp16) +''''''''' 该接口用于向IpuStrategy实例传递IPU构图的精度配置。 -参数 -::::::::: +**参数** - **enable_fp16** (bool)- 是否使能fp16运算模式并将fp32转换为fp16。默认值为False,表示不使能fp16运算模式。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.set_precision_config -.. py:method:: add_custom_op(self, paddle_op, popart_op, domain, version) +add_custom_op(self, paddle_op, popart_op, domain, version) +''''''''' 该接口用于向IpuStrategy实例传递PopART自定义算子的信息。 -参数 -::::::::: +**参数** - **paddle_op** (str)- 待添加的Paddle自定义算子在的名称,根据Paddle自定义算子的定义设置此参数。 - **popart_op** (str,可选)- 待添加的PopART自定义算子的名称,默认值为None,表示和paddle_op相同,根据PopART自定算子的定义设置此参数。 - **domain** (str,可选)- 待添加的PopART自定义算子的domain属性,默认值为"custom.ops",根据PopART自定算子的定义设置此参数。 - **version** (int,可选)- 待添加的PopART自定义算子的version属性,默认值为1,根据PopART自定算子的定义设置此参数。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.add_custom_op -.. py:method:: set_options(self, options) +set_options(self, options) +''''''''' 批量向IpuStrategy实例传递参数。 -参数 -::::::::: +**参数** - **options** (dict)- 需要传递的参数字典。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.set_options -.. py:method:: get_option(self, option) +get_option(self, option) +''''''''' 获取IpuStrategy实例的某一参数。 -参数 -::::::::: +**参数** - **option** (str)- 需要获取参数的名称。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.get_option -.. py:method:: enable_pattern(self, pattern) +enable_pattern(self, pattern) +''''''''' 启用某一PopART Pattern。 -参数 -::::::::: +**参数** - **pattern** (str)- 需要开启的Pattern名称。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.enable_pattern -.. py:method:: disable_pattern(self, pattern) +disable_pattern(self, pattern) +''''''''' 禁用某一PopART Pattern。 -参数 -::::::::: +**参数** - **pattern** (str)- 需要禁用的Pattern名称。 -代码示例 -::::::::: +**代码示例** COPY-FROM: paddle.static.IpuStrategy.disable_pattern 属性 :::::::::::: -.. py:attribute:: num_ipus +属性 +:::::::::::: +num_ipus +''''''''' 返回IpuStrategy实例中的IPU设备个数,类型为 ``Int``。 -.. py:attribute:: is_training +is_training +''''''''' 返回IpuStrategy实例中的计算模式是训练模式或推理模式,类型为 ``Bool``。 -.. py:attribute:: enable_pipelining +enable_pipelining +''''''''' 返回IpuStrategy实例中是否使能数据流水线功能,类型为 ``Bool``。 -.. py:attribute:: enable_fp16 +enable_fp16 +''''''''' 返回IpuStrategy实例中是否使能float16计算图,类型为 ``Bool``。 diff --git a/docs/api/paddle/static/ParallelExecutor_cn.rst b/docs/api/paddle/static/ParallelExecutor_cn.rst index e3807e17eaf..1c1c6b6a610 100644 --- a/docs/api/paddle/static/ParallelExecutor_cn.rst +++ b/docs/api/paddle/static/ParallelExecutor_cn.rst @@ -11,7 +11,9 @@ ParallelExecutor ``ParallelExecutor`` 是 ``Executor`` 的一个升级版本,可以支持基于数据并行的多节点模型训练和测试。如果采用数据并行模式, ``ParallelExecutor`` 在构造时会将参数分发到不同的节点上,并将输入的 ``Program`` 拷贝到不同的节点,在执行过程中,各个节点独立运行模型,将模型反向计算得到的参数梯度在多个节点之间进行聚合,之后各个节点独立的进行参数的更新。如果使用GPU运行模型,即 ``use_cuda=True`` ,节点指代GPU, ``ParallelExecutor`` 将自动获取在当前机器上可用的GPU资源,用户也可以通过在环境变量设置可用的GPU资源,例如:希望使用GPU0、GPU1计算,export CUDA_VISIBLEDEVICES=0,1;如果在CPU上进行操作,即 ``use_cuda=False`` ,节点指代CPU,**注意:此时需要用户在环境变量中手动添加 CPU_NUM ,并将该值设置为CPU设备的个数,例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1**。 -参数: +参数 +:::::::::::: + - **use_cuda** (bool) – 该参数表示是否使用GPU执行。 - **loss_name** (str) - 该参数为模型最后得到的损失变量的名字。**注意:如果是数据并行模型训练,必须设置loss_name,否则计算结果可能会有问题。** 默认为:None。 - **main_program** (Program) – 需要被执行的Program 。如果未提供该参数,即该参数为None,在该接口内,main_program将被设置为paddle.static.default_main_program()。 默认为:None。 @@ -22,16 +24,21 @@ ParallelExecutor - **trainer_id** (int) – 进行GPU分布式训练时需要设置该参数。该参数必须与num_trainers参数同时使用。trainer_id指明是当前所在节点的 “rank”(层级)。trainer_id从0开始计数。默认为:0。 - **scope** (Scope) – 指定执行Program所在的作用域。默认为:paddle.static.global_scope()。 -返回:初始化后的 ``ParallelExecutor`` 对象 +返回 +:::::::::::: +初始化后的 ``ParallelExecutor`` 对象 -抛出异常:``TypeError`` +抛出异常 +:::::::::::: +``TypeError`` - 如果提供的参数 ``share_vars_from`` 不是 ``ParallelExecutor`` 类型的,将会抛出此异常。 .. note:: 1. 如果只是进行多卡测试,不需要设置loss_name以及share_vars_from。 2. 如果程序中既有模型训练又有模型测试,则构建模型测试所对应的ParallelExecutor时必须设置share_vars_from,否则模型测试和模型训练所使用的参数是不一致。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python @@ -78,19 +85,25 @@ ParallelExecutor loss_data, = test_exe.run(feed={"X": x}, fetch_list=[loss.name]) -.. py:method:: run(fetch_list, feed=None, feed_dict=None, return_numpy=True) +方法 +:::::::::::: +run(fetch_list, feed=None, feed_dict=None, return_numpy=True) +''''''''' 该接口用于运行当前模型,需要注意的是,执行器会执行Program中的所有算子,而不会根据fetch_list对Program中的算子进行裁剪。 -参数: +**参数** + - **fetch_list** (list) – 该变量表示模型运行之后需要返回的变量。 - **feed** (list|dict) – 该变量表示模型的输入变量。如果该参数类型为 ``dict`` ,feed中的数据将会被分割(split)并分送给多个设备(CPU/GPU);如果该参数类型为 ``list`` ,则列表中的各个元素都会直接分别被拷贝到各设备中。默认为:None。 - **feed_dict** – 该参数已经停止使用。默认为:None。 - **return_numpy** (bool) – 该变量表示是否将fetched tensor转换为numpy。默认为:True。 -返回:返回fetch_list中指定的变量值 +**返回** +返回fetch_list中指定的变量值 + +**抛出异常** -抛出异常: - ``ValueError`` - 如果feed参数是list类型,但是它的长度不等于可用设备(执行场所)的数目,再或者给定的feed不是dict类型,抛出此异常 - ``TypeError`` - 如果feed参数是list类型,但是它里面的元素不是dict类型时,抛出此异常 @@ -98,7 +111,7 @@ ParallelExecutor 1. 如果feed参数为dict类型,输入数据将被均匀分配到不同的卡上,例如:使用2块GPU训练,输入样本数为3,即[0, 1, 2],经过拆分之后,GPU0上的样本数为1,即[0],GPU1上的样本数为2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个batch的样本数是否少于当前可用的CPU核数或GPU卡数,如果是少于,建议丢弃该batch。 2. 如果可用的CPU核数或GPU卡数大于1,则fetch出来的结果为不同设备上的相同变量值(fetch_list中的变量)在第0维拼接在一起。 -**示例代码** +**代码示例** .. code-block:: python import paddle @@ -147,11 +160,13 @@ ParallelExecutor loss_data, = train_exe.run(feed=[{"X": x}, {"X": x2}], fetch_list=[loss.name]) -.. py:method:: drop_local_exe_scopes() +drop_local_exe_scopes() +''''''''' 立即清除scope中的临时变量。模型运行过程中,生成的中间临时变量将被放到local execution scope中,为了避免对临时变量频繁的申请与释放,ParallelExecutor中采取的策略是间隔若干次迭代之后清理一次临时变量。ParallelExecutor在ExecutionStrategy中提供了num_iteration_per_drop_scope选项,该选项表示间隔多少次迭代之后清理一次临时变量。如果num_iteration_per_drop_scope值为100,但是希望在迭代50次之后清理一次临时变量,可以通过手动调用该接口。 -返回:无 +**返回** +无 **代码示例** diff --git a/docs/api/paddle/static/Print_cn.rst b/docs/api/paddle/static/Print_cn.rst index 2d07e4ed52d..72a4057efc8 100644 --- a/docs/api/paddle/static/Print_cn.rst +++ b/docs/api/paddle/static/Print_cn.rst @@ -15,7 +15,9 @@ Print 封装传入的Tensor,以便无论何时访问Tensor,都会打印信息message和Tensor的当前值。 -参数: +参数 +:::::::::::: + - **input** (Variable)-将要打印的Tensor - **summarize** (int)-打印Tensor中的元素数目,如果值为-1则打印所有元素。默认值为20 - **message** (str)-打印Tensor信息前自定义的字符串类型消息,作为前缀打印 @@ -26,12 +28,15 @@ Print - **print_tensor_lod** (bool)-可选,指明是否打印Tensor的LoD信息,默认为True - **print_phase** (str)-可选,指明打印的阶段,包括 ``forward`` , ``backward`` 和 ``both`` ,默认为 ``both`` 。设置为 ``forward`` 时,只打印Tensor的前向信息;设置为 ``backward`` 时,只打印Tensor的梯度信息;设置为 ``both`` 时,则同时打印Tensor的前向信息以及梯度信息。 -返回:输出Tensor +返回 +:::::::::::: +输出Tensor .. note:: 输入和输出是两个不同的Variable,在接下来的过程中,应该使用输出Variable而非输入Variable,否则打印层将失去backward的信息。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/Program_cn.rst b/docs/api/paddle/static/Program_cn.rst index e24ebf87404..81a05f3f8b7 100644 --- a/docs/api/paddle/static/Program_cn.rst +++ b/docs/api/paddle/static/Program_cn.rst @@ -39,23 +39,24 @@ Program,创建的空的Program print("start up program is: {}".format(startup_program)) -.. py:method:: to_string(throw_on_error, with_details=False) +方法 +:::::::::::: +to_string(throw_on_error, with_details=False) +''''''''' 将Program转换为字符串 -参数 -:::::::::: +**参数** - **throw_on_error** (bool) - 是否在没有设置必需字段时抛出异常。 - **with_details** (bool) - 值为true时,打印更多关于变量和参数的信息,如trainable, optimize_attr等 -返回 -:::::::::: +**返回** str,由Program转换得到的字符串 -抛出异常: ``ValueError`` - 当 ``throw_on_error == true`` ,当没有设置任何必需的字段时,抛出 ``ValueError`` 。 +**抛出异常** + ``ValueError`` - 当 ``throw_on_error == true`` ,当没有设置任何必需的字段时,抛出 ``ValueError`` 。 -代码示例 -:::::::::: +**代码示例** .. code-block:: python @@ -72,7 +73,8 @@ str,由Program转换得到的字符串 print("program string without detail: {}".format(prog_string)) print("program string with detail: {}".format(prog_string_with_details)) -.. py:method:: clone(for_test=False) +clone(for_test=False) +''''''''' .. note:: 1. ``Program.clone()`` 方法不会克隆例如 :ref:`cn_api_fluid_io_DataLoader` 这样的数据读取相关的部分,这可能会造成的数据读取部分在克隆后丢失; @@ -103,17 +105,14 @@ str,由Program转换得到的字符串 optimizer = paddle.optimizer.Momentum(learning_rate=0.01, momentum=0.9) optimizer.minimize(loss) -参数 -:::::::::: +**参数** - **for_test** (bool) – 取值为True时,clone方法内部会把operator的属性 ``is_test`` 设置为 True, 并裁剪反向OP和参数优化OP,默认值为False -返回 -:::::::::: +**返回** Program,当 ``for_test=True`` 时返回一个新的、仅包含当前Program前向内容的Program。否则返回一个新的,和当前Program完全相同的Program -代码示例 -:::::::::: +**代码示例** .. note:: Program在clone后的顺序可能不同,这不会影响的训练或测试进程。在下面的示例中,我们提供了一个简单的方法print_prog(Program)来打印程序描述,以确保clone后仍能得到同样的打印结果: @@ -235,21 +234,19 @@ Program,当 ``for_test=True`` 时返回一个新的、仅包含当前Program 上边两个代码片段生成和打印的Program是一样的。 -.. py:staticmethod:: parse_from_string(binary_str) +**static** parse_from_string(binary_str) +''''''''' 通过对 `protobuf `_ 的反序列化,转换成Program -参数 -::::::::: +**参数** - **binary_str_type** (str) – `protobuf `_ 二进制字符串 -返回 -::::::::: +**返回** Program,反序列化后的 Program -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -273,16 +270,17 @@ Program,反序列化后的 Program print(static.default_main_program()) print(prog_restored) -.. py:attribute:: num_blocks +属性 +:::::::::::: +num_blocks +''''''''' 该Program中的 :ref:`api_guide_Block` 的个数 -返回 -::::::::: +**返回** int,该Program中的 :ref:`api_guide_Block` 的个数 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -298,19 +296,18 @@ int,该Program中的 :ref:`api_guide_Block` 的个数 # print result: # 1 -.. py:attribute:: random_seed +random_seed +''''''''' .. note:: 必须在相关OP被添加之前设置。 程序中随机运算符的默认随机种子。0意味着随机生成随机种子。 -返回 -::::::::: +**返回** int64,该Program中当前正在使用的random seed -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -335,16 +332,15 @@ int64,该Program中当前正在使用的random seed ## 1 ## the random seed is change to 1 -.. py:method:: global_block() +global_block() +''''''''' 获取该Program的第一个 :ref:`api_guide_Block` 。 -返回 -::::::::: +**返回** :ref:`api_guide_Block`,该Program的第一个 :ref:`api_guide_Block` -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -358,20 +354,18 @@ int64,该Program中当前正在使用的random seed print(gb_block) -.. py:method:: block(index) +block(index) +''''''''' 返回该Program中 , ``index`` 指定的 :ref:`api_guide_Block` 。 ``index`` 类型为int -参数 -::::::::: +**参数** - **index** (int) - 需要获取的 :ref:`api_guide_Block` 的index -返回 -::::::::: +**返回** :ref:`api_guide_Block`,该Program中index对应的那个 :ref:`api_guide_Block` -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -384,16 +378,15 @@ int64,该Program中当前正在使用的random seed block_0 = prog.block(0) print(block_0) -.. py:method:: current_block() +current_block() +''''''''' 获取当前 :ref:`api_guide_Block` 。当前 :ref:`api_guide_Block` 是用来添加OP的。 -返回 -::::::::: +**返回** :ref:`api_guide_Block`,该Program中用户当前所在的 :ref:`api_guide_Block` -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -406,16 +399,15 @@ int64,该Program中当前正在使用的random seed current_blk = prog.current_block() print(current_blk) -.. py:method:: list_vars() +list_vars() +''''''''' 获取当前Program中所有变量。返回值是一个可迭代对象(iterable object)。 -返回 -::::::::: +**返回** Generator,会yield每个Program中的变量 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -433,16 +425,15 @@ Generator,会yield每个Program中的变量 # var img : paddle.VarType.LOD_TENSOR.shape(-1, 1, 28, 28).astype(VarType.FP32) # var label : paddle.VarType.LOD_TENSOR.shape(-1, 1).astype(VarType.INT64) -.. py:method:: all_parameters() +all_parameters() +''''''''' 获取当前Program中所有的 :ref:`api_guide_parameter` 。返回值是一个列表。 -返回 -::::::::: +**返回** list[ :ref:`api_guide_parameter` ],一个包含当前Program中所有参数的列表。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -470,21 +461,19 @@ list[ :ref:`api_guide_parameter` ],一个包含当前Program中所有参数的 # including name, type and persistable, you can access to specific # property of a parameter, such as param.name, param.type -.. py:method:: state_dict(mode='all', scope=None) +state_dict(mode='all', scope=None) +''''''''' 获取当前 ``Program`` 持久性变量。并将所有持久性变量存放在dict结构中。 -参数 -::::::::: +**参数** - mode (str, 可选) - 获取何种持久性变量。目前支持以下选项: (1) 'opt':获得优化器的持久性变量放在dict结构中; (2) 'param':获得组网中的持久性变量放在dict结构中,不包含优化器中的持久性变量; (3) 'all':获得组网和优化器中的持久性变量放在dict结构中;默认值为'all'。 - scope (Scope, 可选) - 如果scope为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并从中获取 ``state_dict`` ;否则从指定的 ``scope`` 获取 ``state_dict`` 。默认值为 ``None`` 。 -返回 -::::::::: +**返回** dict, 包含持久性变量的dict,键值是持久性变量的名字,值为持久性变量。 -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -505,21 +494,19 @@ dict, 包含持久性变量的dict,键值是持久性变量的名字,值 path = "./temp/model.pdparams" paddle.save(prog.state_dict(), path) -.. py:method:: set_state_dict(state_dict, scope=None) +set_state_dict(state_dict, scope=None) +''''''''' 将 ``state_dict`` 中的持久性变量设置到 ``Program`` 中。 -参数 -::::::::: +**参数** - state_dict (dict) - 包含持久性变量的字典。键值是持久性变量的名字,值为持久性变量。 - scope (Scope, 可选) - 如果scope为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并将 ``state_dict`` 中久性变量设置到这个作用域中;否则将 ``state_dict`` 设置到指定的 ``scope`` 中。默认值为 ``None`` 。 -返回 -::::::::: +**返回** None -代码示例 -::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/static/Variable_cn.rst b/docs/api/paddle/static/Variable_cn.rst index 43cb31bff7d..7f783814627 100644 --- a/docs/api/paddle/static/Variable_cn.rst +++ b/docs/api/paddle/static/Variable_cn.rst @@ -19,7 +19,8 @@ Variable 如果您希望创建一个 :ref:`api_guide_Variable` 那么可以参考如下示例: -**示例代码:** +代码示例 +:::::::::::: .. code-block:: python import paddle @@ -32,7 +33,10 @@ Variable shape=[-1, 23, 48], dtype='float32') -.. py:method:: to_string(throw_on_error, with_details=True) +方法 +:::::::::::: +to_string(throw_on_error, with_details=True) +''''''''' 获取该 :ref:`api_guide_Variable` 的静态描述字符串。 @@ -40,13 +44,16 @@ Variable - **throw_on_error** (bool) - 是否在没有设置必需字段时抛出异常。 - **with_details** (bool) - 值为true时,打印更多关于 :ref:`api_guide_Variable` 的信息,如 ``error_clip`` , ``stop_gradient`` 等。 -返回:用于静态描述该 :ref:`api_guide_Variable` 的字符串。 +**返回** +用于静态描述该 :ref:`api_guide_Variable` 的字符串。 -返回类型: str +**返回类型** + str -抛出异常: ``ValueError`` - 当 ``throw_on_error == true`` ,当没有设置任何必需的字段时,抛出 ``ValueError`` 。 +**抛出异常** + ``ValueError`` - 当 ``throw_on_error == true`` ,当没有设置任何必需的字段时,抛出 ``ValueError`` 。 -**示例代码** +**代码示例** .. code-block:: python import paddle @@ -64,15 +71,18 @@ Variable print(new_variable.to_string(True, True)) -.. py:method:: clone(self) +clone(self) +''''''''' 返回一个新的 ``Variable`` , 其复制原 ``Variable`` 并且新的 ``Variable`` 也被保留在计算图中,即复制的新 ``Variable`` 也参与反向计算。调用 ``out = variable.clone()`` 与 ``out = assign(variable)`` 效果一样。 -返回:复制的新 ``Variable``。 +**返回** +复制的新 ``Variable``。 -返回类型: ``Variable`` +**返回类型** + ``Variable`` -**示例代码** +**代码示例** .. code-block:: python import paddle @@ -86,19 +96,23 @@ Variable y = x.clone() -.. py:method:: detach(self) +detach(self) +''''''''' 返回一个新的 ``Variable`` , 并从当前计算图分离 -返回:与当前计算图分离的 ``Variable``。 +**返回** +与当前计算图分离的 ``Variable``。 -返回类型: ``Variable`` +**返回类型** + ``Variable`` -**示例代码** +**代码示例** COPY-FROM: paddle.static.Variable.detach -.. py:method:: astype(self, dtype) +astype(self, dtype) +''''''''' 将该 :ref:`api_guide_Variable` 中的数据转换成目标 ``Dtype``。 @@ -107,11 +121,13 @@ COPY-FROM: paddle.static.Variable.detach - **dtype** (int | float | float64) - 希望转换成的 ``Dtype``。 -返回:一个全新的转换了 ``Dtype`` 的 :ref:`api_guide_Variable`。 +**返回** +一个全新的转换了 ``Dtype`` 的 :ref:`api_guide_Variable`。 -返回类型: :ref:`api_guide_Variable` +**返回类型** + :ref:`api_guide_Variable` -**示例代码** +**代码示例** .. code-block:: python import paddle @@ -126,20 +142,18 @@ COPY-FROM: paddle.static.Variable.detach print("new var's dtype is: {}".format(new_variable.dtype)) -.. py:method:: get_value(scope=None) +get_value(scope=None) +''''''''' 获取 :ref:`api_guide_Variable` 的值。 -参数 -::::::::: +**参数** - scope ( Scope,可选 ) - 从指定的 ``scope`` 中获取 :ref:`api_guide_Variable` 的值。如果 ``scope`` 为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并从中获取 :ref:`api_guide_Variable` 的值;否则,从指定的 ``scope`` 中获取 :ref:`api_guide_Variable` 的值。 -返回 -::::::::: +**返回** Tensor, :ref:`api_guide_Variable` 的值 -代码示例 -:::::::::: +**代码示例** .. code-block:: python @@ -170,21 +184,19 @@ Tensor, :ref:`api_guide_Variable` 的值 var.set_value(t_load) -.. py:method:: set_value(value, scope=None) +set_value(value, scope=None) +''''''''' 将 ``value`` 设置为 :ref:`api_guide_Variable` 的值。 -参数 -::::::::: +**参数** - value ( Tensor|ndarray ) - :ref:`api_guide_Variable` 的值。 - scope ( Scope,可选 ) - 将 :ref:`api_guide_Variable` 的值设置到指定的 ``scope`` 中。如果 ``scope`` 为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并将 :ref:`api_guide_Variable` 的值设置到这个用域实例中;否则,将 :ref:`api_guide_Variable` 的值设置到指定的 ``scope`` 中。 -返回 -::::::::: +**返回** None -代码示例 -:::::::::: +**代码示例** .. code-block:: python @@ -215,27 +227,33 @@ None var.set_value(t_load) -.. py:method:: size(self) +size(self) +''''''''' 返回该 :ref:`api_guide_Variable` 中的数据元素数量, 结果是一个shape为[1]的int64的 ``Variable`` 。 -返回: 单元元素数量 +**返回** + 单元元素数量 -返回类型: ``Variable`` +**返回类型** + ``Variable`` -**示例代码** +**代码示例** COPY-FROM: paddle.static.Variable.size -.. py:method:: ndimension(self) +ndimension(self) +''''''''' 返回该 :ref:`api_guide_Variable` 的维度,也称作rank。 -返回: ``Variable`` 的维度 +**返回** + ``Variable`` 的维度 -返回类型: ``Variable`` +**返回类型** + ``Variable`` -**示例代码** +**代码示例** .. code-block:: python import paddle @@ -247,15 +265,18 @@ COPY-FROM: paddle.static.Variable.size # Variable's number of dimension: 2 -.. py:method:: dim(self) +dim(self) +''''''''' 返回该 :ref:`api_guide_Variable` 的维度,也称作rank。 -返回: ``Variable`` 的维度 +**返回** + ``Variable`` 的维度 -返回类型: ``Variable`` +**返回类型** + ``Variable`` -**示例代码** +**代码示例** .. code-block:: python import paddle @@ -270,7 +291,10 @@ COPY-FROM: paddle.static.Variable.size 属性 :::::::::::: -.. py:attribute:: persistable +属性 +:::::::::::: +persistable +''''''''' **注意:该属性我们即将废弃,此介绍仅为了帮助用户理解概念, 1.6版本后用户可以不再关心该属性** @@ -278,38 +302,44 @@ COPY-FROM: paddle.static.Variable.size 此 :ref:`api_guide_Variable` 是否是长期存活的 :ref:`api_guide_Variable`。 -.. py:attribute:: name +name +''''''''' **注意:静态图模式下,同一个** :ref:`api_guide_Block` **中的两个或更多** :ref:`api_guide_Variable` **拥有相同** ``name`` **将意味着他们会共享相同的内容。通常我们使用这种方式来实现参数共享。** 此 :ref:`api_guide_Variable` 的名字(str)。 -.. py:attribute:: shape +shape +''''''''' **注意:该属性是只读属性。** 此 :ref:`api_guide_Variable` 在每个维度上的元素数量。 -.. py:attribute:: dtype +dtype +''''''''' **注意:该属性是只读属性。** 此 :ref:`api_guide_Variable` 的实际数据类型。 -.. py:attribute:: lod_level +lod_level +''''''''' **注意:该属性是只读属性。** 此 :ref:`api_guide_Variable` 的 ``LoD`` 信息,关于 ``LoD`` 可以参考 :ref:`api_fluid_LoDTensor` 相关内容。 -.. py:attribute:: type +type +''''''''' **注意:该属性是只读属性。** 此 :ref:`api_guide_Variable` 的内存模型,例如是::ref:`api_fluid_LoDTensor` ,或者SelectedRows。 -.. py:attribute:: ndim +ndim +''''''''' **注意:该属性是只读属性。** diff --git a/docs/api/paddle/static/WeightNormParamAttr_cn.rst b/docs/api/paddle/static/WeightNormParamAttr_cn.rst index e87768deb0d..9ce3ada1296 100644 --- a/docs/api/paddle/static/WeightNormParamAttr_cn.rst +++ b/docs/api/paddle/static/WeightNormParamAttr_cn.rst @@ -17,7 +17,9 @@ WeightNormParamAttr 该类定义了权重归一化(Weight Normalization)的参数。权重归一化可以将神经网络中权重向量的长度与其方向解耦,详细的定义与实现可以参考论文:`Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks `_ -参数: +参数 +:::::::::::: + - **dim** (int,可选) - 进行归一化操作(norm)的切片所在维度,是小于权重Tensor rank的非负数。比如卷积的权重shape是 :math:`[cout, cin, kh, kw]` , rank是4,则dim可以选0,1,2,3;fc的权重shape是 :math:`[cout, cin]` ,rank是2,dim可以选0,1。 dim 默认为None,如果为None就对所有元素做归一化(norm)。 - **name** (None|str,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认为None。 - **initializer** (Initializer,可选) - 初始化参数方法,例如 ``initializer = fluid.nn.initializer.Constant(1.0)`` 。默认为None,如果为None则使用默认初始化函数 `Xavier()` 。 @@ -30,7 +32,8 @@ WeightNormParamAttr - **need_clip** (bool) - 可选,指明参数梯度是否需要在优化器中进行clip,默认为True。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/accuracy_cn.rst b/docs/api/paddle/static/accuracy_cn.rst index 9f1ffb8de9f..30d0366884a 100755 --- a/docs/api/paddle/static/accuracy_cn.rst +++ b/docs/api/paddle/static/accuracy_cn.rst @@ -12,17 +12,22 @@ accuracy layer。 参考 https://en.wikipedia.org/wiki/Precision_and_recall 使用输入和标签计算准确率。 如果正确的标签在topk个预测值里,则计算结果加1。注意:输出正确率的类型由input类型决定,input和lable的类型可以不一样。 -参数: +参数 +:::::::::::: + - **input** (Tensor|LoDTensor)-数据类型为float32,float64。输入为网络的预测值。shape为 ``[sample_number, class_dim]`` 。 - **label** (Tensor|LoDTensor)-数据类型为int64,int32。输入为数据集的标签。shape为 ``[sample_number, 1]`` 。 - **k** (int64|int32) - 取每个类别中k个预测值用于计算。 - **correct** (int64|int32)-正确预测值的个数。 - **total** (int64|int32)-总共的预测值。 -返回: Tensor,计算出来的正确率,数据类型为float32。 +返回 +:::::::::::: + Tensor,计算出来的正确率,数据类型为float32。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/append_backward_cn.rst b/docs/api/paddle/static/append_backward_cn.rst index e8fe3aa0897..624d88efd96 100644 --- a/docs/api/paddle/static/append_backward_cn.rst +++ b/docs/api/paddle/static/append_backward_cn.rst @@ -16,20 +16,29 @@ append_backward 在大多数情况下,用户无需手动调用此接口,它将由优化器(``Optimizer``)的 ``minimize`` 函数自动调用。 -参数: +参数 +:::::::::::: + - **loss** (Tensor) - 表示网络损失的 Tensor 。 - **parameter_list** (list [Tensor|str],可选)- 指定优化器需要更新的参数或参数名称列表。如果为 ``None`` ,则将更新所有参数。默认值为 ``None``。 - **no_grad_set** (set [Tensor|str],可选)- 在 `block0` ( :ref:`api_guide_Block` ) 中要忽略梯度的 Tensor 的名字的集合。所有的 :ref:`api_guide_Block` 中带有 ``stop_gradient = True`` 的所有 Tensor 的名字都会被自动添加到此集合中。如果该参数不为 ``None``,则会将该参数集合的内容添加到默认的集合中。默认值为 ``None``。 - **callbacks** (list [callable object],可选)- 回调函数列表。用于在反向传播构建中执行一些自定义作业。每次将新的梯度 OP 添加到程序中时,将调用其中的所有可调用对象。可调用对象必须有两个输入参数: :ref:`api_guide_Block` 和 ``context`` 。 :ref:`api_guide_Block` 是将被添加到新梯度算子的块。 ``context`` 是一个映射,其键是梯度 Tensor 名,值是对应的原始 Tensor 。除此之外, ``context`` 还有另一个特殊的键值对:键是字符串 ``__ current_op_desc__`` ,值是刚刚触发可调用对象的梯度 OP 的 ``op_desc`` 。默认值为 ``None``。 -返回: 参数及其梯度 Tensor 的元组的列表。元组的第一个值为参数,第二个值为该参数的梯度 Tensor 。 +返回 +:::::::::::: + 参数及其梯度 Tensor 的元组的列表。元组的第一个值为参数,第二个值为该参数的梯度 Tensor 。 -返回类型: list[(Tensor , Tensor)] +返回类型 +:::::::::::: + list[(Tensor , Tensor)] -抛出: +抛出异常 +:::::::::::: + - ``AssertionError`` - 如果 loss 不是 Tensor 的实例。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/auc_cn.rst b/docs/api/paddle/static/auc_cn.rst index 8779f6c8639..619e79af97c 100755 --- a/docs/api/paddle/static/auc_cn.rst +++ b/docs/api/paddle/static/auc_cn.rst @@ -20,7 +20,9 @@ auc 2. PR:准确率召回率曲线 -参数: +参数 +:::::::::::: + - **input** (Tensor|LoDTensor) - 数据类型为float32,float64。浮点二维变量,值的范围为[0,1]。每一行降序排列。该输入为网络预测值的输入。 - **label** (Tensor|LoDTensor) - 数据类型为int32,int64。二维整型变量,为训练数据的标签。 - **curve** (str) - 曲线类型,可以为 ``ROC`` 或 ``PR``,默认 ``ROC``。 @@ -28,7 +30,9 @@ auc - **topk** (int) - 取topk的输出值用于计算。 - **slide_steps** (int) - 当计算batch auc时,不仅用当前步也用于先前步。slide_steps=1,表示用当前步;slide_steps = 3表示用当前步和前两步;slide_steps = 0,则用所有步。 -返回:元组,当前计算出的AUC。数据类型是tensor,支持float32和float64。 +返回 +:::::::::::: +元组,当前计算出的AUC。数据类型是tensor,支持float32和float64。 返回的元组为auc_out, batch_auc_out, [batch_stat_pos, batch_stat_neg, stat_pos, stat_neg]。 auc_out为准确率的结果。 batch_auc_out为batch准确率的结果。 @@ -37,7 +41,8 @@ batch_stat_neg为batch计算时label=0的统计值 stat_pos计算时label=1的统计值 stat_neg为计算时label=0的统计值 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/create_global_var_cn.rst b/docs/api/paddle/static/create_global_var_cn.rst index 6bde6ee9e75..f00430dac48 100644 --- a/docs/api/paddle/static/create_global_var_cn.rst +++ b/docs/api/paddle/static/create_global_var_cn.rst @@ -10,7 +10,9 @@ create_global_var 该OP在全局块中创建一个新的Tensor,Tensor的值为 ``value`` 。 -参数: +参数 +:::::::::::: + - **shape** (list[int])- 指定输出Tensor的形状,它可以是一个整数列表。 - **value** (float)- 变量的值,填充新创建的变量。 - **dtype** (str|numpy.dtype,可选)– 初始化数据类型。 @@ -18,11 +20,16 @@ create_global_var - **force_cpu** (bool,可选)- 是否将该变量压入CPU,默认值为 False。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:创建的Tensor变量 +返回 +:::::::::::: +创建的Tensor变量 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/create_parameter_cn.rst b/docs/api/paddle/static/create_parameter_cn.rst index c86b9696e77..5522713a8ed 100644 --- a/docs/api/paddle/static/create_parameter_cn.rst +++ b/docs/api/paddle/static/create_parameter_cn.rst @@ -13,7 +13,9 @@ create_parameter **注意:这是一个低级别的API。如果您希望自己创建新的op,这个API将非常有用,无需使用layers。** -参数: +参数 +:::::::::::: + - **shape** (list[int]) - 指定输出Tensor的形状,它可以是一个整数列表。 - **dtype** (str|numpy.dtype) – 初始化数据类型。可设置的字符串值有:"float16","float32","float64"。 - **name** (str,可选) - 参数的名称。具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 @@ -21,9 +23,12 @@ create_parameter - **is_bias** (bool,可选) - 当default_initializer为空,该值会对选择哪个默认初始化程序产生影响。如果is_bias为真,则使用initializer.Constant(0.0),否则使用Xavier(),默认值False。 - **default_initializer** (Initializer,可选) - 参数的初始化程序,默认值为空。 -返回:创建的Parameter变量。 +返回 +:::::::::::: +创建的Parameter变量。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/data_cn.rst b/docs/api/paddle/static/data_cn.rst index 6d6e975acc9..9d1b934b182 100644 --- a/docs/api/paddle/static/data_cn.rst +++ b/docs/api/paddle/static/data_cn.rst @@ -12,16 +12,21 @@ data 该OP会在全局block中创建变量(Tensor),该全局变量可被计算图中的算子(operator)访问。该变量可作为占位符用于数据输入。例如用执行器(Executor)feed数据进该变量,当 ``dtype`` 为None时, ``dtype`` 将通过 ``padle.get_default_dtype()`` 获取全局类型。 -参数: +参数 +:::::::::::: + - **name** (str)- 被创建的变量的名字,具体用法请参见 :ref:`api_guide_Name` 。 - **shape** (list|tuple)- 声明维度信息的list或tuple。可以在某个维度上设置None或-1,以指示该维度可以是任何大小。例如,将可变batchsize设置为None或-1。 - **dtype** (np.dtype|str,可选)- 数据类型,支持bool,float16,float32,float64,int8,int16,int32,int64,uint8。默认值为None。当 ``dtype`` 为None时, ``dtype`` 将通过 ``padle.get_default_dtype()`` 获取全局类型。 - **lod_level** (int,可选)- LoDTensor变量的LoD level数,LoD level是PaddlePaddle的高级特性,一般任务中不会需要更改此默认值,关于LoD level的详细适用场景和用法请见 :ref:`cn_user_guide_lod_tensor` 。默认值为0。 -返回:Tensor, 全局变量,可进行数据访问 +返回 +:::::::::::: +Tensor, 全局变量,可进行数据访问 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/deserialize_persistables_cn.rst b/docs/api/paddle/static/deserialize_persistables_cn.rst index 7bc6333ff06..37c92574d23 100644 --- a/docs/api/paddle/static/deserialize_persistables_cn.rst +++ b/docs/api/paddle/static/deserialize_persistables_cn.rst @@ -11,15 +11,20 @@ deserialize_persistables 根据指定的 program 和 executor,反序列化模型参数。 -参数: +参数 +:::::::::::: + - **program** (Program) - 指定包含要反序列化的参数的名称的 program。 - **data** (bytes) - 序列化之后的模型参数。 - **executor** (Executor) - 用来执行 load op 的 ``executor`` 。 -返回: +返回 +:::::::::::: + - Program: 包含反序列化后的参数的program。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/deserialize_program_cn.rst b/docs/api/paddle/static/deserialize_program_cn.rst index 471f58af074..fd03020d3d7 100644 --- a/docs/api/paddle/static/deserialize_program_cn.rst +++ b/docs/api/paddle/static/deserialize_program_cn.rst @@ -11,13 +11,18 @@ deserialize_program 将输入的字节数组反序列化成 program。 -参数: +参数 +:::::::::::: + - **data** (bytes) – 序列化之后的 program。 -返回:反序列化之后的 program。 +返回 +:::::::::::: +反序列化之后的 program。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/device_guard_cn.rst b/docs/api/paddle/static/device_guard_cn.rst index 06c004cc230..95a08e86381 100644 --- a/docs/api/paddle/static/device_guard_cn.rst +++ b/docs/api/paddle/static/device_guard_cn.rst @@ -9,10 +9,13 @@ device_guard 一个用于指定OP运行设备的上下文管理器。 -参数: +参数 +:::::::::::: + - **device** (str|None) – 指定上下文中使用的设备。它可以是 ``cpu``、 ``gpu``、 ``gpu:x``,其中 ``x`` 是GPU 的编号。当它被设置为 ``cpu`` 或者 ``gpu`` 时,创建在该上下文中的OP将被运行在CPUPlace或者CUDAPlace上。若设置为 ``gpu``,同时程序运行在单卡模式下,设备的索引将与执行器的设备索引保持一致,默认值:None,在该上下文中的OP将被自动地分配设备。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/global_scope_cn.rst b/docs/api/paddle/static/global_scope_cn.rst index 4758474c755..c4c279ea980 100644 --- a/docs/api/paddle/static/global_scope_cn.rst +++ b/docs/api/paddle/static/global_scope_cn.rst @@ -11,11 +11,16 @@ global_scope 获取全局/默认作用域实例。很多API使用默认 ``global_scope`` ,例如 ``Executor.run`` 等。 -返回:全局/默认作用域实例 +返回 +:::::::::::: +全局/默认作用域实例 -返回类型:Scope +返回类型 +:::::::::::: +Scope -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/gradients_cn.rst b/docs/api/paddle/static/gradients_cn.rst index 2604704836b..85d2ac00977 100644 --- a/docs/api/paddle/static/gradients_cn.rst +++ b/docs/api/paddle/static/gradients_cn.rst @@ -11,18 +11,25 @@ gradients 将目标 Tensor 的梯度反向传播到输入 Tensor。 -参数: +参数 +:::::::::::: + - **targets** (Tensor|list[Tensor]) – 目标 Tensor 或包含 Tensor 的列表 - **inputs** (Tensor|list[Tensor]) – 输入 Tensor 或包含 Tensor 的列表 - **target_gradients** (Tensor|list[Tensor],可选) – 目标的梯度 Tensor,应与目标 Tensor 的形状相同;如果设置为None,则以 1 初始化所有梯度 Tensor - **no_grad_set** (set[Tensor|str],可选) – 在 `block0` ( :ref:`api_guide_Block` ) 中要忽略梯度的 Tensor 的名字的集合。所有的 :ref:`api_guide_Block` 中带有 ``stop_gradient = True`` 的所有 Tensor 的名字都会被自动添加到此集合中。如果该参数不为 ``None`` ,则会将该参数集合的内容添加到默认的集合中。默认值为 ``None`` 。 -返回:数组,包含与输入对应的梯度。如果一个输入不影响目标函数,则对应的梯度 Tensor 为 None 。 +返回 +:::::::::::: +数组,包含与输入对应的梯度。如果一个输入不影响目标函数,则对应的梯度 Tensor 为 None 。 -返回类型:(list[Tensor]) +返回类型 +:::::::::::: +(list[Tensor]) -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/load_cn.rst b/docs/api/paddle/static/load_cn.rst index 01868839bf9..32c81867b5a 100644 --- a/docs/api/paddle/static/load_cn.rst +++ b/docs/api/paddle/static/load_cn.rst @@ -14,15 +14,20 @@ load 该函数还可以加载用[save_params,save_persistables,save_vars]接口保存的模型文件。 当[save_params,save_persistables,save_vars]保存的模型格式为单个大文件时,var_list不能为None。 -参数: +参数 +:::::::::::: + - **program** ( :ref:`cn_api_fluid_Program` ) – 要加载的Program。 - **model_path** (str) – 保存Program的目录名称+文件前缀。格式为 ``目录名称/文件前缀`` 。 - **executor** (Executor, 可选) - 当startup program没有运行时,用于初始化参数的Executor。默认值:None。 - **var_list** (list, 可选) - 指定加载的Tensor列表,该参数只在加载旧接口[save_params,save_persistables,save_vars]保存的模型文件时使用。当加载的是多个小文件时,Tensor列表可以是所有加载文件中Tensor的子集;当加载的单个大文件时,Tensor列表必须和加载文件中的Tensor保持一致。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/load_from_file_cn.rst b/docs/api/paddle/static/load_from_file_cn.rst index a64a983668e..b4a67446bc0 100644 --- a/docs/api/paddle/static/load_from_file_cn.rst +++ b/docs/api/paddle/static/load_from_file_cn.rst @@ -10,13 +10,18 @@ load_from_file 从指定的文件中加载内容。 -参数: +参数 +:::::::::::: + - **path** (str) - 要读取的文件。 -返回: +返回 +:::::::::::: + - bytes: 文件内容。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/load_inference_model_cn.rst b/docs/api/paddle/static/load_inference_model_cn.rst index d3c319f0091..7893b4ad598 100644 --- a/docs/api/paddle/static/load_inference_model_cn.rst +++ b/docs/api/paddle/static/load_inference_model_cn.rst @@ -11,24 +11,31 @@ load_inference_model 从指定文件路径中加载预测模型,包括模型结构和模型参数。 -参数: +参数 +:::::::::::: + - **path_prefix** (str) – 模型的存储目录 + 模型名称(不包含后缀)。如果是 None,表示从内存加载模型。 - **executor** (Executor) – 运行模型的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **kwargs** - 支持的 key 包括 'model_filename', 'params_filename'。(注意:kwargs 主要是用来做反向兼容的)。 - **model_filename** (str) - 自定义 model_filename。 - **params_filename** (str) - 自定义 params_filename。 -返回:该接口返回一个包含三个元素的列表 [program,feed_target_names, fetch_targets]。它们的含义描述如下: +返回 +:::::::::::: +该接口返回一个包含三个元素的列表 [program,feed_target_names, fetch_targets]。它们的含义描述如下: - **program** (Program)– ``Program`` (详见 :ref:`api_guide_Program` )类的实例。此处它被用于预测,因此可被称为Inference Program。 - **feed_target_names** (list)– 字符串列表,包含着Inference Program预测时所需提供数据的所有变量名称(即所有输入变量的名称)。 - **fetch_targets** (list)– ``Variable`` (详见 :ref:`api_guide_Program` )类型列表,包含着模型的所有输出变量。通过这些输出变量即可得到模型的预测结果。 **返回类型:** 列表(list) -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` – 如果 ``path_prefix.pdmodel`` 或 ``path_prefix.pdiparams`` 不存在,则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/load_program_state_cn.rst b/docs/api/paddle/static/load_program_state_cn.rst index b6fd00e0cd2..d8d679a87a8 100644 --- a/docs/api/paddle/static/load_program_state_cn.rst +++ b/docs/api/paddle/static/load_program_state_cn.rst @@ -7,13 +7,18 @@ load_program_state 该接口从本地加载 ``Program`` 的参数和优化器的Tensor信息到内存中。 -参数: +参数 +:::::::::::: + - **model_path** (str) - 存储 ``Program`` 的参数和优化器的Tensor信息的目录名称+文件前缀,格式为 ``目录名称/文件前缀`` 。 - **var_list** (list, 可选) - 指定加载的Tensor列表,该参数只在加载旧接口[save_params,save_persistables,save_vars]保存的模型文件时使用。当加载的是多个小文件时,Tensor列表可以是所有加载文件中Tensor的子集;当加载的单个大文件时,Tensor列表必须和加载文件中的Tensor保持一致。 -返回:存储参数和优化器信息的dict +返回 +:::::::::::: +存储参数和优化器信息的dict -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/name_scope_cn.rst b/docs/api/paddle/static/name_scope_cn.rst index d78a44fa1b7..1ee7c474d27 100644 --- a/docs/api/paddle/static/name_scope_cn.rst +++ b/docs/api/paddle/static/name_scope_cn.rst @@ -13,10 +13,13 @@ name_scope 该函数为静态图下的operators生成不同的命名空间。该函数只用于静态图下的调试和可视化,不建议用在其它方面。 -参数: +参数 +:::::::::::: + - **prefix** (str,可选) - 名称前缀。默认值为None。 -**示例代码** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/batch_norm_cn.rst b/docs/api/paddle/static/nn/batch_norm_cn.rst index b5067f4e81f..a569884f6a8 100644 --- a/docs/api/paddle/static/nn/batch_norm_cn.rst +++ b/docs/api/paddle/static/nn/batch_norm_cn.rst @@ -44,7 +44,9 @@ moving_mean和moving_var是训练过程中统计得到的全局均值和方差 -参数: +参数 +:::::::::::: + - **input** (Tensor) - batch_norm算子的输入特征,是一个Tensor类型,输入维度可以是 2, 3, 4, 5。数据类型:flaot16, float32, float64。 - **act** (string)- 激活函数类型,可以是leaky_realu、relu、prelu等。默认:None。 - **is_test** (bool) - 指示它是否在测试阶段,非训练阶段使用训练过程中统计到的全局均值和全局方差。默认:False。 @@ -60,9 +62,12 @@ moving_mean和moving_var是训练过程中统计得到的全局均值和方差 - **do_model_average_for_mean_and_var** (bool,默认False)- 是否为mean和variance做模型均值。 - **use_global_stats** (bool) – 是否使用全局均值和方差。 在预测或测试模式下,将use_global_stats设置为true或将is_test设置为true,并且行为是等效的。 在训练模式中,当设置use_global_stats为True时,在训练期间也使用全局均值和方差。默认:False。 -返回: 维度和输入相同的Tensor,在输入中运用批正则后的结果。 +返回 +:::::::::::: + 维度和输入相同的Tensor,在输入中运用批正则后的结果。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst b/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst index d78a3118c3b..17a0d578215 100644 --- a/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst +++ b/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst @@ -23,7 +23,9 @@ bilinear_tensor_product - :math:`out_{i}`: 输出的第 :math:`i` 个元素,形状是 [batch_size, size]。 - :math:`y^\mathrm{T}`: :math:`y_{2}` 的转置。 -参数: +参数 +:::::::::::: + - **x** (Variable): 2-D 输入张量,形状为 [batch_size, M], 数据类型为 float32 或 float64。 - **y** (Variable): 2-D 输入张量,形状为 [batch_size, N],数据类型与 **x** 一致。 - **size** (int): 此层的维度。 @@ -32,9 +34,12 @@ bilinear_tensor_product - **param_attr** (ParamAttr,可选) :指定权重参数属性的对象。默认值为 None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **bias_attr** (ParamAttr,可选) : 指定偏置参数属性的对象。默认值为 None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 -返回: Variable, 一个形为 [batch_size, size] 的 2-D 张量。 +返回 +:::::::::::: + Variable, 一个形为 [batch_size, size] 的 2-D 张量。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/case_cn.rst b/docs/api/paddle/static/nn/case_cn.rst index f892cd488c4..ea12ba3f2ea 100644 --- a/docs/api/paddle/static/nn/case_cn.rst +++ b/docs/api/paddle/static/nn/case_cn.rst @@ -11,17 +11,25 @@ case 该OP的运行方式类似于python的if-elif-elif-else。 -参数: +参数 +:::::::::::: + - **pred_fn_pairs** (list|tuple) - 一个list或者tuple,元素是二元组(pred, fn)。其中 ``pred`` 是形状为[1]的布尔型 Tensor,``fn`` 是一个可调用对象。所有的可调用对象都返回相同结构的Tensor。 - **default** (callable,可选) - 可调用对象,返回一个或多个张量。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值:None。 -返回:如果 ``pred_fn_pairs`` 中存在pred是True的元组(pred, fn),则返回第一个为True的pred的元组中fn的返回结果;如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; +返回 +:::::::::::: +如果 ``pred_fn_pairs`` 中存在pred是True的元组(pred, fn),则返回第一个为True的pred的元组中fn的返回结果;如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; 如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 是None,则返回 ``pred_fn_pairs`` 中最后一个pred的返回结果。 -返回类型:Tensor|list(Tensor) +返回类型 +:::::::::::: +Tensor|list(Tensor) + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - 如果 ``pred_fn_pairs`` 的类型不是list或tuple。 - ``TypeError`` - 如果 ``pred_fn_pairs`` 的元素的类型不是tuple。 - ``TypeError`` - 如果 ``pred_fn_pairs`` 的tuple类型的元素大小不是2。 @@ -29,7 +37,8 @@ case - ``TypeError`` - 如果 ``pred_fn_pairs`` 中的2-tuple的第二个元素不是可调用对象。 - ``TypeError`` - 当 ``default`` 不是None又不是可调用对象时。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/conv2d_cn.rst b/docs/api/paddle/static/nn/conv2d_cn.rst index 12402e0513e..97a30855bf0 100644 --- a/docs/api/paddle/static/nn/conv2d_cn.rst +++ b/docs/api/paddle/static/nn/conv2d_cn.rst @@ -60,7 +60,9 @@ conv2d W_{out} = \frac{\left ( W_{in} -\left ( dilation[1]*\left ( W_{f}-1 \right )+1 \right ) \right )}{stride[1]}+1 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。 - **num_filters** (int) - 滤波器(卷积核)的个数。和输出图像通道相同。 - **filter_size** (int|list|tuple) - 滤波器大小。如果它是一个列表或元组,则必须包含两个整数值:(filter_size_height,filter_size_width)。若为一个整数,filter_size_height = filter_size_width = filter_size。 @@ -75,10 +77,14 @@ conv2d - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回:4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回卷积计算的结果,如果指定激活层,则返回卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回卷积计算的结果,如果指定激活层,则返回卷积和激活计算之后的最终结果。 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` - 如果 ``use_cudnn`` 不是bool值。 - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 @@ -90,7 +96,8 @@ conv2d - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/conv2d_transpose_cn.rst b/docs/api/paddle/static/nn/conv2d_transpose_cn.rst index 9a204449470..4d56905e759 100644 --- a/docs/api/paddle/static/nn/conv2d_transpose_cn.rst +++ b/docs/api/paddle/static/nn/conv2d_transpose_cn.rst @@ -70,7 +70,9 @@ conv2d_transpose 如果指定了output_size, ``conv2d_transpose`` 可以自动计算滤波器的大小。 -参数: +参数 +:::::::::::: + - **input** (Tensor)- 形状为 :math:`[N, C, H, W]` 或 :math:`[N, H, W, C]` 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度。数据类型:float32或float64。 - **num_filters** (int) - 滤波器(卷积核)的个数,与输出图片的通道数相同。 - **output_size** (int|tuple,可选) - 输出图片的大小。如果output_size是一个元组,则必须包含两个整型数,(output_size_height,output_size_width)。如果output_size=None,则内部会使用filter_size、padding和stride来计算output_size。如果output_size和filter_size是同时指定的,那么它们应满足上面的公式。默认:None。output_size和filter_size不能同时为None。 @@ -86,10 +88,14 @@ conv2d_transpose - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -返回:4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` : 如果输入的shape、filter_size、stride、padding和groups不匹配,抛出ValueError - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 @@ -99,7 +105,8 @@ conv2d_transpose - ``ShapeError`` - 如果输入和滤波器的维度大小不相同。 - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/conv3d_cn.rst b/docs/api/paddle/static/nn/conv3d_cn.rst index 248f6da008b..d28324adf52 100644 --- a/docs/api/paddle/static/nn/conv3d_cn.rst +++ b/docs/api/paddle/static/nn/conv3d_cn.rst @@ -65,7 +65,9 @@ conv3d W_{out} = \frac{\left ( W_{in} -\left ( dilation[2]*\left ( W_{f}-1 \right )+1 \right ) \right )}{stride[2]}+1 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 形状为 :math:`[N, C, D, H, W]` 或 :math:`[N, D, H, W, C]` 的5-D Tensor,N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。 - **num_fliters** (int) - 滤波器(卷积核)的个数。和输出图像通道相同。 - **filter_size** (int|list|tuple) - 滤波器大小。如果它是一个列表或元组,则必须包含三个整数值:(filter_size_depth, filter_size_height,filter_size_width)。若为一个整数,则filter_size_depth = filter_size_height = filter_size_width = filter_size。 @@ -80,10 +82,13 @@ conv3d - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值:None。 - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCDHW"和"NDHWC"。N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度。默认值:"NCDHW"。 -返回:5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回卷积计算的结果,如果指定激活层,则返回卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回卷积计算的结果,如果指定激活层,则返回卷积和激活计算之后的最终结果。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/conv3d_transpose_cn.rst b/docs/api/paddle/static/nn/conv3d_transpose_cn.rst index f6a610fae24..5d8e98c8e09 100755 --- a/docs/api/paddle/static/nn/conv3d_transpose_cn.rst +++ b/docs/api/paddle/static/nn/conv3d_transpose_cn.rst @@ -76,7 +76,9 @@ conv3d_transpose 如果指定了output_size, ``conv3d_transpose`` 可以自动计算滤波器的大小。 -参数: +参数 +:::::::::::: + - **input** (Tensor)- 形状为 :math:`[N, C, D, H, W]` 或 :math:`[N, D, H, W, C]` 的5-D Tensor,N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度,数据类型:float32或float64。 - **num_filters** (int) - 滤波器(卷积核)的个数,与输出的图片的通道数相同。 - **output_size** (int|tuple,可选) - 输出图片的大小。如果output_size是一个元组,则必须包含三个整型数,(output_size_depth,output_size_height,output_size_width)。如果output_size=None,则内部会使用filter_size、padding和stride来计算output_size。如果output_size和filter_size是同时指定的,那么它们应满足上面的公式。默认:None。output_size和filter_size不能同时为None。 @@ -92,9 +94,12 @@ conv3d_transpose - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。 - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCDHW"和"NDHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCDHW"。 -返回:5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 +返回 +:::::::::::: +5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/crf_decoding_cn.rst b/docs/api/paddle/static/nn/crf_decoding_cn.rst index f28fc4e7609..bad3da80609 100644 --- a/docs/api/paddle/static/nn/crf_decoding_cn.rst +++ b/docs/api/paddle/static/nn/crf_decoding_cn.rst @@ -20,16 +20,21 @@ crf_decoding (没有 ``Label`` 时)该运算返回一个形状为 [N X 1] 或 [B x S] 的向量,此处的形状取决于输入是 LoDTensor 还是普通 Tensor,其中元素取值范围为 0 ~ 最大标注个数-1,分别为预测出的标注(tag)所在的索引。 -参数: +参数 +:::::::::::: + - **input** (Tensor) — 一个形为 [N x D] 的 LoDTensor,其中 N 是mini-batch的大小,D是标注(tag) 的总数; 或者形为 [B x S x D] 的普通 Tensor,B 是批次大小,S 是序列最大长度,D 是标注的总数。 该输入是 :ref:`cn_api_fluid_layers_linear_chain_crf`` 的 unscaled emission weight matrix (未标准化的发射权重矩阵)。数据类型为 float32 或者 float64。 - **param_attr** (ParamAttr,可选) :指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_guide_ParamAttr` 。 - **label** (Tensor,可选) — 形为 [N x 1] 的正确标注(ground truth)(LoDTensor 模式),或者形状为 [B x S]。 有关该参数的更多信息,请详见上述描述。数据类型为 int64。 - **length** (Tensor,可选) — 形状为 [B x 1], 表示输入序列的真实长度。该输入非 None,表示该层工作在 padding 模式下,即 ``input`` 和 ``label`` 都是带 padding 的普通 Tensor。数据类型为 int64。 -返回:Tensor, 解码结果具体内容根据 ``Label`` 参数是否提供而定,请参照上面的介绍来详细了解。 +返回 +:::::::::::: +Tensor, 解码结果具体内容根据 ``Label`` 参数是否提供而定,请参照上面的介绍来详细了解。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/data_norm_cn.rst b/docs/api/paddle/static/nn/data_norm_cn.rst index 1a951024b90..bfb2ac4e8cc 100644 --- a/docs/api/paddle/static/nn/data_norm_cn.rst +++ b/docs/api/paddle/static/nn/data_norm_cn.rst @@ -27,7 +27,9 @@ data_norm \sigma_{\beta}^{2} + \epsilon}} \qquad &//\ normalize \\ y_i &\gets \gamma \hat{x_i} + \beta \qquad &//\ scale\ and\ shift -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入变量。 - **act** (string,可选) - 激活函数类型,线性| relu | prelu | ..., 默认值为 None。 - **epsilon** (float,可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。 @@ -43,11 +45,16 @@ data_norm - **sync_stats** (bool, 默认值False) - 在多GPU卡的场景下可以使用,用来同步多卡间的summary信息。 - **enable_scale_and_shift** (bool, 默认值False) - 在分布式全局正则化后是否做像batchnorm一样做scale&shift的操作。 -返回: 张量变量,是对输入数据进行正则化后的结果。 +返回 +:::::::::::: + 张量变量,是对输入数据进行正则化后的结果。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/deform_conv2d_cn.rst b/docs/api/paddle/static/nn/deform_conv2d_cn.rst index 95fd0d1b210..658d7d88516 100644 --- a/docs/api/paddle/static/nn/deform_conv2d_cn.rst +++ b/docs/api/paddle/static/nn/deform_conv2d_cn.rst @@ -46,7 +46,9 @@ deform_conv2d op对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor W_{out}&= \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (W_f - 1) + 1))}{strides[1]} + 1 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 形状为 :math:`[N, C, H, W]` 的输入Tensor,数据类型为float32或float64。 - **offset** (Tensor) – 可变形卷积层的输入坐标偏移,数据类型为float32或float64。 - **mask** (Tensor, 可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 @@ -62,11 +64,16 @@ deform_conv2d op对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor - **bias_attr** (ParamAttr|bool,可选) – 可变形卷积层的偏置的参数属性。如果设为False,则输出单元不会加偏置。如果设为None或者某种ParamAttr,conv2d会创建ParamAttr作为bias_attr。如果不设置bias_attr的Initializer,偏置会被初始化为0。默认值为None。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:Tensor, 可变形卷积输出的4-D Tensor,数据类型为float32或float64。 +返回 +:::::::::::: +Tensor, 可变形卷积输出的4-D Tensor,数据类型为float32或float64。 -抛出异常:ValueError – 如果input, filter_size, stride, padding和groups的大小不匹配。 +抛出异常 +:::::::::::: +ValueError – 如果input, filter_size, stride, padding和groups的大小不匹配。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/embedding_cn.rst b/docs/api/paddle/static/nn/embedding_cn.rst index 8b78670b4f8..4197e5c48d5 100644 --- a/docs/api/paddle/static/nn/embedding_cn.rst +++ b/docs/api/paddle/static/nn/embedding_cn.rst @@ -58,7 +58,9 @@ embedding 输入的padding_idx = 0,则对于输入id为0的词,进行padding处理。 -参数: +参数 +:::::::::::: + - **input** (Variable) - 存储id信息的Tensor,数据类型必须为:int64,输入的shape最后一维须为1。input中的id必须满足 ``0 =< id < size[0]`` 。 - **size** (tuple|list) - embedding矩阵的维度。必须包含两个元素,第一个元素为vocab_size(词表大小), 第二个为emb_size(embedding层维度)。 - **is_sparse** (bool) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse更新速度更快,推荐使用稀疏更新的方式。但某些optimizer不支持sparse更新,比如 :ref:`cn_api_paddle_optimizer_Adadelta` 、 :ref:`cn_api_paddle_optimizer_Adamax`,此时is_sparse必须为False。默认为False。 @@ -67,11 +69,16 @@ embedding - **param_attr** (ParamAttr) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr` 。此外,可以通过 ``param_attr`` 参数加载用户自定义或预训练的词向量。只需将本地词向量转为numpy数据格式,且保证本地词向量的shape和embedding的 ``size`` 参数一致,然后使用 :ref:`cn_api_paddle_to_tensor` 进行初始化,即可实现加载自定义或预训练的词向量。 - **dtype** (str) - 输出Tensor的数据类型,数据类型必须为:float32 或 float64,默认为 float32。 -返回:input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 +返回 +:::::::::::: +input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 -返回类型:Variable +返回类型 +:::::::::::: +Variable -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/instance_norm_cn.rst b/docs/api/paddle/static/nn/instance_norm_cn.rst index d1b88d4a146..a04cdeb7573 100644 --- a/docs/api/paddle/static/nn/instance_norm_cn.rst +++ b/docs/api/paddle/static/nn/instance_norm_cn.rst @@ -25,18 +25,25 @@ NCHW[batch,in_channels,in_height,in_width] y_i &\gets \gamma \hat{x_i} + \beta \quad &// scale-and-shift -参数: +参数 +:::::::::::: + - **input** (Tensor) - instance_norm算子的输入特征,是一个Tensor,输入的维度可以为 2, 3, 4, 5。数据类型:float32和float64。 - **epsilon** (float,默认1e-05)-为了当前输入做标准化时得到稳定的结果而加在的分母上的扰动值。默认值为1e-5。 - **param_attr** (ParamAttr|None) - instance_norm 权重参数的属性,可以设置为None或者一个ParamAttr的类(ParamAttr中可以指定参数的各种属性)。 如果设为None,则默认的参数初始化为1.0。如果在ParamAttr指定了属性时, instance_norm创建相应属性的param_attr(权重)参数。默认:None。 - **bias_attr** (ParamAttr|None) - instance_norm 偏置参数的属性,可以设置为None或者一个ParamAttr的类(ParamAttr中可以指定参数的各种属性)。如果设为None,默认的参数初始化为0.0。如果在ParamAttr指定了参数的属性时, instance_norm创建相应属性的bias_attr(偏置)参数。默认:None。 - **name** (string,默认None)- 该层名称(可选)。若设为None,则自动为该层命名。 -返回: 张量,在输入中运用instance normalization后的结果 +返回 +:::::::::::: + 张量,在输入中运用instance normalization后的结果 -返回类型:变量(Tensor) +返回类型 +:::::::::::: +变量(Tensor) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/layer_norm_cn.rst b/docs/api/paddle/static/nn/layer_norm_cn.rst index 5902b0a5d3a..8e19eed0850 100644 --- a/docs/api/paddle/static/nn/layer_norm_cn.rst +++ b/docs/api/paddle/static/nn/layer_norm_cn.rst @@ -26,7 +26,9 @@ layer_norm - :math:`g` : 可训练的比例参数 - :math:`b` : 可训练的偏差参数 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 维度为任意维度的多维 ``Tensor`` ,数据类型为float32或float64。 - **scale** (bool, 可选) - 指明是否在归一化后学习自适应增益 ``g`` 。默认值:True。 - **shift** (bool, 可选) - 指明是否在归一化后学习自适应偏差 ``b`` 。默认值:True。 @@ -37,10 +39,13 @@ layer_norm - **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。。 -返回:表示归一化结果的 ``Tensor`` ,数据类型和 ``input`` 一致,返回维度和 ``input`` 一致。 +返回 +:::::::::::: +表示归一化结果的 ``Tensor`` ,数据类型和 ``input`` 一致,返回维度和 ``input`` 一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/multi_box_head_cn.rst b/docs/api/paddle/static/nn/multi_box_head_cn.rst index ac1addace8e..a9b3d928296 100644 --- a/docs/api/paddle/static/nn/multi_box_head_cn.rst +++ b/docs/api/paddle/static/nn/multi_box_head_cn.rst @@ -11,7 +11,9 @@ multi_box_head 基于SSD(Single Shot MultiBox Detector)算法,在不同层输入特征上提取先验框、计算回归的坐标位置和分类的置信度,并合并到一起作为输出,具体参数解释和输出格式参考下面说明。更详细信息,请参阅SSD论文 `SSD:Single Shot MultiBox Detector `_ 的2.2节。 -参数: +参数 +:::::::::::: + - **inputs** (list(Variable) | tuple(Variable)) - 输入特征的列表,仅支持格式为NCHW的4-D Tensor。 - **image** (Variable) - 一般是网络输入的图像数据,仅支持NCHW格式。 - **base_size** (int) - 输入图片的大小,当输入个数len(inputs) > 2,并且 ``min_size`` 和 ``max_size`` 为None时,通过 ``baze_size``, ``min_ratio`` 和 ``max_ratio`` 来计算出 ``min_size`` 和 ``max_size`` 。计算公式如下: @@ -46,15 +48,20 @@ multi_box_head - **name** (str) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **min_max_aspect_ratios_order** (bool) - 如果设置为True,则输出先验框的顺序为[min,max,aspect_ratios],这与Caffe一致。请注意,此顺序会影响卷积层后面的权重顺序,但不会影响最终检测结果。默认值:False。 -返回: +返回 +:::::::::::: + - **mbox_loc(Variable)** - 预测框的回归位置。格式为[N,num_priors,4],其中 ``N`` 是batch size, ``num_priors`` 是总共提取的先验框的个数。 - **mbox_conf(Variable)** - 预测框的分类信度。格式为[N,num_priors,C],其中 ``num_priors`` 同上,C是类别数。 - **boxes(Variable)** - 提取的先验框。布局是[num_priors,4], ``num_priors`` 同上,常量4是坐标个数。 - **variances(Variable)** - 提取的先验框方差。布局是[num_priors,4], ``num_priors`` 同上。 -返回类型:list(Variable) | tuple(Variable) +返回类型 +:::::::::::: +list(Variable) | tuple(Variable) -**代码示例1: 设置min_ratio和max_ratio** +代码示例 1: 设置min_ratio和max_ratio +:::::::::::: .. code-block:: python @@ -81,7 +88,8 @@ multi_box_head flip=True, clip=True) -**代码示例2: 设置min_sizes和max_sizes** +代码示例 2: 设置min_sizes和max_sizes +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/nce_cn.rst b/docs/api/paddle/static/nn/nce_cn.rst index abebb121463..e0cc16840cc 100644 --- a/docs/api/paddle/static/nn/nce_cn.rst +++ b/docs/api/paddle/static/nn/nce_cn.rst @@ -14,7 +14,9 @@ nce `_ 该层默认使用均匀分布进行抽样。 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入张量, 2-D 张量,形状为 [batch_size, dim],数据类型为 float32 或者 float64。 - **label** (Tensor) - 标签,2-D 张量,形状为 [batch_size, num_true_class],数据类型为 int64。 - **num_total_classes** (int) - 所有样本中的类别的总数。 @@ -28,12 +30,17 @@ nce - **seed** (int,可选) – 采样器使用的seed。默认为0 - **is_sparse** (bool,可选) – 标志位,指明是否使用稀疏更新, 为 ``True`` 时 :math:`weight@GRAD` 和 :math:`bias@GRAD` 的类型会变为 SelectedRows。默认为 ``False`` 。 -返回: nce loss,数据类型与 **input** 相同 +返回 +:::::::::::: + nce loss,数据类型与 **input** 相同 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/prelu_cn.rst b/docs/api/paddle/static/nn/prelu_cn.rst index 6d10aadac53..5703277d3ad 100644 --- a/docs/api/paddle/static/nn/prelu_cn.rst +++ b/docs/api/paddle/static/nn/prelu_cn.rst @@ -19,7 +19,9 @@ prelu激活函数 element: 每一个元素有一个独立的alpha值 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 多维Tensor或LoDTensor,数据类型为float32。 - **mode** (str) - 权重共享模式。 - **param_attr** (ParamAttr,可选) - 可学习权重 :math:`[\alpha]` 的参数属性,可由ParamAttr创建。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -27,9 +29,12 @@ prelu激活函数 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: 表示激活输出Tensor,数据类型和形状于输入相同。 +返回 +:::::::::::: + 表示激活输出Tensor,数据类型和形状于输入相同。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/row_conv_cn.rst b/docs/api/paddle/static/nn/row_conv_cn.rst index 054aecd8c0b..0887aba7be8 100644 --- a/docs/api/paddle/static/nn/row_conv_cn.rst +++ b/docs/api/paddle/static/nn/row_conv_cn.rst @@ -29,16 +29,21 @@ row_conv 详细请参考 `设计文档 `_ 。 -参数: +参数 +:::::::::::: + - **input** (Tensor) -- 支持输入为LodTensor和Tensor,输入类型可以是[float32, float64],它支持可变时间长度的输入序列。当输入input为LodTensor时,其内部张量是一个具有形状(T x N)的矩阵,其中T是这个mini batch中的总的timestep,N是输入数据维数。当输入input为Tensor时,其形状为(B x T x N)的三维矩阵,B为mini batch大小,T为每个batch输入中的最大timestep,N是输入数据维数。当输入input为LoDTensor,形状为[9, N],LoD信息为[2, 3, 4],等价于输入input为形状是[3, 4, N]的Tensor。 - **future_context_size** (int) -- 下文大小。请注意,卷积核的shape是[future_context_size + 1, N],N和输入input的数据维度N保持一致。 - **param_attr** (ParamAttr) -- 参数的属性,包括名称、初始化器等。 - **act** (str) -- 非线性激活函数。 -返回:表示row_conv计算结果的Tensor,数据类型、维度和输入input相同。 +返回 +:::::::::::: +表示row_conv计算结果的Tensor,数据类型、维度和输入input相同。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/sequence_reverse_cn.rst b/docs/api/paddle/static/nn/sequence_reverse_cn.rst index 719841dfb1d..f18fd8e4327 100644 --- a/docs/api/paddle/static/nn/sequence_reverse_cn.rst +++ b/docs/api/paddle/static/nn/sequence_reverse_cn.rst @@ -39,7 +39,8 @@ sequence_reverse ::::::::: 输出在每个序列上反转后的LoDTensor,数据类型和输入类型一致。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.static.nn.sequence_reverse diff --git a/docs/api/paddle/static/nn/sequence_softmax_cn.rst b/docs/api/paddle/static/nn/sequence_softmax_cn.rst index 2fbe973ff5d..7f8f514cf32 100644 --- a/docs/api/paddle/static/nn/sequence_softmax_cn.rst +++ b/docs/api/paddle/static/nn/sequence_softmax_cn.rst @@ -55,7 +55,8 @@ sequence_softmax 根据区间计算softmax之后的LoDTensor,其维度与input的维度一致,数据类型与input的数据类型一致。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.static.nn.sequence_softmax diff --git a/docs/api/paddle/static/nn/switch_case_cn.rst b/docs/api/paddle/static/nn/switch_case_cn.rst index 0be3400ae7d..0091a04dd15 100644 --- a/docs/api/paddle/static/nn/switch_case_cn.rst +++ b/docs/api/paddle/static/nn/switch_case_cn.rst @@ -11,18 +11,26 @@ switch_case 该OP的运行方式类似于c++的switch/case。 -参数: +参数 +:::::::::::: + - **branch_index** (Tensor)- 形状为[1]的Tensor,指定将要执行的分支。数据类型是 ``int32``, ``int64`` 或 ``uint8``。 - **branch_fns** (dict|list|tuple) - 如果 ``branch_fns`` 是一个list或tuple,它的元素可以是 (int, callable) 二元组,即由整数和可调用对象构成的二元组,整数表示对应的可调用对象的键;也可以仅仅是可调用对象,它在list或者tuple中的实际索引值将作为该可调用对象的键。如果 ``branch_fns`` 是一个字典,那么它的键是整数,它的值是可调用对象。所有的可调用对象都返回相同结构的Tensor。 - **default** (callable,可选) - 可调用对象,返回一个或多个张量。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值:None。 -返回:如果 ``branch_fns`` 中存在与 ``branch_index`` 匹配的可调用对象,则返回该可调用对象的返回结果;如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; +返回 +:::::::::::: +如果 ``branch_fns`` 中存在与 ``branch_index`` 匹配的可调用对象,则返回该可调用对象的返回结果;如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; 如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 是None,则返回 ``branch_fns`` 中键值最大的可调用对象的返回结果。 -返回类型:Tensor|list(Tensor) +返回类型 +:::::::::::: +Tensor|list(Tensor) + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - 如果 ``branch_index`` 的类型不是list或tuple。 - ``TypeError`` - 如果 ``branch_index`` 的数据类型不是 ``int32``, ``int64`` 或 ``uint8``。 - ``TypeError`` - 如果 ``branch_fns`` 的类型不是dict,list或tuple。 @@ -33,7 +41,8 @@ switch_case - ``TypeError`` - 当 ``default`` 不是None又不是可调用对象时。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/normalize_program_cn.rst b/docs/api/paddle/static/normalize_program_cn.rst index de5183f8474..78575945d16 100644 --- a/docs/api/paddle/static/normalize_program_cn.rst +++ b/docs/api/paddle/static/normalize_program_cn.rst @@ -11,17 +11,24 @@ normalize_program 根据指定的 feed_vars 和 fetch_vars,优化 program。 -参数: +参数 +:::::::::::: + - **program** - 指定想要优化的 program。 - **feed_vars** (Variable | list[Variable]) – 模型的输入变量。 - **fetch_vars** (Variable | list[Variable]) – 模型的输出变量。 -返回:优化之后的 program。 +返回 +:::::::::::: +优化之后的 program。 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` – 如果 ``program`` 类型不是 ``Program``, 或 ``feed_vars``, ``fetch_vars`` 类型不是 Variable 或 list[Variable],则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/program_guard_cn.rst b/docs/api/paddle/static/program_guard_cn.rst index 029f8d40e1d..49aca289b53 100644 --- a/docs/api/paddle/static/program_guard_cn.rst +++ b/docs/api/paddle/static/program_guard_cn.rst @@ -13,11 +13,14 @@ program_guard ``with`` 语句块下的各接口将在新的main program(主程序)中添加 operators(算子)和 Tensors(张量)。 -参数: +参数 +:::::::::::: + - **main_program** (Program) – ``with`` 语句中将使用的新的 main program。 - **startup_program** (Program,可选) – ``with`` 语句中将使用的新的 startup program。若传入 ``None`` 则不改变当前的启动程序,即仍使用 default_startup_program。默认值为 None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -32,7 +35,8 @@ program_guard 例如,当组的网不需要 startup_program 初始化各变量时,可以传入一个临时的 program。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/py_func_cn.rst b/docs/api/paddle/static/py_func_cn.rst index 2ba3187941d..0b0139fc99c 100644 --- a/docs/api/paddle/static/py_func_cn.rst +++ b/docs/api/paddle/static/py_func_cn.rst @@ -19,7 +19,9 @@ PaddlePaddle 通过py_func在Python端注册OP。py_func的设计原理在于Pad 此功能还可用于调试正在运行的网络,可以通过添加没有输出的 ``py_func`` 运算,并在 ``func`` 中打印输入 ``x`` 。 -参数: +参数 +:::::::::::: + ::::::::: - **func** (callable) - 所注册的Python OP的前向函数,运行网络时,将根据该函数与前向输入 ``x`` ,计算前向输出 ``out`` 。 在 ``func`` 建议先主动将Tensor转换为numpy数组,方便灵活的使用numpy相关的操作,如果未转换成numpy,则可能某些操作无法兼容。 - **x** (Tensor|tuple(Tensor)|list[Tensor]) - 前向函数 ``func`` 的输入,多个Tensor以tuple(Tensor)或list[Tensor]的形式传入。 @@ -27,12 +29,15 @@ PaddlePaddle 通过py_func在Python端注册OP。py_func的设计原理在于Pad - **backward_func** (callable,可选) - 所注册的Python OP的反向函数。默认值为None,意味着没有反向计算。若不为None,则会在运行网络反向时调用 ``backward_func`` 计算 ``x`` 的梯度。 - **skip_vars_in_backward_input** (Tensor) - ``backward_func`` 的输入中不需要的变量,可以是Tensor|tuple(Tensor)|list[Tensor]。 这些变量必须是 ``x`` 和 ``out`` 中的一个。默认值为None,意味着没有变量需要从 ``x`` 和 ``out`` 中去除。若不为None,则这些变量将不是 ``backward_func`` 的输入。该参数仅在 ``backward_func`` 不为None时有用。 -返回: +返回 +:::::::::::: + ::::::::: Tensor|tuple(Tensor)|list[Tensor],前向函数的输出 ``out`` -**示例代码1**: +代码示例 1 +:::::::::::: ::::::::: .. code-block:: python @@ -93,7 +98,8 @@ Tensor|tuple(Tensor)|list[Tensor],前向函数的输出 ``out`` print(out) -**示例代码2**: +代码示例 2 +:::::::::::: ::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/save_cn.rst b/docs/api/paddle/static/save_cn.rst index 411248be9ed..55809f41948 100644 --- a/docs/api/paddle/static/save_cn.rst +++ b/docs/api/paddle/static/save_cn.rst @@ -16,14 +16,19 @@ save 网络描述是程序的描述。它只用于部署。描述将保存到后缀为 ``.pdmodel`` 的文件中。 -参数: +参数 +:::::::::::: + - **program** ( :ref:`cn_api_fluid_Program` ) – 要保存的Program。 - **model_path** (str) – 保存program的文件前缀。格式为 ``目录名称/文件前缀``。如果文件前缀为空字符串,会引发异常。 - **protocol** (int, 可选) – pickle模块的协议版本,默认值为4,取值范围是[2,4]。 -返回: 无 +返回 +:::::::::::: + 无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/save_inference_model_cn.rst b/docs/api/paddle/static/save_inference_model_cn.rst index dc29287d7d2..17ef52ae7d5 100644 --- a/docs/api/paddle/static/save_inference_model_cn.rst +++ b/docs/api/paddle/static/save_inference_model_cn.rst @@ -12,7 +12,9 @@ save_inference_model 将模型及其参数保存到指定的路径。例如,``path_prefix="/path/to/modelname"`` ,在调用 ``save_inference_model(path_prefix, feed_vars, fetch_vars, executor)`` 之后,你可以在 "/path/to" 目录下找到两个文件,分别是 "modelname.pdmodel" 和 "modelname.pdiparams",前者表示序列化之后的模型文件,后者表示序列化之后的参数文件。 -参数: +参数 +:::::::::::: + - **path_prefix** (str) – 要保存到的目录 + 模型名称(不包含后缀)。 - **feed_vars** (Variable | list[Variable]) – 模型的所有输入变量。 - **fetch_vars** (Variable | list[Variable]) – 模型的所有输出变量。 @@ -23,11 +25,14 @@ save_inference_model **返回:** None -抛出异常: +抛出异常 +:::::::::::: + - ``ValueError`` – 若 ``feed_vars`` 不是 ``Variable`` 或 ``Variable`` 类型列表,则抛出异常。 - ``ValueError`` – 若 ``fetch_vars`` 不是 ``Variable`` 或 ``Variable`` 类型列表,则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/save_to_file_cn.rst b/docs/api/paddle/static/save_to_file_cn.rst index 906c2f09e82..c61d7e2a208 100644 --- a/docs/api/paddle/static/save_to_file_cn.rst +++ b/docs/api/paddle/static/save_to_file_cn.rst @@ -10,13 +10,18 @@ save_to_file 将内容写入指定的文件。 -参数: +参数 +:::::::::::: + - **path** (str) - 要写入的文件。 - **content** (bytes) - 要写入的内容。 -返回: None +返回 +:::::::::::: + None -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/scope_guard_cn.rst b/docs/api/paddle/static/scope_guard_cn.rst index c9f8055bd1b..b9b6caefe42 100644 --- a/docs/api/paddle/static/scope_guard_cn.rst +++ b/docs/api/paddle/static/scope_guard_cn.rst @@ -16,12 +16,17 @@ scope_guard 当用户需要创建同名的变量时,如果不希望同名的变量映射关系被覆盖,则需要通过该接口切换作用域。 通过 ``with`` 语句切换后,``with`` 语句块中所有创建的变量都将分配给新的作用域。 -参数: +参数 +:::::::::::: + - **scope** (Scope) - 新的作用域。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/serialize_persistables_cn.rst b/docs/api/paddle/static/serialize_persistables_cn.rst index ac5b455d464..1da48670d13 100644 --- a/docs/api/paddle/static/serialize_persistables_cn.rst +++ b/docs/api/paddle/static/serialize_persistables_cn.rst @@ -11,19 +11,26 @@ serialize_persistables 根据指定的 feed_vars,fetch_vars 和 executor,序列化模型参数。 -参数: +参数 +:::::::::::: + - **feed_vars** (Variable | list[Variable]) – 模型的输入变量。 - **fetch_vars** (Variable | list[Variable]) – 模型的输出变量。 - **executor** (Executor) - 用于保存预测模型的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **kwargs** - 支持的 key 包括 'program'。(注意:kwargs 主要是用来做反向兼容的) - **program** - 指定包含要序列化的参数的 program,默认是 default_main_program。 -返回:参数序列化之后的字节数组。 +返回 +:::::::::::: +参数序列化之后的字节数组。 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` – 如果 ``feed_vars`` 或 ``fetch_vars`` 类型不是 Variable 或 list[Variable],则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/serialize_program_cn.rst b/docs/api/paddle/static/serialize_program_cn.rst index 5957d8092e2..62a47903eb8 100644 --- a/docs/api/paddle/static/serialize_program_cn.rst +++ b/docs/api/paddle/static/serialize_program_cn.rst @@ -11,18 +11,25 @@ serialize_program 根据指定的 feed_vars 和 fetch_vars,序列化 program。 -参数: +参数 +:::::::::::: + - **feed_vars** (Variable | list[Variable]) – 模型的输入变量。 - **fetch_vars** (Variable | list[Variable]) – 模型的输出变量。 - **kwargs** - 支持的 key 包括 'program'。(注意:kwargs 主要是用来做反向兼容的) - **program** - 指定想要序列化的 program,默认是 default_main_program。 -返回:字节数组。 +返回 +:::::::::::: +字节数组。 + +抛出异常 +:::::::::::: -抛出异常: - ``ValueError`` – 如果 ``feed_vars`` 或 ``fetch_vars`` 类型不是 Variable 或 list[Variable],则抛出异常。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/set_program_state_cn.rst b/docs/api/paddle/static/set_program_state_cn.rst index 03a89ab74b0..ccf9c4ab12c 100644 --- a/docs/api/paddle/static/set_program_state_cn.rst +++ b/docs/api/paddle/static/set_program_state_cn.rst @@ -12,13 +12,18 @@ set_program_state **注意:必须在运行 start_up_program 之后调用此函数。** -参数: +参数 +:::::::::::: + - **program** (Program) - 需要被设置的 ``Program`` 。 - **state_dict** (dict) - 存储参数和优化器信息的dict;dict中key的类型为Tensor的名称,value为np.ndarray类型的数据。 -返回:无 +返回 +:::::::::::: +无 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/strided_slice_cn.rst b/docs/api/paddle/strided_slice_cn.rst index 18951fddb1b..7328acb48dd 100644 --- a/docs/api/paddle/strided_slice_cn.rst +++ b/docs/api/paddle/strided_slice_cn.rst @@ -44,7 +44,9 @@ strided_slice算子。 result=[[2],] -参数: +参数 +:::::::::::: + - **x** (Tensor)- 多维 ``Tensor``,数据类型为 ``bool``, ``float32``,``float64``,``int32``,或 ``int64``。 - **axes** (list|tuple)- 数据类型是 ``int32``。表示进行切片的轴。 @@ -53,10 +55,13 @@ strided_slice算子。 - **strides** (list|tuple|Tensor)- 数据类型是 ``int32``。如果 ``strides`` 的类型是 list 或 tuple,它的元素可以是整数或者形状为[1]的 ``Tensor``。如果 ``strides`` 的类型是 ``Tensor``,则是1-D ``Tensor``。表示在各个轴上切片的步长。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:多维 ``Tensor``,数据类型与 ``x`` 相同。 +返回 +:::::::::::: +多维 ``Tensor``,数据类型与 ``x`` 相同。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/sum_cn.rst b/docs/api/paddle/sum_cn.rst index 30f348e66c9..b2e303bb6dc 100644 --- a/docs/api/paddle/sum_cn.rst +++ b/docs/api/paddle/sum_cn.rst @@ -7,18 +7,23 @@ sum 该OP是对指定维度上的Tensor元素进行求和运算,并输出相应的计算结果。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 输入变量为多维Tensor,支持数据类型为float32,float64,int32,int64。 - **axis** (int | list | tuple ,可选)- 求和运算的维度。如果为None,则计算所有元素的和并返回包含单个元素的Tensor变量,否则必须在 :math:`[−rank(x),rank(x)]` 范围内。如果 :math:`axis [i] <0` ,则维度将变为 :math:`rank+axis[i]` ,默认值为None。 - **dtype** (str , 可选)- 输出变量的数据类型。若参数为空,则输出变量的数据类型和输入变量相同,默认值为None。 - **keepdim** (bool)- 是否在输出Tensor中保留减小的维度。如 keepdim 为true,否则结果张量的维度将比输入张量小,默认值为False。 - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + ``Tensor``,在指定维度上进行求和运算的Tensor,数据类型和输入数据类型一致。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/t_cn.rst b/docs/api/paddle/t_cn.rst index 6270ebcc639..21153f90ba2 100644 --- a/docs/api/paddle/t_cn.rst +++ b/docs/api/paddle/t_cn.rst @@ -10,11 +10,15 @@ t 该OP对小于等于2维的Tensor进行数据转置。0维和1维Tensor返回本身,2维Tensor等价于perm设置为0,1的 :ref:`cn_api_fluid_layers_transpose` 函数。 -参数: +参数 +:::::::::::: + - **input** (Tensor) - 输入:N维(N<=2)Tensor,可选的数据类型为float16, float32, float64, int32, int64。 - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None -返回: N维Tensor +返回 +:::::::::::: + N维Tensor **示例**: @@ -37,7 +41,8 @@ t [0.32, 0.57]) -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/tanh_cn.rst b/docs/api/paddle/tanh_cn.rst index 0e8bedcc65a..15fd15081ca 100644 --- a/docs/api/paddle/tanh_cn.rst +++ b/docs/api/paddle/tanh_cn.rst @@ -11,16 +11,23 @@ tanh 激活函数 .. math:: out = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} -参数: +参数 +:::::::::::: + - **x** (Tensor) - Tanh算子的输入, 多维Tensor,数据类型为 float16,float32或float64。 - **name** (str, 可选) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回: tanh的输出Tensor,和输入有着相同类型和shape。 +返回 +:::::::::::: + tanh的输出Tensor,和输入有着相同类型和shape。 -返回类型: Tensor +返回类型 +:::::::::::: + Tensor -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/tensordot_cn.rst b/docs/api/paddle/tensordot_cn.rst index a4062e2e5e0..5889479d986 100644 --- a/docs/api/paddle/tensordot_cn.rst +++ b/docs/api/paddle/tensordot_cn.rst @@ -7,7 +7,9 @@ tensordot 该API做张量缩并运算(Tensor Contraction),即沿着axes给定的多个轴对两个张量对应元素的乘积进行加和操作。 -参数: +参数 +:::::::::::: + - **x** (Tensor)- 缩并运算操作的左张量,数据类型为 ``float32`` 或 ``float64``。 - **y** (Tensor)- 缩并运算操作的右张量,与 ``x`` 具有相同的数据类型。 - **axes** (int|tuple|list|Tensor)- 指定对 ``x`` 和 ``y`` 做缩并运算的轴,默认值为整数2。 @@ -21,13 +23,16 @@ tensordot 4. ``axes`` 可以是一个张量,这种情况下该张量会被转换成list,然后应用前述规则确定做缩并运算的轴。请注意,输入Tensor类型的 ``axes`` 只在动态图模式下可用。 - **name** (str,可选) - 默认值为None,一般无需设置,具体用法请参见 :ref:`api_guide_Name` 。 -返回:一个 ``Tensor`` ,表示张量缩并的结果,数据类型与 ``x`` 和 ``y`` 相同。一般情况下,有 :math:`output.ndim = x.ndim + y.ndim - 2 \times n_{axes}` , 其中 :math:`n_{axes}` 表示做张量缩并的轴数量。 +返回 +:::::::::::: +一个 ``Tensor`` ,表示张量缩并的结果,数据类型与 ``x`` 和 ``y`` 相同。一般情况下,有 :math:`output.ndim = x.ndim + y.ndim - 2 \times n_{axes}` , 其中 :math:`n_{axes}` 表示做张量缩并的轴数量。 **Note:** 1. 本API支持张量维度广播,``x`` 和 ``y`` 做缩并操作的对应维度size必须相等,或适用于广播规则。 2. 本API支持axes扩展,当指定的 ``x`` 和 ``y`` 两个轴序列长短不一时,短的序列会自动在末尾补充和长序列相同的轴下标。例如,如果输入 ``axes`` =[[0, 1, 2, 3], [1, 0]],则指定 ``x`` 的轴序列是[0, 1, 2, 3],对应 ``y`` 的轴序列会自动从[1,0]扩展成[1, 0, 2, 3]。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/to_tensor_cn.rst b/docs/api/paddle/to_tensor_cn.rst index 01bbee52ebc..4fa601885ce 100644 --- a/docs/api/paddle/to_tensor_cn.rst +++ b/docs/api/paddle/to_tensor_cn.rst @@ -12,7 +12,9 @@ to_tensor 如果 ``data`` 已经是一个tensor,且 ``dtype`` 、 ``place`` 没有发生变化,将不会发生 tensor 的拷贝并返回原来的 tensor。 否则会创建一个新的tensor,且不保留原来计算图。 -参数: +参数 +:::::::::::: + - **data** (scalar|tuple|list|ndarray|Tensor) - 初始化tensor的数据,可以是 scalar,list,tuple,numpy\.ndarray,paddle\.Tensor类型。 - **dtype** (str, optional) - 创建tensor的数据类型,可以是 'bool' ,'float16','float32', @@ -24,15 +26,20 @@ to_tensor CPUPlace, CUDAPinnedPlace, CUDAPlace。默认值为None,使用全局的place。 - **stop_gradient** (bool, optional) - 是否阻断Autograd的梯度传导。默认值为True,此时不进行梯度传传导。 -返回:通过 ``data`` 创建的 tensor。 +返回 +:::::::::::: +通过 ``data`` 创建的 tensor。 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError``: 当 ``data`` 不是 scalar,list,tuple,numpy.ndarray,paddle.Tensor类型时 - ``ValueError``: 当 ``data`` 是包含不等长子序列的tuple或list时, 例如[[1, 2], [3, 4, 5]] - ``TypeError``: 当 ``dtype`` 不是 bool,float16,float32,float64,int8,int16,int32,int64,uint8,complex64,complex128时 - ``ValueError``: 当 ``place`` 不是 paddle.CPUPlace,paddle.CUDAPinnedPlace,paddle.CUDAPlace时 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/tolist_cn.rst b/docs/api/paddle/tolist_cn.rst index 4e0b764613d..98420f6a8d1 100644 --- a/docs/api/paddle/tolist_cn.rst +++ b/docs/api/paddle/tolist_cn.rst @@ -19,7 +19,8 @@ tolist -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/trace_cn.rst b/docs/api/paddle/trace_cn.rst index b0aaba38891..7988e5da01c 100644 --- a/docs/api/paddle/trace_cn.rst +++ b/docs/api/paddle/trace_cn.rst @@ -12,7 +12,9 @@ trace 如果输入的维度大于 2D,则返回一个由对角线元素之和组成的数组,其中对角线从由 axis1 和 axis2 指定的二维平面中获得。默认由输入的前两维组成获得对角线的 2D 平面。 -参数 ``offset`` 确定从指定的二维平面中获取对角线的位置: +参数 +:::::::::::: +``offset`` 确定从指定的二维平面中获取对角线的位置: - 如果 offset = 0,则取主对角线。 - 如果 offset > 0,则取主对角线右上的对角线。 diff --git a/docs/api/paddle/transpose_cn.rst b/docs/api/paddle/transpose_cn.rst index d318ee32a59..5d9f4f48bc1 100644 --- a/docs/api/paddle/transpose_cn.rst +++ b/docs/api/paddle/transpose_cn.rst @@ -10,14 +10,20 @@ transpose 该OP根据perm对输入的多维Tensor进行数据重排。返回多维Tensor的第i维对应输入Tensor的perm[i]维。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入:x:[N_1, N_2, ..., N_k, D]多维Tensor,可选的数据类型为bool, float16, float32, float64, int32, int64。 - **perm** (list|tuple) - perm长度必须和X的维度相同,并依照perm中数据进行重排。 - **name** (str) - 该层名称(可选)。 -返回: 多维Tensor +返回 +:::::::::::: + 多维Tensor -返回类型:Tensor +返回类型 +:::::::::::: +Tensor **示例**: @@ -43,7 +49,8 @@ transpose shape(y_perm1) = [4,3,2] -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/uniform_cn.rst b/docs/api/paddle/uniform_cn.rst index 47acf0656a4..f1d001d8db4 100644 --- a/docs/api/paddle/uniform_cn.rst +++ b/docs/api/paddle/uniform_cn.rst @@ -18,7 +18,9 @@ uniform 则输出为: result=[[0.8505902, 0.8397286]] -参数: +参数 +:::::::::::: + - **shape** (list|tuple|Tensor) - 生成的随机Tensor的形状。如果 ``shape`` 是list、tuple,则其中的元素可以是int,或者是形状为[1]且数据类型为int32、int64的Tensor。如果 ``shape`` 是Tensor,则是数据类型为int32、int64的1-D Tensor。 - **dtype** (str|np.dtype, 可选) - 输出Tensor的数据类型,支持float32、float64。默认值为float32。 - **min** (float|int,可选) - 要生成的随机值范围的下限,min包含在范围中。支持的数据类型:float、int。默认值为-1.0。 @@ -26,14 +28,19 @@ uniform - **seed** (int,可选) - 随机种子,用于生成样本。0表示使用系统生成的种子。注意如果种子不为0,该操作符每次都生成同样的随机数。支持的数据类型:int。默认为 0。 - **name** (str, 可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回: +返回 +:::::::::::: + Tensor:数值服从范围[``min``, ``max``)内均匀分布的随机Tensor,形状为 ``shape``,数据类型为 ``dtype``。 -抛出异常: +抛出异常 +:::::::::::: + - ``TypeError`` - 如果 ``shape`` 的类型不是list、tuple、Tensor。 - ``TypeError`` - 如果 ``dtype`` 不是float32、float64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/unique_cn.rst b/docs/api/paddle/unique_cn.rst index 5499a0212b7..a2546a19c93 100644 --- a/docs/api/paddle/unique_cn.rst +++ b/docs/api/paddle/unique_cn.rst @@ -7,7 +7,9 @@ unique 返回Tensor按升序排序后的独有元素。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64、int32、int64。 - **return_index** (bool, 可选) - 如果为True,则还返回独有元素在输入Tensor中的索引。 - **return_inverse** (bool, 可选) - 如果为True,则还返回输入Tensor的元素对应在独有元素中的索引,该索引可用于重构输入Tensor。 @@ -16,13 +18,16 @@ unique - **dtype** (np.dtype|str, 可选) - 用于设置 `index`,`inverse` 或者 `counts` 的类型,应该为int32或者int64。默认:int64. - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - **out** (Tensor) - 独有元素构成的Tensor,数据类型与输入一致。 - **index** (Tensor, 可选) - 独有元素在输入Tensor中的索引,仅在 `return_index` 为True时返回。 - **inverse** (Tensor, 可选) - 输入Tensor的元素对应在独有元素中的索引,仅在 `return_inverse` 为True时返回。 - **counts** (Tensor, 可选) - 每个独有元素在输入Tensor中的个数,仅在 `return_counts` 为True时返回。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/unique_consecutive_cn.rst b/docs/api/paddle/unique_consecutive_cn.rst index 8e4a0b358c9..504264bb7ae 100644 --- a/docs/api/paddle/unique_consecutive_cn.rst +++ b/docs/api/paddle/unique_consecutive_cn.rst @@ -7,7 +7,9 @@ unique_consecutive 将Tensor中连续重复的元素进行去重,返回连续不重复的Tensor。 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64、int32、int64。 - **return_inverse** (bool, 可选) - 如果为True,则还返回输入Tensor的元素对应在连续不重复元素中的索引,该索引可用于重构输入Tensor。默认:False. - **return_counts** (bool, 可选) - 如果为True,则还返回每个连续不重复元素在输入Tensor中的个数。默认:False. @@ -15,11 +17,14 @@ unique_consecutive - **dtype** (np.dtype|str, 可选) - 用于设置 `inverse` 或者 `counts` 的类型,应该为int32或者int64。默认:int64. - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回: +返回 +:::::::::::: + - **out** (Tensor) - 连续不重复元素构成的Tensor,数据类型与输入一致。 - **inverse** (Tensor, 可选) - 输入Tensor的元素对应在连续不重复元素中的索引,仅在 `return_inverse` 为True时返回。 - **counts** (Tensor, 可选) - 每个连续不重复元素在输入Tensor中的个数,仅在 `return_counts` 为True时返回。 -**代码示例**: +代码示例 +:::::::::::: COPY-FROM: paddle.unique_consecutive diff --git a/docs/api/paddle/unstack_cn.rst b/docs/api/paddle/unstack_cn.rst index 9400938c3b8..155cfdc1bb3 100644 --- a/docs/api/paddle/unstack_cn.rst +++ b/docs/api/paddle/unstack_cn.rst @@ -10,7 +10,9 @@ unstack 该OP将单个dim为 ``D`` 的Tensor沿 ``axis`` 轴unpack为 ``num`` 个dim为 ``(D-1)`` 的Tensor -参数: +参数 +:::::::::::: + - **x** (Tensor) – 输入x为 ``dim > 0`` 的Tensor, 支持的数据类型: float32,float64,int32,int64。 @@ -19,10 +21,13 @@ unstack - **num** (int | 可选) - axis轴的长度,一般无需设置,默认值为 ``None`` 。 -返回: 长度为num的Tensor列表, 数据类型与输入Tensor相同,dim为 ``(D-1)``。 +返回 +:::::::::::: + 长度为num的Tensor列表, 数据类型与输入Tensor相同,dim为 ``(D-1)``。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst b/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst index de8c4cb2066..f3f6b1c5ed0 100644 --- a/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst @@ -33,8 +33,12 @@ CUDAExtension -参数: +参数 +:::::::::::: + - **sources** (list[str]): 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp等后缀;cuda 源文件以 .cu 为后缀。 - **\*args, \*\*kwargs** (可选): 用于指定 Extension 的其他参数,支持的参数与 ``setuptools.Extension`` 一致。 -返回: ``setuptools.Extension`` 对象 +返回 +:::::::::::: + ``setuptools.Extension`` 对象 diff --git a/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst b/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst index f7d4b2edf86..c38c7f4334d 100644 --- a/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst @@ -31,8 +31,12 @@ CppExtension -参数: +参数 +:::::::::::: + - **sources** (list[str]): 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp等后缀 - **\*args, \*\*kwargs** (可选): 用于指定 Extension 的其他参数,支持的参数与 ``setuptools.Extension`` 一致。 -返回: ``setuptools.Extension`` 对象 \ No newline at end of file +返回 +:::::::::::: + ``setuptools.Extension`` 对象 \ No newline at end of file diff --git a/docs/api/paddle/utils/cpp_extension/get_build_directory_cn.rst b/docs/api/paddle/utils/cpp_extension/get_build_directory_cn.rst index 806716bb55b..5e704f6cbdc 100644 --- a/docs/api/paddle/utils/cpp_extension/get_build_directory_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/get_build_directory_cn.rst @@ -8,9 +8,12 @@ get_build_directory 此接口返回编译自定义 OP 时生成动态链接库所在的 build 目录路径。此目录可以通过 ``export PADDLE_EXTENSION_DIR=XXX`` 来设置。若未设定,则默认使用 ``~/.cache/paddle_extension`` 作为 build 目录。 -返回:编译自定义 OP 的 build 目录路径。 +返回 +:::::::::::: +编译自定义 OP 的 build 目录路径。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/utils/cpp_extension/load_cn.rst b/docs/api/paddle/utils/cpp_extension/load_cn.rst index e24c6ea0964..78f5b4698e5 100644 --- a/docs/api/paddle/utils/cpp_extension/load_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/load_cn.rst @@ -40,7 +40,9 @@ load out = custom_op_module.relu(x) -参数: +参数 +:::::::::::: + - **name** (str): 用于指定编译自定义 OP 时,生成的动态链接库的名字,不包括后缀如 .so 或者 .dll - **sources** (list[str]): 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp 等后缀;cuda 源文件以 .cu 为后缀。 - **extra_cxx_cflags** (list[str], 可选): 用于指定编译 cpp 源文件时额外的编译选项。默认情况下,Paddle 框架相关的必要选项均已被隐式地包含;默认值为 None 。 @@ -50,4 +52,6 @@ load - **build_directory** (str, 可选): 用于指定存放生成动态链接库的目录。若为 None, 则会使用环境变量 ``PADDLE_EXTENSION_DIR`` 的值作为默认的存放目录。可使用 :ref:`cn_api_paddle_utils_cpp_extension_get_build_directory` 接口查看当前的目录设置。默认值为 None 。 - **verbose** (str, 可选): 用于指定是否需要输出编译过程中的日志信息,默认为 False。 -返回: 包含自定义 OP 的可调用 Module 对象。 +返回 +:::::::::::: + 包含自定义 OP 的可调用 Module 对象。 diff --git a/docs/api/paddle/utils/cpp_extension/setup_cn.rst b/docs/api/paddle/utils/cpp_extension/setup_cn.rst index 6037c335515..c6fb3caa58a 100644 --- a/docs/api/paddle/utils/cpp_extension/setup_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/setup_cn.rst @@ -60,11 +60,15 @@ setup -参数: +参数 +:::::::::::: + - **name** (string) - 用于指定生成的动态链接库的名称,以及安装到 site-packages 的 ``Module`` 名字 - **ext_modules** (Extension): 用于指定包含自定义 OP 必要源文件、编译选项等信息的 ``Extension`` 。若只编译运行在 CPU 设备上的 OP,请使用 :ref:`cn_api_paddle_utils_cpp_extension_CppExtension` ; 若编译同时支持 GPU 设备上的 OP, 请使用 :ref:`cn_api_paddle_utils_cpp_extension_CUDAExtension` 。 - **include_dirs** (list[str], 可选): 用于指定编译自定义 OP 时额外的头文件搜索目录。此接口默认会自动添加 ``site-packages/paddle/include`` 目录。若自定义 OP 源码引用了其他三方库文件,可以通过此参数指定三方库的搜索目录。默认值为 None 。 - **extra_compile_args** (list[str] | dict, 可选): 用于指定编译自定义 OP 时额外的编译选项,如 ``-O3`` 等。若为 ``list[str]`` 类型,则表示这些编译选项会同时应用到 ``cc`` 和 ``nvcc`` 编译过程;可以通过 ``{'cxx': [...], 'nvcc': [...]}`` 字典的形式单独指定额外的 ``cc`` 或 ``nvcc`` 的编译选项。默认值为 None 。 - **\*\*attr** (dict, 可选) - 其他参数与 ``setuptools.setup`` 一致。 -返回:None +返回 +:::::::::::: +None diff --git a/docs/api/paddle/utils/deprecated_cn.rst b/docs/api/paddle/utils/deprecated_cn.rst index 56297168209..832c6398a2e 100644 --- a/docs/api/paddle/utils/deprecated_cn.rst +++ b/docs/api/paddle/utils/deprecated_cn.rst @@ -10,11 +10,15 @@ paddle_utils_deprecated - 修改被装饰API的相关docstring,添加即将废弃警告。 - 当相关API被调用时,向控制台输出相关warning信息 :class:`~exceptions.DeprecatedWarning`。 -参数: +参数 +:::::::::::: + - **since** (str) - 即将废弃相对应的版本号。 - **update_to** (str) - 新的API名称。 - **reason** (str) - 即将废弃该API的原因。 -返回:装饰器(装饰器函数或者装饰器类)。 +返回 +:::::::::::: +装饰器(装饰器函数或者装饰器类)。 diff --git a/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst b/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst index ce9fd2e0113..80a18da411d 100644 --- a/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst +++ b/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst @@ -7,14 +7,19 @@ get_weights_path_from_url 从 ``WEIGHT_HOME`` 文件夹获取权重,如果不存在,就从url下载 -参数: +参数 +:::::::::::: + - **url** (str) - 下载的链接。 - **md5sum** (str,可选) - 下载文件的md5值。默认值:None。 -返回:权重的本地路径。 +返回 +:::::::::::: +权重的本地路径。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/utils/unique_name/generate_cn.rst b/docs/api/paddle/utils/unique_name/generate_cn.rst index fef06fef75f..23b5dd2c813 100644 --- a/docs/api/paddle/utils/unique_name/generate_cn.rst +++ b/docs/api/paddle/utils/unique_name/generate_cn.rst @@ -10,12 +10,17 @@ generate 该接口产生以前缀key开头的唯一名称。目前,Paddle通过从0开始的编号对相同前缀key的名称进行区分。例如,使用key=fc连续调用该接口会产生fc_0, fc_1, fc_2等不同名称。 -参数: +参数 +:::::::::::: + - **key** (str) - 产生的唯一名称的前缀。 -返回:str, 含前缀key的唯一名称。 +返回 +:::::::::::: +str, 含前缀key的唯一名称。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/utils/unique_name/guard_cn.rst b/docs/api/paddle/utils/unique_name/guard_cn.rst index 1bee4ba5010..0c1728eab8d 100644 --- a/docs/api/paddle/utils/unique_name/guard_cn.rst +++ b/docs/api/paddle/utils/unique_name/guard_cn.rst @@ -10,12 +10,17 @@ guard 该接口用于更改命名空间,与with语句一起使用。使用后,在with语句的上下文中使用新的命名空间,调用generate接口时相同前缀的名称将从0开始重新编号。 -参数: +参数 +:::::::::::: + - **new_generator** (str|bytes, 可选) - 新命名空间的名称。请注意,Python2中的str在Python3中被区分为str和bytes两种,因此这里有两种类型。 缺省值为None,若不为None,new_generator将作为前缀添加到generate接口产生的唯一名称中。 -返回: 无。 +返回 +:::::::::::: + 无。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/utils/unique_name/switch_cn.rst b/docs/api/paddle/utils/unique_name/switch_cn.rst index 4f4970aa810..1d42a8bdf93 100644 --- a/docs/api/paddle/utils/unique_name/switch_cn.rst +++ b/docs/api/paddle/utils/unique_name/switch_cn.rst @@ -10,12 +10,17 @@ switch 该接口将当前上下文的命名空间切换到新的命名空间。该接口与guard接口都可用于更改命名空间,推荐使用guard接口,配合with语句管理命名空间上下文。 -参数: +参数 +:::::::::::: + - **new_generator** (UniqueNameGenerator, 可选) - 要切换到的新命名空间,一般无需设置。缺省值为None,表示切换到一个匿名的新命名空间。 -返回:UniqueNameGenerator, 先前的命名空间,一般无需操作该返回值。 +返回 +:::::::::::: +UniqueNameGenerator, 先前的命名空间,一般无需操作该返回值。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/version/cuda_cn.rst b/docs/api/paddle/version/cuda_cn.rst index 22d777a4dc3..07b0c98a4f2 100644 --- a/docs/api/paddle/version/cuda_cn.rst +++ b/docs/api/paddle/version/cuda_cn.rst @@ -8,7 +8,9 @@ cuda 获取 paddle 安装包编译时使用的 CUDA 版本号。 -返回: +返回 +:::::::::::: + ::::::::: 若paddle wheel包为GPU版本,则返回paddle wheel包编译时使用的CUDA的版本信息;若paddle wheel包为CPU版本,则返回 ``False`` 。 diff --git a/docs/api/paddle/version/cudnn_cn.rst b/docs/api/paddle/version/cudnn_cn.rst index 16e2b571b63..0c26d4fcf7a 100644 --- a/docs/api/paddle/version/cudnn_cn.rst +++ b/docs/api/paddle/version/cudnn_cn.rst @@ -8,7 +8,9 @@ cudnn 获取 paddle 安装包编译时使用的 cuDNN 版本号。 -返回: +返回 +:::::::::::: + ::::::::: 若paddle wheel包为GPU版本,则返回paddle wheel包编译时使用的cuDNN的版本信息;若paddle wheel包为CPU版本,则返回 ``False`` 。 diff --git a/docs/api/paddle/version/show_cn.rst b/docs/api/paddle/version/show_cn.rst index af8b353277d..3b3fb23d704 100644 --- a/docs/api/paddle/version/show_cn.rst +++ b/docs/api/paddle/version/show_cn.rst @@ -9,7 +9,9 @@ show 另外,打印paddle wheel包使用的CUDA和cuDNN的版本信息。 -返回: +返回 +:::::::::::: + ::::::::: 如果paddle wheel包不是正式发行版本,则输出wheel包编译时对应的commit id号。否则,输出如下信息: diff --git a/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst b/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst index 4917261924e..35837ad3794 100644 --- a/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst +++ b/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst @@ -14,7 +14,9 @@ DatasetFolder root/class_b/456.ext root/class_b/789.ext -参数: +参数 +:::::::::::: + - **root** (str) - 根目录路径。 - **loader** (callable,可选) - 可以加载数据路径的一个函数,如果该值没有设定,默认使用 ``cv2.imread`` 。默认值:None。 - **extensions** (tuple[str],可选) - 允许的数据后缀列表,如果该值没有设定,默认使用 ``('.jpg', '.jpeg', '.png', '.ppm', '.bmp', '.pgm', '.tif', '.tiff', '.webp')`` 。默认值:None。 @@ -22,7 +24,8 @@ DatasetFolder - **is_valid_file** (callable,可选) - 根据每条数据的路径来判断是否合法的一个函数。默认值:None。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/vision/datasets/ImageFolder_cn.rst b/docs/api/paddle/vision/datasets/ImageFolder_cn.rst index 15b4f14756d..6262b869dc8 100644 --- a/docs/api/paddle/vision/datasets/ImageFolder_cn.rst +++ b/docs/api/paddle/vision/datasets/ImageFolder_cn.rst @@ -10,7 +10,9 @@ ImageFolder root/2.ext root/sub_dir/3.ext -参数: +参数 +:::::::::::: + - **root** (str) - 根目录路径。 - **loader** (callable,可选) - 可以加载数据路径的一个函数,如果该值没有设定,默认使用 ``cv2.imread`` 。默认值:None。 - **extensions** (tuple[str],可选) - 允许的数据后缀列表,如果该值没有设定,默认使用 ``('.jpg', '.jpeg', '.png', '.ppm', '.bmp', '.pgm', '.tif', '.tiff', '.webp')`` 。默认值:None。 @@ -18,7 +20,8 @@ ImageFolder - **is_valid_file** (callable,可选) - 根据每条数据的路径来判断是否合法的一个函数。默认值:None。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/vision/ops/DeformConv2D_cn.rst b/docs/api/paddle/vision/ops/DeformConv2D_cn.rst index 437e8c33345..7848167e744 100644 --- a/docs/api/paddle/vision/ops/DeformConv2D_cn.rst +++ b/docs/api/paddle/vision/ops/DeformConv2D_cn.rst @@ -43,7 +43,9 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x W_{out}&= \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (W_f - 1) + 1))}{strides[1]} + 1 -参数: +参数 +:::::::::::: + - **in_channels** (int) - 输入图像的通道数。 - **out_channels** (int) - 由卷积操作产生的输出的通道数。 - **kernel_size** (int|list|tuple) - 卷积核大小。可以为单个整数或包含两个整数的元组或列表,分别表示卷积核的高和宽。如果为单个整数,表示卷积核的高和宽都等于该整数。 @@ -70,7 +72,8 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x W_{out} = \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (kernel\_size[1] - 1) + 1))}{strides[1]} + 1 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/vision/ops/deform_conv2d_cn.rst b/docs/api/paddle/vision/ops/deform_conv2d_cn.rst index d0f0a7d7e13..9927ba0513a 100755 --- a/docs/api/paddle/vision/ops/deform_conv2d_cn.rst +++ b/docs/api/paddle/vision/ops/deform_conv2d_cn.rst @@ -42,7 +42,9 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x W_{out}&= \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (W_f - 1) + 1))}{strides[1]} + 1 -参数: +参数 +:::::::::::: + - **x** (Tensor) - 形状为 :math:`[N, C, H, W]` 的输入Tensor,数据类型为float32或float64。 - **offset** (Tensor) – 可变形卷积层的输入坐标偏移,数据类型为float32或float64。 - **weight** (Tensor) – 卷积核参数,形状为 :math:`[[M, C/g, kH, kW]`, 其中 M 是输出通道数,g 是group组数,kH是卷积核高度尺寸,kW是卷积核宽度尺寸。数据类型为float32或float64。 @@ -55,10 +57,13 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x - **mask** (Tensor, 可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:可变形卷积输出的4-D Tensor,数据类型为float32或float64。 +返回 +:::::::::::: +可变形卷积输出的4-D Tensor,数据类型为float32或float64。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/vision/ops/yolo_loss_cn.rst b/docs/api/paddle/vision/ops/yolo_loss_cn.rst index 54fda2f510d..4ef2e155118 100644 --- a/docs/api/paddle/vision/ops/yolo_loss_cn.rst +++ b/docs/api/paddle/vision/ops/yolo_loss_cn.rst @@ -51,7 +51,9 @@ yolov3 loss前的网络输出形状为[N,C,H,W],H和W应该相同,用 -参数: +参数 +:::::::::::: + - **x** (Tensor) : YOLOv3损失运算的输入张量,这是一个形状为[N,C,H,W]的四维Tensor。H和W应该相同,第二维(C)存储框的位置信息,以及每个anchor box的置信度得分和one-hot分类。数据类型为float32或float64。 - **gt_box** (Tensor) : 真实框,应该是[N,B,4]的形状。第三维用来承载x、y、w、h,其中 x, y是真实框的中心坐标,w, h是框的宽度和高度,且x、y、w、h将除以输入图片的尺寸,缩放到[0,1]区间内。 N是batch size,B是图像中所含有的的最多的box数目。数据类型为float32或float64。 - **gt_label** (Tensor) : 真实框的类id,应该形为[N,B]。数据类型为int32。 diff --git a/docs/api/paddle/where_cn.rst b/docs/api/paddle/where_cn.rst index 283efac5a4f..540af96a4c3 100644 --- a/docs/api/paddle/where_cn.rst +++ b/docs/api/paddle/where_cn.rst @@ -22,18 +22,25 @@ where .. note:: ``numpy.where(condition)`` 功能与 ``paddle.nonzero(condition, as_tuple=True)`` 相同。 -参数: +参数 +:::::::::::: + - **condition** (Tensor)- 选择 ``x`` 或 ``y`` 元素的条件 。为 ``True`` (非零值)时,选择 ``x`` ,否则选择 ``y`` 。 - **x** (Tensor,Scalar,可选)- 多维 ``Tensor`` 或 ``Scalar``,数据类型为 ``float32`` 或 ``float64`` 或 ``int32`` 或 ``int64`` 。``x`` 和 ``y`` 必须都给出或者都不给出。 - **y** (Tensor,Scalar,可选)- 多维 ``Tensor`` 或 ``Scalar``,数据类型为 ``float32`` 或 ``float64`` 或 ``int32`` 或 ``int64`` 。``x`` 和 ``y`` 必须都给出或者都不给出。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -返回:数据类型与 ``x`` 相同的 ``Tensor`` 。 +返回 +:::::::::::: +数据类型与 ``x`` 相同的 ``Tensor`` 。 -返回类型:Tensor。 +返回类型 +:::::::::::: +Tensor。 -**代码示例:** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/zeros_cn.rst b/docs/api/paddle/zeros_cn.rst index afb14da50da..0bd8ea58924 100644 --- a/docs/api/paddle/zeros_cn.rst +++ b/docs/api/paddle/zeros_cn.rst @@ -9,18 +9,25 @@ zeros 该OP创建形状为 ``shape`` 、数据类型为 ``dtype`` 且值全为0的Tensor。 -参数: +参数 +:::::::::::: + - **shape** (tuple|list|Tensor) - 输出Tensor的形状, ``shape`` 的数据类型为int32或者int64。 - **dtype** (np.dtype|str,可选) - 输出Tensor的数据类型,数据类型必须为bool、float16、float32、float64、int32或int64。若为None,数据类型为float32, 默认为None。 - **name** (str, 可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -返回:值全为0的Tensor,数据类型和 ``dtype`` 定义的类型一致。 +返回 +:::::::::::: +值全为0的Tensor,数据类型和 ``dtype`` 定义的类型一致。 + +抛出异常 +:::::::::::: -抛出异常: - ``TypeError`` - 当 ``dtype`` 不是bool、 float16、float32、float64、int32、int64和None时。 - ``TypeError`` - 当 ``shape`` 不是tuple、list、或者Tensor时, 当 ``shape`` 为Tensor,其数据类型不是int32或者int64时。 -**代码示例**: +代码示例 +:::::::::::: .. code-block:: python From 8774748916c152407b854a2440a6bba3118c63ba Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 17:24:56 +0800 Subject: [PATCH 002/107] Update DataParallel_cn.rst --- docs/api/paddle/DataParallel_cn.rst | 30 ++++++++++++++++------------- 1 file changed, 17 insertions(+), 13 deletions(-) diff --git a/docs/api/paddle/DataParallel_cn.rst b/docs/api/paddle/DataParallel_cn.rst index e42a0f610f3..e997648772b 100644 --- a/docs/api/paddle/DataParallel_cn.rst +++ b/docs/api/paddle/DataParallel_cn.rst @@ -33,11 +33,7 @@ DataParallel 返回 :::::::::::: -支持数据并行的 ``Layer`` - -返回类型 -:::::::::::: -Layer实例 +支持数据并行的 ``Layer``。 代码示例 :::::::::::: @@ -66,15 +62,19 @@ state_dict(destination=None, include_sublayers=True) 获取当前层及其子层的所有parameters和持久的buffers。并将所有parameters和buffers存放在dict结构中。 -**参数** +参数 +:::::::::::: - **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数和持久的buffers都将存放在 ``destination`` 中。 默认值:None。 - **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。 -**返回** -dict, 包含所有parameters和持久的buffers的dict +返回 +:::::::::::: +dict, 包含所有parameters和持久的buffers的dict。 + +代码示例 +:::::::::::: -**代码示例** COPY-FROM: paddle.DataParallel.state_dict @@ -83,14 +83,18 @@ set_state_dict(state_dict, use_structured_name=True) 根据传入的 ``state_dict`` 设置parameters和持久的buffers。 所有parameters和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。 -**参数** +参数 +:::::::::::: - **state_dict** (dict) - 包含所有parameters和可持久性buffers的dict。 - **use_structured_name** (bool, 可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。 -**返回** + +返回 +:::::::::::: 无 -**代码示例** +代码示例 +:::::::::::: -COPY-FROM: paddle.DataParallel.set_state_dict \ No newline at end of file +COPY-FROM: paddle.DataParallel.set_state_dict From 124afbc86f66dcfebcf9b95cc4bbdc7f588ed9bd Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:02:33 +0800 Subject: [PATCH 003/107] Update Model_cn.rst --- docs/api/paddle/Model_cn.rst | 9 +-------- 1 file changed, 1 insertion(+), 8 deletions(-) diff --git a/docs/api/paddle/Model_cn.rst b/docs/api/paddle/Model_cn.rst index 38d8d72fb0d..0e373103340 100644 --- a/docs/api/paddle/Model_cn.rst +++ b/docs/api/paddle/Model_cn.rst @@ -151,11 +151,8 @@ eval_batch(inputs, labels=None) 返回 :::::::::::: -如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 +list,如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 -返回类型 -:::::::::::: -list 代码示例 :::::::::::: @@ -200,10 +197,6 @@ predict_batch(inputs) :::::::::::: 一个列表,包含了模型的输出。 -返回类型 -:::::::::::: -list - 代码示例 :::::::::::: From 81acc41c8d92dae886ed445fdedb6e1f63ace13c Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:04:20 +0800 Subject: [PATCH 004/107] Update add_n_cn.rst --- docs/api/paddle/add_n_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/add_n_cn.rst b/docs/api/paddle/add_n_cn.rst index 17ce19c68d0..9e20c9f6b2c 100644 --- a/docs/api/paddle/add_n_cn.rst +++ b/docs/api/paddle/add_n_cn.rst @@ -48,7 +48,7 @@ add_n 返回 :::::::::::: -Tensor, 输入 ``inputs`` 求和后的结果,shape和数据类型与 ``inputs`` 一致。 +Tensor,输入 ``inputs`` 求和后的结果,shape和数据类型与 ``inputs`` 一致。 代码示例 From 30f3b419d1ea6ec4f8f84f8afe7767ed64ad20b7 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:05:53 +0800 Subject: [PATCH 005/107] Update addmm_cn.rst --- docs/api/paddle/addmm_cn.rst | 15 +++++---------- 1 file changed, 5 insertions(+), 10 deletions(-) diff --git a/docs/api/paddle/addmm_cn.rst b/docs/api/paddle/addmm_cn.rst index 40ceebcd646..c8e126dd5ba 100644 --- a/docs/api/paddle/addmm_cn.rst +++ b/docs/api/paddle/addmm_cn.rst @@ -19,22 +19,17 @@ addmm 参数 :::::::::::: - - **input** (Tensor):输入Tensor input,数据类型支持float32, float64。 - - **x** (Tensor):输入Tensor x,数据类型支持float32, float64。 - - **y** (Tensor):输入Tensor y,数据类型支持float32, float64。 - - **alpha** (float,可选):乘以x*y的标量,数据类型支持float32, float64,默认值为1.0。 - - **beta** (float,可选):乘以input的标量,数据类型支持float32, float64,默认值为1.0。 + - **input** (Tensor):输入Tensor input,数据类型支持float32,float64。 + - **x** (Tensor):输入Tensor x,数据类型支持float32,float64。 + - **y** (Tensor):输入Tensor y,数据类型支持float32,float64。 + - **alpha** (float,可选):乘以x*y的标量,数据类型支持float32,float64,默认值为1.0。 + - **beta** (float,可选):乘以input的标量,数据类型支持float32,float64,默认值为1.0。 - **name** (str,可选):具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: 计算得到的Tensor。Tensor数据类型与输入input数据类型一致。 -返回类型 -:::::::::::: -变量(Tensor) - - 代码示例 :::::::::::: From 73ea64820ff40c6313847d1f7e075280d3196f72 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:12:24 +0800 Subject: [PATCH 006/107] Update GradScaler_cn.rst --- docs/api/paddle/amp/GradScaler_cn.rst | 73 ++++++++++++++++++++------- 1 file changed, 54 insertions(+), 19 deletions(-) diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 404c585768e..5b4777de7e3 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -61,10 +61,15 @@ scale(var) 将Tensor乘上缩放因子,返回缩放后的输出。 如果这个 :class:`GradScaler` 的实例不使用loss scaling,则返回的输出将保持不变。 -**参数:** + +参数 +::::::::: - **var** (Tensor) - 需要进行缩放的Tensor。 -**返回:**缩放后的Tensor或者原Tensor。 + +返回 +::::::::: + 缩放后的Tensor或者原Tensor。 代码示例 :::::::::::: @@ -94,7 +99,8 @@ minimize(optimizer, *args, **kwargs) 如果参数缩放后的梯度包含NAN或者INF,则跳过参数更新。否则,首先让缩放过梯度的参数取消缩放,然后更新参数。 最终,更新loss scaling的比例。 -**参数:** +参数 +::::::::: - **optimizer** (Optimizer) - 用于更新参数的优化器。 - **args** - 参数,将会被传递给 ``optimizer.minimize()`` 。 - **kwargs** - 关键词参数,将会被传递给 ``optimizer.minimize()`` 。 @@ -127,7 +133,8 @@ step(optimizer) 如果参数缩放后的梯度包含NAN或者INF,则跳过参数更新。否则,首先让缩放过梯度的参数取消缩放,然后更新参数。 该函数与 ``update()`` 函数一起使用,效果等同于 ``minimize()``。 -**参数:** +参数 +::::::::: - **optimizer** (Optimizer) - 用于更新参数的优化器。 代码示例 @@ -182,7 +189,8 @@ unscale_(optimizer) 如果在 ``step()`` 调用前调用 ``unscale_()``,则 ``step()`` 不会重复调用 ``unscale()``,否则 ``step()`` 将先执行 ``unscale_()`` 再做参数更新。 ``minimize()`` 用法同上。 -**参数:** +参数 +::::::::: - **optimizer** (Optimizer) - 用于更新参数的优化器。 代码示例 @@ -211,7 +219,9 @@ is_enable() 判断是否开启loss scaling策略。 -**返回:**bool,采用loss scaling策略返回True,否则返回False。 +返回 +::::::::: + bool,采用loss scaling策略返回True,否则返回False。 代码示例 :::::::::::: @@ -234,7 +244,9 @@ is_use_dynamic_loss_scaling() 判断是否动态调节loss scaling的缩放比例。 -**返回:**bool,动态调节loss scaling缩放比例返回True,否则返回False。 +返回 +::::::::: + bool,动态调节loss scaling缩放比例返回True,否则返回False。 代码示例 :::::::::::: @@ -257,7 +269,9 @@ get_init_loss_scaling() 返回初始化的loss scaling缩放比例。 -**返回:**float,初始化的loss scaling缩放比例。 +返回 +::::::::: + float,初始化的loss scaling缩放比例。 代码示例 :::::::::::: @@ -280,7 +294,8 @@ set_init_loss_scaling(new_init_loss_scaling) 利用输入的new_init_loss_scaling对初始缩放比例参数init_loss_scaling重新赋值。 -**参数:** +参数 +::::::::: - **new_init_loss_scaling** (float) - 用于更新缩放比例的参数。 代码示例 @@ -306,7 +321,10 @@ get_incr_ratio() 返回增大loss scaling时使用的乘数。 -**返回:**float,增大loss scaling时使用的乘数。 + +返回 +::::::::: + float,增大loss scaling时使用的乘数。 代码示例 :::::::::::: @@ -329,7 +347,8 @@ set_incr_ratio(new_incr_ratio) 利用输入的new_incr_ratio对增大loss scaling时使用的乘数重新赋值。 -**参数:** +参数 +::::::::: - **new_incr_ratio** (float) - 用于更新增大loss scaling时使用的乘数,该值需>1.0。 代码示例 @@ -355,7 +374,10 @@ get_decr_ratio() 返回缩小loss scaling时使用的乘数。 -**返回:**float,缩小loss scaling时使用的乘数。 + +返回 +::::::::: + float,缩小loss scaling时使用的乘数。 代码示例 :::::::::::: @@ -378,7 +400,8 @@ set_decr_ratio(new_decr_ratio) 利用输入的new_decr_ratio对缩小loss scaling时使用的乘数重新赋值。 -**参数:** +参数 +::::::::: - **new_decr_ratio** (float) - 用于更新缩小loss scaling时使用的乘数,该值需<1.0。 代码示例 @@ -404,7 +427,10 @@ get_incr_every_n_steps() 连续n个steps的梯度都是有限值时,增加loss scaling,返回对应的值n。 -**返回:**int,参数incr_every_n_steps。 + +返回 +::::::::: + int,参数incr_every_n_steps。 代码示例 :::::::::::: @@ -427,7 +453,8 @@ set_incr_every_n_steps(new_incr_every_n_steps) 利用输入的new_incr_every_n_steps对参数incr_every_n_steps重新赋值。 -**参数:** +参数 +::::::::: - **new_incr_every_n_steps** (int) - 用于更新参数incr_every_n_steps。 代码示例 @@ -453,7 +480,10 @@ get_decr_every_n_nan_or_inf() 累计出现n个steps的梯度为nan或者inf时,减小loss scaling,返回对应的值n。 -**返回:**int,参数decr_every_n_nan_or_inf。 + +返回 +::::::::: + int,参数decr_every_n_nan_or_inf。 代码示例 :::::::::::: @@ -476,7 +506,8 @@ set_decr_every_n_nan_or_inf(new_decr_every_n_nan_or_inf) 利用输入的new_decr_every_n_nan_or_inf对参数decr_every_n_nan_or_inf重新赋值。 -**参数:** +参数 +::::::::: - **new_decr_every_n_nan_or_inf** (int) - 用于更新参数decr_every_n_nan_or_inf。 代码示例 @@ -502,7 +533,10 @@ state_dict() 以字典的形式存储GradScaler对象的状态参数,如果该对象的enable为False,则返回一个空的字典。 -**返回:**dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 + +返回 +::::::::: + dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 代码示例 :::::::::::: @@ -525,7 +559,8 @@ load_state_dict(state_dict) 利用输入的state_dict设置或更新GradScaler对象的属性参数。 -**参数:** +参数 +::::::::: - **state_dict** (dict) - 用于设置或更新GradScaler对象的属性参数,dict需要是``GradScaler.state_dict()``的返回值。 代码示例 From 7340df54f268574d1d22468412a26cc17062c906 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:14:08 +0800 Subject: [PATCH 007/107] Update auto_cast_cn.rst --- docs/api/paddle/amp/auto_cast_cn.rst | 4 +--- 1 file changed, 1 insertion(+), 3 deletions(-) diff --git a/docs/api/paddle/amp/auto_cast_cn.rst b/docs/api/paddle/amp/auto_cast_cn.rst index 3f3912b7443..7bb223ed8ce 100644 --- a/docs/api/paddle/amp/auto_cast_cn.rst +++ b/docs/api/paddle/amp/auto_cast_cn.rst @@ -13,8 +13,6 @@ auto_cast 参数 -:::::::::::: - ::::::::: - **enable** (bool, 可选) - 是否开启自动混合精度。默认值为True。 - **custom_white_list** (set|list, 可选) - 自定义算子白名单。这个名单中的算子在支持float16计算时会被认为是数值安全的,并且对性能至关重要。如果设置了白名单,该名单中的算子会使用float16计算。 @@ -22,6 +20,6 @@ auto_cast - **level** (str, 可选) - 混合精度训练模式,可为``O1``或``O2``模式,默认``O1``模式。 -代码示例: +代码示例 ::::::::: COPY-FROM: paddle.amp.auto_cast From 165ff004d4630bbbe273f37bab3aea73851fda03 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:16:59 +0800 Subject: [PATCH 008/107] Update decorate_cn.rst --- docs/api/paddle/amp/decorate_cn.rst | 1 - 1 file changed, 1 deletion(-) diff --git a/docs/api/paddle/amp/decorate_cn.rst b/docs/api/paddle/amp/decorate_cn.rst index fd80cf01e99..dc20f5c6333 100644 --- a/docs/api/paddle/amp/decorate_cn.rst +++ b/docs/api/paddle/amp/decorate_cn.rst @@ -14,7 +14,6 @@ decorate 参数 :::::::::::: -::::::::: - **models** (Layer|list of Layer) - 网络模型。在``O2``模式下,输入的模型参数将由float32转为float16。 - **optimizers** (Optimizer|list of Optimizer, 可选) - 优化器,默认值为None,若传入优化器或由优化器组成的list列表,将依据master_weight对优化器的master_weight属性进行设置。 - **level** (str, 可选) - 混合精度训练模式,默认``O1``模式。 From 175c69f162f7f6a43765c2842515da8528e5d1cd Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:17:35 +0800 Subject: [PATCH 009/107] Update asin_cn.rst --- docs/api/paddle/asin_cn.rst | 4 ---- 1 file changed, 4 deletions(-) diff --git a/docs/api/paddle/asin_cn.rst b/docs/api/paddle/asin_cn.rst index d27290bb4c0..920e6146c00 100644 --- a/docs/api/paddle/asin_cn.rst +++ b/docs/api/paddle/asin_cn.rst @@ -23,10 +23,6 @@ arcsine函数。 :::::::::::: 输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -:::::::::::: - Tensor - 代码示例 :::::::::::: From 5cfad57a0d1f8d984cf8f5a52084c34963925045 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:18:30 +0800 Subject: [PATCH 010/107] Update atan_cn.rst --- docs/api/paddle/atan_cn.rst | 4 ---- 1 file changed, 4 deletions(-) diff --git a/docs/api/paddle/atan_cn.rst b/docs/api/paddle/atan_cn.rst index 582ae43b0b3..b2fd8e9525e 100644 --- a/docs/api/paddle/atan_cn.rst +++ b/docs/api/paddle/atan_cn.rst @@ -23,10 +23,6 @@ arctangent函数。 :::::::::::: 输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -:::::::::::: - Tensor - 代码示例 :::::::::::: From 8ef69c8122eaf9e4f34e959d8e3e24c97d5415eb Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:20:31 +0800 Subject: [PATCH 011/107] Update PyLayerContext_cn.rst --- docs/api/paddle/autograd/PyLayerContext_cn.rst | 15 ++++++++++----- 1 file changed, 10 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/autograd/PyLayerContext_cn.rst b/docs/api/paddle/autograd/PyLayerContext_cn.rst index 97f3d597a66..32886475ef0 100644 --- a/docs/api/paddle/autograd/PyLayerContext_cn.rst +++ b/docs/api/paddle/autograd/PyLayerContext_cn.rst @@ -42,14 +42,17 @@ save_for_backward(self, *tensors) .. note:: 这个API只能被调用一次,且只能在 ``forward`` 中调用。 -**参数** +参数 +:::::::::::: - **tensors** (list of Tensor) - 需要被暂存的 ``Tensor`` -**返回** +返回 +:::::::::::: None -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -79,10 +82,12 @@ saved_tensor(self, *tensors) 获取被 ``save_for_backward`` 暂存的 ``Tensor`` 。 -**返回** +返回 +:::::::::::: 如果调用 ``save_for_backward`` 暂存了一些 ``Tensor`` ,则返回这些 ``Tensor`` ,否则,返回 None。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python From 2fdadd56b67e4465659aade89e32ace1e780495f Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:24:35 +0800 Subject: [PATCH 012/107] Update PyLayer_cn.rst --- docs/api/paddle/autograd/PyLayer_cn.rst | 27 ++++++++++++++++--------- 1 file changed, 18 insertions(+), 9 deletions(-) diff --git a/docs/api/paddle/autograd/PyLayer_cn.rst b/docs/api/paddle/autograd/PyLayer_cn.rst index b4243f648be..457736847e9 100644 --- a/docs/api/paddle/autograd/PyLayer_cn.rst +++ b/docs/api/paddle/autograd/PyLayer_cn.rst @@ -60,14 +60,17 @@ forward(ctx, *args, **kwargs) ``forward`` 函数必须被子类重写,它的第一个参数是 :ref:`cn_api_autograd_PyLayerContext` 的对象,其他输入参数的类型和数量任意。 -**参数** +参数 +:::::::::::: - **\*args** (tuple) - 自定义算子的输入 - **\*\*kwargs** (dict) - 自定义算子的输入 -**返回** +返回 +:::::::::::: Tensor或至少包含一个Tensor的list/tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -95,14 +98,17 @@ backward(ctx, *args, **kwargs) ``backward`` 函数的作用是计算梯度,它必须被子类重写,其第一个参数为 :ref:`cn_api_autograd_PyLayerContext` 的对象,其他输入参数为 ``forward`` 输出 ``Tensor`` 的梯度。它的输出 ``Tensor`` 为 ``forward`` 输入 ``Tensor`` 的梯度。 -**参数** +参数 +:::::::::::: - **\*args** (tuple) - ``forward`` 输出 ``Tensor`` 的梯度。 - **\*\*kwargs** (dict) - ``forward`` 输出 ``Tensor`` 的梯度。 -**返回** +返回 +:::::::::::: ``forward`` 输入 ``Tensor`` 的梯度。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -130,14 +136,17 @@ apply(cls, *args, **kwargs) 构建完自定义算子后,通过 ``apply`` 运行算子。 -**参数** +参数 +:::::::::::: - **\*args** (tuple) - 自定义算子的输入 - **\*\*kwargs** (dict) - 自定义算子的输入 -**返回** +返回 +:::::::::::: Tensor或至少包含一个Tensor的list/tuple -**代码示例** +代码示例 +:::::::::::: .. code-block:: python From c248c6a58f5797478ef6e5c50a3dd2dc1c2a9994 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:25:29 +0800 Subject: [PATCH 013/107] Update bincount_cn.rst --- docs/api/paddle/bincount_cn.rst | 4 ---- 1 file changed, 4 deletions(-) diff --git a/docs/api/paddle/bincount_cn.rst b/docs/api/paddle/bincount_cn.rst index 40858f244c3..8b0f34d2434 100644 --- a/docs/api/paddle/bincount_cn.rst +++ b/docs/api/paddle/bincount_cn.rst @@ -8,8 +8,6 @@ bincount 统计输入张量中每个元素出现的次数,如果传入weights张量则每次计数加一时会乘以weights张量对应的值 参数 -:::::::::::: - :::::::::::: - **x** (Tensor) - 输入Tensor。必须是一维Tensor,其中元素必须大于等于0,数据类型为int32, int64。 @@ -18,8 +16,6 @@ bincount - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 -:::::::::::: - :::::::::::: Tensor,维度为1。 From 03d8c6568aaade43a2bda8691f6eeea0cfd7bfc5 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:29:58 +0800 Subject: [PATCH 014/107] Update cast_cn.rst --- docs/api/paddle/cast_cn.rst | 10 +++------- 1 file changed, 3 insertions(+), 7 deletions(-) diff --git a/docs/api/paddle/cast_cn.rst b/docs/api/paddle/cast_cn.rst index 1096a0ac224..d4da2f21137 100644 --- a/docs/api/paddle/cast_cn.rst +++ b/docs/api/paddle/cast_cn.rst @@ -8,21 +8,17 @@ cast -该OP将 ``x`` 的数据类型转换为 ``dtype`` 并输出。支持输出和输入的数据类型相同。 +将 ``x`` 的数据类型转换为 ``dtype`` 并输出。支持输出和输入的数据类型相同。 参数 :::::::::::: - - **x** (Tensor) - 输入的多维Tensor或LoDTensor,支持的数据类型为:bool、float16、float32、float64、uint8、int32、int64。 + - **x** (Tensor) - 输入多维Tensor,支持的数据类型为:bool、float16、float32、float64、uint8、int32、int64。 - **dtype** (str|np.dtype) - 输出Tensor的数据类型。支持的数据类型为:bool、float16、float32、float64、int8、int32、int64、uint8。 返回 :::::::::::: -Tensor或LoDTensor,维度与 ``x`` 相同,数据类型为 ``dtype`` - -返回类型 -:::::::::::: -Tensor +Tensor,维度与 ``x`` 相同,数据类型为 ``dtype``。 代码示例 :::::::::::: From 12d81168352eadbccc3cdbcc4afa1b3184ab9b9e Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:31:02 +0800 Subject: [PATCH 015/107] Update ceil_cn.rst --- docs/api/paddle/ceil_cn.rst | 4 ---- 1 file changed, 4 deletions(-) diff --git a/docs/api/paddle/ceil_cn.rst b/docs/api/paddle/ceil_cn.rst index 42570ad7842..9b626d86f09 100644 --- a/docs/api/paddle/ceil_cn.rst +++ b/docs/api/paddle/ceil_cn.rst @@ -25,10 +25,6 @@ ceil :::::::::::: 输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -:::::::::::: - Tensor - 代码示例 :::::::::::: From 37e96f91c7d3ab27b6ddf3e4f21f19e496bb6150 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:33:04 +0800 Subject: [PATCH 016/107] Update Event_cn.rst --- docs/api/paddle/device/cuda/Event_cn.rst | 15 ++++++++++----- 1 file changed, 10 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/device/cuda/Event_cn.rst b/docs/api/paddle/device/cuda/Event_cn.rst index c69081d6b42..a07557ab23c 100644 --- a/docs/api/paddle/device/cuda/Event_cn.rst +++ b/docs/api/paddle/device/cuda/Event_cn.rst @@ -35,11 +35,13 @@ record(CUDAStream=None) 记录event 到给定的stream。 -**参数** +参数 +:::::::::::: - **stream** (CUDAStream, 可选) - CUDA stream的句柄。如果为None,stream为当前的stream。默认值为False。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -53,10 +55,12 @@ query() 查询event的状态。 -**返回** +返回 +:::::::::::: 一个boolean 变量,用于标识当前event 获取的所有任务是否被完成。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python @@ -71,7 +75,8 @@ synchronize() 等待当前event 完成。 -**代码示例** +代码示例 +:::::::::::: .. code-block:: python From df8afd15848b070b2f14401004d7e295dcff5e6f Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:40:25 +0800 Subject: [PATCH 017/107] Update Model_cn.rst --- docs/api/paddle/Model_cn.rst | 107 +++++++++++++++-------------------- 1 file changed, 47 insertions(+), 60 deletions(-) diff --git a/docs/api/paddle/Model_cn.rst b/docs/api/paddle/Model_cn.rst index 0e373103340..e0f5ebfa5a2 100644 --- a/docs/api/paddle/Model_cn.rst +++ b/docs/api/paddle/Model_cn.rst @@ -99,19 +99,18 @@ train_batch(inputs, labels=None) 在一个批次的数据上进行训练。 -参数 -:::::::::::: +**参数** - **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray``。 - **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。 -返回 -:::::::::::: +**返回** + 如果没有定义评估函数,则返回包含了训练损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 -代码示例 -:::::::::::: +**代码示例** + .. code-block:: python @@ -143,19 +142,18 @@ eval_batch(inputs, labels=None) 在一个批次的数据上进行评估。 -参数 -:::::::::::: +**参数** + - **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。 - **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。 -返回 -:::::::::::: +**返回** + list,如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -188,17 +186,17 @@ predict_batch(inputs) 在一个批次的数据上进行测试。 -参数 -:::::::::::: +**参数** + - **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。 -返回 -:::::::::::: +**返回** + 一个列表,包含了模型的输出。 -代码示例 -:::::::::::: +**代码示例** + .. code-block:: python @@ -231,18 +229,17 @@ save(path, training=True) 将模型的参数和训练过程中优化器的信息保存到指定的路径,以及推理所需的参数与文件。如果training=True,所有的模型参数都会保存到一个后缀为 ``.pdparams`` 的文件中。 所有的优化器信息和相关参数,比如 ``Adam`` 优化器中的 ``beta1`` , ``beta2`` ,``momentum`` 等,都会被保存到后缀为 ``.pdopt``。如果优化器比如SGD没有参数,则该不会产生该文件。如果training=False,则不会保存上述说的文件。只会保存推理需要的参数文件和模型文件。 -参数 -:::::::::::: +**参数** + - **path** (str) - 保存的文件名前缀。格式如 ``dirname/file_prefix`` 或者 ``file_prefix`` 。 - **training** (bool,可选) - 是否保存训练的状态,包括模型参数和优化器参数等。如果为False,则只保存推理所需的参数与文件。默认值:True。 -返回 -:::::::::::: +**返回** + None -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -292,19 +289,19 @@ load(path, skip_mismatch=False, reset_optimizer=False) 从指定的文件中载入模型参数和优化器参数,如果不想恢复优化器参数信息,优化器信息文件可以不存在。需要注意的是:参数名称的检索是根据保存模型时结构化的名字,当想要载入参数进行迁移学习时要保证预训练模型和当前的模型的参数有一样结构化的名字。 -参数 -:::::::::::: +**参数** + - **path** (str) - 保存参数或优化器信息的文件前缀。格式如 ``path.pdparams`` 或者 ``path.pdopt`` ,后者是非必要的,如果不想恢复优化器信息。 - **skip_mismatch** (bool) - 是否需要跳过保存的模型文件中形状或名称不匹配的参数,设置为 ``False`` 时,当遇到不匹配的参数会抛出一个错误。默认值:False。 - **reset_optimizer** (bool) - 设置为 ``True`` 时,会忽略提供的优化器信息文件。否则会载入提供的优化器信息。默认值:False。 -返回 -:::::::::::: +**返回** + None -代码示例 -:::::::::::: +**代码示例** + .. code-block:: python @@ -331,12 +328,11 @@ parameters(*args, **kwargs) 返回一个包含模型所有参数的列表。 -返回 -:::::::::::: +**返回** + 在静态图中返回一个包含 ``Parameter`` 的列表,在动态图中返回一个包含 ``ParamBase`` 的列表。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -357,8 +353,7 @@ prepare(optimizer=None, loss=None, metrics=None, amp_configs=None) 配置模型所需的部件,比如优化器、损失函数和评价指标。 -参数 -:::::::::::: +**参数** - **optimizer** (Optimizer) - 当训练模型的,该参数必须被设定。当评估或测试的时候,该参数可以不设定。默认值:None。 - **loss** (Loss) - 当训练模型的,该参数必须被设定。默认值:None。 @@ -371,8 +366,7 @@ fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_fr 训练模型。当 ``eval_data`` 给定时,会在 ``eval_freq`` 个 ``epoch`` 后进行一次评估。 -参数 -:::::::::::: +**参数** - **train_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。 - **eval_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。当给定时,会在每个 ``epoch`` 后都会进行评估。默认值:None。 @@ -388,12 +382,11 @@ fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_fr - **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``train_data`` 和 ``eval_data`` 都为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:0。 - **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。该参数不给定时,默认会插入 ``ProgBarLogger`` 和 ``ModelCheckpoint`` 这两个实例。默认值:None。 -返回 -:::::::::::: +**返回** + None -代码示例 -:::::::::::: +**代码示例** 1. 使用Dataset训练,并设置batch_size的例子。 @@ -479,8 +472,7 @@ evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbac 在输入数据上,评估模型的损失函数值和评估指标。 -参数 -:::::::::::: +**参数** - **eval_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。 - **batch_size** (int) - 训练数据或评估数据的批大小,当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。 @@ -489,12 +481,11 @@ evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbac - **num_workers** (int) - 启动子进程用于读取数据的数量。当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:True。 - **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。该参数不给定时,默认会插入 ``ProgBarLogger`` 和 ``ModelCheckpoint`` 这两个实例。默认值:None。 -返回 -:::::::::::: +**返回** + dict, key是 ``prepare`` 时Metric的的名称,value是该Metric的值。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -521,8 +512,7 @@ predict(test_data, batch_size=1, num_workers=0, stack_outputs=False, callbacks=N 在输入数据上,预测模型的输出。 -参数 -:::::::::::: +**参数** - **test_data** (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 ``paddle paddle.io.Dataset`` 或 ``paddle.io.Dataloader`` 的实例。默认值:None。 - **batch_size** (int) - 训练数据或评估数据的批大小,当 ``eval_data`` 为 ``DataLoader`` 的实例时,该参数会被忽略。默认值:1。 @@ -530,12 +520,11 @@ predict(test_data, batch_size=1, num_workers=0, stack_outputs=False, callbacks=N - **stack_outputs** (bool) - 是否将输出进行堆叠。默认值:False。 - **callbacks** (Callback|list[Callback]|None) - ``Callback`` 的一个实例或实例列表。默认值:None。 -返回 -:::::::::::: +**返回** + 模型的输出。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -581,19 +570,17 @@ summary(input_size=None, batch_size=None, dtype=None) 打印网络的基础结构和参数信息。 -参数 -:::::::::::: +**参数** - **input_size** (tuple|InputSpec|list[tuple|InputSpec,可选) - 输入张量的大小。如果网络只有一个输入,那么该值需要设定为tuple或InputSpec。如果模型有多个输入。那么该值需要设定为list[tuple|InputSpec],包含每个输入的shape。如果该值没有设置,会将 ``self._inputs`` 作为输入。默认值:None。 - **batch_size** (int,可选) - 输入张量的批大小。默认值:None。 - **dtypes** (str,可选) - 输入张量的数据类型,如果没有给定,默认使用 ``float32`` 类型。默认值:None。 -返回 -:::::::::::: +**返回** + 字典:包含网络全部参数的大小和全部可训练参数的大小。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python From 66677648f962dfe1baa2e0f9c0ea277f9cf13960 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:44:14 +0800 Subject: [PATCH 018/107] Update GradScaler_cn.rst --- docs/api/paddle/amp/GradScaler_cn.rst | 130 ++++++++------------------ 1 file changed, 38 insertions(+), 92 deletions(-) diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 5b4777de7e3..48481559b64 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -61,18 +61,12 @@ scale(var) 将Tensor乘上缩放因子,返回缩放后的输出。 如果这个 :class:`GradScaler` 的实例不使用loss scaling,则返回的输出将保持不变。 - -参数 -::::::::: +**参数:** - **var** (Tensor) - 需要进行缩放的Tensor。 +**返回:**缩放后的Tensor或者原Tensor。 -返回 -::::::::: - 缩放后的Tensor或者原Tensor。 - -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -99,14 +93,12 @@ minimize(optimizer, *args, **kwargs) 如果参数缩放后的梯度包含NAN或者INF,则跳过参数更新。否则,首先让缩放过梯度的参数取消缩放,然后更新参数。 最终,更新loss scaling的比例。 -参数 -::::::::: +**参数:** - **optimizer** (Optimizer) - 用于更新参数的优化器。 - **args** - 参数,将会被传递给 ``optimizer.minimize()`` 。 - **kwargs** - 关键词参数,将会被传递给 ``optimizer.minimize()`` 。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -133,12 +125,10 @@ step(optimizer) 如果参数缩放后的梯度包含NAN或者INF,则跳过参数更新。否则,首先让缩放过梯度的参数取消缩放,然后更新参数。 该函数与 ``update()`` 函数一起使用,效果等同于 ``minimize()``。 -参数 -::::::::: +**参数:** - **optimizer** (Optimizer) - 用于更新参数的优化器。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -162,8 +152,7 @@ update() 更新缩放比例。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -189,12 +178,10 @@ unscale_(optimizer) 如果在 ``step()`` 调用前调用 ``unscale_()``,则 ``step()`` 不会重复调用 ``unscale()``,否则 ``step()`` 将先执行 ``unscale_()`` 再做参数更新。 ``minimize()`` 用法同上。 -参数 -::::::::: +**参数:** - **optimizer** (Optimizer) - 用于更新参数的优化器。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -219,12 +206,9 @@ is_enable() 判断是否开启loss scaling策略。 -返回 -::::::::: - bool,采用loss scaling策略返回True,否则返回False。 +**返回:**bool,采用loss scaling策略返回True,否则返回False。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -244,12 +228,9 @@ is_use_dynamic_loss_scaling() 判断是否动态调节loss scaling的缩放比例。 -返回 -::::::::: - bool,动态调节loss scaling缩放比例返回True,否则返回False。 +**返回:**bool,动态调节loss scaling缩放比例返回True,否则返回False。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -269,12 +250,9 @@ get_init_loss_scaling() 返回初始化的loss scaling缩放比例。 -返回 -::::::::: - float,初始化的loss scaling缩放比例。 +**返回:**float,初始化的loss scaling缩放比例。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -294,12 +272,10 @@ set_init_loss_scaling(new_init_loss_scaling) 利用输入的new_init_loss_scaling对初始缩放比例参数init_loss_scaling重新赋值。 -参数 -::::::::: +**参数:** - **new_init_loss_scaling** (float) - 用于更新缩放比例的参数。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -321,13 +297,9 @@ get_incr_ratio() 返回增大loss scaling时使用的乘数。 +**返回:**float,增大loss scaling时使用的乘数。 -返回 -::::::::: - float,增大loss scaling时使用的乘数。 - -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -347,12 +319,10 @@ set_incr_ratio(new_incr_ratio) 利用输入的new_incr_ratio对增大loss scaling时使用的乘数重新赋值。 -参数 -::::::::: +**参数:** - **new_incr_ratio** (float) - 用于更新增大loss scaling时使用的乘数,该值需>1.0。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -374,13 +344,9 @@ get_decr_ratio() 返回缩小loss scaling时使用的乘数。 +**返回:**float,缩小loss scaling时使用的乘数。 -返回 -::::::::: - float,缩小loss scaling时使用的乘数。 - -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -400,12 +366,10 @@ set_decr_ratio(new_decr_ratio) 利用输入的new_decr_ratio对缩小loss scaling时使用的乘数重新赋值。 -参数 -::::::::: +**参数:** - **new_decr_ratio** (float) - 用于更新缩小loss scaling时使用的乘数,该值需<1.0。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -427,13 +391,9 @@ get_incr_every_n_steps() 连续n个steps的梯度都是有限值时,增加loss scaling,返回对应的值n。 +**返回:**int,参数incr_every_n_steps。 -返回 -::::::::: - int,参数incr_every_n_steps。 - -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -453,12 +413,10 @@ set_incr_every_n_steps(new_incr_every_n_steps) 利用输入的new_incr_every_n_steps对参数incr_every_n_steps重新赋值。 -参数 -::::::::: +**参数:** - **new_incr_every_n_steps** (int) - 用于更新参数incr_every_n_steps。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -480,13 +438,9 @@ get_decr_every_n_nan_or_inf() 累计出现n个steps的梯度为nan或者inf时,减小loss scaling,返回对应的值n。 +**返回:**int,参数decr_every_n_nan_or_inf。 -返回 -::::::::: - int,参数decr_every_n_nan_or_inf。 - -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -506,12 +460,10 @@ set_decr_every_n_nan_or_inf(new_decr_every_n_nan_or_inf) 利用输入的new_decr_every_n_nan_or_inf对参数decr_every_n_nan_or_inf重新赋值。 -参数 -::::::::: +**参数:** - **new_decr_every_n_nan_or_inf** (int) - 用于更新参数decr_every_n_nan_or_inf。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -533,13 +485,9 @@ state_dict() 以字典的形式存储GradScaler对象的状态参数,如果该对象的enable为False,则返回一个空的字典。 +**返回:**dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 -返回 -::::::::: - dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 - -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python @@ -559,12 +507,10 @@ load_state_dict(state_dict) 利用输入的state_dict设置或更新GradScaler对象的属性参数。 -参数 -::::::::: +**参数:** - **state_dict** (dict) - 用于设置或更新GradScaler对象的属性参数,dict需要是``GradScaler.state_dict()``的返回值。 -代码示例 -:::::::::::: +**代码示例:** .. code-block:: python From fd7b7bd20d2f256ce8238ceb9fceb5464d2c8802 Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:46:01 +0800 Subject: [PATCH 019/107] Update zeros_cn.rst --- docs/api/paddle/zeros_cn.rst | 5 ----- 1 file changed, 5 deletions(-) diff --git a/docs/api/paddle/zeros_cn.rst b/docs/api/paddle/zeros_cn.rst index 0bd8ea58924..20027b7b8c2 100644 --- a/docs/api/paddle/zeros_cn.rst +++ b/docs/api/paddle/zeros_cn.rst @@ -20,11 +20,6 @@ zeros :::::::::::: 值全为0的Tensor,数据类型和 ``dtype`` 定义的类型一致。 -抛出异常 -:::::::::::: - - - ``TypeError`` - 当 ``dtype`` 不是bool、 float16、float32、float64、int32、int64和None时。 - - ``TypeError`` - 当 ``shape`` 不是tuple、list、或者Tensor时, 当 ``shape`` 为Tensor,其数据类型不是int32或者int64时。 代码示例 :::::::::::: From 0d81f6a5d3ef837833d742ad472ffd4fb63454bd Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:46:04 +0800 Subject: [PATCH 020/107] Update DataParallel_cn.rst --- docs/api/paddle/DataParallel_cn.rst | 18 ++++++------------ 1 file changed, 6 insertions(+), 12 deletions(-) diff --git a/docs/api/paddle/DataParallel_cn.rst b/docs/api/paddle/DataParallel_cn.rst index e997648772b..70d79ddcf7e 100644 --- a/docs/api/paddle/DataParallel_cn.rst +++ b/docs/api/paddle/DataParallel_cn.rst @@ -62,18 +62,15 @@ state_dict(destination=None, include_sublayers=True) 获取当前层及其子层的所有parameters和持久的buffers。并将所有parameters和buffers存放在dict结构中。 -参数 -:::::::::::: +**参数** - **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数和持久的buffers都将存放在 ``destination`` 中。 默认值:None。 - **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。 -返回 -:::::::::::: +**返回** dict, 包含所有parameters和持久的buffers的dict。 -代码示例 -:::::::::::: +**代码示例** COPY-FROM: paddle.DataParallel.state_dict @@ -83,18 +80,15 @@ set_state_dict(state_dict, use_structured_name=True) 根据传入的 ``state_dict`` 设置parameters和持久的buffers。 所有parameters和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。 -参数 -:::::::::::: +**参数** - **state_dict** (dict) - 包含所有parameters和可持久性buffers的dict。 - **use_structured_name** (bool, 可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。 -返回 -:::::::::::: +**返回** 无 -代码示例 -:::::::::::: +**代码示例** COPY-FROM: paddle.DataParallel.set_state_dict From 3d751c581cf810b98cce86b2229b0243a8626dfe Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:47:22 +0800 Subject: [PATCH 021/107] Update where_cn.rst --- docs/api/paddle/where_cn.rst | 7 ++----- 1 file changed, 2 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/where_cn.rst b/docs/api/paddle/where_cn.rst index 540af96a4c3..462aebb1642 100644 --- a/docs/api/paddle/where_cn.rst +++ b/docs/api/paddle/where_cn.rst @@ -32,11 +32,8 @@ where 返回 :::::::::::: -数据类型与 ``x`` 相同的 ``Tensor`` 。 +Tensor,数据类型与 ``x`` 相同的 ``Tensor`` 。 -返回类型 -:::::::::::: -Tensor。 代码示例 @@ -57,4 +54,4 @@ Tensor。 print(out) #out: (Tensor(shape=[2, 1], dtype=int64, place=CPUPlace, stop_gradient=True, # [[2], - # [3]]),) \ No newline at end of file + # [3]]),) From 8019c1cafc64b92b7af652f452cd607c9a4b73aa Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:49:09 +0800 Subject: [PATCH 022/107] Update Tensor_cn.rst --- docs/api/paddle/Tensor_cn.rst | 1543 +++++++++------------------------ 1 file changed, 395 insertions(+), 1148 deletions(-) diff --git a/docs/api/paddle/Tensor_cn.rst b/docs/api/paddle/Tensor_cn.rst index 40e7844d03b..104627e0313 100755 --- a/docs/api/paddle/Tensor_cn.rst +++ b/docs/api/paddle/Tensor_cn.rst @@ -17,8 +17,7 @@ clear_grad 将当前Tensor的梯度设为0。仅适用于具有梯度的Tensor,通常我们将其用于参数,因为其他临时Tensor没有梯度。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -41,8 +40,7 @@ dtype 查看一个Tensor的数据类型,支持:'bool','float16','float32','float64','uint8','int8','int16','int32','int64' 类型。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -55,8 +53,7 @@ grad 查看一个Tensor的梯度,数据类型为numpy\.ndarray。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -73,8 +70,7 @@ is_leaf 判断Tensor是否为叶子Tensor。对于stop_gradient为True的Tensor,它将是叶子Tensor。对于stop_gradient为False的Tensor, 如果它是由用户创建的,它也会是叶子Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -98,8 +94,7 @@ item(*args) 将Tensor中特定位置的元素转化为Python标量,如果未指定位置,则该Tensor必须为单元素Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -130,8 +125,7 @@ name 查看一个Tensor的name,Tensor的name是其唯一标识符,为python的字符串类型。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -144,8 +138,7 @@ ndim 查看一个Tensor的维度,也称作rank。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -159,8 +152,7 @@ persistable 查看一个Tensor的persistable属性,该属性为True时表示持久性变量,持久性变量在每次迭代之后都不会删除。模型参数、学习率等Tensor,都是 持久性变量。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -176,8 +168,7 @@ place 其与GPU之间具有更高的读写效率,并且支持异步传输,这对网络整体性能会有进一步提升,但其缺点是分配空间过多时可能会降低主机系统的性能, 因为其减少了用于存储虚拟内存数据的可分页内存。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -190,8 +181,7 @@ shape 查看一个Tensor的shape,shape是Tensor的一个重要的概念,其描述了tensor在每个维度上的元素数量。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -205,8 +195,7 @@ stop_gradient 查看一个Tensor是否计算并传播梯度,如果stop_gradient为True,则该Tensor不会计算梯度,并会阻绝Autograd的梯度传播。 反之,则会计算梯度并传播梯度。用户自行创建的的Tensor,默认是True,模型参数的stop_gradient都为False。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -217,52 +206,36 @@ stop_gradient abs(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_abs` angle(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_angle` acos(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_acos` add(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_add` @@ -274,130 +247,90 @@ Inplace 版本的 :ref:`cn_api_tensor_add` API,对输入 `x` 采用 Inplace add_n(inputs, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_add_n` addmm(x, y, beta=1.0, alpha=1.0, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_addmm` all(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_all` allclose(y, rtol=1e-05, atol=1e-08, equal_nan=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_allclose` isclose(x, y, rtol=1e-05, atol=1e-08, equal_nan=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_isclose` any(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_any` argmax(axis=None, keepdim=False, dtype=int64, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_argmax` argmin(axis=None, keepdim=False, dtype=int64, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_argmin` argsort(axis=-1, descending=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_argsort` asin(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_asin` @@ -406,22 +339,15 @@ astype(dtype) 将Tensor的类型转换为 ``dtype`` ,并返回一个新的Tensor。 -参数 -:::::::::::: - +参数: - **dtype** (str) - 转换后的dtype,支持'bool','float16','float32','float64','int8','int16', 'int32','int64','uint8'。 -返回 -:::::::::::: -类型转换后的新的Tensor +返回:类型转换后的新的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -432,13 +358,9 @@ Tensor atan(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_atan` @@ -447,20 +369,15 @@ backward(grad_tensor=None, retain_graph=False) 从当前Tensor开始计算反向的神经网络,传导并计算计算图中Tensor的梯度。 -参数 -:::::::::::: - +参数: - **grad_tensor** (Tensor, optional) - 当前Tensor的初始梯度值。如果 ``grad_tensor`` 是None, 当前Tensor 的初始梯度值将会是值全为1.0的Tensor;如果 ``grad_tensor`` 不是None,必须和当前Tensor有相同的长度。默认值:None。 - **retain_graph** (bool, optional) - 如果为False,反向计算图将被释放。如果在backward()之后继续添加OP, 需要设置为True,此时之前的反向计算图会保留。将其设置为False会更加节省内存。默认值:False。 -返回 -:::::::::::: -无 +返回:无 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -491,117 +408,81 @@ backward(grad_tensor=None, retain_graph=False) bincount(weights=None, minlength=0) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_bincount` bitwise_and(y, out=None, name=None) ::::::::: -返回 -:::::::::::: -按位与运算后的结果 +返回:按位与运算后的结果 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_bitwise_and` bitwise_not(out=None, name=None) ::::::::: -返回 -:::::::::::: -按位取反运算后的结果 +返回:按位取反运算后的结果 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_bitwise_not` bitwise_or(y, out=None, name=None) ::::::::: -返回 -:::::::::::: -按位或运算后的结果 +返回:按位或运算后的结果 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_bitwise_or` bitwise_xor(y, out=None, name=None) ::::::::: -返回 -:::::::::::: -按位异或运算后的结果 +返回:按位异或运算后的结果 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_bitwise_xor` bmm(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_bmm` broadcast_to(shape, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_expand` ,API功能相同。 cast(dtype) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_cast` ceil(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_ceil` @@ -613,26 +494,18 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_ceil` API,对输入 `x` 采用 Inp cholesky(upper=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_cholesky` chunk(chunks, axis=0, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_chunk` @@ -641,12 +514,9 @@ clear_gradient() 清除当前Tensor的梯度。 -返回 -:::::::::::: -无 +返回:无 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -668,13 +538,9 @@ clear_gradient() clip(min=None, max=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_clip` @@ -688,12 +554,9 @@ clone() 复制当前Tensor,并且保留在原计算图中进行梯度传导。 -返回 -:::::::::::: -clone后的Tensor +返回:clone后的Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -720,39 +583,27 @@ clone后的Tensor concat(axis=0, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_concat` conj(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_conj` cos(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_cos` @@ -761,14 +612,11 @@ cosh(name=None) 对该Tensor中的每个元素求双曲余弦。 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_cosh` -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -785,12 +633,9 @@ cpu() 如果当前Tensor已经在CPU上,则不会发生任何拷贝。 -返回 -:::::::::::: -拷贝到CPU上的Tensor +返回:拷贝到CPU上的Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -803,13 +648,9 @@ cpu() cross(y, axis=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_linalg_cross` @@ -820,18 +661,13 @@ cuda(device_id=None, blocking=False) 如果当前Tensor已经在GPU上,且device_id为None,则不会发生任何拷贝。 -参数 -:::::::::::: - +参数: - **device_id** (int, optional) - 目标GPU的设备Id,默认为None,此时为当前Tensor的设备Id,如果当前Tensor不在GPU上,则为0。 - **blocking** (bool, optional) - 如果为False并且当前Tensor处于固定内存上,将会发生主机到设备端的异步拷贝。否则,会发生同步拷贝。默认为False。 -返回 -:::::::::::: -拷贝到GPU上的Tensor +返回:拷贝到GPU上的Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -847,13 +683,9 @@ cuda(device_id=None, blocking=False) cumsum(axis=None, dtype=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_cumsum` @@ -862,13 +694,9 @@ deg2rad(x, name=None) 将元素从度的角度转换为弧度 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_deg2rad` @@ -877,12 +705,9 @@ detach() 返回一个新的Tensor,从当前计算图分离。 -返回 -:::::::::::: -与当前计算图分离的Tensor。 +返回:与当前计算图分离的Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -897,26 +722,18 @@ detach() diagonal(offset=0, axis1=0, axis2=1, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_diagonal` digamma(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_digamma` @@ -925,8 +742,7 @@ dim() 查看一个Tensor的维度,也称作rank。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -937,52 +753,36 @@ dim() dist(y, p=2) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_linalg_dist` divide(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_divide` dot(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_linalg_dot` diff(x, n=1, axis=-1, prepend=None, append=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_diff` @@ -991,12 +791,9 @@ element_size() 返回Tensor单个元素在计算机中所分配的 ``bytes`` 数量。 -返回 -:::::::::::: -整数int +返回:整数int -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1019,52 +816,36 @@ element_size() equal(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_equal` equal_all(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_equal_all` erf(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_erf` exp(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_exp` @@ -1076,26 +857,18 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_exp` API,对输入 `x` 采用 Inpl expand(shape, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_expand` expand_as(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_expand_as` @@ -1110,20 +883,15 @@ exponential_(lam=1.0, name=None) f(x) = \lambda e^{-\lambda x} -参数 -:::::::::::: - +参数: - **x** (Tensor) - 输入Tensor,数据类型为 float32/float64。 - **lam** (float) - 指数分布的 :math:`\lambda` 参数。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回 -:::::::::::: -原Tensor +返回:原Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1138,13 +906,9 @@ exponential_(lam=1.0, name=None) eigvals(y, name=None) ::::::::: -返回 -:::::::::::: -输入矩阵的特征值 +返回:输入矩阵的特征值 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_eigvals` @@ -1152,19 +916,14 @@ fill_(x, value, name=None) ::::::::: 以value值填充Tensor x中所有数据。对x的原地Inplace修改。 -参数 -:::::::::::: - +参数: - **x** (Tensor) - 需要修改的原始Tensor。 - **value** (float) - 以输入value值修改原始Tensor元素。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回 -:::::::::::: -修改原始Tensor x的所有元素为value以后的新的Tensor。 +返回:修改原始Tensor x的所有元素为value以后的新的Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1177,18 +936,13 @@ zero_(x, name=None) ::::::::: 以 0 值填充Tensor x中所有数据。对x的原地Inplace修改。 -参数 -:::::::::::: - +参数: - **x** (Tensor) - 需要修改的原始Tensor。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回 -:::::::::::: -修改原始Tensor x的所有元素为 0 以后的新的Tensor。 +返回:修改原始Tensor x的所有元素为 0 以后的新的Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1203,21 +957,16 @@ fill_diagonal_(x, value, offset=0, wrap=False, name=None) 输入Tensor x维度至少是2维,当维度大于2维时要求所有维度值相等。 当维度等于2维时,两个维度可以不等,且此时wrap选项生效,详见wrap参数说明。 -参数 -:::::::::::: - +参数: - **x** (Tensor) - 需要修改对角线元素值的原始Tensor。 - **value** (float) - 以输入value值修改原始Tensor对角线元素。 - **offset** (int, optional) - 所选取对角线相对原始主对角线位置的偏移量,正向右上方偏移,负向左下方偏移,默认为0。 - **wrap** (bool, optional) - 对于2维Tensor,height>width时是否循环填充,默认为False。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回 -:::::::::::: -修改原始Tensor x的对角线元素为value以后的新的Tensor。 +返回:修改原始Tensor x的对角线元素为value以后的新的Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1235,9 +984,7 @@ fill_diagonal_tensor(x, y, offset=0, dim1=0, dim2=1, name=None) 其中输入Tensor y的维度要求是:最后一个维度与dim1、dim2指定的对角线维度相同,其余维度与输入Tensor x其余维度相同,且先后顺序一致。 例如,有输入Tensor x,x.shape = (2,3,4,5)时, 若dim1=2,dim2=3,则y.shape=(2,3,4); 若dim1=1,dim2=2,则y.shape=(2,5,3); -参数 -:::::::::::: - +参数: - **x** (Tensor) - 需要填充局部对角线区域的原始Tensor。 - **y** (Tensor) - 需要被填充到原始Tensor x对角线区域的输入Tensor。 - **offset** (int, optional) - 选取局部区域对角线位置相对原始主对角线位置的偏移量,正向右上方偏移,负向左下方偏移,默认为0。 @@ -1245,12 +992,9 @@ fill_diagonal_tensor(x, y, offset=0, dim1=0, dim2=1, name=None) - **dim2** (int, optional) - 指定对角线所参考第二个维度,默认为1。 - **name** (str, optional) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 -返回 -:::::::::::: -将y的值填充到输入Tensor x对角线区域以后所组合成的新Tensor。 +返回:将y的值填充到输入Tensor x对角线区域以后所组合成的新Tensor。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1264,8 +1008,7 @@ fill_diagonal_tensor_(x, y, offset=0, dim1=0, dim2=1, name=None) Inplace 版本的 :ref:`cn_api_fill_diagonal_tensor` API,对输入 `x` 采用 Inplace 策略 。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1277,13 +1020,9 @@ Inplace 版本的 :ref:`cn_api_fill_diagonal_tensor` API,对输入 `x` 采用 flatten(start_axis=0, stop_axis=-1, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_flatten` @@ -1295,39 +1034,27 @@ Inplace 版本的 :ref:`cn_api_paddle_flatten` API,对输入 `x` 采用 Inplac flip(axis, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_flip` rot90(k=1, axis=[0, 1], name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_rot90` floor(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_floor` @@ -1339,52 +1066,36 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_floor` API,对输入 `x` 采用 In floor_divide(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_floor_divide` floor_mod(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor mod函数的别名,请参考 :ref:`cn_api_tensor_mod` gather(index, axis=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_gather` gather_nd(index, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_gather_nd` @@ -1393,9 +1104,7 @@ gcd(x, y, name=None) 计算两个输入的按元素绝对值的最大公约数 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor 请参考 :ref:`cn_api_paddle_tensor_gcd` @@ -1404,15 +1113,10 @@ gradient() 与 ``Tensor.grad`` 相同,查看一个Tensor的梯度,数据类型为numpy\.ndarray。 -返回 -:::::::::::: -该Tensor的梯度 -返回类型 -:::::::::::: -numpy\.ndarray +返回:该Tensor的梯度 +返回类型:numpy\.ndarray -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -1425,26 +1129,18 @@ numpy\.ndarray greater_equal(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_greater_equal` greater_than(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_greater_than` @@ -1452,182 +1148,126 @@ Tensor histogram(bins=100, min=0, max=0) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_histogram` imag(name=None) ::::::::: -返回 -:::::::::::: -包含原复数Tensor的虚部数值 +返回:包含原复数Tensor的虚部数值 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_imag` is_floating_point(x) ::::::::: -返回 -:::::::::::: -判断输入Tensor的数据类型是否为浮点类型 +返回:判断输入Tensor的数据类型是否为浮点类型 -返回类型 -:::::::::::: -bool +返回类型:bool 请参考 :ref:`cn_api_tensor_is_floating_point` increment(value=1.0, in_place=True) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_increment` index_sample(index) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_search_index_sample` index_select(index, axis=0, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_search_index_select` repeat_interleave(repeats, axis=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_repeat_interleave` inv(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_inv` is_empty(cond=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_is_empty` isfinite(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_isfinite` isinf(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_isinf` isnan(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_isnan` kthvalue(k, axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_kthvalue` kron(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_kron` @@ -1636,386 +1276,268 @@ lcm(x, y, name=None) 计算两个输入的按元素绝对值的最小公倍数 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor 请参考 :ref:`cn_api_paddle_tensor_lcm` less_equal(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_less_equal` less_than(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_less_than` lgamma(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_lgamma` log(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_log` log10(name=None) ::::::::: -返回 -:::::::::::: -以10为底数,对当前Tensor逐元素计算对数。 +返回:以10为底数,对当前Tensor逐元素计算对数。 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_math_log10` log2(name=None) ::::::::: -返回 -:::::::::::: -以2为底数,对当前Tensor逐元素计算对数。 +返回:以2为底数,对当前Tensor逐元素计算对数。 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_math_log2` log1p(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_log1p` logical_and(y, out=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_logical_and` logical_not(out=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_logical_not` logical_or(y, out=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_logical_or` logical_xor(y, out=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_logical_xor` logsumexp(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_math_logsumexp` masked_select(mask, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_masked_select` matmul(y, transpose_x=False, transpose_y=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_matmul` matrix_power(x, n, name=None) ::::::::: -返回 -:::::::::::: -经过矩阵幂运算后的Tensor +返回:经过矩阵幂运算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_matrix_power` max(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_max` amax(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_amax` maximum(y, axis=-1, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_maximum` mean(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_mean` median(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -沿着 ``axis`` 进行中位数计算的结果 +返回:沿着 ``axis`` 进行中位数计算的结果 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_median` min(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_min` amin(axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_amin` minimum(y, axis=-1, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_minimum` mm(mat2, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_mm` mod(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_mod` mode(axis=-1, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_mode` multiplex(index) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_multiplex` multiply(y, axis=-1, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_multiply` mv(vec, name=None) ::::::::: -返回 -:::::::::::: -当前Tensor向量 ``vec`` 的乘积 +返回:当前Tensor向量 ``vec`` 的乘积 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_mv` @@ -2024,8 +1546,7 @@ ndimension() 查看一个Tensor的维度,也称作rank。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -2036,65 +1557,45 @@ ndimension() neg(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_neg` nonzero(as_tuple=False) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_search_nonzero` norm(p=fro, axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_norm` not_equal(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_not_equal` numel(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_numel` @@ -2103,15 +1604,10 @@ numpy() 将当前Tensor转化为numpy\.ndarray。 -返回 -:::::::::::: -Tensor转化成的numpy\.ndarray。 -返回类型 -:::::::::::: -numpy\.ndarray +返回:Tensor转化成的numpy\.ndarray。 +返回类型:numpy\.ndarray -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -2130,12 +1626,9 @@ pin_memory(y, name=None) 如果当前Tensor已经在固定内存上,则不会发生任何拷贝。 -返回 -:::::::::::: -拷贝到固定内存上的Tensor +返回:拷贝到固定内存上的Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -2148,39 +1641,27 @@ pin_memory(y, name=None) pow(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_math_pow` prod(axis=None, keepdim=False, dtype=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_prod` quantile(q, axis=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_quantile` @@ -2189,52 +1670,36 @@ rad2deg(x, name=None) 将元素从弧度的角度转换为度 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_rad2deg` rank() ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_rank` real(name=None) ::::::::: -返回 -:::::::::::: -Tensor,包含原复数Tensor的实部数值 +返回:Tensor,包含原复数Tensor的实部数值 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_real` reciprocal(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_reciprocal` @@ -2256,21 +1721,14 @@ register_hook(hook) hook(grad) -> Tensor or None -参数 -:::::::::::: - +参数: - **hook** (function) - 一个需要注册到 Tensor.grad 上的 hook 函数 -返回 -:::::::::::: -一个能够通过调用其 ``remove()`` 方法移除所注册 hook 的对象 +返回:一个能够通过调用其 ``remove()`` 方法移除所注册 hook 的对象 -返回类型 -:::::::::::: -TensorHookRemoveHelper +返回类型:TensorHookRemoveHelper -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -2312,26 +1770,18 @@ TensorHookRemoveHelper remainder(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor mod函数的别名,请参考 :ref:`cn_api_tensor_mod` reshape(shape, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_reshape` @@ -2343,39 +1793,27 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_reshape` API,对输入 `x` 采用 reverse(axis, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_reverse` roll(shifts, axis=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_manipulation_roll` round(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_round` @@ -2387,13 +1825,9 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_round` API,对输入 `x` 采用 In rsqrt(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_rsqrt` @@ -2405,13 +1839,9 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_rsqrt` API,对输入 `x` 采用 In scale(scale=1.0, bias=0.0, bias_after_scale=True, act=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_scale` @@ -2423,13 +1853,9 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_unsqueeze` API,对输入 `x` 采 scatter(index, updates, overwrite=True, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_cn_scatter` @@ -2441,26 +1867,18 @@ Inplace 版本的 :ref:`cn_api_paddle_cn_scatter` API,对输入 `x` 采用 Inp scatter_nd(updates, shape, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_scatter_nd` scatter_nd_add(index, updates, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_scatter_nd_add` @@ -2469,13 +1887,10 @@ set_value(value) 设置当前Tensor的值。 -参数 -:::::::::::: - +参数: - **value** (Tensor|np.ndarray) - 需要被设置的值,类型为Tensor或者numpy\.array。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -2489,16 +1904,12 @@ set_value(value) linear.weight.set_value(custom_weight) # change existing weight out = linear(input) # call with different weight -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor shard_index(index_num, nshards, shard_id, ignore_value=-1) ::::::::: -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_shard_index` @@ -2506,26 +1917,18 @@ Tensor sign(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_sign` sin(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_sin` @@ -2534,8 +1937,7 @@ sinh(name=None) 对该Tensor中逐个元素求双曲正弦。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -2548,65 +1950,45 @@ sinh(name=None) size() ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_size` slice(axes, starts, ends) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_slice` sort(axis=-1, descending=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_sort` split(num_or_sections, axis=0, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_split` sqrt(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_sqrt` @@ -2618,26 +2000,18 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_sqrt` API,对输入 `x` 采用 Inp square(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_square` squeeze(axis=None, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_squeeze` @@ -2649,65 +2023,45 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_squeeze` API,对输入 `x` 采用 stack(axis=0, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_stack` stanh(scale_a=0.67, scale_b=1.7159, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_stanh` std(axis=None, unbiased=True, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_std` strided_slice(axes, starts, ends, strides) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_strided_slice` subtract(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_subtract` @@ -2719,39 +2073,27 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_subtract` API,对输入 `x` 采 sum(axis=None, dtype=None, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_sum` t(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_t` tanh(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_tan` @@ -2763,117 +2105,81 @@ Inplace 版本的 :ref:`cn_api_fluid_layers_tan` API,对输入 `x` 采用 Inpl tile(repeat_times, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_tile` tolist() ::::::::: -返回 -:::::::::::: -Tensor对应结构的list +返回:Tensor对应结构的list -返回类型 -:::::::::::: -python list +返回类型:python list 请参考 :ref:`cn_api_paddle_tolist` topk(k, axis=None, largest=True, sorted=True, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_topk` trace(offset=0, axis1=0, axis2=1, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_trace` transpose(perm, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_transpose` triangular_solve(b, upper=True, transpose=False, unitriangular=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_triangular_solve` trunc(name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_trunc` tensordot(y, axes=2, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensordot` unbind(axis=0) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_unbind` @@ -2882,9 +2188,7 @@ uniform_(min=-1.0, max=1.0, seed=0, name=None) Inplace版本的 :ref:`cn_api_tensor_uniform`, 返回一个从均匀分布采样的随机数填充的Tensor。输出Tensor将被置于输入x的位置。 -参数 -:::::::::::: - +参数: - **x** (Tensor) - 待被随机数填充的输入Tensor。 - **min** (float|int, optional) - 生成随机数的下界, min包含在该范围内。默认为-1.0。 - **max** (float|int, optional) - 生成随机数的上界,max不包含在该范围内。默认为1.0。 @@ -2892,16 +2196,11 @@ Inplace版本的 :ref:`cn_api_tensor_uniform`, 返回一个从均匀分布采样 注意如果seed不为0,该操作每次将生成同一个随机值。默认为0。 - **name** (str, optional) - 默认值为None。通常用户不需要设置这个属性。更多信息请参见 :ref:`api_guide_Name` 。 -返回 -:::::::::::: -由服从范围在[min, max)的均匀分布的随机数所填充的输入Tensor x。 +返回:由服从范围在[min, max)的均匀分布的随机数所填充的输入Tensor x。 -返回类型 -:::::::::::: -Tensor +返回类型:Tensor -代码示例 -:::::::::::: +**代码示例** .. code-block:: python import paddle @@ -2917,26 +2216,18 @@ Tensor unique(return_index=False, return_inverse=False, return_counts=False, axis=None, dtype=int64, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_unique` unsqueeze(axis, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_unsqueeze` @@ -2948,78 +2239,54 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_unsqueeze` API,对输入 `x` 采 unstack(axis=0, num=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_fluid_layers_unstack` var(axis=None, unbiased=True, keepdim=False, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_cn_var` where(y, name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_where` multi_dot(x, name=None) ::::::::: -返回 -:::::::::::: -多个矩阵相乘后的Tensor +返回:多个矩阵相乘后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_multi_dot` solve(x, y name=None) ::::::::: -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_linalg_solve` logit(eps=None, name=None) ::::::::: -返回 -:::::::::::: -计算logit后的Tensor +返回:计算logit后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_tensor_logit` @@ -3028,13 +2295,9 @@ lerp(x, y, weight, name=None) 基于给定的 weight 计算 x 与 y 的线性插值 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_lerp` @@ -3047,13 +2310,9 @@ Inplace 版本的 :ref:`cn_api_paddle_tensor_lerp` API,对输入 `x` 采用 In is_complex() ::::::::: -返回 -:::::::::::: -判断输入 tensor 的数据类型是否为复数类型 +返回:判断输入 tensor 的数据类型是否为复数类型 -返回类型 -:::::::::::: -bool +返回类型:bool 请参考 :ref:`cn_api_paddle_is_complex` @@ -3061,13 +2320,9 @@ bool is_integer() ::::::::: -返回 -:::::::::::: -判断输入 tensor 的数据类型是否为整数类型 +返回:判断输入 tensor 的数据类型是否为整数类型 -返回类型 -:::::::::::: -bool +返回类型:bool 请参考 :ref:`cn_api_paddle_is_integer` @@ -3076,13 +2331,9 @@ take_along_axis(arr, index, axis) 基于输入索引矩阵, 沿着指定axis从arr矩阵里选取1d切片。索引矩阵必须和arr矩阵有相同的维度, 需要能够broadcast与arr矩阵对齐。 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_take_along_axis` @@ -3091,13 +2342,9 @@ put_along_axis(arr, index, value, axis, reduce="assign") 基于输入index矩阵, 将输入value沿着指定axis放置入arr矩阵。索引矩阵和value必须和arr矩阵有相同的维度, 需要能够broadcast与arr矩阵对齐。 -返回 -:::::::::::: -计算后的Tensor +返回:计算后的Tensor -返回类型 -:::::::::::: -Tensor +返回类型:Tensor 请参考 :ref:`cn_api_paddle_tensor_put_along_axis` @@ -3106,4 +2353,4 @@ erfinv(x, name=None) 对输入x进行逆误差函数计算 -请参考 :ref:`cn_api_paddle_tensor_erfinv` \ No newline at end of file +请参考 :ref:`cn_api_paddle_tensor_erfinv` From b9e6be866a090e0021ef06d0c9ed4aa96609adef Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:49:33 +0800 Subject: [PATCH 023/107] Update cudnn_cn.rst --- docs/api/paddle/version/cudnn_cn.rst | 3 +-- 1 file changed, 1 insertion(+), 2 deletions(-) diff --git a/docs/api/paddle/version/cudnn_cn.rst b/docs/api/paddle/version/cudnn_cn.rst index 0c26d4fcf7a..b754990cac1 100644 --- a/docs/api/paddle/version/cudnn_cn.rst +++ b/docs/api/paddle/version/cudnn_cn.rst @@ -9,9 +9,8 @@ cudnn 返回 -:::::::::::: - ::::::::: + 若paddle wheel包为GPU版本,则返回paddle wheel包编译时使用的cuDNN的版本信息;若paddle wheel包为CPU版本,则返回 ``False`` 。 代码示例: From 758d1a431d3916a89dc53dbd6ccae83c98e622fa Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:50:41 +0800 Subject: [PATCH 024/107] Update show_cn.rst --- docs/api/paddle/version/show_cn.rst | 3 +-- 1 file changed, 1 insertion(+), 2 deletions(-) diff --git a/docs/api/paddle/version/show_cn.rst b/docs/api/paddle/version/show_cn.rst index 3b3fb23d704..bcd27a54575 100644 --- a/docs/api/paddle/version/show_cn.rst +++ b/docs/api/paddle/version/show_cn.rst @@ -10,9 +10,8 @@ show 返回 -:::::::::::: - ::::::::: + 如果paddle wheel包不是正式发行版本,则输出wheel包编译时对应的commit id号。否则,输出如下信息: - full_version - paddle wheel包的版本号。 From b0242d526955e9a47bca51c46fae5429db2f74c5 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:51:42 +0800 Subject: [PATCH 025/107] Update PyLayerContext_cn.rst --- docs/api/paddle/autograd/PyLayerContext_cn.rst | 18 ++++++++---------- 1 file changed, 8 insertions(+), 10 deletions(-) diff --git a/docs/api/paddle/autograd/PyLayerContext_cn.rst b/docs/api/paddle/autograd/PyLayerContext_cn.rst index 32886475ef0..62dc886a28e 100644 --- a/docs/api/paddle/autograd/PyLayerContext_cn.rst +++ b/docs/api/paddle/autograd/PyLayerContext_cn.rst @@ -42,17 +42,16 @@ save_for_backward(self, *tensors) .. note:: 这个API只能被调用一次,且只能在 ``forward`` 中调用。 -参数 -:::::::::::: +**参数** + - **tensors** (list of Tensor) - 需要被暂存的 ``Tensor`` -返回 -:::::::::::: +**返回** + None -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -82,12 +81,11 @@ saved_tensor(self, *tensors) 获取被 ``save_for_backward`` 暂存的 ``Tensor`` 。 -返回 -:::::::::::: +**返回** + 如果调用 ``save_for_backward`` 暂存了一些 ``Tensor`` ,则返回这些 ``Tensor`` ,否则,返回 None。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python From ef0c37dda9226a8c2c9ea2bbc6befa3406b2f245 Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:52:13 +0800 Subject: [PATCH 026/107] Update cuda_cn.rst --- docs/api/paddle/version/cuda_cn.rst | 3 +-- 1 file changed, 1 insertion(+), 2 deletions(-) diff --git a/docs/api/paddle/version/cuda_cn.rst b/docs/api/paddle/version/cuda_cn.rst index 07b0c98a4f2..1752cd8f83f 100644 --- a/docs/api/paddle/version/cuda_cn.rst +++ b/docs/api/paddle/version/cuda_cn.rst @@ -9,9 +9,8 @@ cuda 返回 -:::::::::::: +:::::::::: -::::::::: 若paddle wheel包为GPU版本,则返回paddle wheel包编译时使用的CUDA的版本信息;若paddle wheel包为CPU版本,则返回 ``False`` 。 代码示例: From 87ee06dabe10c7aa2596096ee39c4554f6fb052e Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:54:08 +0800 Subject: [PATCH 027/107] Update PyLayer_cn.rst --- docs/api/paddle/autograd/PyLayer_cn.rst | 33 +++++++++++-------------- 1 file changed, 15 insertions(+), 18 deletions(-) diff --git a/docs/api/paddle/autograd/PyLayer_cn.rst b/docs/api/paddle/autograd/PyLayer_cn.rst index 457736847e9..5a70dc8b212 100644 --- a/docs/api/paddle/autograd/PyLayer_cn.rst +++ b/docs/api/paddle/autograd/PyLayer_cn.rst @@ -60,17 +60,16 @@ forward(ctx, *args, **kwargs) ``forward`` 函数必须被子类重写,它的第一个参数是 :ref:`cn_api_autograd_PyLayerContext` 的对象,其他输入参数的类型和数量任意。 -参数 -:::::::::::: +**参数** + - **\*args** (tuple) - 自定义算子的输入 - **\*\*kwargs** (dict) - 自定义算子的输入 -返回 -:::::::::::: +**返回** + Tensor或至少包含一个Tensor的list/tuple -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -98,17 +97,16 @@ backward(ctx, *args, **kwargs) ``backward`` 函数的作用是计算梯度,它必须被子类重写,其第一个参数为 :ref:`cn_api_autograd_PyLayerContext` 的对象,其他输入参数为 ``forward`` 输出 ``Tensor`` 的梯度。它的输出 ``Tensor`` 为 ``forward`` 输入 ``Tensor`` 的梯度。 -参数 -:::::::::::: +**参数** + - **\*args** (tuple) - ``forward`` 输出 ``Tensor`` 的梯度。 - **\*\*kwargs** (dict) - ``forward`` 输出 ``Tensor`` 的梯度。 -返回 -:::::::::::: +**返回** + ``forward`` 输入 ``Tensor`` 的梯度。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -136,17 +134,16 @@ apply(cls, *args, **kwargs) 构建完自定义算子后,通过 ``apply`` 运行算子。 -参数 -:::::::::::: +**参数** + - **\*args** (tuple) - 自定义算子的输入 - **\*\*kwargs** (dict) - 自定义算子的输入 -返回 -:::::::::::: +**返回** + Tensor或至少包含一个Tensor的list/tuple -代码示例 -:::::::::::: +**代码示例** .. code-block:: python From 1e6f6566ef60e6ec4168dc13b659b363b32d33e6 Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:54:30 +0800 Subject: [PATCH 028/107] Update uniform_cn.rst --- docs/api/paddle/uniform_cn.rst | 7 +------ 1 file changed, 1 insertion(+), 6 deletions(-) diff --git a/docs/api/paddle/uniform_cn.rst b/docs/api/paddle/uniform_cn.rst index f1d001d8db4..c2e9c6d41f8 100644 --- a/docs/api/paddle/uniform_cn.rst +++ b/docs/api/paddle/uniform_cn.rst @@ -31,13 +31,8 @@ uniform 返回 :::::::::::: - Tensor:数值服从范围[``min``, ``max``)内均匀分布的随机Tensor,形状为 ``shape``,数据类型为 ``dtype``。 +Tensor:数值服从范围[``min``, ``max``)内均匀分布的随机Tensor,形状为 ``shape``,数据类型为 ``dtype``。 -抛出异常 -:::::::::::: - - - ``TypeError`` - 如果 ``shape`` 的类型不是list、tuple、Tensor。 - - ``TypeError`` - 如果 ``dtype`` 不是float32、float64。 代码示例 :::::::::::: From 61aae4e48696721ad9ef1f634b45c7f695856a3a Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:58:01 +0800 Subject: [PATCH 029/107] Update transpose_cn.rst --- docs/api/paddle/transpose_cn.rst | 8 +++----- 1 file changed, 3 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/transpose_cn.rst b/docs/api/paddle/transpose_cn.rst index 5d9f4f48bc1..9bbe7a7aa7b 100644 --- a/docs/api/paddle/transpose_cn.rst +++ b/docs/api/paddle/transpose_cn.rst @@ -19,13 +19,11 @@ transpose 返回 :::::::::::: - 多维Tensor +多维Tensor -返回类型 -:::::::::::: -Tensor -**示例**: +代码示例 +:::::::::::: .. code-block:: text From c2c341ff1ed3479c3b2909b62d40e60afdb5ed91 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 18:58:02 +0800 Subject: [PATCH 030/107] Update Callback_cn.rst --- docs/api/paddle/callbacks/Callback_cn.rst | 42 ++++++++--------------- 1 file changed, 14 insertions(+), 28 deletions(-) diff --git a/docs/api/paddle/callbacks/Callback_cn.rst b/docs/api/paddle/callbacks/Callback_cn.rst index 0fa5a7722fa..87c63addba3 100644 --- a/docs/api/paddle/callbacks/Callback_cn.rst +++ b/docs/api/paddle/callbacks/Callback_cn.rst @@ -50,8 +50,7 @@ on_train_begin(logs=None) 在训练的一开始调用。 -参数 -:::::::::::: +**参数** - **logs** (dict|None): 日志信息是dict或None. @@ -60,8 +59,7 @@ on_train_end(logs=None) 在训练的结束调用。 -参数 -:::::::::::: +**参数** - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及'batch_size'。 @@ -71,8 +69,7 @@ on_eval_begin(logs=None) 在评估阶段的一开始调用。 -参数 -:::::::::::: +**参数** - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'steps'和'metrics'。'steps'是验证集的总共步长数, 'metrics'是一个list[str], 包含'loss'和所设置的paddle.metric.Metric的名字。 @@ -81,8 +78,7 @@ on_eval_end(logs=None) 在评估阶段的结束调用。 -参数 -:::::::::::: +**参数** - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及'batch_size'。 @@ -92,8 +88,7 @@ on_predict_begin(logs=None) 在推理阶段的一开始调用。 -参数 -:::::::::::: +**参数** - **logs** (dict|None): 日志信息是dict或None。 @@ -103,8 +98,7 @@ on_predict_end(logs=None) 在推理阶段的结束调用。 -参数 -:::::::::::: +**参数** - **logs** (dict|None): 日志信息是dict或None。 @@ -114,8 +108,7 @@ on_epoch_begin(epoch, logs=None) 在每个epoch的一开始调用。 -参数 -:::::::::::: +**参数** - **epoch** (int): epoch的索引。 - **logs** (dict|None): 日志信息是None。 @@ -125,8 +118,7 @@ on_epoch_end(epoch, logs=None) 在每个epoch的结束调用。 -参数 -:::::::::::: +**参数** - **epoch** (int): epoch的索引。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及'batch_size'。 @@ -137,8 +129,7 @@ on_train_batch_begin(step, logs=None) 在训练阶段每个batch的开始调用。 -参数 -:::::::::::: +**参数** - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的是None。 @@ -149,8 +140,7 @@ on_train_batch_end(step, logs=None) 在训练阶段每个batch的结束调用。 -参数 -:::::::::::: +**参数** - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及当前'batch_size'。 @@ -161,8 +151,7 @@ on_eval_batch_begin(step, logs=None) 在评估阶段每个batch的开始调用。 -参数 -:::::::::::: +**参数** - **step** (int): 评估步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的是None。 @@ -172,8 +161,7 @@ on_eval_batch_end(step, logs=None) 在评估阶段每个batch的结束调用。 -参数 -:::::::::::: +**参数** - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. 通过paddle.Model传递的dict包含的字段有'loss', 评估指标metric的名字,以及当前'batch_size'。 @@ -183,8 +171,7 @@ on_predict_batch_begin(step, logs=None) 在推理阶段每个batch的开始调用。 -参数 -:::::::::::: +**参数** - **step** (int): 推理步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. @@ -194,8 +181,7 @@ on_predict_batch_end(step, logs=None) 在推理阶段每个batch的结束调用。 -参数 -:::::::::::: +**参数** - **step** (int): 训练步长或迭代次数。 - **logs** (dict|None): 日志信息是dict或None. From 74db6698c7cc1d75fd0bb64c5e6e2ed14a4fd608 Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 18:59:18 +0800 Subject: [PATCH 031/107] Update trace_cn.rst --- docs/api/paddle/trace_cn.rst | 6 ++---- 1 file changed, 2 insertions(+), 4 deletions(-) diff --git a/docs/api/paddle/trace_cn.rst b/docs/api/paddle/trace_cn.rst index 7988e5da01c..0fa2ee8a31d 100644 --- a/docs/api/paddle/trace_cn.rst +++ b/docs/api/paddle/trace_cn.rst @@ -12,9 +12,7 @@ trace 如果输入的维度大于 2D,则返回一个由对角线元素之和组成的数组,其中对角线从由 axis1 和 axis2 指定的二维平面中获得。默认由输入的前两维组成获得对角线的 2D 平面。 -参数 -:::::::::::: -``offset`` 确定从指定的二维平面中获取对角线的位置: +参数 ``offset`` 确定从指定的二维平面中获取对角线的位置: - 如果 offset = 0,则取主对角线。 - 如果 offset > 0,则取主对角线右上的对角线。 @@ -45,4 +43,4 @@ Tensor,指定二维平面的对角线元素之和。数据类型和输入数据 case3 = paddle.randn([3, 10, 5, 10]) data1 = paddle.trace(case1) # data1.shape = [1] data2 = paddle.trace(case2, offset=1, axis1=1, axis2=2) # data2.shape = [3] - data3 = paddle.trace(case3, offset=-3, axis1=1, axis2=-1) # data2.shape = [3, 5] \ No newline at end of file + data3 = paddle.trace(case3, offset=-3, axis1=1, axis2=-1) # data2.shape = [3, 5] From 8c412eb0caca43c832f6f27bb58b48486a33148c Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:01:05 +0800 Subject: [PATCH 032/107] Update clip_cn.rst --- docs/api/paddle/clip_cn.rst | 4 ---- 1 file changed, 4 deletions(-) diff --git a/docs/api/paddle/clip_cn.rst b/docs/api/paddle/clip_cn.rst index 0aa8930975d..d3b9d0ae2b3 100644 --- a/docs/api/paddle/clip_cn.rst +++ b/docs/api/paddle/clip_cn.rst @@ -26,10 +26,6 @@ clip :::::::::::: 输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -:::::::::::: -Tensor - 代码示例 :::::::::::: From 10e8fcb62db30586c9f6ea09a419a06247b17812 Mon Sep 17 00:00:00 2001 From: Chen Long <1300851984@qq.com> Date: Tue, 29 Mar 2022 19:01:37 +0800 Subject: [PATCH 033/107] Update tolist_cn.rst --- docs/api/paddle/tolist_cn.rst | 9 ++++++--- 1 file changed, 6 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/tolist_cn.rst b/docs/api/paddle/tolist_cn.rst index 98420f6a8d1..69496fcb293 100644 --- a/docs/api/paddle/tolist_cn.rst +++ b/docs/api/paddle/tolist_cn.rst @@ -11,11 +11,14 @@ tolist -**参数**: +参数 +::::::::: - **x** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64、bool、int8、int32、int64。 -**返回**:Tensor对应结构的list。 +返回 +::::::::: +Tensor对应结构的list。 @@ -31,4 +34,4 @@ tolist print(expectlist) #[0, 1, 2, 3, 4] expectlist = paddle.tolist(t) - print(expectlist) #[0, 1, 2, 3, 4] \ No newline at end of file + print(expectlist) #[0, 1, 2, 3, 4] From e15c4601b62f8b7edf633007e7df28826605eab9 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:03:16 +0800 Subject: [PATCH 034/107] Update Event_cn.rst --- docs/api/paddle/device/cuda/Event_cn.rst | 16 ++++++---------- 1 file changed, 6 insertions(+), 10 deletions(-) diff --git a/docs/api/paddle/device/cuda/Event_cn.rst b/docs/api/paddle/device/cuda/Event_cn.rst index a07557ab23c..fd446aaa245 100644 --- a/docs/api/paddle/device/cuda/Event_cn.rst +++ b/docs/api/paddle/device/cuda/Event_cn.rst @@ -35,13 +35,11 @@ record(CUDAStream=None) 记录event 到给定的stream。 -参数 -:::::::::::: +**参数** - **stream** (CUDAStream, 可选) - CUDA stream的句柄。如果为None,stream为当前的stream。默认值为False。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -55,12 +53,11 @@ query() 查询event的状态。 -返回 -:::::::::::: +**返回** + 一个boolean 变量,用于标识当前event 获取的所有任务是否被完成。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python @@ -75,8 +72,7 @@ synchronize() 等待当前event 完成。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python From 17d2befb047b93a1ed3d3c1a61a42e737ff681c8 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:05:22 +0800 Subject: [PATCH 035/107] Update Stream_cn.rst --- docs/api/paddle/device/cuda/Stream_cn.rst | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/device/cuda/Stream_cn.rst b/docs/api/paddle/device/cuda/Stream_cn.rst index ac13e2b56c6..ff647b3c9b7 100644 --- a/docs/api/paddle/device/cuda/Stream_cn.rst +++ b/docs/api/paddle/device/cuda/Stream_cn.rst @@ -10,8 +10,8 @@ CUDA stream的句柄。 参数 :::::::::::: - - **device** (paddle.CUDAPlace()|int|None, 可选) - 希望分配stream的设备。如果是None或者负数,则设备为当前的设备。如果是正数,则必须小于设备的个数。默认值为None。 - - **priority** (int|None, 可选) - stream的优先级。优先级可以为1(高优先级)或者2(正常优先级)。如果优先级为None,优先级为2(正常优先级)。默认值为None。 + - **device** (paddle.CUDAPlace()|int|None,可选) - 希望分配stream的设备。如果是None或者负数,则设备为当前的设备。如果是正数,则必须小于设备的个数。默认值为None。 + - **priority** (int|None,可选) - stream的优先级。优先级可以为1(高优先级)或者2(正常优先级)。如果优先级为None,优先级为2(正常优先级)。默认值为None。 代码示例 @@ -76,7 +76,7 @@ query() 返回stream 中所有的操作是否完成的状态。 **返回** - 一个boolean 值。 + 一个boolean值。 **代码示例** From af3f75be94b9d9b70ad061d4ef987b3b2c2a11bf Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:07:03 +0800 Subject: [PATCH 036/107] Update current_stream_cn.rst --- docs/api/paddle/device/cuda/current_stream_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/device/cuda/current_stream_cn.rst b/docs/api/paddle/device/cuda/current_stream_cn.rst index b6372114416..4fe6a982aa8 100644 --- a/docs/api/paddle/device/cuda/current_stream_cn.rst +++ b/docs/api/paddle/device/cuda/current_stream_cn.rst @@ -11,11 +11,11 @@ current_stream 参数 :::::::::::: - - **device** (paddle.CUDAPlace()|int, 可选) - 希望获取stream的设备或者设备ID。如果为None,则为当前的设备。默认值为None。 + - **device** (paddle.CUDAPlace()|int,可选) - 希望获取stream的设备或者设备ID。如果为None,则为当前的设备。默认值为None。 返回 :::::::::::: - CUDAStream, 设备的stream + CUDAStream,设备的stream。 代码示例 :::::::::::: From c88ba37e1efa754b09b383cb082874e28565dfc9 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:08:30 +0800 Subject: [PATCH 037/107] Update synchronize_cn.rst --- docs/api/paddle/device/cuda/synchronize_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/device/cuda/synchronize_cn.rst b/docs/api/paddle/device/cuda/synchronize_cn.rst index 51ef6a7170d..3c2a64989d7 100644 --- a/docs/api/paddle/device/cuda/synchronize_cn.rst +++ b/docs/api/paddle/device/cuda/synchronize_cn.rst @@ -11,7 +11,7 @@ synchronize 参数 :::::::::::: - - **device** (paddle.CUDAPlace()|int, 可选) - 设备或者设备ID。如果为None,则为当前的设备。默认值为None。 + - **device** (paddle.CUDAPlace()|int,可选) - 设备或者设备ID。如果为None,则为当前的设备。默认值为None。 返回 :::::::::::: From 32a306f20b7e744ed857fc53f8abeaa43a69ef3a Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:10:25 +0800 Subject: [PATCH 038/107] Update is_compiled_with_cuda_cn.rst --- docs/api/paddle/device/is_compiled_with_cuda_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/device/is_compiled_with_cuda_cn.rst b/docs/api/paddle/device/is_compiled_with_cuda_cn.rst index 23f9d7fbad2..dff2f18d2f6 100644 --- a/docs/api/paddle/device/is_compiled_with_cuda_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_cuda_cn.rst @@ -8,11 +8,11 @@ is_compiled_with_cuda -检查 ``whl`` 包是否可以被用来在GPU上运行模型 +检查 ``whl`` 包是否可以被用来在GPU上运行模型。 返回 :::::::::::: -bool, 支持GPU则为True,否则为False。 +bool,支持GPU则为True,否则为False。 代码示例 :::::::::::: From d0253ff3dc028f6a3a8adbfdb4a9d5982a20e717 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:11:32 +0800 Subject: [PATCH 039/107] Update is_compiled_with_npu_cn.rst --- docs/api/paddle/device/is_compiled_with_npu_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/device/is_compiled_with_npu_cn.rst b/docs/api/paddle/device/is_compiled_with_npu_cn.rst index dff5b282b39..7f653236d5e 100644 --- a/docs/api/paddle/device/is_compiled_with_npu_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_npu_cn.rst @@ -9,7 +9,7 @@ is_compiled_with_npu 返回 :::::::::::: -bool, 支持NPU则为True,否则为False。 +bool,支持NPU则为True,否则为False。 代码示例 :::::::::::: From 7add2f0db0e55d776fbd3fb1f9aa805d59ca99f8 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:12:03 +0800 Subject: [PATCH 040/107] Update is_compiled_with_rocm_cn.rst --- docs/api/paddle/device/is_compiled_with_rocm_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/device/is_compiled_with_rocm_cn.rst b/docs/api/paddle/device/is_compiled_with_rocm_cn.rst index 0865e79890f..e38a4b23992 100644 --- a/docs/api/paddle/device/is_compiled_with_rocm_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_rocm_cn.rst @@ -8,7 +8,7 @@ is_compiled_with_rocm -检查 ``whl`` 包是否可以被用来在AMD或海光GPU(ROCm)上运行模型 +检查 ``whl`` 包是否可以被用来在AMD或海光GPU(ROCm)上运行模型。 返回 :::::::::::: From 7447104f3ff2cdc85147cdff5abf175bea095e0b Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:12:58 +0800 Subject: [PATCH 041/107] Update is_compiled_with_xpu_cn.rst --- docs/api/paddle/device/is_compiled_with_xpu_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/device/is_compiled_with_xpu_cn.rst b/docs/api/paddle/device/is_compiled_with_xpu_cn.rst index 09bf0afc73e..6590ebc3ce7 100644 --- a/docs/api/paddle/device/is_compiled_with_xpu_cn.rst +++ b/docs/api/paddle/device/is_compiled_with_xpu_cn.rst @@ -8,7 +8,7 @@ is_compiled_with_xpu -检查 ``whl`` 包是否可以被用来在Baidu Kunlun XPU上运行模型 +检查 ``whl`` 包是否可以被用来在Baidu Kunlun XPU上运行模型。 返回 :::::::::::: From 4a4ec898e2bab610af7cae510db400d0cbf5063d Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:14:32 +0800 Subject: [PATCH 042/107] Update set_device_cn.rst --- docs/api/paddle/device/set_device_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/device/set_device_cn.rst b/docs/api/paddle/device/set_device_cn.rst index 3ad75ca5a9d..0da7c3adde4 100644 --- a/docs/api/paddle/device/set_device_cn.rst +++ b/docs/api/paddle/device/set_device_cn.rst @@ -15,7 +15,7 @@ Paddle支持包括CPU和GPU在内的多种设备运行,设备可以通过字 返回 :::::::::::: -Place, 设置的Place。 +Place,设置的Place。 代码示例 :::::::::::: From 391d3a838b1e0c73267896ca026616fd2166a147 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:15:40 +0800 Subject: [PATCH 043/107] Update diff_cn.rst --- docs/api/paddle/diff_cn.rst | 4 +--- 1 file changed, 1 insertion(+), 3 deletions(-) diff --git a/docs/api/paddle/diff_cn.rst b/docs/api/paddle/diff_cn.rst index 469f2bd61e1..4dd25b34db7 100644 --- a/docs/api/paddle/diff_cn.rst +++ b/docs/api/paddle/diff_cn.rst @@ -16,8 +16,6 @@ diff 参数 :::::::::::: -::::::::: - - **x** (Tensor) - 待计算前向差值的输入 `Tensor`。 - **n** (int, 可选) - 需要计算前向差值的次数,目前仅支持 `n=1`,默认值为1。 - **axis** (int, 可选) - 沿着哪一维度计算前向差值,默认值为-1,也即最后一个维度。 @@ -53,4 +51,4 @@ diff out = paddle.diff(z, axis=1) print(out) # out: - # [[1, 1], [1, 1]] \ No newline at end of file + # [[1, 1], [1, 1]] From 2025091c76ad91bf6b580a0202f61cd2ece182e0 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:17:12 +0800 Subject: [PATCH 044/107] Update dist_cn.rst --- docs/api/paddle/dist_cn.rst | 6 +----- 1 file changed, 1 insertion(+), 5 deletions(-) diff --git a/docs/api/paddle/dist_cn.rst b/docs/api/paddle/dist_cn.rst index b223805ae9a..acd853cebd0 100644 --- a/docs/api/paddle/dist_cn.rst +++ b/docs/api/paddle/dist_cn.rst @@ -51,16 +51,12 @@ z (4-D Tensor): 8 x 7 x 6 x 5 - **x** (Tensor): 1-D 到 6-D Tensor,数据类型为float32或float64。 - **y** (Tensor): 1-D 到 6-D Tensor,数据类型为float32或float64。 - - **p** (float, optional): 用于设置需要计算的范数,数据类型为float32或float64。默认值为2. + - **p** (float,optional): 用于设置需要计算的范数,数据类型为float32或float64。默认值为2。 返回 :::::::::::: `(x-y)` 的 `p` 范数。 -返回类型 -:::::::::::: - Tensor - 代码示例 :::::::::::: From 1ccd3d7087d539fac0b9b7635caaba659cf27186 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:26:04 +0800 Subject: [PATCH 045/107] Update Fleet_cn.rst --- docs/api/paddle/distributed/fleet/Fleet_cn.rst | 8 +++----- 1 file changed, 3 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/distributed/fleet/Fleet_cn.rst b/docs/api/paddle/distributed/fleet/Fleet_cn.rst index 1d68623bdf7..09d3a29ea9d 100644 --- a/docs/api/paddle/distributed/fleet/Fleet_cn.rst +++ b/docs/api/paddle/distributed/fleet/Fleet_cn.rst @@ -41,8 +41,7 @@ None import paddle.distributed.fleet as fleet fleet.init(is_collective=True) -代码示例3 -:::::::::::: +**代码示例 3** .. code-block:: python @@ -50,8 +49,7 @@ None role = fleet.PaddleCloudRoleMaker() fleet.init(role) -代码示例4 -:::::::::::: +**代码示例 4** .. code-block:: python @@ -63,7 +61,7 @@ None is_first_worker() ''''''''' -返回当前节点是否为第一个`worker`节点, 判断当前worker_index是否为0, 如果为0则返回True,否则返回False +返回当前节点是否为第一个`worker`节点,判断当前worker_index是否为0, 如果为0则返回True,否则返回False。 **返回** True/False From 26b693c9029b654212db3ace19c795522c81433e Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:28:38 +0800 Subject: [PATCH 046/107] Update UtilBase_cn.rst --- docs/api/paddle/distributed/fleet/UtilBase_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/distributed/fleet/UtilBase_cn.rst b/docs/api/paddle/distributed/fleet/UtilBase_cn.rst index 3cde1152035..c9e0079d474 100644 --- a/docs/api/paddle/distributed/fleet/UtilBase_cn.rst +++ b/docs/api/paddle/distributed/fleet/UtilBase_cn.rst @@ -20,7 +20,7 @@ all_reduce(input, mode="sum", comm_world="worker") **返回** - - Numpy.array|None: 一个和 `input` 形状一致的numpy数组或None. +Numpy.array|None: 一个和 `input` 形状一致的numpy数组或None。 **代码示例** From 28f0d602819d80943d494fc9fb5306512a83602c Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:34:44 +0800 Subject: [PATCH 047/107] Update Categorical_cn.rst --- .../paddle/distribution/Categorical_cn.rst | 40 +++++-------------- 1 file changed, 10 insertions(+), 30 deletions(-) diff --git a/docs/api/paddle/distribution/Categorical_cn.rst b/docs/api/paddle/distribution/Categorical_cn.rst index 3519c247f3b..02bc47b07a2 100644 --- a/docs/api/paddle/distribution/Categorical_cn.rst +++ b/docs/api/paddle/distribution/Categorical_cn.rst @@ -78,11 +78,7 @@ Categorical 返回 :::::::::::: -预先设计好维度的张量 - -返回类型 -:::::::::::: -Tensor +预先设计好维度的张量。 代码示例: @@ -106,7 +102,7 @@ Tensor .. py:function:: kl_divergence(other) -相对于另一个类别分布的KL散度 +相对于另一个类别分布的KL散度。 参数 :::::::::::: @@ -115,11 +111,7 @@ Tensor 返回 :::::::::::: -相对于另一个类别分布的KL散度, 数据类型为float32 - -返回类型 -:::::::::::: -Tensor +相对于另一个类别分布的KL散度,数据类型为float32。 代码示例: @@ -148,15 +140,11 @@ Tensor .. py:function:: entropy() -信息熵 +信息熵。 返回 :::::::::::: -类别分布的信息熵, 数据类型为float32 - -返回类型 -:::::::::::: -Tensor +类别分布的信息熵,数据类型为float32。 代码示例: @@ -186,15 +174,11 @@ Tensor 参数 :::::::::::: - - **value** (Tensor) - 输入张量, 表示选择的类别下标。数据类型为int32或int64。 + - **value** (Tensor) - 输入张量,表示选择的类别下标。数据类型为int32或int64。 返回 :::::::::::: -给定类别下标的概率 - -返回类型 -:::::::::::: -Tensor +给定类别下标的概率。 .. code-block:: python @@ -215,20 +199,16 @@ Tensor .. py:function:: log_prob(value) -所选择类别的对数概率 +所选择类别的对数概率。 参数 :::::::::::: - - **value** (Tensor) - 输入张量, 表示选择的类别下标。数据类型为int32或int64。 + - **value** (Tensor) - 输入张量,表示选择的类别下标。数据类型为int32或int64。 返回 :::::::::::: -对数概率 - -返回类型 -:::::::::::: -Tensor +对数概率。 .. code-block:: python From 348b8bb5af692aae732f5f471294871ea4880c72 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:39:09 +0800 Subject: [PATCH 048/107] Update empty_cn.rst --- docs/api/paddle/empty_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/empty_cn.rst b/docs/api/paddle/empty_cn.rst index 17bfa0b739b..2488bbcc554 100644 --- a/docs/api/paddle/empty_cn.rst +++ b/docs/api/paddle/empty_cn.rst @@ -12,8 +12,8 @@ empty 参数 :::::::::::: - - **shape** (list|tuple|Tensor) – 指定创建Tensor的形状(shape), 数据类型为int32 或者int64。 - - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型,可以是bool, float16, float32, float64, int32, int64。若为None,则输出变量的数据类型为系统全局默认类型,默认值为None。 + - **shape** (list|tuple|Tensor) – 指定创建Tensor的形状(shape),数据类型为int32 或者int64。 + - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型,可以是bool、float16、float32、float64、int32、int64。若为None,则输出变量的数据类型为系统全局默认类型,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 返回 From 311ef1c155b9009ba84021a917149ba0b51e442a Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:41:30 +0800 Subject: [PATCH 049/107] Update empty_like_cn.rst --- docs/api/paddle/empty_like_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/empty_like_cn.rst b/docs/api/paddle/empty_like_cn.rst index 8e85f694d16..f1a250d0643 100644 --- a/docs/api/paddle/empty_like_cn.rst +++ b/docs/api/paddle/empty_like_cn.rst @@ -11,8 +11,8 @@ empty_like 参数 :::::::::::: - - **x** (Tensor) – 输入Tensor, 输出Tensor和x具有相同的形状,x的数据类型可以是bool,float16,float32,float64,int32,int64。 - - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型,可以是bool,float16,float32,float64,int32,int64。若参数为None,则输出变量的数据类型和输入变量相同,默认值为None。 + - **x** (Tensor) – 输入Tensor,输出Tensor和x具有相同的形状,x的数据类型可以是bool、float16、float32、float64、int32、int64。 + - **dtype** (np.dtype|str,可选)- 输出变量的数据类型,可以是bool、float16、float32、float64、int32、int64。若参数为None,则输出变量的数据类型和输入变量相同,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 返回 From 9079c9f4ed6a1f5fc3734564a75b9a3d44a0a0a1 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:44:18 +0800 Subject: [PATCH 050/107] Update equal_all_cn.rst --- docs/api/paddle/equal_all_cn.rst | 8 ++------ 1 file changed, 2 insertions(+), 6 deletions(-) diff --git a/docs/api/paddle/equal_all_cn.rst b/docs/api/paddle/equal_all_cn.rst index 810ab73d3f5..84bef8bec9a 100644 --- a/docs/api/paddle/equal_all_cn.rst +++ b/docs/api/paddle/equal_all_cn.rst @@ -14,18 +14,14 @@ equal_all 参数 :::::::::::: - - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool、float32、float64、int32、int64。 + - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool、float32、float64、int32、int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: 输出结果为Tensor,Tensor数据类型为bool。 -返回类型 -:::::::::::: -变量(Tensor) - 代码示例 :::::::::::: From 74af88e59168ec542748fdf6f8c445074763641a Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:45:35 +0800 Subject: [PATCH 051/107] Update equal_cn.rst --- docs/api/paddle/equal_cn.rst | 8 ++------ 1 file changed, 2 insertions(+), 6 deletions(-) diff --git a/docs/api/paddle/equal_cn.rst b/docs/api/paddle/equal_cn.rst index 82ab0d750d9..a072e14d780 100644 --- a/docs/api/paddle/equal_cn.rst +++ b/docs/api/paddle/equal_cn.rst @@ -12,8 +12,8 @@ equal 参数 :::::::::::: - - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool、float32、float64、int32、int64。 + - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool、float32、float64、int32、int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 @@ -21,10 +21,6 @@ equal :::::::::::: 输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型 -:::::::::::: -变量(Tensor) - 代码示例 :::::::::::: From a87896b9e10785e1d3cb2738524e2c19d19bc0d2 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:46:46 +0800 Subject: [PATCH 052/107] Update erf_cn.rst --- docs/api/paddle/erf_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/erf_cn.rst b/docs/api/paddle/erf_cn.rst index 979ea0badbd..21a45ebbd0c 100644 --- a/docs/api/paddle/erf_cn.rst +++ b/docs/api/paddle/erf_cn.rst @@ -17,13 +17,13 @@ erf 参数 :::::::::::: - - **x** (Tensor) - Erf Op 的输入,多维 Tensor 或 LoDTensor,数据类型为 float16, float32 或 float64。 + - **x** (Tensor) - Erf Op 的输入,多维 Tensor,数据类型为 float16、float32 或 float64。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 返回 :::::::::::: - - 多维 Tensor 或 LoDTensor, 数据类型为 float16, float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 + - 多维 Tensor,数据类型为 float16,float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 代码示例 From 305415f5db51fb5b031391194d805f9c9250d115 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:47:22 +0800 Subject: [PATCH 053/107] Update erf_cn.rst --- docs/api/paddle/erf_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/erf_cn.rst b/docs/api/paddle/erf_cn.rst index 21a45ebbd0c..e3cfcb7e759 100644 --- a/docs/api/paddle/erf_cn.rst +++ b/docs/api/paddle/erf_cn.rst @@ -23,7 +23,7 @@ erf 返回 :::::::::::: - - 多维 Tensor,数据类型为 float16,float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 + - 多维 Tensor,数据类型为 float16、float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 代码示例 From b2d6a6a22b2e88ba39b1c4c5547fe36d290bde5c Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:48:26 +0800 Subject: [PATCH 054/107] Update exp_cn.rst --- docs/api/paddle/exp_cn.rst | 8 ++------ 1 file changed, 2 insertions(+), 6 deletions(-) diff --git a/docs/api/paddle/exp_cn.rst b/docs/api/paddle/exp_cn.rst index a660150a2af..701c6a2096b 100644 --- a/docs/api/paddle/exp_cn.rst +++ b/docs/api/paddle/exp_cn.rst @@ -16,17 +16,13 @@ exp 参数 :::::::::::: - - **x** (Tensor) - 该OP的输入为多维Tensor。数据类型为float32,float64。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 + - **x** (Tensor) - 该OP的输入为多维Tensor。数据类型为float32、float64。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 返回 :::::::::::: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -:::::::::::: - Tensor - 代码示例 :::::::::::: From 0bb0f1d01e81bd10246c322a3539c7bf03cd9a10 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:50:03 +0800 Subject: [PATCH 055/107] Update eye_cn.rst --- docs/api/paddle/eye_cn.rst | 9 +-------- 1 file changed, 1 insertion(+), 8 deletions(-) diff --git a/docs/api/paddle/eye_cn.rst b/docs/api/paddle/eye_cn.rst index 9d0c6f103b6..6624cdde610 100644 --- a/docs/api/paddle/eye_cn.rst +++ b/docs/api/paddle/eye_cn.rst @@ -12,20 +12,13 @@ eye - **num_rows** (int) - 生成2-D Tensor的行数,数据类型为非负int32。 - **num_columns** (int,可选) - 生成2-D Tensor的列数,数据类型为非负int32。若为None,则默认等于num_rows。 - - **dtype** (np.dtype|str, 可选) - 返回Tensor的数据类型,可为float16,float32,float64, int32, int64。若为None, 则默认等于float32。 + - **dtype** (np.dtype|str, 可选) - 返回Tensor的数据类型,可为float16、float32、float64、int32、int64。若为None, 则默认等于float32。 - **name** (str, 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: ``shape`` 为 [num_rows, num_columns]的Tensor。 - -抛出异常 -:::::::::::: - - - ``TypeError``: - 如果 ``dtype`` 的类型不是float16, float32, float64, int32, int64其中之一。 - - ``TypeError``: - 如果 ``num_columns`` 不是非负整数或者 ``num_rows`` 不是非负整数。 - 代码示例 :::::::::::: From 68c0b59124ea3508f52b210b7c9e1c95ff2b258e Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:51:28 +0800 Subject: [PATCH 056/107] Update flatten_cn.rst --- docs/api/paddle/flatten_cn.rst | 14 ++------------ 1 file changed, 2 insertions(+), 12 deletions(-) diff --git a/docs/api/paddle/flatten_cn.rst b/docs/api/paddle/flatten_cn.rst index 37d9ffb86a2..a6b7c960a3f 100644 --- a/docs/api/paddle/flatten_cn.rst +++ b/docs/api/paddle/flatten_cn.rst @@ -42,24 +42,14 @@ flatten op 根据给定的start_axis 和 stop_axis 将连续的维度展平。 参数 :::::::::::: - - **x** (Tensor) - 多维Tensor, 数据类型可以为float32,float64,int8,int32或int64。 + - **x** (Tensor) - 多维Tensor,数据类型可以为float32、float64、int8、int32或int64。 - **start_axis** (int) - flatten展开的起始维度。 - **stop_axis** (int) - flatten展开的结束维度。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: - ``Tensor``, 一个 Tensor,它包含输入Tensor的数据,但维度发生变化。输入将按照给定的start_axis 和 stop_axis展开。数据类型与输入x相同。 - -返回类型 -:::::::::::: - Tensor - -抛出异常 -:::::::::::: - - - ValueError: 如果 x 不是一个Tensor - - ValueError: 如果start_axis或者stop_axis不合法 + ``Tensor``,一个 Tensor,它包含输入Tensor的数据,但维度发生变化。输入将按照给定的start_axis 和 stop_axis展开。数据类型与输入x相同。 代码示例 :::::::::::: From 89db970781a85c4a22565fbce91695c217d6fba8 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 19:56:55 +0800 Subject: [PATCH 057/107] Update floor_cn.rst --- docs/api/paddle/floor_cn.rst | 4 ---- 1 file changed, 4 deletions(-) diff --git a/docs/api/paddle/floor_cn.rst b/docs/api/paddle/floor_cn.rst index 02e39888321..3771bde1ad5 100644 --- a/docs/api/paddle/floor_cn.rst +++ b/docs/api/paddle/floor_cn.rst @@ -23,10 +23,6 @@ floor :::::::::::: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -:::::::::::: -Tensor - 代码示例 :::::::::::: From 1187013bd1caa52bebc7da1eb1608fbf03ea0712 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 20:04:47 +0800 Subject: [PATCH 058/107] Update full_cn.rst --- docs/api/paddle/full_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/full_cn.rst b/docs/api/paddle/full_cn.rst index 6bbf336b45e..520bfab620e 100644 --- a/docs/api/paddle/full_cn.rst +++ b/docs/api/paddle/full_cn.rst @@ -12,9 +12,9 @@ full 参数 :::::::::::: - - **shape** (list|tuple|Tensor) – 指定创建Tensor的形状(shape), 数据类型为int32 或者int64。 + - **shape** (list|tuple|Tensor) – 指定创建Tensor的形状(shape),数据类型为int32 或者int64。 - **fill_value** (bool|float|int|Tensor) - 用于初始化输出Tensor的常量数据的值。注意:该参数不可超过输出变量数据类型的表示范围。 - - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型。若为None,则输出变量的数据类型和输入变量相同,默认值为None。 + - **dtype** (np.dtype|str,可选)- 输出变量的数据类型。若为None,则输出变量的数据类型和输入变量相同,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 From 08271ddffcce6fc22e666d0460bbfc716b7df42a Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 20:07:08 +0800 Subject: [PATCH 059/107] Update full_like_cn.rst --- docs/api/paddle/full_like_cn.rst | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/full_like_cn.rst b/docs/api/paddle/full_like_cn.rst index aedb32fabb1..c37ba79d93e 100644 --- a/docs/api/paddle/full_like_cn.rst +++ b/docs/api/paddle/full_like_cn.rst @@ -6,14 +6,14 @@ full_like .. py:function:: paddle.full_like(x, fill_value, dtype=None, name=None) -该OP创建一个和 ``x`` 具有相同的形状并且数据类型为 ``dtype`` 的Tensor,其中元素值均为 ``fill_value`` , 当 ``dtype`` 为None的时候,Tensor数据类型和输入 ``x`` 相同。 +该OP创建一个和 ``x`` 具有相同的形状并且数据类型为 ``dtype`` 的Tensor,其中元素值均为 ``fill_value``,当 ``dtype`` 为None的时候,Tensor数据类型和输入 ``x`` 相同。 参数 :::::::::::: - - **x** (Tensor) – 输入Tensor, 输出Tensor和x具有相同的形状,x的数据类型可以是bool,float16,float32,float64,int32,int64。 + - **x** (Tensor) – 输入Tensor,输出Tensor和x具有相同的形状,x的数据类型可以是bool、float16、float32、float64、int32、int64。 - **fill_value** (bool|float|int) - 用于初始化输出张量的常量数据的值。注意:该参数不可超过输出变量数据类型的表示范围。 - - **dtype** (np.dtype|str, 可选)- 输出变量的数据类型。若参数为None,则输出变量的数据类型和输入变量相同,默认值为None。 + - **dtype** (np.dtype|str,可选)- 输出变量的数据类型。若参数为None,则输出变量的数据类型和输入变量相同,默认值为None。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 From 2756a49b32c152419d928b16f3e6988d989399e0 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Tue, 29 Mar 2022 20:09:05 +0800 Subject: [PATCH 060/107] Update gather_cn.rst --- docs/api/paddle/gather_cn.rst | 11 +++++++---- 1 file changed, 7 insertions(+), 4 deletions(-) diff --git a/docs/api/paddle/gather_cn.rst b/docs/api/paddle/gather_cn.rst index 1d3e3693699..ed630008e67 100644 --- a/docs/api/paddle/gather_cn.rst +++ b/docs/api/paddle/gather_cn.rst @@ -22,13 +22,16 @@ gather Out = [[3, 4], [5, 6]] -**参数**: - - **x** (Tensor) - 输入 Tensor, 秩 ``rank >= 1`` , 支持的数据类型包括 int32、int64、float32、float64 和 uint8 (CPU)、float16(GPU) 。 - - **index** (Tensor) - 索引 Tensor,秩 ``rank = 1``, 数据类型为 int32 或 int64。 +参数 +:::::::::::: + - **x** (Tensor) - 输入 Tensor,秩 ``rank >= 1`` ,支持的数据类型包括 int32、int64、float32、float64 和 uint8 (CPU)、float16(GPU) 。 + - **index** (Tensor) - 索引 Tensor,秩 ``rank = 1``,数据类型为 int32 或 int64。 - **axis** (Tensor) - 指定index 获取输入的维度, ``axis`` 的类型可以是int或者Tensor,当 ``axis`` 为Tensor的时候其数据类型为int32 或者int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -**返回**:和输入的秩相同的输出Tensor。 +返回 +:::::::::::: +和输入的秩相同的输出Tensor。 代码示例 From aaeafb400a3b920f4fd64fa1e63e5cb71008500b Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Wed, 30 Mar 2022 12:22:14 +0800 Subject: [PATCH 061/107] update docs --- docs/api/paddle/acos_cn.rst | 4 ---- docs/api/paddle/arange_cn.rst | 3 --- docs/api/paddle/batch_cn.rst | 3 --- docs/api/paddle/bmm_cn.rst | 17 ++++++++--------- 4 files changed, 8 insertions(+), 19 deletions(-) diff --git a/docs/api/paddle/acos_cn.rst b/docs/api/paddle/acos_cn.rst index d8d457a4c57..b18f32f52a8 100644 --- a/docs/api/paddle/acos_cn.rst +++ b/docs/api/paddle/acos_cn.rst @@ -22,10 +22,6 @@ arccosine函数。 ::::::::: 输出Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型 -::::::::: -Tensor - 代码示例 ::::::::: diff --git a/docs/api/paddle/arange_cn.rst b/docs/api/paddle/arange_cn.rst index 38982936605..3ae258fffef 100644 --- a/docs/api/paddle/arange_cn.rst +++ b/docs/api/paddle/arange_cn.rst @@ -21,9 +21,6 @@ arange :::::::::: Tensor: 以步长 ``step`` 均匀分割给定数值区间[``start``, ``end``)后得到的1-D Tensor, 数据类型为 ``dtype`` 。 -抛出异常 -:::::::::: - - ``TypeError`` - 如果 ``dtype`` 不是int32、int64、float32、float64。 代码示例 :::::::::: diff --git a/docs/api/paddle/batch_cn.rst b/docs/api/paddle/batch_cn.rst index e29a0cdd494..81d71558a62 100644 --- a/docs/api/paddle/batch_cn.rst +++ b/docs/api/paddle/batch_cn.rst @@ -21,9 +21,6 @@ batch :::::::::::: batched reader -返回类型 -:::::::::::: -generator 代码示例 :::::::::::: diff --git a/docs/api/paddle/bmm_cn.rst b/docs/api/paddle/bmm_cn.rst index 1df7537b6ca..b81103fc8b7 100644 --- a/docs/api/paddle/bmm_cn.rst +++ b/docs/api/paddle/bmm_cn.rst @@ -16,20 +16,19 @@ bmm 例如:若x和y分别为(b, m, k)和 (b, k, n)的矩阵,则函数的输出为一个(b, m, n)的矩阵 -**参数**: - +参数 +::::::::: + - **x** (Tensor) : 输入变量,类型为 Tensor。 - **y** (Tensor) : 输入变量,类型为 Tensor。 - **name** (str|None) : 该层名称(可选),如果设置为空,则自动为该层命名。 -**返回**: - - Tensor,矩阵相乘后的结果。 - -**返回类型**: - - Tensor。 - +返回 +::::::::: +Tensor,矩阵相乘后的结果。 -**示例**: +代码示例 +::::::::: .. code-block:: python From 90c6037e8691a158fb3bc64b80d956416818ed14 Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Wed, 30 Mar 2022 13:51:28 +0800 Subject: [PATCH 062/107] update docs --- docs/api/paddle/chunk_cn.rst | 4 +++- docs/api/paddle/diag_cn.rst | 4 +--- docs/api/paddle/diagflat_cn.rst | 4 +--- docs/api/paddle/diagonal_cn.rst | 4 +--- docs/api/paddle/einsum_cn.rst | 3 --- docs/api/paddle/flip_cn.rst | 13 ++----------- docs/api/paddle/get_flags_cn.rst | 3 ++- docs/api/paddle/grad_cn.rst | 15 ++++++++++----- docs/api/paddle/greater_equal_cn.rst | 5 +---- docs/api/paddle/in_dynamic_mode_cn.rst | 5 +---- docs/api/paddle/increment_cn.rst | 9 +++++++-- docs/api/paddle/index_sample_cn.rst | 9 ++++++--- docs/api/paddle/index_select_cn.rst | 10 +++++++--- docs/api/paddle/less_equal_cn.rst | 4 ---- docs/api/paddle/less_than_cn.rst | 3 --- docs/api/paddle/log10_cn.rst | 6 +----- docs/api/paddle/logical_not_cn.rst | 5 +---- docs/api/paddle/masked_select_cn.rst | 6 ------ docs/api/paddle/matmul_cn.rst | 2 -- docs/api/paddle/meshgrid_cn.rst | 5 +---- docs/api/paddle/multiply_cn.rst | 1 + docs/api/paddle/nonzero_cn.rst | 9 ++++++--- docs/api/paddle/not_equal_cn.rst | 5 +---- docs/api/paddle/ones_like_cn.rst | 6 ++---- docs/api/paddle/outer_cn.rst | 8 +++----- docs/api/paddle/reshape_cn.rst | 3 +-- docs/api/paddle/roll_cn.rst | 10 +++++++--- docs/api/paddle/scatter_nd_add_cn.rst | 6 +----- docs/api/paddle/scatter_nd_cn.rst | 5 +---- docs/api/paddle/sign_cn.rst | 5 +---- docs/api/paddle/slice_cn.rst | 5 ----- docs/api/paddle/square_cn.rst | 6 +----- docs/api/paddle/squeeze_cn.rst | 10 +++++++--- docs/api/paddle/stack_cn.rst | 9 +++++++-- 34 files changed, 84 insertions(+), 123 deletions(-) diff --git a/docs/api/paddle/chunk_cn.rst b/docs/api/paddle/chunk_cn.rst index 18be32a9bd7..cd75cd131c9 100644 --- a/docs/api/paddle/chunk_cn.rst +++ b/docs/api/paddle/chunk_cn.rst @@ -7,7 +7,9 @@ chunk 该OP将输入Tensor分割成多个子Tensor。 -**参数**: +参数 +::::::::: + - **x** (Tensor) - 输入变量,数据类型为bool, float16, float32,float64,int32,int64的多维Tensor。 - **chunks** (int) - ``chunks`` 是一个整数,表示将输入Tensor划分成多少个相同大小的子Tensor。 - **axis** (int|Tensor,可选) - 整数或者形状为[1]的Tensor,数据类型为int32或int64。表示需要分割的维度。如果 ``axis < 0`` ,则划分的维度为 ``rank(x) + axis`` 。默认值为0。 diff --git a/docs/api/paddle/diag_cn.rst b/docs/api/paddle/diag_cn.rst index dc1a8bb68a0..203a5800c25 100644 --- a/docs/api/paddle/diag_cn.rst +++ b/docs/api/paddle/diag_cn.rst @@ -10,9 +10,7 @@ diag 如果 ``x`` 是矩阵(2-D张量),则提取 ``x`` 的对角线元素,以1-D张量返回。 -参数 -:::::::::::: -``offset`` 控制对角线偏移量: +参数 ``offset`` 控制对角线偏移量: - 如果 ``offset`` = 0,则为主对角线。 - 如果 ``offset`` > 0,则为上对角线。 diff --git a/docs/api/paddle/diagflat_cn.rst b/docs/api/paddle/diagflat_cn.rst index 149829fe1c2..dbb6e276b9d 100644 --- a/docs/api/paddle/diagflat_cn.rst +++ b/docs/api/paddle/diagflat_cn.rst @@ -10,9 +10,7 @@ diagflat 如果 ``x`` 是大于等于二维的张量,则返回一个二维方阵,其对角线元素为 ``x`` 在连续维度展开得到的一维张量的元素。 -参数 -:::::::::::: -``offset`` 控制对角线偏移量: +参数 ``offset`` 控制对角线偏移量: - 如果 ``offset`` = 0,则为主对角线。 - 如果 ``offset`` > 0,则为上对角线。 diff --git a/docs/api/paddle/diagonal_cn.rst b/docs/api/paddle/diagonal_cn.rst index f61dc078657..0bda32e3666 100644 --- a/docs/api/paddle/diagonal_cn.rst +++ b/docs/api/paddle/diagonal_cn.rst @@ -12,9 +12,7 @@ diagonal 如果输入的维度大于 2D,则返回由对角线元素组成的数组,其中对角线从由 axis1 和 axis2 指定的二维平面中获得。默认由输入的前两维组成获得对角线的 2D 平面。 -参数 -:::::::::::: -`offset` 确定从指定的二维平面中获取对角线的位置: +参数 `offset` 确定从指定的二维平面中获取对角线的位置: - 如果 offset = 0,则取主对角线。 - 如果 offset > 0,则取主对角线右上的对角线。 diff --git a/docs/api/paddle/einsum_cn.rst b/docs/api/paddle/einsum_cn.rst index 28a3f31c589..f37e83ece3b 100644 --- a/docs/api/paddle/einsum_cn.rst +++ b/docs/api/paddle/einsum_cn.rst @@ -5,9 +5,6 @@ einsum .. py:function:: paddle.einsum(equation, *operands) -功能介绍 -::::::: - 该函数用于对一组输入张量进行 Einstein 求和,**该函数目前仅适用于动态图**。 Einstein 求和是一种采用 Einstein 标记法描述的张量求和,输入单个或多个张量,输出单个张量。 diff --git a/docs/api/paddle/flip_cn.rst b/docs/api/paddle/flip_cn.rst index 55b966ee06b..42bf1ce45ea 100644 --- a/docs/api/paddle/flip_cn.rst +++ b/docs/api/paddle/flip_cn.rst @@ -19,19 +19,10 @@ flip 返回 :::::::::::: -在指定axis上翻转后的张量,与输入x数据类型相同。 +Tensor,在指定axis上翻转后的张量,与输入x数据类型相同。 -返回类型 -:::::::::::: -Tensor,与输入x数据类型相同。 - -抛出异常 -:::::::::::: - - - ``TypeError`` - 当输出 ``out`` 和输入 ``x`` 数据类型不一致时候。 - - ``ValueError`` - 当参数 ``axis`` 不合法时。 -代码示例 1 +代码示例 :::::::::::: .. code-block:: python diff --git a/docs/api/paddle/get_flags_cn.rst b/docs/api/paddle/get_flags_cn.rst index a14a434476a..e08878d3a78 100644 --- a/docs/api/paddle/get_flags_cn.rst +++ b/docs/api/paddle/get_flags_cn.rst @@ -16,7 +16,8 @@ get_flags 返回 :::::::::::: - + +Flag 的值. 代码示例 diff --git a/docs/api/paddle/grad_cn.rst b/docs/api/paddle/grad_cn.rst index 53e74ba1597..f01e8ca1b38 100644 --- a/docs/api/paddle/grad_cn.rst +++ b/docs/api/paddle/grad_cn.rst @@ -12,7 +12,8 @@ paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph= 对于每个 `inputs` ,计算所有 `outputs` 相对于其的梯度和。 -**参数** +参数 +::::::::: - **outputs** (Tensor|list(Tensor)|tuple(Tensor)) – 用于计算梯度的图的输出变量,或多个输出变量构成的list/tuple。 - **inputs** (Tensor|list(Tensor)|tuple(Tensor)) - 用于计算梯度的图的输入变量,或多个输入变量构成的list/tuple。该API的每个返回值对应每个 `inputs` 的梯度。 @@ -23,10 +24,13 @@ paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph= - **allow_unused** (bool, 可选) - 决定当某些 `inputs` 变量不在计算图中时抛出错误还是返回None。若某些 `inputs` 变量不在计算图中(即它们的梯度为None),则当allowed_unused=False时会抛出错误,当allow_unused=True时会返回None作为这些变量的梯度。默认值为False。 - **no_grad_vars** (Tensor|list(Tensor)|tuple(Tensor)|set(Tensor), 可选) - 指明不需要计算梯度的变量。默认值为None。 -**返回** - tuple(Tensor),其长度等于 `inputs` 中的变量个数,且第i个返回的变量是所有 `outputs` 相对于第i个 `inputs` 的梯度之和。 +返回 +::::::::: -**代码示例 1** +tuple(Tensor),其长度等于 `inputs` 中的变量个数,且第i个返回的变量是所有 `outputs` 相对于第i个 `inputs` 的梯度之和。 + +代码示例 1 +::::::::: .. code-block:: python import paddle @@ -60,7 +64,8 @@ paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph= print(test_dygraph_grad(create_graph=False)) # [2.] print(test_dygraph_grad(create_graph=True)) # [4.] -**代码示例 2** +代码示例 2 +::::::::: .. code-block:: python import paddle diff --git a/docs/api/paddle/greater_equal_cn.rst b/docs/api/paddle/greater_equal_cn.rst index 88be1898e49..482743acc02 100644 --- a/docs/api/paddle/greater_equal_cn.rst +++ b/docs/api/paddle/greater_equal_cn.rst @@ -19,11 +19,8 @@ greater_equal 返回 :::::::::::: -输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +输出结果的Tensor,shape和输入一致,数据类型为bool。 -返回类型 -:::::::::::: -变量(Tensor) 代码示例 :::::::::::: diff --git a/docs/api/paddle/in_dynamic_mode_cn.rst b/docs/api/paddle/in_dynamic_mode_cn.rst index 9ed2207fcbc..9211a04bbde 100644 --- a/docs/api/paddle/in_dynamic_mode_cn.rst +++ b/docs/api/paddle/in_dynamic_mode_cn.rst @@ -14,11 +14,8 @@ in_dynamic_mode 返回 :::::::::::: -如果paddle当前是在动态图模式运行,则返回 ``True`` ,否则返回 ``False`` +bool,如果paddle当前是在动态图模式运行,则返回 ``True`` ,否则返回 ``False`` -返回类型 -:::::::::::: -bool 代码示例 :::::::::::: diff --git a/docs/api/paddle/increment_cn.rst b/docs/api/paddle/increment_cn.rst index 6fd66d5df53..7a7694d9371 100644 --- a/docs/api/paddle/increment_cn.rst +++ b/docs/api/paddle/increment_cn.rst @@ -10,12 +10,17 @@ increment 该OP在控制流程中用来让 ``x`` 的数值增加 ``value`` 。 -**参数**: +参数 +::::::::: + - **x** (Tensor) – 输入张量,必须始终只有一个元素。支持的数据类型:float32,float64,int32,int64。 - **value** (float,可选) – ``x`` 的数值增量。默认值为1.0。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -**返回**: Tensor,形状和数据类型同输入 ``x`` 。 +返回 +::::::::: + +Tensor,形状和数据类型同输入 ``x`` 。 代码示例 diff --git a/docs/api/paddle/index_sample_cn.rst b/docs/api/paddle/index_sample_cn.rst index 32fd913f550..6bf3c40bd20 100644 --- a/docs/api/paddle/index_sample_cn.rst +++ b/docs/api/paddle/index_sample_cn.rst @@ -12,12 +12,15 @@ index_sample 该OP中 ``x`` 与 ``index`` 都是 ``2-D`` 张量。 ``index`` 的第一维度与输入 ``x`` 的第一维度必须相同, ``index`` 的第二维度没有大小要求,可以重复索引相同下标元素。 -**参数**: +参数 +::::::::: + - **x** (Tensor)– 输入的二维张量,数据类型为 int32,int64,float32,float64。 - **index** (Tensor)– 包含索引下标的二维张量。数据类型为 int32,int64。 -**返回**: - -**Tensor** ,数据类型与输入 ``x`` 相同,维度与 ``index`` 相同。 +返回 +::::::::: +Tensor,数据类型与输入 ``x`` 相同,维度与 ``index`` 相同。 代码示例 :::::::::::: diff --git a/docs/api/paddle/index_select_cn.rst b/docs/api/paddle/index_select_cn.rst index ed9653e9b7e..7cdcca30e96 100644 --- a/docs/api/paddle/index_select_cn.rst +++ b/docs/api/paddle/index_select_cn.rst @@ -9,14 +9,18 @@ index_select 该OP沿着指定轴 ``axis`` 对输入 ``x`` 进行索引,取 ``index`` 中指定的相应项,创建并返回到一个新的Tensor。这里 ``index`` 是一个 ``1-D`` Tensor。除 ``axis`` 轴外,返回的Tensor其余维度大小和输入 ``x`` 相等 , ``axis`` 维度的大小等于 ``index`` 的大小。 -**参数**: +参数 +::::::::: + - **x** (Tensor)– 输入Tensor。 ``x`` 的数据类型可以是float32,float64,int32,int64。 - **index** (Tensor)– 包含索引下标的1-D Tensor。 - **axis** (int, 可选) – 索引轴,若未指定,则默认选取第0维。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -**返回**: - -**Tensor**: 返回一个数据类型同输入的Tensor。 +返回 +::::::::: + +Tensor,返回一个数据类型同输入的Tensor。 代码示例 diff --git a/docs/api/paddle/less_equal_cn.rst b/docs/api/paddle/less_equal_cn.rst index 6254cf89a7f..dc186373b68 100644 --- a/docs/api/paddle/less_equal_cn.rst +++ b/docs/api/paddle/less_equal_cn.rst @@ -21,10 +21,6 @@ less_equal :::::::::::: 输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型 -:::::::::::: -变量(Tensor) - 代码示例 :::::::::::: diff --git a/docs/api/paddle/less_than_cn.rst b/docs/api/paddle/less_than_cn.rst index c47db024961..f5bbdc92c19 100644 --- a/docs/api/paddle/less_than_cn.rst +++ b/docs/api/paddle/less_than_cn.rst @@ -21,9 +21,6 @@ less_than :::::::::::: 输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 -返回类型 -:::::::::::: -变量(Tensor) 代码示例 :::::::::::: diff --git a/docs/api/paddle/log10_cn.rst b/docs/api/paddle/log10_cn.rst index e95dbd0a6f7..4a096872fa4 100755 --- a/docs/api/paddle/log10_cn.rst +++ b/docs/api/paddle/log10_cn.rst @@ -23,11 +23,7 @@ Log10激活函数(计算底为10的对数) 返回 :::::::::::: -Log10算子底为10对数输出 - -返回类型 -:::::::::::: - Tensor - 该OP的输出为Tensor,数据类型为输入一致。 + Tensor,Log10算子底为10对数输出,数据类型与输入一致。 代码示例 diff --git a/docs/api/paddle/logical_not_cn.rst b/docs/api/paddle/logical_not_cn.rst index 7cd20bad942..e600d537021 100644 --- a/docs/api/paddle/logical_not_cn.rst +++ b/docs/api/paddle/logical_not_cn.rst @@ -22,11 +22,8 @@ logical_not 返回 :::::::::::: -与 ``x`` 维度相同,数据类型相同的 Tensor。 +Tensor,与 ``x`` 维度相同,数据类型相同。 -返回类型 -:::::::::::: -Tensor 代码示例 :::::::::::: diff --git a/docs/api/paddle/masked_select_cn.rst b/docs/api/paddle/masked_select_cn.rst index 84d39349b10..10301b9b50e 100644 --- a/docs/api/paddle/masked_select_cn.rst +++ b/docs/api/paddle/masked_select_cn.rst @@ -21,12 +21,6 @@ masked_select 返回一个根据 ``mask`` 选择的的Tensor -抛出异常 -:::::::::::: - - - ``TypeError``: - 如果 ``x`` 不是 Tensor 或者 ``x`` 是Tensor的时候的数据类型不是 float32, float64, int32, int64其中之一。 - - ``TypeError``: - 如果 ``mask`` 不是 Tensor 或者 ``mask`` 是Tensor的时候的数据类型不是 bool。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/matmul_cn.rst b/docs/api/paddle/matmul_cn.rst index 4d8a76d269b..a680255358a 100644 --- a/docs/api/paddle/matmul_cn.rst +++ b/docs/api/paddle/matmul_cn.rst @@ -35,8 +35,6 @@ matmul 返回 :::::::::::: -::::::::: - - Tensor,矩阵相乘后的结果,数据类型和输入数据类型一致。 代码示例 diff --git a/docs/api/paddle/meshgrid_cn.rst b/docs/api/paddle/meshgrid_cn.rst index 370fb5c58cb..7b063212172 100644 --- a/docs/api/paddle/meshgrid_cn.rst +++ b/docs/api/paddle/meshgrid_cn.rst @@ -19,11 +19,8 @@ meshgrid 返回 :::::::::::: -k 个 k 维张量,每个张量的形状均为(N1, N2, ..., Nk)。 +k 个 k 维 ``Tensor`` ,每个形状均为(N1, N2, ..., Nk)。 -返回类型 -:::::::::::: - Tensor,k个Tensor,每个Tensor的形状分别为N1, N2, ... , Nk。 代码示例 :::::::::::: diff --git a/docs/api/paddle/multiply_cn.rst b/docs/api/paddle/multiply_cn.rst index c894199b85d..dd87dd5a560 100755 --- a/docs/api/paddle/multiply_cn.rst +++ b/docs/api/paddle/multiply_cn.rst @@ -19,6 +19,7 @@ multiply - :math:`Y` :维度必须小于等于X维度的Tensor。 对于这个运算算子有2种情况: + 1. :math:`Y` 的 ``shape`` 与 :math:`X` 相同。 2. :math:`Y` 的 ``shape`` 是 :math:`X` 的连续子序列。 3. 输入 ``x`` 与输入 ``y`` 必须可以广播为相同形状, 关于广播规则,请参考 :ref:`cn_user_guide_broadcasting` 。 diff --git a/docs/api/paddle/nonzero_cn.rst b/docs/api/paddle/nonzero_cn.rst index 3009323782e..8541dbeea9c 100644 --- a/docs/api/paddle/nonzero_cn.rst +++ b/docs/api/paddle/nonzero_cn.rst @@ -12,15 +12,18 @@ nonzero 返回结果是一个 ``shape`` 等于 ``[z x n]`` 的 ``Tensor`` , 第 ``i`` 行代表输入中第 ``i`` 个非零元素的坐标;当 ``as_tuple = True`` 时, 返回结果是由 ``n`` 个大小为 ``z`` 的 ``1-D Tensor`` 构成的元组,第 ``i`` 个 ``1-D Tensor`` 记录输入的非零元素在第 ``i`` 维的坐标。 -**参数**: +参数 +::::::::: + - **x** (Tensor)– 输入张量。 - **as_tuple** (bool, optinal) - 返回格式。是否以 ``1-D Tensor`` 构成的元组格式返回。 -**返回**: +返回 +::::::::: - **Tensor or tuple(1-D Tensor)**,数据类型为 **INT64** 。 代码示例 -:::::::::::: +::::::::: .. code-block:: python diff --git a/docs/api/paddle/not_equal_cn.rst b/docs/api/paddle/not_equal_cn.rst index 9833f8e52cc..73e76e9c8a9 100644 --- a/docs/api/paddle/not_equal_cn.rst +++ b/docs/api/paddle/not_equal_cn.rst @@ -19,11 +19,8 @@ not_equal 返回 :::::::::::: -输出结果的Tensor,输出Tensor的shape和输入一致,Tensor数据类型为bool。 +Tensor,shape和输入一致,数据类型为bool。 -返回类型 -:::::::::::: -变量(Tensor) 代码示例 :::::::::::: diff --git a/docs/api/paddle/ones_like_cn.rst b/docs/api/paddle/ones_like_cn.rst index 03c81f991fd..a78457f3ee3 100644 --- a/docs/api/paddle/ones_like_cn.rst +++ b/docs/api/paddle/ones_like_cn.rst @@ -16,11 +16,9 @@ ones_like 返回 :::::::::: - Tensor:和 ``x`` 具有相同形状的数值都为1的Tensor,数据类型为 ``dtype`` 或者和 ``x`` 相同。 -抛出异常 -:::::::::: - - ``TypeError`` - 如果 ``dtype`` 不是bool、float16、float32、float64、int32、int64。 +Tensor:和 ``x`` 具有相同形状的数值都为1的Tensor,数据类型为 ``dtype`` 或者和 ``x`` 相同。 + 代码示例 :::::::::: diff --git a/docs/api/paddle/outer_cn.rst b/docs/api/paddle/outer_cn.rst index ce8db9f22c6..db746931e90 100644 --- a/docs/api/paddle/outer_cn.rst +++ b/docs/api/paddle/outer_cn.rst @@ -11,18 +11,16 @@ outer 对于1维Tensor正常计算外积,对于大于1维的Tensor先展平为1维再计算外积。 参数 -:::::::::::: - ::::::::: + - **x** (Tensor) - 一个N维Tensor或者标量Tensor。 - **y** (Tensor) - 一个N维Tensor或者标量Tensor。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 -:::::::::::: - ::::::::: - - Tensor, x、y的外积结果,Tensor shape为 [x.size, y.size]。 + +Tensor, x、y的外积结果,Tensor shape为 [x.size, y.size]。 代码示例: :::::::::: diff --git a/docs/api/paddle/reshape_cn.rst b/docs/api/paddle/reshape_cn.rst index c280c0685e9..ba5dd4cf6ef 100644 --- a/docs/api/paddle/reshape_cn.rst +++ b/docs/api/paddle/reshape_cn.rst @@ -35,9 +35,8 @@ reshape - **name** (str,可选)- 默认值为 `None`, 一般不需要设置。 具体用法请参见 :ref:`api_guide_Name` 返回 -:::::::::::: - ::::::::: + ``Tensor``,改变形状后的 ``Tensor``,数据类型与 ``x`` 相同。 diff --git a/docs/api/paddle/roll_cn.rst b/docs/api/paddle/roll_cn.rst index 48ab1519a71..1b494af716e 100644 --- a/docs/api/paddle/roll_cn.rst +++ b/docs/api/paddle/roll_cn.rst @@ -10,17 +10,21 @@ roll 该OP沿着指定维度 ``axis`` 对输入 ``x`` 进行循环滚动,当元素移动到最后位置时,会从第一个位置重新插入。如果 ``axis`` 为 ``None`` ,则输入在被循环滚动之前,会先展平成 ``1-D Tensor`` ,滚动操作完成后恢复成原来的形状。 -**参数**: +参数 +::::::::: + - **x** (Tensor)– 输入张量。 - **shifts** (int|list|tuple) - 滚动位移。如果 ``shifts`` 是一个元组或者列表,则 ``axis`` 必须是相同大小的元组或者列表,输入张量将依次沿着每个维度滚动相应的数值。 - **axis** (int|list|tuple, optinal) – 滚动轴。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 -**返回**: +返回 +::::::::: + - **Tensor**,数据类型同输入。 代码示例 -:::::::::::: +::::::::: .. code-block:: python diff --git a/docs/api/paddle/scatter_nd_add_cn.rst b/docs/api/paddle/scatter_nd_add_cn.rst index 08dd2191ae3..39b34d1f0f8 100644 --- a/docs/api/paddle/scatter_nd_add_cn.rst +++ b/docs/api/paddle/scatter_nd_add_cn.rst @@ -52,11 +52,7 @@ scatter_nd_add 返回 :::::::::::: -数据类型和形状都与 :code:`x` 相同的Tensor。 - -返回类型 -:::::::::::: -Tensor +Tensor, 数据类型和形状都与 :code:`x` 相同。 代码示例 :::::::::::: diff --git a/docs/api/paddle/scatter_nd_cn.rst b/docs/api/paddle/scatter_nd_cn.rst index 7892d318e73..85d32c0dc76 100644 --- a/docs/api/paddle/scatter_nd_cn.rst +++ b/docs/api/paddle/scatter_nd_cn.rst @@ -20,11 +20,8 @@ scatter_nd 返回 :::::::::::: -数据类型与 :code:`updates` 相同,形状是 :code:`shape` 的Tensor。 +Tensor, 数据类型与 :code:`updates` 相同,形状是 :code:`shape` 。 -返回类型 -:::::::::::: -Tensor 代码示例 :::::::::::: diff --git a/docs/api/paddle/sign_cn.rst b/docs/api/paddle/sign_cn.rst index 969fac1a4d6..9e2d197db4f 100644 --- a/docs/api/paddle/sign_cn.rst +++ b/docs/api/paddle/sign_cn.rst @@ -15,11 +15,8 @@ sign 返回 :::::::::::: -输出正负号Tensor,数据的shape大小及数据类型和输入 ``x`` 一致。 +Tensor, 输出正负号,数据的shape大小及数据类型和输入 ``x`` 一致。 -返回类型 -:::::::::::: -Tensor 代码示例 :::::::::::: diff --git a/docs/api/paddle/slice_cn.rst b/docs/api/paddle/slice_cn.rst index 5654715119c..059e07df224 100755 --- a/docs/api/paddle/slice_cn.rst +++ b/docs/api/paddle/slice_cn.rst @@ -41,11 +41,6 @@ slice :::::::::::: 多维 ``Tensor`` ,数据类型与 ``input`` 相同。 -抛出异常 -:::::::::::: - - - :code:`TypeError`:``starts`` 的类型应该是 list、tuple 或 Tensor。 - - :code:`TypeError`:``ends`` 的类型应该是 list、tuple 或 Tensor。 代码示例 :::::::::::: diff --git a/docs/api/paddle/square_cn.rst b/docs/api/paddle/square_cn.rst index 0b332a9e744..df835f737bf 100644 --- a/docs/api/paddle/square_cn.rst +++ b/docs/api/paddle/square_cn.rst @@ -21,11 +21,7 @@ square 返回 :::::::::::: -返回取平方后的Tensor,维度和数据类型同输入一致。 - -返回类型 -:::::::::::: -Tensor +取平方后的Tensor,维度和数据类型同输入一致。 代码示例 :::::::::::: diff --git a/docs/api/paddle/squeeze_cn.rst b/docs/api/paddle/squeeze_cn.rst index 2d314d624eb..3ba3c29febb 100644 --- a/docs/api/paddle/squeeze_cn.rst +++ b/docs/api/paddle/squeeze_cn.rst @@ -44,15 +44,19 @@ squeeze Output: out.shape = [1, 3, 5] -**参数**: +参数 +::::::::: + - **x** (Tensor) - 输入的 `Tensor` ,数据类型为:float32、float64、bool、int8、int32、int64。 - **axis** (int|list|tuple, 可选) - 输入一个或一列整数,代表要压缩的轴。axis的范围: [−ndim(x), ndim(x))] 。 如果axis为负数, 则axis=axis+ndim(x) 。默认为None,表示对所有尺寸为1的维度进行压缩。 - **name** (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -**返回**:对维度进行压缩后的Tensor,数据类型与输入Tensor一致。 +返回 +::::::::: +对维度进行压缩后的Tensor,数据类型与输入Tensor一致。 代码示例 -:::::::::::: +::::::::: .. code-block:: python diff --git a/docs/api/paddle/stack_cn.rst b/docs/api/paddle/stack_cn.rst index c09b1e9ebf9..da450914672 100644 --- a/docs/api/paddle/stack_cn.rst +++ b/docs/api/paddle/stack_cn.rst @@ -52,14 +52,19 @@ stack [3.0, 4.0] [5.0, 6.0] ] ] -**参数**: +参数 +::::::::: + - **x** (list[Tensor]|tuple[Tensor]) – 输入 x 是多个Tensor,且这些Tensor的维度和数据类型必须相同。支持的数据类型: float32,float64,int32,int64。 - **axis** (int, 可选) – 指定对输入Tensor进行堆叠运算的轴,有效 axis 的范围是: [−(R+1),R+1],R是输入中第一个Tensor的维数。如果 axis < 0,则 axis=axis+R+1 。默认值为0。 - **name** (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -**返回**:堆叠运算后的Tensor,数据类型与输入Tensor相同。 +返回 +::::::::: + +堆叠运算后的Tensor,数据类型与输入Tensor相同。 代码示例 :::::::::::: From 63c9fa5d0f40f31587e0fbbfc277f6c73e2f9a6f Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Wed, 30 Mar 2022 14:20:02 +0800 Subject: [PATCH 063/107] update docs --- docs/api/paddle/t_cn.rst | 7 ++++--- docs/api/paddle/tanh_cn.rst | 11 ++++------- docs/api/paddle/tensordot_cn.rst | 7 ++++--- docs/api/paddle/to_tensor_cn.rst | 13 +++---------- docs/api/paddle/zeros_like_cn.rst | 3 --- 5 files changed, 15 insertions(+), 26 deletions(-) diff --git a/docs/api/paddle/t_cn.rst b/docs/api/paddle/t_cn.rst index 21153f90ba2..99121ed6688 100644 --- a/docs/api/paddle/t_cn.rst +++ b/docs/api/paddle/t_cn.rst @@ -11,17 +11,18 @@ t 该OP对小于等于2维的Tensor进行数据转置。0维和1维Tensor返回本身,2维Tensor等价于perm设置为0,1的 :ref:`cn_api_fluid_layers_transpose` 函数。 参数 -:::::::::::: +::::::::: - **input** (Tensor) - 输入:N维(N<=2)Tensor,可选的数据类型为float16, float32, float64, int32, int64。 - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None 返回 -:::::::::::: +::::::::: N维Tensor -**示例**: +代码示例 +::::::::: .. code-block:: text diff --git a/docs/api/paddle/tanh_cn.rst b/docs/api/paddle/tanh_cn.rst index 15fd15081ca..6ea94cde7ec 100644 --- a/docs/api/paddle/tanh_cn.rst +++ b/docs/api/paddle/tanh_cn.rst @@ -12,22 +12,19 @@ tanh 激活函数 out = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} 参数 -:::::::::::: +::::::::: - **x** (Tensor) - Tanh算子的输入, 多维Tensor,数据类型为 float16,float32或float64。 - **name** (str, 可选) - 该层名称(可选,默认为None)。具体用法请参见 :ref:`api_guide_Name`。 返回 -:::::::::::: - tanh的输出Tensor,和输入有着相同类型和shape。 +::::::::: +tanh的输出Tensor,和输入有着相同类型和shape。 -返回类型 -:::::::::::: - Tensor 代码示例 -:::::::::::: +::::::::: .. code-block:: python diff --git a/docs/api/paddle/tensordot_cn.rst b/docs/api/paddle/tensordot_cn.rst index 5889479d986..f151ef5078f 100644 --- a/docs/api/paddle/tensordot_cn.rst +++ b/docs/api/paddle/tensordot_cn.rst @@ -27,9 +27,10 @@ tensordot :::::::::::: 一个 ``Tensor`` ,表示张量缩并的结果,数据类型与 ``x`` 和 ``y`` 相同。一般情况下,有 :math:`output.ndim = x.ndim + y.ndim - 2 \times n_{axes}` , 其中 :math:`n_{axes}` 表示做张量缩并的轴数量。 -**Note:** - 1. 本API支持张量维度广播,``x`` 和 ``y`` 做缩并操作的对应维度size必须相等,或适用于广播规则。 - 2. 本API支持axes扩展,当指定的 ``x`` 和 ``y`` 两个轴序列长短不一时,短的序列会自动在末尾补充和长序列相同的轴下标。例如,如果输入 ``axes`` =[[0, 1, 2, 3], [1, 0]],则指定 ``x`` 的轴序列是[0, 1, 2, 3],对应 ``y`` 的轴序列会自动从[1,0]扩展成[1, 0, 2, 3]。 +.. note:: + +1. 本API支持张量维度广播,``x`` 和 ``y`` 做缩并操作的对应维度size必须相等,或适用于广播规则。 +2. 本API支持axes扩展,当指定的 ``x`` 和 ``y`` 两个轴序列长短不一时,短的序列会自动在末尾补充和长序列相同的轴下标。例如,如果输入 ``axes`` =[[0, 1, 2, 3], [1, 0]],则指定 ``x`` 的轴序列是[0, 1, 2, 3],对应 ``y`` 的轴序列会自动从[1,0]扩展成[1, 0, 2, 3]。 代码示例 :::::::::::: diff --git a/docs/api/paddle/to_tensor_cn.rst b/docs/api/paddle/to_tensor_cn.rst index 4fa601885ce..eb53ab67bf3 100644 --- a/docs/api/paddle/to_tensor_cn.rst +++ b/docs/api/paddle/to_tensor_cn.rst @@ -13,7 +13,7 @@ to_tensor 否则会创建一个新的tensor,且不保留原来计算图。 参数 -:::::::::::: +::::::::: - **data** (scalar|tuple|list|ndarray|Tensor) - 初始化tensor的数据,可以是 scalar,list,tuple,numpy\.ndarray,paddle\.Tensor类型。 @@ -27,19 +27,12 @@ to_tensor - **stop_gradient** (bool, optional) - 是否阻断Autograd的梯度传导。默认值为True,此时不进行梯度传传导。 返回 -:::::::::::: +::::::::: 通过 ``data`` 创建的 tensor。 -抛出异常 -:::::::::::: - - - ``TypeError``: 当 ``data`` 不是 scalar,list,tuple,numpy.ndarray,paddle.Tensor类型时 - - ``ValueError``: 当 ``data`` 是包含不等长子序列的tuple或list时, 例如[[1, 2], [3, 4, 5]] - - ``TypeError``: 当 ``dtype`` 不是 bool,float16,float32,float64,int8,int16,int32,int64,uint8,complex64,complex128时 - - ``ValueError``: 当 ``place`` 不是 paddle.CPUPlace,paddle.CUDAPinnedPlace,paddle.CUDAPlace时 代码示例 -:::::::::::: +::::::::: .. code-block:: python diff --git a/docs/api/paddle/zeros_like_cn.rst b/docs/api/paddle/zeros_like_cn.rst index 623af4d5123..b2088cc9232 100644 --- a/docs/api/paddle/zeros_like_cn.rst +++ b/docs/api/paddle/zeros_like_cn.rst @@ -18,9 +18,6 @@ zeros_like :::::::::: Tensor:和 ``x`` 具有相同的形状全零Tensor,数据类型为 ``dtype`` 或者和 ``x`` 相同。 -抛出异常 -:::::::::: - - ``TypeError`` - 如果 ``dtype`` 不是bool、float16、float32、float64、int32、int64。 代码示例 :::::::::: From 6920354c1bf8b7bc67569851f1ad4eb43db62153 Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Wed, 30 Mar 2022 14:47:44 +0800 Subject: [PATCH 064/107] update docs --- docs/api/paddle/amp/GradScaler_cn.rst | 119 +++++++++++------- docs/api/paddle/compat/to_bytes_cn.rst | 2 + docs/api/paddle/compat/to_text_cn.rst | 2 + .../fleet/DistributedStrategy_cn.rst | 4 +- .../fleet/PaddleCloudRoleMaker_cn.rst | 5 +- .../fleet/UserDefinedRoleMaker_cn.rst | 5 +- docs/api/paddle/distribution/Beta_cn.rst | 46 +++---- .../paddle/distribution/Categorical_cn.rst | 64 +++++----- docs/api/paddle/distribution/Dirichlet_cn.rst | 46 +++---- .../paddle/distribution/Distribution_cn.rst | 35 +++--- docs/api/paddle/distribution/Normal_cn.rst | 75 ++++------- docs/api/paddle/distribution/Uniform_cn.rst | 67 ++++------ docs/api/paddle/fft/fft2_cn.rst | 8 -- docs/api/paddle/fft/fft_cn.rst | 5 - docs/api/paddle/fft/fftn_cn.rst | 9 -- docs/api/paddle/fft/hfft2_cn.rst | 8 -- docs/api/paddle/fft/hfft_cn.rst | 5 - docs/api/paddle/fft/hfftn_cn.rst | 9 -- docs/api/paddle/fft/ifft2_cn.rst | 8 -- docs/api/paddle/fft/ifft_cn.rst | 6 - docs/api/paddle/fft/ifftn_cn.rst | 9 -- docs/api/paddle/fft/ihfft2_cn.rst | 8 -- docs/api/paddle/fft/ihfft_cn.rst | 5 - docs/api/paddle/fft/ihfftn_cn.rst | 9 -- docs/api/paddle/fft/irfft2_cn.rst | 8 -- docs/api/paddle/fft/irfft_cn.rst | 5 - docs/api/paddle/fft/irfftn_cn.rst | 9 -- docs/api/paddle/fft/rfft2_cn.rst | 8 -- docs/api/paddle/fft/rfft_cn.rst | 4 - docs/api/paddle/fft/rfftn_cn.rst | 9 -- docs/api/paddle/incubate/LookAhead_cn.rst | 28 +++-- docs/api/paddle/incubate/ModelAverage_cn.rst | 27 ++-- 32 files changed, 260 insertions(+), 397 deletions(-) diff --git a/docs/api/paddle/amp/GradScaler_cn.rst b/docs/api/paddle/amp/GradScaler_cn.rst index 48481559b64..0b6009bba04 100644 --- a/docs/api/paddle/amp/GradScaler_cn.rst +++ b/docs/api/paddle/amp/GradScaler_cn.rst @@ -61,12 +61,15 @@ scale(var) 将Tensor乘上缩放因子,返回缩放后的输出。 如果这个 :class:`GradScaler` 的实例不使用loss scaling,则返回的输出将保持不变。 -**参数:** - - **var** (Tensor) - 需要进行缩放的Tensor。 +**参数** -**返回:**缩放后的Tensor或者原Tensor。 +- **var** (Tensor) - 需要进行缩放的Tensor。 -**代码示例:** +**返回** + +缩放后的Tensor或者原Tensor。 + +**代码示例** .. code-block:: python @@ -93,12 +96,13 @@ minimize(optimizer, *args, **kwargs) 如果参数缩放后的梯度包含NAN或者INF,则跳过参数更新。否则,首先让缩放过梯度的参数取消缩放,然后更新参数。 最终,更新loss scaling的比例。 -**参数:** +**参数** + - **optimizer** (Optimizer) - 用于更新参数的优化器。 - **args** - 参数,将会被传递给 ``optimizer.minimize()`` 。 - **kwargs** - 关键词参数,将会被传递给 ``optimizer.minimize()`` 。 -**代码示例:** +**代码示例** .. code-block:: python @@ -125,10 +129,11 @@ step(optimizer) 如果参数缩放后的梯度包含NAN或者INF,则跳过参数更新。否则,首先让缩放过梯度的参数取消缩放,然后更新参数。 该函数与 ``update()`` 函数一起使用,效果等同于 ``minimize()``。 -**参数:** - - **optimizer** (Optimizer) - 用于更新参数的优化器。 +**参数** + +- **optimizer** (Optimizer) - 用于更新参数的优化器。 -**代码示例:** +**代码示例** .. code-block:: python @@ -152,7 +157,7 @@ update() 更新缩放比例。 -**代码示例:** +**代码示例** .. code-block:: python @@ -178,10 +183,10 @@ unscale_(optimizer) 如果在 ``step()`` 调用前调用 ``unscale_()``,则 ``step()`` 不会重复调用 ``unscale()``,否则 ``step()`` 将先执行 ``unscale_()`` 再做参数更新。 ``minimize()`` 用法同上。 -**参数:** +**参数** - **optimizer** (Optimizer) - 用于更新参数的优化器。 -**代码示例:** +**代码示例** .. code-block:: python @@ -206,9 +211,11 @@ is_enable() 判断是否开启loss scaling策略。 -**返回:**bool,采用loss scaling策略返回True,否则返回False。 +**返回** -**代码示例:** +bool,采用loss scaling策略返回True,否则返回False。 + +**代码示例** .. code-block:: python @@ -228,9 +235,11 @@ is_use_dynamic_loss_scaling() 判断是否动态调节loss scaling的缩放比例。 -**返回:**bool,动态调节loss scaling缩放比例返回True,否则返回False。 +**返回** + +bool,动态调节loss scaling缩放比例返回True,否则返回False。 -**代码示例:** +**代码示例** .. code-block:: python @@ -250,9 +259,11 @@ get_init_loss_scaling() 返回初始化的loss scaling缩放比例。 -**返回:**float,初始化的loss scaling缩放比例。 +**返回** + +float,初始化的loss scaling缩放比例。 -**代码示例:** +**代码示例** .. code-block:: python @@ -272,10 +283,11 @@ set_init_loss_scaling(new_init_loss_scaling) 利用输入的new_init_loss_scaling对初始缩放比例参数init_loss_scaling重新赋值。 -**参数:** - - **new_init_loss_scaling** (float) - 用于更新缩放比例的参数。 +**参数** -**代码示例:** +- **new_init_loss_scaling** (float) - 用于更新缩放比例的参数。 + +**代码示例** .. code-block:: python @@ -297,9 +309,11 @@ get_incr_ratio() 返回增大loss scaling时使用的乘数。 -**返回:**float,增大loss scaling时使用的乘数。 +**返回** + +float,增大loss scaling时使用的乘数。 -**代码示例:** +**代码示例** .. code-block:: python @@ -319,10 +333,11 @@ set_incr_ratio(new_incr_ratio) 利用输入的new_incr_ratio对增大loss scaling时使用的乘数重新赋值。 -**参数:** - - **new_incr_ratio** (float) - 用于更新增大loss scaling时使用的乘数,该值需>1.0。 +**参数** -**代码示例:** +- **new_incr_ratio** (float) - 用于更新增大loss scaling时使用的乘数,该值需>1.0。 + +**代码示例** .. code-block:: python @@ -344,9 +359,11 @@ get_decr_ratio() 返回缩小loss scaling时使用的乘数。 -**返回:**float,缩小loss scaling时使用的乘数。 +**返回** + +float,缩小loss scaling时使用的乘数。 -**代码示例:** +**代码示例** .. code-block:: python @@ -366,10 +383,11 @@ set_decr_ratio(new_decr_ratio) 利用输入的new_decr_ratio对缩小loss scaling时使用的乘数重新赋值。 -**参数:** - - **new_decr_ratio** (float) - 用于更新缩小loss scaling时使用的乘数,该值需<1.0。 +**参数** + +- **new_decr_ratio** (float) - 用于更新缩小loss scaling时使用的乘数,该值需<1.0。 -**代码示例:** +**代码示例** .. code-block:: python @@ -391,9 +409,11 @@ get_incr_every_n_steps() 连续n个steps的梯度都是有限值时,增加loss scaling,返回对应的值n。 -**返回:**int,参数incr_every_n_steps。 +**返回** -**代码示例:** +int,参数incr_every_n_steps。 + +**代码示例** .. code-block:: python @@ -413,10 +433,11 @@ set_incr_every_n_steps(new_incr_every_n_steps) 利用输入的new_incr_every_n_steps对参数incr_every_n_steps重新赋值。 -**参数:** - - **new_incr_every_n_steps** (int) - 用于更新参数incr_every_n_steps。 +**参数** + +- **new_incr_every_n_steps** (int) - 用于更新参数incr_every_n_steps。 -**代码示例:** +**代码示例** .. code-block:: python @@ -438,9 +459,11 @@ get_decr_every_n_nan_or_inf() 累计出现n个steps的梯度为nan或者inf时,减小loss scaling,返回对应的值n。 -**返回:**int,参数decr_every_n_nan_or_inf。 +**返回** -**代码示例:** +int,参数decr_every_n_nan_or_inf。 + +**代码示例** .. code-block:: python @@ -460,10 +483,11 @@ set_decr_every_n_nan_or_inf(new_decr_every_n_nan_or_inf) 利用输入的new_decr_every_n_nan_or_inf对参数decr_every_n_nan_or_inf重新赋值。 -**参数:** - - **new_decr_every_n_nan_or_inf** (int) - 用于更新参数decr_every_n_nan_or_inf。 +**参数** + +- **new_decr_every_n_nan_or_inf** (int) - 用于更新参数decr_every_n_nan_or_inf。 -**代码示例:** +**代码示例** .. code-block:: python @@ -485,9 +509,11 @@ state_dict() 以字典的形式存储GradScaler对象的状态参数,如果该对象的enable为False,则返回一个空的字典。 -**返回:**dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 +**返回** -**代码示例:** +dict,字典存储的参数包括:scale(tensor):loss scaling因子、incr_ratio(float):增大loss scaling时使用的乘数、decr_ratio(float):减小loss scaling时使用的小于1的乘数、incr_every_n_steps(int):连续n个steps的梯度都是有限值时,增加loss scaling、decr_every_n_nan_or_inf(int):累计出现n个steps的梯度为nan或者inf时,减小loss scaling、incr_count(int):连续未跳过参数更新的次数、decr_count(int):连续跳过参数更新的次数、use_dynamic_loss_scaling(bool):是否使用动态loss scaling策略。 + +**代码示例** .. code-block:: python @@ -507,10 +533,11 @@ load_state_dict(state_dict) 利用输入的state_dict设置或更新GradScaler对象的属性参数。 -**参数:** - - **state_dict** (dict) - 用于设置或更新GradScaler对象的属性参数,dict需要是``GradScaler.state_dict()``的返回值。 +**参数** + +- **state_dict** (dict) - 用于设置或更新GradScaler对象的属性参数,dict需要是``GradScaler.state_dict()``的返回值。 -**代码示例:** +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/compat/to_bytes_cn.rst b/docs/api/paddle/compat/to_bytes_cn.rst index 46d0a1ed21c..e13d6aa25f7 100644 --- a/docs/api/paddle/compat/to_bytes_cn.rst +++ b/docs/api/paddle/compat/to_bytes_cn.rst @@ -9,9 +9,11 @@ to_bytes 此函数将对象转换为具有特定编码的字节。特别是,如果对象类型是列表或集合容器,我们将迭代对象中的所有项并将其转换为字节。 在Python3中: + 使用特定编码将str type对象编码为bytes类型。 在Python2中: + 使用特定的编码将unicode类型的对象编码为str类型,或者只返回object的8位字符串。 参数 diff --git a/docs/api/paddle/compat/to_text_cn.rst b/docs/api/paddle/compat/to_text_cn.rst index c3513828ef4..a248174fcbf 100644 --- a/docs/api/paddle/compat/to_text_cn.rst +++ b/docs/api/paddle/compat/to_text_cn.rst @@ -9,9 +9,11 @@ to_text 此函数将对象转换为不带任何编码的文本字符串。特别是,如果对象类型是列表或集合容器,我们将迭代对象中的所有项并将其转换为文本字符串。 在Python3中: + 使用特定编码将bytes类型对象解码为str类型。 在Python2中: + 使用特定编码将str type对象解码为unicode类型。 参数 diff --git a/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst b/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst index a7588484c07..8645c0a0254 100755 --- a/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst +++ b/docs/api/paddle/distributed/fleet/DistributedStrategy_cn.rst @@ -10,8 +10,6 @@ DistributedStrategy 属性 :::::::::::: -属性 -:::::::::::: save_to_prototxt ''''''''' @@ -36,6 +34,8 @@ load_from_prototxt **代码示例** +.. code-block:: python + import paddle.distributed.fleet as fleet strategy = fleet.DistributedStrategy() strategy.load_from_prototxt("dist_strategy.prototxt") diff --git a/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst b/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst index a8a2ec0f113..4403ac179d4 100644 --- a/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst +++ b/docs/api/paddle/distributed/fleet/PaddleCloudRoleMaker_cn.rst @@ -32,12 +32,15 @@ PaddleCloudRoleMaker是基于从环境变量中获取分布式相关信息进行 方法 :::::::::::: + to_string() ''''''''' + 将当前环境变量以字符串的形式输出 **返回** - string + +string **代码示例** diff --git a/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst b/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst index 5a630b74beb..cb9e186ad48 100644 --- a/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst +++ b/docs/api/paddle/distributed/fleet/UserDefinedRoleMaker_cn.rst @@ -25,12 +25,15 @@ UserDefinedRoleMaker是基于从用户自定义的参数中获取分布式相关 方法 :::::::::::: + to_string() ''''''''' + 将当前环境变量以字符串的形式输出 **返回** - string + +string **代码示例** diff --git a/docs/api/paddle/distribution/Beta_cn.rst b/docs/api/paddle/distribution/Beta_cn.rst index d95c11b56a2..5832030706c 100644 --- a/docs/api/paddle/distribution/Beta_cn.rst +++ b/docs/api/paddle/distribution/Beta_cn.rst @@ -37,69 +37,63 @@ Beta COPY-FROM: paddle.distribution.Beta +方法 +::::::::: -.. py:function:: mean +mean() +''''''''' 计算Beta分布均值。 -.. py:function:: variance +variance() +''''''''' 计算Beta分布方差。 -.. py:function:: prob(value) +prob(value) +''''''''' 计算value的概率。 -参数 -::::::::: +**参数** - **value** (Tensor) - 待计算值。 -返回 -::::::::: +**返回** - Tensor: value的概率。 -.. py:function:: log_prob(value) +log_prob(value) +''''''''' 计算value的对数概率。 -参数 -::::::::: +**参数** - **value** (Tensor) - 待计算值。 -返回 -::::::::: +**返回** - Tensor: value的对数概率。 -.. py:function:: sample() +sample() +''''''''' 从Beta分布中生成满足特定形状的样本数据。 -参数 -::::::::: +**参数** - **shape** (Sequence[int], 可选):采样次数。最终生成样本形状为 ``shape+batch_shape`` . -返回 -::::::::: +**返回** - Tensor: 样本数据。 -.. py:function:: entropy() +entropy() +''''''''' 计算Beta分布的信息熵。 - - - - - - - - diff --git a/docs/api/paddle/distribution/Categorical_cn.rst b/docs/api/paddle/distribution/Categorical_cn.rst index 02bc47b07a2..10f292306fc 100644 --- a/docs/api/paddle/distribution/Categorical_cn.rst +++ b/docs/api/paddle/distribution/Categorical_cn.rst @@ -67,20 +67,24 @@ Categorical cat.log_prob(value) # [-5.10271 -2.22287 -1.31061] -.. py:function:: sample(shape) + +方法 +::::::::: + +sample(shape) +''''''''' 生成指定维度的样本 -参数 -:::::::::::: +**参数** - **shape** (list) - 指定生成样本的维度。 -返回 -:::::::::::: +**返回** + 预先设计好维度的张量。 -代码示例: +**代码示例** .. code-block:: python @@ -100,20 +104,20 @@ Categorical # [[0, 0, 5], # [3, 4, 5]] -.. py:function:: kl_divergence(other) +kl_divergence(other) +''''''''' 相对于另一个类别分布的KL散度。 -参数 -:::::::::::: +**参数** - **other** (Categorical) - 输入的另一个类别分布。数据类型为float32。 -返回 -:::::::::::: +**返回** + 相对于另一个类别分布的KL散度,数据类型为float32。 -代码示例: +**代码示例** .. code-block:: python @@ -138,15 +142,16 @@ Categorical cat.kl_divergence(cat2) # [0.071952] -.. py:function:: entropy() +entropy() +''''''''' 信息熵。 -返回 -:::::::::::: +**返回** + 类别分布的信息熵,数据类型为float32。 -代码示例: +**代码示例** .. code-block:: python @@ -164,20 +169,21 @@ Categorical cat.entropy() # [1.77528] -.. py:function:: probs(value) +probs(value) +''''''''' 所选择类别的概率。 如果 ``logtis`` 是2-D或更高阶的Tensor,那么其最后一个维度表示不同类别的概率,其它维度被看做不同的概率分布。 同时,如果 ``value`` 是1-D Tensor,那么 ``value`` 会broadcast成与 ``logits`` 具有相同的概率分布数量。 如果 ``value`` 为更高阶Tensor,那么 ``value`` 应该与 ``logits`` 具有相同的概率分布数量。也就是说, ``value[:-1] = logits[:-1]`` 。 -参数 -:::::::::::: +**参数** + - **value** (Tensor) - 输入张量,表示选择的类别下标。数据类型为int32或int64。 -返回 -:::::::::::: +**返回** + 给定类别下标的概率。 .. code-block:: python @@ -197,17 +203,18 @@ Categorical cat.probs(value) # [0.00608027 0.108298 0.269656] -.. py:function:: log_prob(value) +log_prob(value) +''''''''' 所选择类别的对数概率。 -参数 -:::::::::::: +**参数** + - **value** (Tensor) - 输入张量,表示选择的类别下标。数据类型为int32或int64。 -返回 -:::::::::::: +**返回** + 对数概率。 .. code-block:: python @@ -227,8 +234,3 @@ Categorical cat.log_prob(value) # [-5.10271 -2.22287 -1.31061] - - - - - diff --git a/docs/api/paddle/distribution/Dirichlet_cn.rst b/docs/api/paddle/distribution/Dirichlet_cn.rst index 922aa679161..e79b5a87aa7 100644 --- a/docs/api/paddle/distribution/Dirichlet_cn.rst +++ b/docs/api/paddle/distribution/Dirichlet_cn.rst @@ -38,69 +38,63 @@ Gamma函数。 COPY-FROM: paddle.distribution.Dirichlet +方法 +::::::::: -.. py:function:: mean +mean +''''''''' 分布均值。 -.. py:function:: variance +variance +''''''''' 分布方差。 -.. py:function:: prob(value) +prob(value) +''''''''' 计算value的概率。 -参数 -::::::::: +**参数** - **value** (Tensor) - 待计算值。 -返回 -::::::::: +**返回** - Tensor: value的概率。 -.. py:function:: log_prob(value) +log_prob(value) +''''''''' 计算value的对数概率。 -参数 -::::::::: +**参数** - **value** (Tensor) - 待计算值。 -返回 -::::::::: +**返回** - Tensor: value的对数概率。 -.. py:function:: sample() +sample() +''''''''' 从Beta分布中生成满足特定形状的样本数据。 -参数 -::::::::: +**参数** - **shape** (Sequence[int], 可选) - 采样次数,最终生成样本形状为 ``shape+batch_shape+event_shape`` . -返回 -::::::::: +**返回** - Tensor: 样本数据。 -.. py:function:: entropy() +entropy() +''''''''' 计算Beta分布的信息熵。 - - - - - - - - diff --git a/docs/api/paddle/distribution/Distribution_cn.rst b/docs/api/paddle/distribution/Distribution_cn.rst index f9ca125b827..ec8659f107b 100644 --- a/docs/api/paddle/distribution/Distribution_cn.rst +++ b/docs/api/paddle/distribution/Distribution_cn.rst @@ -16,45 +16,42 @@ Distribution ``event_shape=param.shape[-1:]``, 其中param表示分布参数,支持broadcast语义。 -.. py:function:: sample() +方法 +::::::::: + +sample() +''''''''' 从分布中采样 -.. py:function:: entropy() +entropy() +''''''''' 分布的信息熵 -.. py:function:: log_prob(value) +log_prob(value) +''''''''' 对数概率密度函数 -参数 -:::::::::::: +**参数** - **value** (Tensor) - 输入张量。 -.. py:function:: probs(value) +probs(value) +''''''''' 概率密度函数 -参数 -:::::::::::: +**参数** - **value** (Tensor) - 输入张量。 -.. py:function:: kl_divergence(other) +kl_divergence(other) +''''''''' 两个分布之间的KL散度。 -参数 -:::::::::::: +**参数** - **other** (Distribution) - Distribution的实例。 - - - - - - - - diff --git a/docs/api/paddle/distribution/Normal_cn.rst b/docs/api/paddle/distribution/Normal_cn.rst index 881460eb78d..d522daec506 100644 --- a/docs/api/paddle/distribution/Normal_cn.rst +++ b/docs/api/paddle/distribution/Normal_cn.rst @@ -68,25 +68,25 @@ Normal # [0.34939718] with shape: [1] -.. py:function:: sample(shape, seed=0) +方法 +::::::::: + +sample(shape, seed=0) +''''''''' 生成指定维度的样本 -参数 -:::::::::::: +**参数** - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回 -:::::::::::: -预先设计好维度的张量, 数据类型为float32 +**返回** -返回类型 -:::::::::::: -Tensor +Tensor,预先设计好维度的Tensor, 数据类型为float32 -.. py:function:: entropy() +entropy() +''''''''' 信息熵 @@ -100,49 +100,38 @@ Tensor :math:`scale = \sigma` : 标准差。 -返回 -:::::::::::: -正态分布的信息熵, 数据类型为float32 +**返回** -返回类型 -:::::::::::: -Tensor +Tensor, 正态分布的信息熵, 数据类型为float32 -.. py:function:: log_prob(value) +log_prob(value) +''''''''' 对数概率密度函数 -参数 -:::::::::::: +**参数** - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回 -:::::::::::: -对数概率, 数据类型与value相同 +**返回** -返回类型 -:::::::::::: -Tensor +Tensor, 对数概率, 数据类型与value相同 -.. py:function:: probs(value) +probs(value) +''''''''' 概率密度函数 -参数 -:::::::::::: +**参数** - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回 -:::::::::::: -概率, 数据类型与value相同 +**返回** -返回类型 -:::::::::::: -Tensor +Tensor, 概率, 数据类型与value相同 -.. py:function:: kl_divergence(other) +kl_divergence(other) +''''''''' 两个正态分布之间的KL散度。 @@ -165,20 +154,10 @@ Tensor :math:`ratio`: 两个标准差之间的比例。 :math:`diff`: 两个平均值之间的差值。 -参数 -:::::::::::: +**参数** - **other** (Normal) - Normal的实例。 -返回 -:::::::::::: -两个正态分布之间的KL散度, 数据类型为float32 - -返回类型 -:::::::::::: -Tensor - - - - +**返回** +Tensor, 两个正态分布之间的KL散度, 数据类型为float32 diff --git a/docs/api/paddle/distribution/Uniform_cn.rst b/docs/api/paddle/distribution/Uniform_cn.rst index 9cea32dae7e..41a4e92d14b 100644 --- a/docs/api/paddle/distribution/Uniform_cn.rst +++ b/docs/api/paddle/distribution/Uniform_cn.rst @@ -27,14 +27,14 @@ Uniform 参数low和high的维度必须能够支持广播。 参数 -:::::::::::: +::::::::: - **low** (int|float|list|numpy.ndarray|Tensor) - 均匀分布的下边界。数据类型为int、float、list、numpy.ndarray或Tensor。 - **high** (int|float|list|numpy.ndarray|Tensor) - 均匀分布的上边界。数据类型为int、float、list、numpy.ndarray或Tensor。 - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 代码示例 -:::::::::::: +::::::::: .. code-block:: python @@ -67,25 +67,25 @@ Uniform # [0.5] with shape: [1] -.. py:function:: sample(shape, seed=0) +方法 +::::::::: + +sample(shape, seed=0) +''''''''' 生成指定维度的样本 -参数 -:::::::::::: +**参数** - **shape** (list) - 1维列表,指定生成样本的维度。数据类型为int32。 - **seed** (int) - 长整型数。 -返回 -:::::::::::: -预先设计好维度的张量, 数据类型为float32 +**返回** -返回类型 -:::::::::::: -Tensor +Tensor, 预先设计好维度的张量, 数据类型为float32 -.. py:function:: entropy() +entropy() +''''''''' 信息熵 @@ -93,49 +93,34 @@ Tensor entropy(low, high) = \log (high - low) -返回 -:::::::::::: -均匀分布的信息熵, 数据类型为float32 +**返回** + +Tensor, 均匀分布的信息熵, 数据类型为float32 -返回类型 -:::::::::::: -Tensor -.. py:function:: log_prob(value) +log_prob(value) +''''''''' 对数概率密度函数 -参数 -:::::::::::: +**参数** - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回 -:::::::::::: -对数概率, 数据类型与value相同 +**返回** + +Tensor, 对数概率, 数据类型与value相同 -返回类型 -:::::::::::: -Tensor -.. py:function:: probs(value) +probs(value) +''''''''' 概率密度函数 -参数 -:::::::::::: +**参数** - **value** (Tensor) - 输入张量。数据类型为float32或float64。 -返回 -:::::::::::: -概率, 数据类型与value相同 - -返回类型 -:::::::::::: -Tensor - - - - +**返回** +Tensor, 概率, 数据类型与value相同 diff --git a/docs/api/paddle/fft/fft2_cn.rst b/docs/api/paddle/fft/fft2_cn.rst index 4030fc5b97c..382f1de699b 100644 --- a/docs/api/paddle/fft/fft2_cn.rst +++ b/docs/api/paddle/fft/fft2_cn.rst @@ -32,14 +32,6 @@ fft2 - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` – 如果 ``axes`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果输入的维数小于 2。 返回 ::::::::: diff --git a/docs/api/paddle/fft/fft_cn.rst b/docs/api/paddle/fft/fft_cn.rst index 0f2e8233905..1cad10db98b 100644 --- a/docs/api/paddle/fft/fft_cn.rst +++ b/docs/api/paddle/fft/fft_cn.rst @@ -28,11 +28,6 @@ fft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``n`` 小于或等于 0。 -- ``ValueError`` – 如果 ``axis`` 超出有效范围。 返回 ::::::::: diff --git a/docs/api/paddle/fft/fftn_cn.rst b/docs/api/paddle/fft/fftn_cn.rst index 300d9a9fbf7..2b2f0eab2bb 100644 --- a/docs/api/paddle/fft/fftn_cn.rst +++ b/docs/api/paddle/fft/fftn_cn.rst @@ -32,15 +32,6 @@ fftn - **name** (str, 可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 或 ``axes`` 不是整形序列或者 None. -- ``ValueError`` – 如果 ``s`` 和 ``axes`` 都不是 None 且长度不等。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0. -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果 ``s`` 和 ``axes`` 至少有一个不是 None 且输入的维数小于 ``s`` - 或 ``axes`` 的长度。 返回 ::::::::: diff --git a/docs/api/paddle/fft/hfft2_cn.rst b/docs/api/paddle/fft/hfft2_cn.rst index a4cf9665b6c..dc116cdbb8e 100644 --- a/docs/api/paddle/fft/hfft2_cn.rst +++ b/docs/api/paddle/fft/hfft2_cn.rst @@ -28,14 +28,6 @@ hfft2 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 需设置,默认值为None。该参数供开发 人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` – 如果 ``axes`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果输入的维数小于 2。 返回 ::::::::: diff --git a/docs/api/paddle/fft/hfft_cn.rst b/docs/api/paddle/fft/hfft_cn.rst index 4c9aef2909a..30185e87ab4 100644 --- a/docs/api/paddle/fft/hfft_cn.rst +++ b/docs/api/paddle/fft/hfft_cn.rst @@ -29,11 +29,6 @@ hfft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``n`` 小于或等于 0。 -- ``ValueError`` – 如果 ``axis`` 超出有效范围。 返回 ::::::::: diff --git a/docs/api/paddle/fft/hfftn_cn.rst b/docs/api/paddle/fft/hfftn_cn.rst index 143d824908e..d6fe3402928 100644 --- a/docs/api/paddle/fft/hfftn_cn.rst +++ b/docs/api/paddle/fft/hfftn_cn.rst @@ -36,15 +36,6 @@ hfftn - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 或 ``axes`` 不是整形序列或者 None 。 -- ``ValueError`` – 如果 ``s`` 和 ``axes`` 都不是 None 且长度不等。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果 ``s`` 和 ``axes`` 至少有一个不是 None 且输入的维数小于 - ``s`` 或 ``axes`` 的长度。 返回 ::::::::: diff --git a/docs/api/paddle/fft/ifft2_cn.rst b/docs/api/paddle/fft/ifft2_cn.rst index 1f79f70a093..a65c89759de 100644 --- a/docs/api/paddle/fft/ifft2_cn.rst +++ b/docs/api/paddle/fft/ifft2_cn.rst @@ -30,14 +30,6 @@ ifft2 - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` – 如果 ``axes`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果输入的维数小于 2。 返回 ::::::::: diff --git a/docs/api/paddle/fft/ifft_cn.rst b/docs/api/paddle/fft/ifft_cn.rst index eca704a9e65..9aebf7e35a4 100644 --- a/docs/api/paddle/fft/ifft_cn.rst +++ b/docs/api/paddle/fft/ifft_cn.rst @@ -26,12 +26,6 @@ ifft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``n`` 小于或等于 0。 -- ``ValueError`` – 如果 ``axis`` 超出有效范围。 - 返回 ::::::::: Tensor,形状和输入 Tensor 相同,数据类型为复数。由输入 Tensor(可能被截断或者补零之后)在 diff --git a/docs/api/paddle/fft/ifftn_cn.rst b/docs/api/paddle/fft/ifftn_cn.rst index a434951fe05..3ca6920800e 100644 --- a/docs/api/paddle/fft/ifftn_cn.rst +++ b/docs/api/paddle/fft/ifftn_cn.rst @@ -31,15 +31,6 @@ N 维离散傅里叶变换的逆变换。在一定的误差范围内,``ifftn(f - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 或 ``axes`` 不是整形序列或者 None. -- ``ValueError`` – 如果 ``s`` 和 ``axes`` 都不是 None 且长度不等。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0. -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果 ``s`` 和 ``axes`` 至少有一个不是 None 且输入的维数小于 ``s`` - 或 ``axes`` 的长度。 返回 ::::::::: diff --git a/docs/api/paddle/fft/ihfft2_cn.rst b/docs/api/paddle/fft/ihfft2_cn.rst index 5ce4f3668d8..f2f1c1e6ec7 100644 --- a/docs/api/paddle/fft/ihfft2_cn.rst +++ b/docs/api/paddle/fft/ihfft2_cn.rst @@ -32,14 +32,6 @@ ihfft2 - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息 时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` – 如果 ``axes`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果输入的维数小于 2。 返回 ::::::::: diff --git a/docs/api/paddle/fft/ihfft_cn.rst b/docs/api/paddle/fft/ihfft_cn.rst index add80033aec..39935214288 100644 --- a/docs/api/paddle/fft/ihfft_cn.rst +++ b/docs/api/paddle/fft/ihfft_cn.rst @@ -27,11 +27,6 @@ ihfft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息 时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``n`` 小于或等于 0。 -- ``ValueError`` – 如果 ``axis`` 超出有效范围。 返回 ::::::::: diff --git a/docs/api/paddle/fft/ihfftn_cn.rst b/docs/api/paddle/fft/ihfftn_cn.rst index 0d71506e990..a22be6ddf44 100644 --- a/docs/api/paddle/fft/ihfftn_cn.rst +++ b/docs/api/paddle/fft/ihfftn_cn.rst @@ -32,15 +32,6 @@ N 维厄米特(Hermitian)傅里叶变换的逆变换。 - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息 时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 或 ``axes`` 不是整形序列或者 None 。 -- ``ValueError`` – 如果 ``s`` 和 ``axes`` 都不是 None 且长度不等。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果 ``s`` 和 ``axes`` 至少有一个不是 None 且输入的维数小于 - ``s`` 或 ``axes`` 的长度。 返回 ::::::::: diff --git a/docs/api/paddle/fft/irfft2_cn.rst b/docs/api/paddle/fft/irfft2_cn.rst index 79c79d7da3e..c39cfedffb5 100644 --- a/docs/api/paddle/fft/irfft2_cn.rst +++ b/docs/api/paddle/fft/irfft2_cn.rst @@ -28,14 +28,6 @@ irfft2 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 需设置,默认值为None。该参数供开发 人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` – 如果 ``axes`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果输入的维数小于 2。 返回 ::::::::: diff --git a/docs/api/paddle/fft/irfft_cn.rst b/docs/api/paddle/fft/irfft_cn.rst index 8a994e585e2..04b26d16a23 100644 --- a/docs/api/paddle/fft/irfft_cn.rst +++ b/docs/api/paddle/fft/irfft_cn.rst @@ -29,11 +29,6 @@ irfft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``n`` 小于或等于 0。 -- ``ValueError`` – 如果 ``axis`` 超出有效范围。 返回 ::::::::: diff --git a/docs/api/paddle/fft/irfftn_cn.rst b/docs/api/paddle/fft/irfftn_cn.rst index 978326b6425..342b29898ce 100644 --- a/docs/api/paddle/fft/irfftn_cn.rst +++ b/docs/api/paddle/fft/irfftn_cn.rst @@ -38,15 +38,6 @@ irfftn - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 或 ``axes`` 不是整形序列或者 None 。 -- ``ValueError`` – 如果 ``s`` 和 ``axes`` 都不是 None 且长度不等。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果 ``s`` 和 ``axes`` 至少有一个不是 None 且输入的维数小于 ``s`` - 或 ``axes`` 的长度。 返回 ::::::::: diff --git a/docs/api/paddle/fft/rfft2_cn.rst b/docs/api/paddle/fft/rfft2_cn.rst index 5f5110c9ee7..20e86f0bb2e 100644 --- a/docs/api/paddle/fft/rfft2_cn.rst +++ b/docs/api/paddle/fft/rfft2_cn.rst @@ -31,14 +31,6 @@ rfft2 - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息 时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` – 如果 ``axes`` 不是长度为 2 的整形序列或者 None。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果输入的维数小于 2。 返回 ::::::::: diff --git a/docs/api/paddle/fft/rfft_cn.rst b/docs/api/paddle/fft/rfft_cn.rst index 9b3dcfab425..4190eee952e 100644 --- a/docs/api/paddle/fft/rfft_cn.rst +++ b/docs/api/paddle/fft/rfft_cn.rst @@ -27,10 +27,6 @@ rfft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息 时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: -- ``ValueError`` – 如果 ``n`` 小于或等于 0。 -- ``ValueError`` – 如果 ``axis`` 超出有效范围。 返回 ::::::::: diff --git a/docs/api/paddle/fft/rfftn_cn.rst b/docs/api/paddle/fft/rfftn_cn.rst index 114544b0a72..03f443834ed 100644 --- a/docs/api/paddle/fft/rfftn_cn.rst +++ b/docs/api/paddle/fft/rfftn_cn.rst @@ -32,15 +32,6 @@ N 维实数傅里叶变换。 - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试信息 时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``ValueError`` – 如果 ``s`` 或 ``axes`` 不是整形序列或者 None 。 -- ``ValueError`` – 如果 ``s`` 和 ``axes`` 都不是 None 且长度不等。 -- ``ValueError`` - 如果 ``s`` 中某些轴的长度小于或等于 0。 -- ``ValueError`` - 如果 ``axes`` 中某些轴的 index 超出有效范围。 -- ``ValueError`` - 如果 ``s`` 和 ``axes`` 至少有一个不是 None 且输入的维数小于 - ``s`` 或 ``axes`` 的长度。 返回 ::::::::: diff --git a/docs/api/paddle/incubate/LookAhead_cn.rst b/docs/api/paddle/incubate/LookAhead_cn.rst index e3bf540e731..2b65b4d1e8f 100644 --- a/docs/api/paddle/incubate/LookAhead_cn.rst +++ b/docs/api/paddle/incubate/LookAhead_cn.rst @@ -88,17 +88,21 @@ Lookahead每k次训练迭代更新slow_params和fast_params,如下所示: train(layer, loader, loss_fn, lookahead) +方法 +::::::::: + + +step() +''''''''' -.. py:function:: step() 执行优化器并更新参数一次。 -返回 -::::::::: +**返回** + None -代码示例 -::::::::: +**代码示例** .. code-block:: python @@ -115,23 +119,23 @@ None lookahead.step() lookahead.clear_grad() +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +''''''''' -.. py:function:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) 增加操作以通过更新参数来最小化损失。 -参数 -::::::::: +**参数** + - **loss** (Tensor) - 包含要最小化的值的张量。 - **startup_program** (Program, 可选) - :ref:`cn_api_fluid_Program` 。在 ``parameters`` 中初始化参数。默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` 。 - **parameters** (list, 可选) - 列出更新最小化 ``loss`` 的 ``Tensor`` 或 ``Tensor.name`` 。默认值为None,此时所有参数都会被更新。 - **no_grad_set** (set, 可选) - 不需要更新的 ``Tensor`` 或 ``Tensor.name`` 的集合。默认值为None。 -返回 -::::::::: +**返回** + tuple: tuple (optimize_ops, params_grads),由 ``minimize`` 添加的操作列表和 ``(param, grad)`` 张量对的列表,其中param是参数,grad参数对应的梯度值。在静态图模式中,返回的元组可以传给 ``Executor.run()`` 中的 ``fetch_list`` 来表示程序剪枝。这样程序在运行之前会通过 ``feed`` 和 ``fetch_list`` 被剪枝,详情请参考 ``Executor`` 。 -代码示例 -::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/incubate/ModelAverage_cn.rst b/docs/api/paddle/incubate/ModelAverage_cn.rst index ec33e1368f5..1d9d979f6cb 100644 --- a/docs/api/paddle/incubate/ModelAverage_cn.rst +++ b/docs/api/paddle/incubate/ModelAverage_cn.rst @@ -28,7 +28,10 @@ ModelAverage 优化器,在训练过程中累积特定连续的历史 ``Paramet COPY-FROM: paddle.incubate.ModelAverage -.. py:function:: minimize(loss, startup_program=None, parameters=None, no_grad_set=None) +方法 +::::::::: + +minimize(loss, startup_program=None, parameters=None, no_grad_set=None) ''''''''' 通过更新 ``Parameters`` 来最小化 ``loss`` 的方法。 @@ -43,12 +46,12 @@ COPY-FROM: paddle.incubate.ModelAverage **返回** tuple(optimize_ops, params_grads),其中 optimize_ops 为参数优化 OP 列表;param_grads 为由 (param, param_grad) 组成的列表,其中 param 和 param_grad 分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 -代码示例 -:::::::::::: +**代码示例** + COPY-FROM: paddle.incubate.ModelAverage.minimize -.. py:function:: step() +step() ''''''''' 执行一次优化器并进行参数更新。 @@ -56,12 +59,12 @@ COPY-FROM: paddle.incubate.ModelAverage.minimize **返回** None -代码示例 -:::::::::::: +**代码示例** + COPY-FROM: paddle.incubate.ModelAverage.step -.. py:function:: apply(executor=None, need_restore=True) +apply(executor=None, need_restore=True) ''''''''' 将累积 ``Parameters`` 的平均值应用于当前网络的 ``Parameters``。 @@ -70,12 +73,12 @@ COPY-FROM: paddle.incubate.ModelAverage.step - **executor** (Executor) – 静态图模式下当前网络的执行器;动态图模式下默认值为 None。 - **need_restore** (bool) - 恢复标志变量;设为True 时,执行完成后会将网络的 ``Parameters``恢复为网络默认的值,设为 False 将不会恢复。默认值为 True。 -代码示例 -:::::::::::: +**代码示例** + COPY-FROM: paddle.incubate.ModelAverage.apply -.. py:function:: restore(executor=None) +restore(executor=None) ''''''''' 恢复当前网络的 ``Parameters`` 值。 @@ -83,6 +86,6 @@ COPY-FROM: paddle.incubate.ModelAverage.apply **参数** - **executor** (Executor) – 静态图模式下当前网络的执行器;动态图模式下默认值为 None。 -代码示例 -:::::::::::: +**代码示例** + COPY-FROM: paddle.incubate.ModelAverage.restore \ No newline at end of file From 9de6b9d02e92041e0148a2e31856e5b5daf5edd4 Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Wed, 30 Mar 2022 14:58:23 +0800 Subject: [PATCH 065/107] update docs --- docs/api/paddle/io/BatchSampler_cn.rst | 7 ++----- docs/api/paddle/io/DataLoader_cn.rst | 7 ++----- docs/api/paddle/io/DistributedBatchSampler_cn.rst | 7 ++----- docs/api/paddle/io/Sampler_cn.rst | 7 ++----- docs/api/paddle/io/SequenceSampler_cn.rst | 7 ++----- docs/api/paddle/io/TensorDataset_cn.rst | 6 +----- docs/api/paddle/io/WeightedRandomSampler_cn.rst | 12 +++++------- 7 files changed, 16 insertions(+), 37 deletions(-) diff --git a/docs/api/paddle/io/BatchSampler_cn.rst b/docs/api/paddle/io/BatchSampler_cn.rst index d021b49583e..c210bcd3a63 100644 --- a/docs/api/paddle/io/BatchSampler_cn.rst +++ b/docs/api/paddle/io/BatchSampler_cn.rst @@ -26,11 +26,8 @@ BatchSampler 返回 :::::::::::: -返回样本下标数组的迭代器。 - -返回类型 -:::::::::::: - BatchSampler +BatchSampler,返回样本下标数组的迭代器。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/io/DataLoader_cn.rst b/docs/api/paddle/io/DataLoader_cn.rst index 1fe462b3f0f..d536db63003 100644 --- a/docs/api/paddle/io/DataLoader_cn.rst +++ b/docs/api/paddle/io/DataLoader_cn.rst @@ -45,11 +45,8 @@ DataLoader当前支持 ``map-style`` 和 ``iterable-style`` 的数据集, ``ma 返回 :::::::::::: -迭代 ``dataset`` 数据的迭代器,迭代器返回的数据中的每个元素都是一个Tensor。 - -返回类型 -:::::::::::: - DataLoader +DataLoader,迭代 ``dataset`` 数据的迭代器,迭代器返回的数据中的每个元素都是一个Tensor。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/io/DistributedBatchSampler_cn.rst b/docs/api/paddle/io/DistributedBatchSampler_cn.rst index 2be551769e8..77b0a25d8c7 100644 --- a/docs/api/paddle/io/DistributedBatchSampler_cn.rst +++ b/docs/api/paddle/io/DistributedBatchSampler_cn.rst @@ -24,11 +24,8 @@ DistributedBatchSampler 返回 :::::::::::: -返回样本下标数组的迭代器。 - -返回类型 -:::::::::::: - DistributedBatchSampler +DistributedBatchSampler,返回样本下标数组的迭代器。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/io/Sampler_cn.rst b/docs/api/paddle/io/Sampler_cn.rst index 80091d8a438..f1aa959d056 100644 --- a/docs/api/paddle/io/Sampler_cn.rst +++ b/docs/api/paddle/io/Sampler_cn.rst @@ -22,11 +22,8 @@ Sampler 返回 :::::::::::: -返回样本下标的迭代器。 - -返回类型 -:::::::::::: - Sampler +Sampler,返回样本下标的迭代器。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/io/SequenceSampler_cn.rst b/docs/api/paddle/io/SequenceSampler_cn.rst index b9d806c2058..3e20ac29b0a 100644 --- a/docs/api/paddle/io/SequenceSampler_cn.rst +++ b/docs/api/paddle/io/SequenceSampler_cn.rst @@ -14,11 +14,8 @@ SequenceSampler 返回 :::::::::::: -返回样本下标的迭代器。 - -返回类型 -:::::::::::: - SequenceSampler +SequenceSampler,返回样本下标的迭代器。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/io/TensorDataset_cn.rst b/docs/api/paddle/io/TensorDataset_cn.rst index aaefc1da847..a82a7974e06 100644 --- a/docs/api/paddle/io/TensorDataset_cn.rst +++ b/docs/api/paddle/io/TensorDataset_cn.rst @@ -16,11 +16,7 @@ TensorDataset 返回 :::::::::::: -由张量列表定义的数据集 - -返回类型 -:::::::::::: - Dataset +Dataset,由张量列表定义的数据集 代码示例 :::::::::::: diff --git a/docs/api/paddle/io/WeightedRandomSampler_cn.rst b/docs/api/paddle/io/WeightedRandomSampler_cn.rst index 9d2883be862..d57663ed3f5 100644 --- a/docs/api/paddle/io/WeightedRandomSampler_cn.rst +++ b/docs/api/paddle/io/WeightedRandomSampler_cn.rst @@ -8,22 +8,20 @@ WeightedRandomSampler 通过制定的权重随机采样,采样下标范围在 ``[0, len(weights) - 1]`` , 如果 ``replacement`` 为 ``True`` ,则下标可被采样多次 参数 -:::::::::::: +::::::::: - **weights** (numpy.ndarray|paddle.Tensor|tuple|list) - 权重序列,需要是numpy数组,paddle.Tensor,list或者tuple类型。 - **num_samples** (int) - 采样样本数。 - **replacement** (bool) - 是否采用有放回的采样,默认值为True 返回 -:::::::::::: - 返回根据权重随机采样下标的采样器 +::::::::: +WeightedRandomSampler,返回根据权重随机采样下标的采样器 -返回类型 -:::::::::::: - WeightedRandomSampler + 代码示例 -:::::::::::: +::::::::: .. code-block:: python From 7eda1dafe97a03af590c64395294492228626747 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:07:19 +0800 Subject: [PATCH 066/107] Update Categorical_cn.rst --- docs/api/paddle/distribution/Categorical_cn.rst | 2 -- 1 file changed, 2 deletions(-) diff --git a/docs/api/paddle/distribution/Categorical_cn.rst b/docs/api/paddle/distribution/Categorical_cn.rst index 10f292306fc..61fd7760446 100644 --- a/docs/api/paddle/distribution/Categorical_cn.rst +++ b/docs/api/paddle/distribution/Categorical_cn.rst @@ -179,7 +179,6 @@ probs(value) **参数** - - **value** (Tensor) - 输入张量,表示选择的类别下标。数据类型为int32或int64。 **返回** @@ -210,7 +209,6 @@ log_prob(value) **参数** - - **value** (Tensor) - 输入张量,表示选择的类别下标。数据类型为int32或int64。 **返回** From 138737ca84027f42d1c4a176ab7ce74ff537a5c7 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:10:27 +0800 Subject: [PATCH 067/107] Update Normal_cn.rst --- docs/api/paddle/distribution/Normal_cn.rst | 12 ++++++------ 1 file changed, 6 insertions(+), 6 deletions(-) diff --git a/docs/api/paddle/distribution/Normal_cn.rst b/docs/api/paddle/distribution/Normal_cn.rst index d522daec506..2207af55191 100644 --- a/docs/api/paddle/distribution/Normal_cn.rst +++ b/docs/api/paddle/distribution/Normal_cn.rst @@ -74,7 +74,7 @@ Normal sample(shape, seed=0) ''''''''' -生成指定维度的样本 +生成指定维度的样本。 **参数** @@ -83,7 +83,7 @@ sample(shape, seed=0) **返回** -Tensor,预先设计好维度的Tensor, 数据类型为float32 +Tensor,预先设计好维度的Tensor,数据类型为float32。 entropy() ''''''''' @@ -102,7 +102,7 @@ entropy() **返回** -Tensor, 正态分布的信息熵, 数据类型为float32 +Tensor, 正态分布的信息熵,数据类型为float32。 log_prob(value) ''''''''' @@ -115,7 +115,7 @@ log_prob(value) **返回** -Tensor, 对数概率, 数据类型与value相同 +Tensor,对数概率,数据类型与value相同。 probs(value) ''''''''' @@ -128,7 +128,7 @@ probs(value) **返回** -Tensor, 概率, 数据类型与value相同 +Tensor,概率,数据类型与value相同。 kl_divergence(other) ''''''''' @@ -160,4 +160,4 @@ kl_divergence(other) **返回** -Tensor, 两个正态分布之间的KL散度, 数据类型为float32 +Tensor,两个正态分布之间的KL散度,数据类型为float32。 From 5626008a134c36e8641fca84385c9a91931fad1e Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:12:09 +0800 Subject: [PATCH 068/107] Update Uniform_cn.rst --- docs/api/paddle/distribution/Uniform_cn.rst | 10 +++++----- 1 file changed, 5 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/distribution/Uniform_cn.rst b/docs/api/paddle/distribution/Uniform_cn.rst index 41a4e92d14b..35b9fa39215 100644 --- a/docs/api/paddle/distribution/Uniform_cn.rst +++ b/docs/api/paddle/distribution/Uniform_cn.rst @@ -73,7 +73,7 @@ Uniform sample(shape, seed=0) ''''''''' -生成指定维度的样本 +生成指定维度的样本。 **参数** @@ -82,7 +82,7 @@ sample(shape, seed=0) **返回** -Tensor, 预先设计好维度的张量, 数据类型为float32 +Tensor,预先设计好维度的张量,数据类型为float32。 entropy() ''''''''' @@ -95,7 +95,7 @@ entropy() **返回** -Tensor, 均匀分布的信息熵, 数据类型为float32 +Tensor,均匀分布的信息熵,数据类型为float32。 log_prob(value) @@ -109,7 +109,7 @@ log_prob(value) **返回** -Tensor, 对数概率, 数据类型与value相同 +Tensor,对数概率,数据类型与value相同。 probs(value) @@ -123,4 +123,4 @@ probs(value) **返回** -Tensor, 概率, 数据类型与value相同 +Tensor,概率,数据类型与value相同。 From 72348d2007a6b46f10229b5b6a2e34e08b36565d Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:25:15 +0800 Subject: [PATCH 069/107] Update gather_nd_cn.rst --- docs/api/paddle/gather_nd_cn.rst | 3 ++- 1 file changed, 2 insertions(+), 1 deletion(-) diff --git a/docs/api/paddle/gather_nd_cn.rst b/docs/api/paddle/gather_nd_cn.rst index 3742e938ffd..12cc5be3d20 100644 --- a/docs/api/paddle/gather_nd_cn.rst +++ b/docs/api/paddle/gather_nd_cn.rst @@ -52,12 +52,13 @@ gather_nd 参数 :::::::::::: - - **x** (Tensor) - 输入Tensor,数据类型可以是int32,int64,float32,float64, bool。 + - **x** (Tensor) - 输入Tensor,数据类型可以是int32、int64、float32、float64、bool。 - **index** (Tensor) - 输入的索引Tensor,其数据类型int32或者int64。它的维度 :code:`index.rank` 必须大于1,并且 :code:`index.shape[-1] <= x.rank` 。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: + shape为index.shape[:-1] + x.shape[index.shape[-1]:]的Tensor,数据类型与 :code:`x` 一致。 From 2679ce7598a37498b93ddfd186bcab55886f1968 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:28:18 +0800 Subject: [PATCH 070/107] Update get_cuda_rng_state_cn.rst --- docs/api/paddle/get_cuda_rng_state_cn.rst | 7 +++---- 1 file changed, 3 insertions(+), 4 deletions(-) diff --git a/docs/api/paddle/get_cuda_rng_state_cn.rst b/docs/api/paddle/get_cuda_rng_state_cn.rst index 150a3bfe94f..7e21f98c4c6 100644 --- a/docs/api/paddle/get_cuda_rng_state_cn.rst +++ b/docs/api/paddle/get_cuda_rng_state_cn.rst @@ -4,19 +4,18 @@ get_cuda_rng_state ------------------------------- .. py:function:: paddle.get_cuda_rng_state() -获取cuda随机数生成器的状态信息 +获取cuda随机数生成器的状态信息。 参数 :::::::::::: - - 无 + 无。 返回 :::::::::::: - GeneratorState:对象 + GeneratorState:对象。 代码示例 :::::::::::: From 157aeb4070ca3d0fe115cad196f508ab52df4acd Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:30:06 +0800 Subject: [PATCH 071/107] Update get_default_dtype_cn.rst --- docs/api/paddle/get_default_dtype_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/get_default_dtype_cn.rst b/docs/api/paddle/get_default_dtype_cn.rst index df33175c285..b4ca3bfd4f1 100644 --- a/docs/api/paddle/get_default_dtype_cn.rst +++ b/docs/api/paddle/get_default_dtype_cn.rst @@ -6,7 +6,7 @@ get_default_dtype .. py:function:: paddle.get_default_dtype() -得到当前全局的dtype。 该值初始是float32。 +得到当前全局的dtype。该值初始是float32。 参数 @@ -17,7 +17,7 @@ get_default_dtype 返回 :::::::::::: - string,这个全局dtype仅支持float16、float32、float64 + string,这个全局dtype仅支持float16、float32、float64。 代码示例 :::::::::::: From dffda20fcb7c9a13d94674a7e00609a28a37e1db Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:35:15 +0800 Subject: [PATCH 072/107] Update get_flags_cn.rst --- docs/api/paddle/get_flags_cn.rst | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/get_flags_cn.rst b/docs/api/paddle/get_flags_cn.rst index e08878d3a78..7422da8dc95 100644 --- a/docs/api/paddle/get_flags_cn.rst +++ b/docs/api/paddle/get_flags_cn.rst @@ -6,18 +6,18 @@ get_flags .. py:function:: paddle.get_flags(flags) -获取指定的Paddle 环境变量FLAGS状态。详情请查看 :ref:`cn_guides_flags_flags` +获取指定的Paddle 环境变量FLAGS状态。详情请查看 :ref:`cn_guides_flags_flags`。 参数 :::::::::::: - - **flags** (list of FLAGS [*]) - 想要获取的FLAGS标志列表 + - **flags** (list of FLAGS [*]) - 想要获取的FLAGS标志列表。 返回 :::::::::::: -Flag 的值. +Flag 的值。 代码示例 From a1a2d4162138013740a72fcc5e689dec6e7aed70 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:38:37 +0800 Subject: [PATCH 073/107] Update grad_cn.rst --- docs/api/paddle/grad_cn.rst | 15 ++++++++------- 1 file changed, 8 insertions(+), 7 deletions(-) diff --git a/docs/api/paddle/grad_cn.rst b/docs/api/paddle/grad_cn.rst index f01e8ca1b38..89bd3eef8bb 100644 --- a/docs/api/paddle/grad_cn.rst +++ b/docs/api/paddle/grad_cn.rst @@ -3,7 +3,8 @@ grad ------------------------------- -**注意:该API仅支持【动态图】模式** +.. note:: +该API仅支持【动态图】模式。 方法 :::::::::::: @@ -17,12 +18,12 @@ paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph= - **outputs** (Tensor|list(Tensor)|tuple(Tensor)) – 用于计算梯度的图的输出变量,或多个输出变量构成的list/tuple。 - **inputs** (Tensor|list(Tensor)|tuple(Tensor)) - 用于计算梯度的图的输入变量,或多个输入变量构成的list/tuple。该API的每个返回值对应每个 `inputs` 的梯度。 - - **grad_outputs** (Tensor|list(Tensor|None)|tuple(Tensor|None), 可选) - `outputs` 变量梯度的初始值。若 `grad_outputs` 为None,则 `outputs` 梯度的初始值均为全1的Tensor。若 `grad_outputs` 不为None,它必须与 `outputs` 的长度相等,此时,若 `grad_outputs` 的第i个元素为None,则第i个 `outputs` 的梯度初始值为全1的Tensor;若 `grad_outputs` 的第i个元素为Tensor,则第i个 `outputs` 的梯度初始值为 `grad_outputs` 的第i个元素。默认值为None。 - - **retain_graph** (bool, 可选) - 是否保留计算梯度的前向图。若值为True,则前向图会保留,用户可对同一张图求两次反向。若值为False,则前向图会释放。默认值为None,表示值与 `create_graph` 相等。 - - **create_graph** (bool, 可选) - 是否创建计算过程中的反向图。若值为True,则可支持计算高阶导数。若值为False,则计算过程中的反向图会释放。默认值为False。 - - **only_inputs** (bool, 可选) - 是否只计算 `inputs` 的梯度。若值为False,则图中所有叶节点变量的梯度均会计算,并进行累加。若值为True,则只会计算 `inputs` 的梯度。默认值为True。only_inputs=False功能正在开发中,目前尚不支持。 - - **allow_unused** (bool, 可选) - 决定当某些 `inputs` 变量不在计算图中时抛出错误还是返回None。若某些 `inputs` 变量不在计算图中(即它们的梯度为None),则当allowed_unused=False时会抛出错误,当allow_unused=True时会返回None作为这些变量的梯度。默认值为False。 - - **no_grad_vars** (Tensor|list(Tensor)|tuple(Tensor)|set(Tensor), 可选) - 指明不需要计算梯度的变量。默认值为None。 + - **grad_outputs** (Tensor|list(Tensor|None)|tuple(Tensor|None),可选) - `outputs` 变量梯度的初始值。若 `grad_outputs` 为None,则 `outputs` 梯度的初始值均为全1的Tensor。若 `grad_outputs` 不为None,它必须与 `outputs` 的长度相等,此时,若 `grad_outputs` 的第i个元素为None,则第i个 `outputs` 的梯度初始值为全1的Tensor;若 `grad_outputs` 的第i个元素为Tensor,则第i个 `outputs` 的梯度初始值为 `grad_outputs` 的第i个元素。默认值为None。 + - **retain_graph** (bool,可选) - 是否保留计算梯度的前向图。若值为True,则前向图会保留,用户可对同一张图求两次反向。若值为False,则前向图会释放。默认值为None,表示值与 `create_graph` 相等。 + - **create_graph** (bool,可选) - 是否创建计算过程中的反向图。若值为True,则可支持计算高阶导数。若值为False,则计算过程中的反向图会释放。默认值为False。 + - **only_inputs** (bool,可选) - 是否只计算 `inputs` 的梯度。若值为False,则图中所有叶节点变量的梯度均会计算,并进行累加。若值为True,则只会计算 `inputs` 的梯度。默认值为True。only_inputs=False功能正在开发中,目前尚不支持。 + - **allow_unused** (bool,可选) - 决定当某些 `inputs` 变量不在计算图中时抛出错误还是返回None。若某些 `inputs` 变量不在计算图中(即它们的梯度为None),则当allowed_unused=False时会抛出错误,当allow_unused=True时会返回None作为这些变量的梯度。默认值为False。 + - **no_grad_vars** (Tensor|list(Tensor)|tuple(Tensor)|set(Tensor),可选) - 指明不需要计算梯度的变量。默认值为None。 返回 ::::::::: From e6bde4df954e282ff22c870e6227dd8ccdd27e5d Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:42:04 +0800 Subject: [PATCH 074/107] Update grad_cn.rst --- docs/api/paddle/grad_cn.rst | 5 +---- 1 file changed, 1 insertion(+), 4 deletions(-) diff --git a/docs/api/paddle/grad_cn.rst b/docs/api/paddle/grad_cn.rst index 89bd3eef8bb..aba3e07ac25 100644 --- a/docs/api/paddle/grad_cn.rst +++ b/docs/api/paddle/grad_cn.rst @@ -6,10 +6,7 @@ grad .. note:: 该API仅支持【动态图】模式。 -方法 -:::::::::::: -paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False, no_grad_vars=None) -''''''''' +.. py:function:: paddle.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=False, only_inputs=True, allow_unused=False, no_grad_vars=None) 对于每个 `inputs` ,计算所有 `outputs` 相对于其的梯度和。 From bb9575356d44f8ffb614bf451416744462f2bd2b Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:44:04 +0800 Subject: [PATCH 075/107] Update greater_equal_cn.rst --- docs/api/paddle/greater_equal_cn.rst | 7 ++++--- 1 file changed, 4 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/greater_equal_cn.rst b/docs/api/paddle/greater_equal_cn.rst index 482743acc02..d3e00a96743 100644 --- a/docs/api/paddle/greater_equal_cn.rst +++ b/docs/api/paddle/greater_equal_cn.rst @@ -7,13 +7,14 @@ greater_equal 该OP逐元素地返回 :math:`x >= y` 的逻辑值,相同位置前者输入大于等于后者输入则返回True,否则返回False。使用重载算子 `>=` 可以有相同的计算函数效果。 -**注:该OP输出的结果不返回梯度。** +.. note:: +输出的结果不返回梯度。 参数 :::::::::::: - - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64,int32, int64。 - - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool,float32, float64, int32, int64。 + - **x** (Tensor) - 输入Tensor,支持的数据类型包括 bool、float32、float64、int32、int64。 + - **y** (Tensor) - 输入Tensor,支持的数据类型包括 bool、float32、float64、int32、int64。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 From 23f570f7d11fdd7336bc43493058e7705f8544d3 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:48:11 +0800 Subject: [PATCH 076/107] Update histogram_cn.rst --- docs/api/paddle/histogram_cn.rst | 9 ++------- 1 file changed, 2 insertions(+), 7 deletions(-) diff --git a/docs/api/paddle/histogram_cn.rst b/docs/api/paddle/histogram_cn.rst index e0dbfa902f4..ac05e0c5060 100644 --- a/docs/api/paddle/histogram_cn.rst +++ b/docs/api/paddle/histogram_cn.rst @@ -5,12 +5,12 @@ histogram .. py:function:: paddle.histogram(input, bins=100, min=0, max=0): -计算输入张量的直方图。以min和max为range边界,将其均分成bins个直条,然后将排序好的数据划分到各个直条(bins)中。如果min和max都为0, 则利用数据中的最大最小值作为边界。 +计算输入张量的直方图。以min和max为range边界,将其均分成bins个直条,然后将排序好的数据划分到各个直条(bins)中。如果min和max都为0,则利用数据中的最大最小值作为边界。 参数 :::::::::::: - - **input** (Tensor) - 输入Tensor。维度为多维,数据类型为int32, int64, float32或float64。 + - **input** (Tensor) - 输入Tensor。维度为多维,数据类型为int32、int64、float32或float64。 - **bins** (int) - 直方图 bins(直条)的个数,默认为100。 - **min** (int) - range的下边界(包含),默认为0。 - **max** (int) - range的上边界(包含),默认为0。 @@ -19,11 +19,6 @@ histogram :::::::::::: Tensor,数据为int64类型,维度为(nbins,)。 -抛出异常 -:::::::::::: - - - ``ValueError`` - 当输入 ``bin``, ``min``, ``max``不合法时。 - 代码示例 :::::::::::: From 5708c8d22b8397c55e739f7dab15a6e5c85bb7da Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:50:32 +0800 Subject: [PATCH 077/107] Update in_dynamic_mode_cn.rst --- docs/api/paddle/in_dynamic_mode_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/in_dynamic_mode_cn.rst b/docs/api/paddle/in_dynamic_mode_cn.rst index 9211a04bbde..5a7494964da 100644 --- a/docs/api/paddle/in_dynamic_mode_cn.rst +++ b/docs/api/paddle/in_dynamic_mode_cn.rst @@ -14,7 +14,7 @@ in_dynamic_mode 返回 :::::::::::: -bool,如果paddle当前是在动态图模式运行,则返回 ``True`` ,否则返回 ``False`` +bool,如果paddle当前是在动态图模式运行,则返回 ``True`` ,否则返回 ``False``。 代码示例 From a0d900a31d11521e6dcd50adf25238d6b8c665d3 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 15:52:47 +0800 Subject: [PATCH 078/107] Update increment_cn.rst --- docs/api/paddle/increment_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/increment_cn.rst b/docs/api/paddle/increment_cn.rst index 7a7694d9371..829f9639e48 100644 --- a/docs/api/paddle/increment_cn.rst +++ b/docs/api/paddle/increment_cn.rst @@ -13,7 +13,7 @@ increment 参数 ::::::::: - - **x** (Tensor) – 输入张量,必须始终只有一个元素。支持的数据类型:float32,float64,int32,int64。 + - **x** (Tensor) – 输入张量,必须始终只有一个元素。支持的数据类型:float32、float64、int32、int64。 - **value** (float,可选) – ``x`` 的数值增量。默认值为1.0。 - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 From aa44bbe9ef77e9d078404759396c22391b262697 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 16:07:22 +0800 Subject: [PATCH 079/107] Update LookAhead_cn.rst --- docs/api/paddle/incubate/LookAhead_cn.rst | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/docs/api/paddle/incubate/LookAhead_cn.rst b/docs/api/paddle/incubate/LookAhead_cn.rst index 2b65b4d1e8f..c8be1ef9789 100644 --- a/docs/api/paddle/incubate/LookAhead_cn.rst +++ b/docs/api/paddle/incubate/LookAhead_cn.rst @@ -18,9 +18,9 @@ Lookahead每k次训练迭代更新slow_params和fast_params,如下所示: 参数 ::::::::: - **inner_optimizer** (inner_optimizer) - 每次迭代更新fast params的优化器。 - - **alpha** (float, 可选) - Lookahead的学习率。默认值为0.5。 - - **k** (int, 可选) - slow params每k次迭代更新一次。默认值为5。 - - **name** (str, 可选) - 一般不需要用户设置这个属性。更多信息请参照 :ref:`api_guide_Name` 。默认值为None。 + - **alpha** (float,可选) - Lookahead的学习率。默认值为0.5。 + - **k** (int,可选) - slow params每k次迭代更新一次。默认值为5。 + - **name** (str,可选) - 一般不需要用户设置这个属性。更多信息请参照 :ref:`api_guide_Name` 。默认值为None。 代码示例 ::::::::: @@ -99,7 +99,7 @@ step() **返回** -None +None。 **代码示例** From 567f649628aa81c462b177485dcc8b233d63cada Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 16:09:00 +0800 Subject: [PATCH 080/107] Update LookAhead_cn.rst --- docs/api/paddle/incubate/LookAhead_cn.rst | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/incubate/LookAhead_cn.rst b/docs/api/paddle/incubate/LookAhead_cn.rst index c8be1ef9789..7229f5fc7b7 100644 --- a/docs/api/paddle/incubate/LookAhead_cn.rst +++ b/docs/api/paddle/incubate/LookAhead_cn.rst @@ -127,9 +127,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - **loss** (Tensor) - 包含要最小化的值的张量。 - - **startup_program** (Program, 可选) - :ref:`cn_api_fluid_Program` 。在 ``parameters`` 中初始化参数。默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` 。 - - **parameters** (list, 可选) - 列出更新最小化 ``loss`` 的 ``Tensor`` 或 ``Tensor.name`` 。默认值为None,此时所有参数都会被更新。 - - **no_grad_set** (set, 可选) - 不需要更新的 ``Tensor`` 或 ``Tensor.name`` 的集合。默认值为None。 + - **startup_program** (Program,可选) - :ref:`cn_api_fluid_Program` 。在 ``parameters`` 中初始化参数。默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` 。 + - **parameters** (list,可选) - 列出更新最小化 ``loss`` 的 ``Tensor`` 或 ``Tensor.name`` 。默认值为None,此时所有参数都会被更新。 + - **no_grad_set** (set,可选) - 不需要更新的 ``Tensor`` 或 ``Tensor.name`` 的集合。默认值为None。 **返回** From 14909cc0663b3d0e7c787d1199e4c023829fe088 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 16:11:53 +0800 Subject: [PATCH 081/107] Update ModelAverage_cn.rst --- docs/api/paddle/incubate/ModelAverage_cn.rst | 27 ++++++++++++-------- 1 file changed, 16 insertions(+), 11 deletions(-) diff --git a/docs/api/paddle/incubate/ModelAverage_cn.rst b/docs/api/paddle/incubate/ModelAverage_cn.rst index 1d9d979f6cb..1dc1f2328d9 100644 --- a/docs/api/paddle/incubate/ModelAverage_cn.rst +++ b/docs/api/paddle/incubate/ModelAverage_cn.rst @@ -11,17 +11,17 @@ ModelAverage 优化器,在训练过程中累积特定连续的历史 ``Paramet 计算平均值的窗口大小由 ``average_window_rate`` , ``min_average_window`` , ``max_average_window`` 以及当前 ``Parameters`` 更新次数(num_updates)共同决定。 -累积次数(num_accumulates)大于特定窗口阈值 (average_window) 时,将累积的 ``Parameters`` 临时变量置为 0.0. +累积次数(num_accumulates)大于特定窗口阈值 (average_window) 时,将累积的 ``Parameters`` 临时变量置为 0.0。 ``num_accumulates`` 表示当前累积的次数,可以抽象理解为累积窗口的长度;窗口长度至少要达到 ``min_average_window`` 参数设定的长度,并且不能超过 ``max_average_window`` 参数或者 ``num_updates`` * ``average_window_rate`` 规定的长度,否则为 0;而其中 ``num_updates`` 表示当前 ``Parameters`` 更新的次数,``average_window_rate`` 是一个计算窗口长度的系数。 参数 ::::::::: - **average_window_rate** (float) – 相对于 ``Parameters`` 更新次数的窗口长度计算比率。 - - **parameters** (list, 可选) - 为了最小化 ``loss`` 需要更新的 Tensor 列表。动态图模式下该参数是必需的;静态图模型下该参数的默认值为 None,此时所有参数都会被更新。 - - **min_average_window** (int, 可选) – 平均值计算窗口长度的最小值,默认值为 10000。 - - **max_average_window** (int, 可选) – 平均值计算窗口长度的最大值,默认值为 10000。 - - **name** (str, 可选)– 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 + - **parameters** (list,可选) - 为了最小化 ``loss`` 需要更新的 Tensor 列表。动态图模式下该参数是必需的;静态图模型下该参数的默认值为 None,此时所有参数都会被更新。 + - **min_average_window** (int,可选) – 平均值计算窗口长度的最小值,默认值为 10000。 + - **max_average_window** (int,可选) – 平均值计算窗口长度的最大值,默认值为 10000。 + - **name** (str,可选)– 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 代码示例 ::::::::: @@ -37,13 +37,15 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) 通过更新 ``Parameters`` 来最小化 ``loss`` 的方法。 **参数** + - **loss** (Tensor) – 一个包含需要最小化的损失值变量的 Tensor。 - - **startup_program** (Program, 可选) - 用于初始化 ``Parameters`` 中参数的 ``Program``, 默认值为 None,此时将使用 ``default_startup_program``。 - - **parameters** (list, 可选) – 待更新的 ``Parameters`` 或者 ``Parameter.name`` 组成的列表, 默认值为 None,此时将更新所有的 ``Parameters``。 - - **no_grad_set** (set, 可选) – 不需要更新的 ``Parameters`` 或者 ``Parameter.name`` 组成的集合,默认值为 None。 - - **name** (str, 可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 + - **startup_program** (Program,可选) - 用于初始化 ``Parameters`` 中参数的 ``Program``, 默认值为 None,此时将使用 ``default_startup_program``。 + - **parameters** (list,可选) – 待更新的 ``Parameters`` 或者 ``Parameter.name`` 组成的列表, 默认值为 None,此时将更新所有的 ``Parameters``。 + - **no_grad_set** (set,可选) – 不需要更新的 ``Parameters`` 或者 ``Parameter.name`` 组成的集合,默认值为 None。 + - **name** (str,可选) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为 None。 **返回** + tuple(optimize_ops, params_grads),其中 optimize_ops 为参数优化 OP 列表;param_grads 为由 (param, param_grad) 组成的列表,其中 param 和 param_grad 分别为参数和参数的梯度。该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -57,7 +59,8 @@ step() 执行一次优化器并进行参数更新。 **返回** -None + +None。 **代码示例** @@ -70,6 +73,7 @@ apply(executor=None, need_restore=True) 将累积 ``Parameters`` 的平均值应用于当前网络的 ``Parameters``。 **参数** + - **executor** (Executor) – 静态图模式下当前网络的执行器;动态图模式下默认值为 None。 - **need_restore** (bool) - 恢复标志变量;设为True 时,执行完成后会将网络的 ``Parameters``恢复为网络默认的值,设为 False 将不会恢复。默认值为 True。 @@ -84,8 +88,9 @@ restore(executor=None) 恢复当前网络的 ``Parameters`` 值。 **参数** + - **executor** (Executor) – 静态图模式下当前网络的执行器;动态图模式下默认值为 None。 **代码示例** -COPY-FROM: paddle.incubate.ModelAverage.restore \ No newline at end of file +COPY-FROM: paddle.incubate.ModelAverage.restore From b448e85a1db937d3f44857af300cb75971343c95 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Wed, 30 Mar 2022 16:44:49 +0800 Subject: [PATCH 082/107] update jit docs --- docs/api/paddle/jit/TracedLayer_cn.rst | 12 +++++++----- 1 file changed, 7 insertions(+), 5 deletions(-) diff --git a/docs/api/paddle/jit/TracedLayer_cn.rst b/docs/api/paddle/jit/TracedLayer_cn.rst index 2035c5d4326..a0fcd5f9ff8 100644 --- a/docs/api/paddle/jit/TracedLayer_cn.rst +++ b/docs/api/paddle/jit/TracedLayer_cn.rst @@ -19,6 +19,7 @@ TracedLayer只能用于将data independent的动态图模型转换为静态图 方法 :::::::::::: + **static** trace(layer, inputs) ''''''''' @@ -30,10 +31,9 @@ TracedLayer只能用于将data independent的动态图模型转换为静态图 - **inputs** (list(Variable)) - 动态图layer对象的输入变量列表。 **返回** - 包含2个元素的tuple,其中第一个元素是 ``layer(*inputs)`` 的输出结果,第二个元素是转换后得到的TracedLayer对象。 -**返回类型** - tuple +tuple,包含2个元素,其中第一个元素是 ``layer(*inputs)`` 的输出结果,第二个元素是转换后得到的TracedLayer对象。 + **代码示例** @@ -72,7 +72,8 @@ set_strategy(build_strategy=None, exec_strategy=None) - **exec_strategy** (ExecutionStrategy, 可选) - TracedLayer内部 ``CompiledProgram`` 的执行策略。 **返回** - 无 + + 无。 **代码示例** @@ -116,7 +117,8 @@ save_inference_model(path, feed=None, fetch=None) - **fetch** (list(int), 可选) - 预测模型输出变量的索引。若为None,则TracedLayer的所有输出变量均会作为预测模型的输出。默认值为None。 **返回** - 无 + + 无。 **代码示例** From ee7263ba3999cac6aecdd696a6275f918356cf63 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Wed, 30 Mar 2022 17:09:47 +0800 Subject: [PATCH 083/107] update jit docs_2 --- docs/api/paddle/jit/ProgramTranslator_cn.rst | 15 +++++++++++---- docs/api/paddle/jit/TranslatedLayer_cn.rst | 3 --- docs/api/paddle/jit/load_cn.rst | 6 ++++-- docs/api/paddle/jit/save_cn.rst | 5 +++-- docs/api/paddle/jit/set_verbosity_cn.rst | 4 ++-- 5 files changed, 20 insertions(+), 13 deletions(-) diff --git a/docs/api/paddle/jit/ProgramTranslator_cn.rst b/docs/api/paddle/jit/ProgramTranslator_cn.rst index 0affd00e837..c8b4f749f29 100644 --- a/docs/api/paddle/jit/ProgramTranslator_cn.rst +++ b/docs/api/paddle/jit/ProgramTranslator_cn.rst @@ -39,6 +39,7 @@ enable(enable_static) - **enable_static** (bool) - 设置True或者False来打开或关闭动静转化 。 **返回** + None。 **代码示例** @@ -75,6 +76,7 @@ get_output(dygraph_func, *args, **kwargs) - **args, kwargs** - 动态图函数的输入。 **返回** + 包含数值结果的Tensor或者Tensor的元组,是输入动态图函数的返回值。 **代码示例** @@ -108,6 +110,7 @@ get_func(dygraph_func) - **dygraph_func** (callable) - 动态图函数。 **返回** + 将动态图接口转为静态图组网接口的可调用函数。 **代码示例** @@ -140,11 +143,13 @@ get_program(dygraph_func, *args, **kwargs) - **args, kwargs** - 动态图函数的输入。 **返回** + 元组(main_program, startup_program, inputs, outputs) - main_program: 转化后的main program。 - startup_program: 转化后的startup program。 - inputs: 输入Tensor的列表,这些Tensor可以在执行去feed。 - outputs: 输出Tensor的列表,这些Tensor可以在运行时被fetch。 + + - main_program: 转化后的main program。 + - startup_program: 转化后的startup program。 + - inputs: 输入Tensor的列表,这些Tensor可以在执行去feed。 + - outputs: 输出Tensor的列表,这些Tensor可以在运行时被fetch。 **代码示例** @@ -180,6 +185,7 @@ get_code(dygraph_func) - **dygraph_func** (callable) - 动态图函数。 **返回** + 转化后的静态图代码字符串。 **代码示例** @@ -209,6 +215,7 @@ get_program_cache() 返回ProgramCache单例。这个方法是PaddlePaddle开发者用来管理ProgramTranslator中的Program缓存,普通用户不需要使用这个方法。 **返回** + ProgramTranslator中的ProgramCache。 **代码示例** diff --git a/docs/api/paddle/jit/TranslatedLayer_cn.rst b/docs/api/paddle/jit/TranslatedLayer_cn.rst index ce57202a91b..eaa756a157e 100644 --- a/docs/api/paddle/jit/TranslatedLayer_cn.rst +++ b/docs/api/paddle/jit/TranslatedLayer_cn.rst @@ -112,9 +112,6 @@ program(method_name='forward'): **返回** Program -**返回类型** -Program - **代码示例** .. code-block:: python diff --git a/docs/api/paddle/jit/load_cn.rst b/docs/api/paddle/jit/load_cn.rst index 5fc24a11ada..ec597e7fe75 100644 --- a/docs/api/paddle/jit/load_cn.rst +++ b/docs/api/paddle/jit/load_cn.rst @@ -17,8 +17,10 @@ load 参数 ::::::::: - - path (str) - 载入模型的路径前缀。格式为 ``dirname/file_prefix`` 或者 ``file_prefix`` 。 - - **config (dict, 可选) - 其他用于兼容的载入配置选项。这些选项将来可能被移除,如果不是必须使用,不推荐使用这些配置选项。默认为 ``None``。目前支持以下配置选项:(1) model_filename (str) - paddle 1.x版本 ``save_inference_model`` 接口存储格式的预测模型文件名,原默认文件名为 ``__model__`` ; (2) params_filename (str) - paddle 1.x版本 ``save_inference_model`` 接口存储格式的参数文件名,没有默认文件名,默认将各个参数分散存储为单独的文件。 + - **path** (str) - 载入模型的路径前缀。格式为 ``dirname/file_prefix`` 或者 ``file_prefix`` 。 + - **config** (dict,可选) - 其他用于兼容的载入配置选项。这些选项将来可能被移除,如果不是必须使用,不推荐使用这些配置选项。默认为 ``None``。目前支持以下配置选项: + (1) model_filename (str) - paddle 1.x版本 ``save_inference_model`` 接口存储格式的预测模型文件名,原默认文件名为 ``__model__`` ; + (2) params_filename (str) - paddle 1.x版本 ``save_inference_model`` 接口存储格式的参数文件名,没有默认文件名,默认将各个参数分散存储为单独的文件。 返回 ::::::::: diff --git a/docs/api/paddle/jit/save_cn.rst b/docs/api/paddle/jit/save_cn.rst index e3f7ec37707..f362e6f37f4 100644 --- a/docs/api/paddle/jit/save_cn.rst +++ b/docs/api/paddle/jit/save_cn.rst @@ -12,6 +12,7 @@ save ``path`` 是存储目标的前缀,存储的模型结构 ``Program`` 文件的后缀为 ``.pdmodel`` ,存储的持久参数变量文件的后缀为 ``.pdiparams`` ,同时这里也会将一些变量描述信息存储至文件,文件后缀为 ``.pdiparams.info`` ,这些额外的信息将在fine-tune训练中使用。 存储的模型能够被以下API完整地载入使用: + - ``paddle.jit.load`` - ``paddle.static.load_inference_model`` - 其他预测库API @@ -23,8 +24,8 @@ save ::::::::: - layer (Layer|function) - 需要存储的 ``Layer`` 对象或者 ``function``。 - path (str) - 存储模型的路径前缀。格式为 ``dirname/file_prefix`` 或者 ``file_prefix`` 。 - - input_spec (list[InputSpec|Tensor], 可选) - 描述存储模型forward方法的输入,可以通过InputSpec或者示例Tensor进行描述。如果为 ``None`` ,所有原 ``Layer`` forward方法的输入变量将都会被配置为存储模型的输入变量。默认为 ``None``。 - - **configs (dict, 可选) - 其他用于兼容的存储配置选项。这些选项将来可能被移除,如果不是必须使用,不推荐使用这些配置选项。默认为 ``None``。目前支持以下配置选项:(1) output_spec (list[Tensor]) - 选择存储模型的输出目标。默认情况下,所有原 ``Layer`` forward方法的返回值均会作为存储模型的输出。如果传入的 ``output_spec`` 列表不是所有的输出变量,存储的模型将会根据 ``output_spec`` 所包含的结果被裁剪。 + - input_spec (list[InputSpec|Tensor],可选) - 描述存储模型forward方法的输入,可以通过InputSpec或者示例Tensor进行描述。如果为 ``None`` ,所有原 ``Layer`` forward方法的输入变量将都会被配置为存储模型的输入变量。默认为 ``None``。 + - **configs (dict,可选) - 其他用于兼容的存储配置选项。这些选项将来可能被移除,如果不是必须使用,不推荐使用这些配置选项。默认为 ``None``。目前支持以下配置选项:(1) output_spec (list[Tensor]) - 选择存储模型的输出目标。默认情况下,所有原 ``Layer`` forward方法的返回值均会作为存储模型的输出。如果传入的 ``output_spec`` 列表不是所有的输出变量,存储的模型将会根据 ``output_spec`` 所包含的结果被裁剪。 返回 ::::::::: diff --git a/docs/api/paddle/jit/set_verbosity_cn.rst b/docs/api/paddle/jit/set_verbosity_cn.rst index a07679eb9ef..8c8998c4925 100644 --- a/docs/api/paddle/jit/set_verbosity_cn.rst +++ b/docs/api/paddle/jit/set_verbosity_cn.rst @@ -8,8 +8,8 @@ set_verbosity 有两种方法设置日志详细级别: -1. 调用函数 ``set_verbosity`` -2. 设置环境变量 ``TRANSLATOR_VERBOSITY`` +1. 调用函数 ``set_verbosity``; +2. 设置环境变量 ``TRANSLATOR_VERBOSITY``。 .. note:: 函数 ``set_verbosity`` 的优先级高于环境变量 ``TRANSLATOR_VERBOSITY``。 From ae3df7ecc0424e901f3bd51bb18ebc0135a24088 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Wed, 30 Mar 2022 17:52:24 +0800 Subject: [PATCH 084/107] update linalg docs --- docs/api/paddle/linalg/cholesky_cn.rst | 12 ++++-------- docs/api/paddle/linalg/cholesky_solve_cn.rst | 9 +++------ docs/api/paddle/linalg/cond_cn.rst | 5 +---- docs/api/paddle/linalg/cov_cn.rst | 14 ++++++-------- docs/api/paddle/linalg/det_cn.rst | 6 ++---- docs/api/paddle/linalg/eig_cn.rst | 6 ++---- docs/api/paddle/linalg/eigh_cn.rst | 4 +--- docs/api/paddle/linalg/eigvals_cn.rst | 6 +++--- docs/api/paddle/linalg/eigvalsh_cn.rst | 4 +--- docs/api/paddle/linalg/inv_cn.rst | 2 +- docs/api/paddle/linalg/lstsq_cn.rst | 15 +++++++-------- docs/api/paddle/linalg/lu_cn.rst | 14 ++++++-------- docs/api/paddle/linalg/lu_unpack_cn.rst | 16 +++++++--------- docs/api/paddle/linalg/matrix_power_cn.rst | 3 +-- docs/api/paddle/linalg/matrix_rank_cn.rst | 10 +++++----- docs/api/paddle/linalg/multi_dot_cn.rst | 6 ++---- docs/api/paddle/linalg/norm_cn.rst | 8 ++++---- docs/api/paddle/linalg/pinv_cn.rst | 8 +++----- docs/api/paddle/linalg/qr_cn.rst | 6 ++---- docs/api/paddle/linalg/slogdet_cn.rst | 6 ++---- docs/api/paddle/linalg/solve_cn.rst | 3 +-- docs/api/paddle/linalg/svd_cn.rst | 8 +++----- docs/api/paddle/linalg/triangular_solve_cn.rst | 11 +++++------ 23 files changed, 72 insertions(+), 110 deletions(-) diff --git a/docs/api/paddle/linalg/cholesky_cn.rst b/docs/api/paddle/linalg/cholesky_cn.rst index 7a81d8e29ba..13203311318 100644 --- a/docs/api/paddle/linalg/cholesky_cn.rst +++ b/docs/api/paddle/linalg/cholesky_cn.rst @@ -8,24 +8,20 @@ cholesky -计算一个对称正定矩阵或一批对称正定矩阵的Cholesky分解。如果 `upper` 是 `True` , +计算一个对称正定矩阵或一批对称正定矩阵的Cholesky分解。如果 `upper` 是 `True`, 则分解形式为 :math:`A = U ^ {T} U` , 返回的矩阵U是上三角矩阵。 否则,分解形式为 :math:`A = LL ^ {T}` ,并返回矩阵 :math:`L` 是下三角矩阵。 参数 :::::::::::: - - **x** (Tensor)- 输入变量为多维Tensor,它的维度应该为 `[*, M, N]` ,其中*为零或更大的批次尺寸,并且最里面的两个维度上的矩阵都应为对称的正定矩阵,支持数据类型为float32,float64。 + - **x** (Tensor)- 输入变量为多维Tensor,它的维度应该为 `[*, M, N]` ,其中*为零或更大的批次尺寸,并且最里面的两个维度上的矩阵都应为对称的正定矩阵,支持数据类型为float32、float64。 - **upper** (bool)- 指示是否返回上三角矩阵或下三角矩阵。默认值:False。 - - **name** (str , 可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 + - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: - 与 `x` 具有相同形状和数据类型的Tensor。它代表了Cholesky分解生成的三角矩阵。 - -返回类型 -:::::::::::: - 变量(Tensor) +Tensor,与 `x` 具有相同形状和数据类型。它代表了Cholesky分解生成的三角矩阵。 代码示例 :::::::::::: diff --git a/docs/api/paddle/linalg/cholesky_solve_cn.rst b/docs/api/paddle/linalg/cholesky_solve_cn.rst index e6f8a96dd6a..0ed992a583a 100644 --- a/docs/api/paddle/linalg/cholesky_solve_cn.rst +++ b/docs/api/paddle/linalg/cholesky_solve_cn.rst @@ -12,17 +12,14 @@ cholesky_solve 参数 :::::::::::: -::::::::: - **x** (Tensor) - 线性方程中的B矩阵。是2维矩阵或者2维矩阵以batch形式组成的3维矩阵。 - **y** (Tensor) - 线性方程中A矩阵的Cholesky分解矩阵u,上三角或者下三角矩阵。是2维矩阵或者2维矩阵以batch形式组成的3维矩阵。 - - **upper** (bool, 可选) - 输入x是否是上三角矩阵,True为上三角矩阵,False为下三角矩阵。默认值False。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 + - **upper** (bool,可选) - 输入x是否是上三角矩阵,True为上三角矩阵,False为下三角矩阵。默认值False。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: - -::::::::: - - Tensor, 线性方程的解X。 +Tensor,线性方程的解X。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/cond_cn.rst b/docs/api/paddle/linalg/cond_cn.rst index 65fba2fed64..1a46a71e544 100644 --- a/docs/api/paddle/linalg/cond_cn.rst +++ b/docs/api/paddle/linalg/cond_cn.rst @@ -11,16 +11,13 @@ cond 参数 :::::::::::: -::::::::: - **x** (Tensor) : 输入可以是形状为 ``(*, m, n)`` 的矩阵Tensor, ``*`` 为零或更大的批次维度,此时 ``p`` 为 `2` 或 `-2` ;也可以是形状为 ``(*, n, n)`` 的可逆(批)方阵Tensor,此时 ``p`` 为任意已支持的值。数据类型为 float32 或 float64 。 - **p** (float|string,可选) : 范数种类。目前支持的值为 `fro` 、 `nuc` 、 `1` 、 `-1` 、 `2` 、 `-2` 、 `inf` 、 `-inf` 。默认值为 `None` ,即范数种类为 `2` 。 - **name** (str,可选) - 默认值为 `None` ,一般无需设置,具体用法请参见 :ref:`api_guide_Name` 。 返回 :::::::::::: - -::::::::: - - Tensor, 条件数的计算结果, 数据类型和输入 ``x`` 的一致。 +Tensor, 条件数的计算结果, 数据类型和输入 ``x`` 的一致。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/cov_cn.rst b/docs/api/paddle/linalg/cov_cn.rst index c25a2cbf785..d009bb2745d 100644 --- a/docs/api/paddle/linalg/cov_cn.rst +++ b/docs/api/paddle/linalg/cov_cn.rst @@ -14,19 +14,17 @@ cov 参数 :::::::::::: -::::::::: - **x** (Tensor) - 一个N(N<=2)维矩阵,包含多个变量。默认矩阵的每行是一个观测变量,由参数rowvar设置。 - - **rowvar** (bool, 可选) - 若是True,则每行作为一个观测变量;若是False,则每列作为一个观测变量。默认True。 - - **ddof** (bool, 可选) - 若是True,返回无偏估计结果;若是False,返回普通平均值计算结果。默认True。 - - **fweights** (Tensor, 可选) - 包含整数频率权重的1维Tensor,表示每一个观测向量的重复次数。其维度值应该与输入x的观测维度值相等,为None则不起作用,默认None。 - - **aweights** (Tensor, 可选) - 包含整数观测权重的1维Tensor,表示每一个观测向量的重要性,重要性越高对应值越大。其维度值应该与输入x的观测维度值相等,为None则不起作用,默认None。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 + - **rowvar** (bool,可选) - 若是True,则每行作为一个观测变量;若是False,则每列作为一个观测变量。默认True。 + - **ddof** (bool,可选) - 若是True,返回无偏估计结果;若是False,返回普通平均值计算结果。默认True。 + - **fweights** (Tensor,可选) - 包含整数频率权重的1维Tensor,表示每一个观测向量的重复次数。其维度值应该与输入x的观测维度值相等,为None则不起作用,默认None。 + - **aweights** (Tensor,可选) - 包含整数观测权重的1维Tensor,表示每一个观测向量的重要性,重要性越高对应值越大。其维度值应该与输入x的观测维度值相等,为None则不起作用,默认None。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - - Tensor, 输入x的协方差矩阵。假设x是[m,n]的矩阵,rowvar=True, 则输出为[m,m]的矩阵。 +Tensor, 输入x的协方差矩阵。假设x是[m,n]的矩阵,rowvar=True, 则输出为[m,m]的矩阵。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/det_cn.rst b/docs/api/paddle/linalg/det_cn.rst index 32f635a1495..64dccee18ac 100644 --- a/docs/api/paddle/linalg/det_cn.rst +++ b/docs/api/paddle/linalg/det_cn.rst @@ -9,14 +9,12 @@ det 参数 :::::::::::: -::::::::: - - **x** (Tensor) : 输入一个或批量矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 + - **x** (Tensor) : 输入一个或批量矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32、float64。 返回 :::::::::::: -::::::::: -- Tensor out_value, 输出矩阵的行列式值 Shape为。 ``[*]`` 。 +Tensor, 输出矩阵的行列式值 Shape为 ``[*]`` 。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/eig_cn.rst b/docs/api/paddle/linalg/eig_cn.rst index d79fa654bb5..4a364c8b1c0 100644 --- a/docs/api/paddle/linalg/eig_cn.rst +++ b/docs/api/paddle/linalg/eig_cn.rst @@ -17,18 +17,16 @@ eig 参数 :::::::::::: -::::::::: - - **x** (Tensor) - 输入一个或一批矩阵。 ``x`` 的形状应为 ``[*, M, M]`` , 数据类型支持float32,float64,complex64和complex128。 + - **x** (Tensor) - 输入一个或一批矩阵。 ``x`` 的形状应为 ``[*, M, M]`` , 数据类型支持float32、float64、complex64和complex128。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - Tensor Eigenvalues, 输出Shape为 ``[*, M]`` 的矩阵,表示特征值。 - Tensor Eigenvectors, 输出Shape为 ``[*, M, M]`` 矩阵,表示特征向量。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/eigh_cn.rst b/docs/api/paddle/linalg/eigh_cn.rst index 9d1599290f0..df0ca61c893 100644 --- a/docs/api/paddle/linalg/eigh_cn.rst +++ b/docs/api/paddle/linalg/eigh_cn.rst @@ -9,15 +9,13 @@ eigh 参数 :::::::::::: -::::::::: - - **x** (Tensor) : 输入一个或一批厄米特矩阵或者实数对称矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64,complex64,complex128。 + - **x** (Tensor) : 输入一个或一批厄米特矩阵或者实数对称矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32、float64、complex64、complex128。 - **UPLO** (str,可选) : 表示计算上三角或者下三角矩阵,默认值为 'L',表示计算下三角矩阵的特征值和特征向量,'U'表示计算上三角矩阵的特征值和特征向量。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - Tensor out_value, 输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 - Tensor out_vector, 输出矩阵的特征向量,与特征值一一对应,Shape为 ``[*, M, M]`` 。 diff --git a/docs/api/paddle/linalg/eigvals_cn.rst b/docs/api/paddle/linalg/eigvals_cn.rst index 2ae5627b49a..dd8f0f23a64 100644 --- a/docs/api/paddle/linalg/eigvals_cn.rst +++ b/docs/api/paddle/linalg/eigvals_cn.rst @@ -4,11 +4,11 @@ eigvals ------------------------------- .. py:function:: paddle.linalg.eigvals(x, name=None) -该OP计算一个(或一批)普通方阵的特征值。 +计算一个(或一批)普通方阵的特征值。 -.. warning:: -该OP的反向实现尚未完成,若您的代码需要对其进行反向传播,请使用paddle.linalg.eig。 +.. note:: +该API的反向实现尚未完成,若你的代码需要对其进行反向传播,请使用ref:`cn_api_linalg_eig`。 参数 diff --git a/docs/api/paddle/linalg/eigvalsh_cn.rst b/docs/api/paddle/linalg/eigvalsh_cn.rst index 9c76ef12979..d04151636b7 100644 --- a/docs/api/paddle/linalg/eigvalsh_cn.rst +++ b/docs/api/paddle/linalg/eigvalsh_cn.rst @@ -9,7 +9,6 @@ eigvalsh 参数 :::::::::::: -::::::::: - **x** (Tensor) : 输入一个或一批厄米特矩阵或者实数对称矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64,complex64,complex128。 - **UPLO** (str,可选) : 表示计算上三角或者下三角矩阵,默认值为 'L',表示计算下三角矩阵的特征值,'U'表示计算上三角矩阵的特征值。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 @@ -17,8 +16,7 @@ eigvalsh 返回 :::::::::::: -::::::::: - - Tensor 输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 +Tensor,输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/inv_cn.rst b/docs/api/paddle/linalg/inv_cn.rst index 4c79875f8df..5936edf07d4 100644 --- a/docs/api/paddle/linalg/inv_cn.rst +++ b/docs/api/paddle/linalg/inv_cn.rst @@ -15,7 +15,7 @@ inv 返回 :::::::: -Tensor, 输入方阵的逆。 +Tensor,输入方阵的逆。 代码示例 diff --git a/docs/api/paddle/linalg/lstsq_cn.rst b/docs/api/paddle/linalg/lstsq_cn.rst index f95403793f2..1ddef06259e 100644 --- a/docs/api/paddle/linalg/lstsq_cn.rst +++ b/docs/api/paddle/linalg/lstsq_cn.rst @@ -11,22 +11,21 @@ lstsq 参数 :::::::::::: -::::::::: - **x** (Tensor) : 形状为 ``(*, M, N)`` 的矩阵Tensor, ``*`` 为零或更大的批次维度。数据类型为 float32 或 float64 。 - **y** (Tensor) : 形状为 ``(*, M, K)`` 的矩阵Tensor, ``*`` 为零或更大的批次维度。数据类型为 float32 或 float64 。 - **rcond** (float,可选) : 默认值为 `None` ,用来决定 ``x`` 有效秩的 float 型浮点数。当 ``rcond`` 为 `None` 时,该值会被设为 ``max(M, N)`` 乘 ``x`` 数据类型对应的机器精度。 - - **driver** (str,可选) : 默认值为 `None` ,用来指定计算使用的 LAPACK 库方法。CPU 下该参数的合法值为 'gels', 'gelsy' (默认) , 'gelsd', 'gelss';CUDA 下该参数的合法值为 'gels' (默认) 。 + - **driver** (str,可选) : 默认值为 `None` ,用来指定计算使用的 LAPACK 库方法。CPU 下该参数的合法值为 'gels','gelsy' (默认),'gelsd','gelss';CUDA 下该参数的合法值为 'gels' (默认) 。 - **name** (str,可选) : 默认值为 `None` ,一般无需设置,具体用法请参见 :ref:`api_guide_Name` 。 返回 :::::::::::: -::::::::: - - 一个包含 ``solution``、``residuals``、``rank`` 和 ``singular_values`` 的 Tuple 。 - ``solution`` 指最小二乘解,形状为 ``(*, N, K)`` 的 Tensor。 - ``residuals`` 指最小二乘解对应的残差,形状为 ``(*, K)`` 的 Tensor;当 ``M > N`` 且 ``x`` 中所有矩阵均为满秩矩阵时,该值会被计算,否则返回空 Tensor。 - ``rank`` 指 ``x`` 中矩阵的秩,形状为 ``(*)`` 的 Tensor;当 ``driver`` 为 'gelsy', 'gelsd', 'gelss' 时,该值会被计算,否则返回空 Tensor。 - ``singular_values`` 指 ``x`` 中矩阵的奇异值,形状为 ``(*, min(M, N))`` 的 Tensor;当 ``driver`` 为 'gelsd', 'gelss' 时,该值会被计算,否则返回空 Tensor。 + Tuple,包含 ``solution``、``residuals``、``rank`` 和 ``singular_values``。 + + - ``solution`` 指最小二乘解,形状为 ``(*, N, K)`` 的 Tensor。 + - ``residuals`` 指最小二乘解对应的残差,形状为 ``(*, K)`` 的 Tensor;当 ``M > N`` 且 ``x`` 中所有矩阵均为满秩矩阵时,该值会被计算,否则返回空 Tensor。 + - ``rank`` 指 ``x`` 中矩阵的秩,形状为 ``(*)`` 的 Tensor;当 ``driver`` 为 'gelsy', 'gelsd', 'gelss' 时,该值会被计算,否则返回空 Tensor。 + - ``singular_values`` 指 ``x`` 中矩阵的奇异值,形状为 ``(*, min(M, N))`` 的 Tensor;当 ``driver`` 为 'gelsd', 'gelss' 时,该值会被计算,否则返回空 Tensor。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/lu_cn.rst b/docs/api/paddle/linalg/lu_cn.rst index 797d339ead1..d89fb341426 100644 --- a/docs/api/paddle/linalg/lu_cn.rst +++ b/docs/api/paddle/linalg/lu_cn.rst @@ -20,26 +20,24 @@ lu .. note:: - pivot选项只在gpu下起作用, cpu下暂不支持为False,会报错。 + pivot选项只在gpu下起作用,cpu下暂不支持为False,会报错。 LU和pivot可以通过调用paddle.linalg.lu_unpack展开获得L、U、P矩阵。 参数 :::::::::::: -::::::::: - **x** (Tensor) - 需要进行LU分解的输入矩阵x,x是维度大于2维的矩阵。 - - **pivot** (bool, 可选) - LU分解时是否进行旋转。若为True则执行旋转操作,若为False则不执行旋转操作,该选项只在gpu下起作用, cpu下暂不支持为False,会报错。默认True。 - - **get_infos** (bool, 可选) - 是否返回分解状态信息,若为True,则返回分解状态Tensor,否则不返回。默认False。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 + - **pivot** (bool,可选) - LU分解时是否进行旋转。若为True则执行旋转操作,若为False则不执行旋转操作,该选项只在gpu下起作用,cpu下暂不支持为False,会报错。默认True。 + - **get_infos** (bool,可选) - 是否返回分解状态信息,若为True,则返回分解状态Tensor,否则不返回。默认False。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - Tensor LU, LU分解结果矩阵LU,由L、U拼接组成。 - - Tensor(dtype=int) Pivots, 旋转矩阵对应的旋转序列,详情见说明部分pivot部分, 对于输入[*,m,n]的x,Pivots shape为[*, m]。 - - Tensor(dtype=int) Infos, 矩阵分解状态信息矩阵,对于输入[*,m,n], Infos shape为[*]。每个元素表示每组矩阵的LU分解是否成功,0表示分解成功。 + - Tensor(dtype=int) Pivots,旋转矩阵对应的旋转序列,详情见说明部分pivot部分,对于输入[*,m,n]的x,Pivots shape为[*, m]。 + - Tensor(dtype=int) Infos,矩阵分解状态信息矩阵,对于输入[*,m,n],Infos shape为[*]。每个元素表示每组矩阵的LU分解是否成功,0表示分解成功。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/lu_unpack_cn.rst b/docs/api/paddle/linalg/lu_unpack_cn.rst index 416185e8fc1..72666f142b0 100644 --- a/docs/api/paddle/linalg/lu_unpack_cn.rst +++ b/docs/api/paddle/linalg/lu_unpack_cn.rst @@ -7,7 +7,7 @@ lu_unpack 对paddle.linalg.lu返回结果的LU、pivot进行展开得到原始的单独矩阵L、U、P。 -从LU中获得下三角矩阵L, 上三角矩阵U。 +从LU中获得下三角矩阵L,上三角矩阵U。 从序列pivot转换得到矩阵P,其转换过程原理如下伪代码所示: .. code-block:: text @@ -20,20 +20,18 @@ lu_unpack 参数 :::::::::::: -::::::::: - **x** (Tensor) - paddle.linalg.lu返回结果的LU矩阵。 - **y** (Tensor) - paddle.linalg.lu返回结果的pivot序列。 - - **unpack_ludata** (bool, 可选) - 若为True,则对输入x(LU)进行展开得到L、U,否则。默认True。 - - **unpack_pivots** (bool, 可选) - 若为True,则对输入y(pivots)序列进行展开,得到转换矩阵P。默认True。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 + - **unpack_ludata** (bool,可选) - 若为True,则对输入x(LU)进行展开得到L、U,否则。默认True。 + - **unpack_pivots** (bool,可选) - 若为True,则对输入y(pivots)序列进行展开,得到转换矩阵P。默认True。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - - Tensor L, 由LU展开得到的L矩阵,若unpack_ludata为False,则为None。 - - Tensor U, 由LU展开得到的U矩阵,若unpack_ludata为False,则为None。 - - Tensor P, 由序列pivots展开得到的旋转矩阵P,若unpack_pivots为False,则为None。 + - Tensor L,由LU展开得到的L矩阵,若unpack_ludata为False,则为None。 + - Tensor U,由LU展开得到的U矩阵,若unpack_ludata为False,则为None。 + - Tensor P,由序列pivots展开得到的旋转矩阵P,若unpack_pivots为False,则为None。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/matrix_power_cn.rst b/docs/api/paddle/linalg/matrix_power_cn.rst index d4f89cace3f..e465f0da3bc 100644 --- a/docs/api/paddle/linalg/matrix_power_cn.rst +++ b/docs/api/paddle/linalg/matrix_power_cn.rst @@ -30,8 +30,7 @@ matrix_power 返回 :::::::::::: -::::::::: - - Tensor, 这个(或这批)矩阵 ``x`` 经过 ``n`` 次幂运算后的结果, 数据类型和输入 ``x`` 的一致。 +Tensor, 这个(或这批)矩阵 ``x`` 经过 ``n`` 次幂运算后的结果, 数据类型和输入 ``x`` 的一致。 代码示例 :::::::::: diff --git a/docs/api/paddle/linalg/matrix_rank_cn.rst b/docs/api/paddle/linalg/matrix_rank_cn.rst index 0e704113940..9c56436814c 100644 --- a/docs/api/paddle/linalg/matrix_rank_cn.rst +++ b/docs/api/paddle/linalg/matrix_rank_cn.rst @@ -6,20 +6,20 @@ matrix_rank .. py:function:: paddle.linalg.matrix_rank(x, tol=None, hermitian=False, name=None) -计算矩阵的秩 +计算矩阵的秩。 当hermitian=False时,矩阵的秩是大于指定的 ``tol`` 阈值的奇异值的数量;当hermitian=True时,矩阵的秩是大于指定 ``tol`` 阈值的特征值绝对值的数量。 参数 ::::::::: - **x** (Tensor) - 输入tensor。它的形状应该是 ``[..., m, n]`` ,其中 ``...`` 是零或者更大的批次维度。如果 ``x`` 是一批矩阵,则输出具有相同的批次尺寸。 ``x`` 的数据类型应该为float32或float64。 - - **tol** (float, Tensor, 可选) - 阈值。默认值:None。如果未指定 ``tol`` , ``sigma`` 为所计算奇异值中的最大值(或特征值绝对值的最大值), ``eps`` 为 ``x`` 的类型的epsilon值,使用公式 ``tol=sigma * max(m,n) * eps`` 来计算 ``tol`` 。请注意,如果 ``x`` 是一批矩阵,以这种方式为每批矩阵计算 ``tol`` 。 - - **hermitian** (bool, 可选) - 表示 ``x`` 是否是Hermitian矩阵。 默认值:False。当hermitian=True时, ``x`` 被假定为Hermitian矩阵,这时函数内会使用更高效的算法来求解特征值,但在函数内部不会对 ``x`` 进行检查。我们仅仅使用矩阵的下三角来进行计算。 - - **name** (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 + - **tol** (float|Tensor,可选) - 阈值。默认值:None。如果未指定 ``tol`` , ``sigma`` 为所计算奇异值中的最大值(或特征值绝对值的最大值), ``eps`` 为 ``x`` 的类型的epsilon值,使用公式 ``tol=sigma * max(m,n) * eps`` 来计算 ``tol`` 。请注意,如果 ``x`` 是一批矩阵,以这种方式为每批矩阵计算 ``tol`` 。 + - **hermitian** (bool,可选) - 表示 ``x`` 是否是Hermitian矩阵。 默认值:False。当hermitian=True时, ``x`` 被假定为Hermitian矩阵,这时函数内会使用更高效的算法来求解特征值,但在函数内部不会对 ``x`` 进行检查。我们仅仅使用矩阵的下三角来进行计算。 + - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 返回 ::::::::: -``Tensor`` , ``x`` 的秩,数据类型为int64。 +Tensor, ``x`` 的秩,数据类型为int64。 代码示例 :::::::::: diff --git a/docs/api/paddle/linalg/multi_dot_cn.rst b/docs/api/paddle/linalg/multi_dot_cn.rst index 3a80145cb64..4a97959117e 100755 --- a/docs/api/paddle/linalg/multi_dot_cn.rst +++ b/docs/api/paddle/linalg/multi_dot_cn.rst @@ -7,7 +7,7 @@ multi_dot Multi_dot是一个计算多个矩阵乘法的算子。 -算子支持float16(只有GPU支持,CPU不支持float16),float32和float64三种类型。该算子不支持批量输入。 +算子支持float16(仅限GPU)、float32和float64三种类型。该算子不支持批量输入。 输入[x]的每个tensor的shape必须是二维的,除了第一个和最后一个tensor可以是一维的。如果第一个tensor是shape为(n, )的一维向量,该tensor将被当作是shape为(1, n)的行向量处理,同样的,如果最后一个tensor的shape是(n, ),将被当作是shape为(n, 1)的列向量处理。 @@ -27,9 +27,7 @@ Multi_dot会选择计算量最小的乘法顺序进行计算。(a, b)和(b, c) 返回 :::::::::::: - -::::::::: - - Tensor,输出Tensor +Tensor 代码示例 :::::::::: diff --git a/docs/api/paddle/linalg/norm_cn.rst b/docs/api/paddle/linalg/norm_cn.rst index 941375509f8..36e4dd3cc08 100644 --- a/docs/api/paddle/linalg/norm_cn.rst +++ b/docs/api/paddle/linalg/norm_cn.rst @@ -8,7 +8,7 @@ norm -该OP将计算给定Tensor的矩阵范数(Frobenius 范数)和向量范数(向量1范数、2范数、或者通常的p范数). +将计算给定Tensor的矩阵范数(Frobenius 范数)和向量范数(向量1范数、2范数、或者通常的p范数)。 .. note:: @@ -18,15 +18,15 @@ norm ::::::::: - **x** (Tensor) - 输入Tensor。维度为多维,数据类型为float32或float64。 - - **p** (float|string, 可选) - 范数(ord)的种类。目前支持的值为 `fro`、`inf`、`-inf`、`0`、`1`、`2`,和任何正实数p对应的p范数。默认值为 `fro` 。 - - **axis** (int|list|tuple, 可选) - 使用范数计算的轴。如果 ``axis`` 为None,则忽略input的维度,将其当做向量来计算。如果 ``axis`` 为int或者只有一个元素的list|tuple,``norm`` API会计算输入Tensor的向量范数。如果axis为包含两个元素的list,API会计算输入Tensor的矩阵范数。 当 ``axis < 0`` 时,实际的计算维度为 rank(input) + axis。默认值为 `None` 。 + - **p** (float|string,可选) - 范数(ord)的种类。目前支持的值为 `fro`、`inf`、`-inf`、`0`、`1`、`2`,和任何正实数p对应的p范数。默认值为 `fro` 。 + - **axis** (int|list|tuple,可选) - 使用范数计算的轴。如果 ``axis`` 为None,则忽略input的维度,将其当做向量来计算。如果 ``axis`` 为int或者只有一个元素的list|tuple,``norm`` API会计算输入Tensor的向量范数。如果axis为包含两个元素的list,API会计算输入Tensor的矩阵范数。 当 ``axis < 0`` 时,实际的计算维度为 rank(input) + axis。默认值为 `None` 。 - **keepdim** (bool,可选) - 是否在输出的Tensor中保留和输入一样的维度,默认值为False。当 :attr:`keepdim` 为False时,输出的Tensor会比输入 :attr:`input` 的维度少一些。 - **name** (str|None) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` 。默认值为None。 返回 ::::::::: - - 在指定axis上进行范数计算的Tensor,与输入input数据类型相同。 + Tensor,在指定axis上进行范数计算的结果,与输入input数据类型相同。 代码示例 ::::::::: diff --git a/docs/api/paddle/linalg/pinv_cn.rst b/docs/api/paddle/linalg/pinv_cn.rst index 2135b70c335..a85429c0a7e 100644 --- a/docs/api/paddle/linalg/pinv_cn.rst +++ b/docs/api/paddle/linalg/pinv_cn.rst @@ -12,17 +12,15 @@ pinv 参数 ::::::::: - - **x** (Tensor) : 输入变量,类型为 Tensor,数据类型为float32, float64, complex64, complex12, 形状为(M, N)或(B, M, N)。 - - **rcond** (float64,可选) : 奇异值(特征值)被截断的阈值,奇异值(特征值)小于rcond * 最大奇异值时会被置为0, 默认值为1e-15。 + - **x** (Tensor) : 输入变量,类型为 Tensor,数据类型为float32、float64、complex64、complex12,形状为(M, N)或(B, M, N)。 + - **rcond** (float64,可选) : 奇异值(特征值)被截断的阈值,奇异值(特征值)小于rcond * 最大奇异值时会被置为0,默认值为1e-15。 - **hermitian** (bool,可选) : 是否为 ``hermitian`` 矩阵或者实对称矩阵,默认值为False。 - **name** (str,可选)- 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - - - Tensor,输入矩阵的伪逆矩阵,数据类型和输入数据类型一致。形状为(N, M)或(B, N, M)。 +Tensor,输入矩阵的伪逆矩阵,数据类型和输入数据类型一致。形状为(N, M)或(B, N, M)。 代码示例 :::::::::: diff --git a/docs/api/paddle/linalg/qr_cn.rst b/docs/api/paddle/linalg/qr_cn.rst index 215a716370e..99124ba0e98 100644 --- a/docs/api/paddle/linalg/qr_cn.rst +++ b/docs/api/paddle/linalg/qr_cn.rst @@ -19,15 +19,13 @@ qr 参数 :::::::::::: -::::::::: - **x** (Tensor) : 输入进行正交三角分解的一个或一批方阵, 类型为 Tensor。 ``x`` 的形状应为 ``[*, M, N]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 - - **mode** (str, 可选) : 控制正交三角分解的行为,默认是 ``reduced`` ,假设 ``x`` 形状应为 ``[*, M, N]`` 和 ``K = min(M, N)``:如果 ``mode = "reduced"`` ,则 :math:`Q` 形状为 ``[*, M, K]`` 和 :math:`R` 形状为 ``[*, K, N]`` ; 如果 ``mode = "complete"`` ,则 :math:`Q` 形状为 ``[*, M, M]`` 和 :math:`R` 形状为 ``[*, M, N]`` ; 如果 ``mode = "r"`` ,则不返回 :math:`Q`, 只返回 :math:`R` 且形状为 ``[*, K, N]`` 。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 + - **mode** (str,可选) : 控制正交三角分解的行为,默认是 ``reduced`` ,假设 ``x`` 形状应为 ``[*, M, N]`` 和 ``K = min(M, N)``:如果 ``mode = "reduced"`` ,则 :math:`Q` 形状为 ``[*, M, K]`` 和 :math:`R` 形状为 ``[*, K, N]`` ; 如果 ``mode = "complete"`` ,则 :math:`Q` 形状为 ``[*, M, M]`` 和 :math:`R` 形状为 ``[*, M, N]`` ; 如果 ``mode = "r"`` ,则不返回 :math:`Q`, 只返回 :math:`R` 且形状为 ``[*, K, N]`` 。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - Tensor Q, 正交三角分解的Q正交矩阵,需注意如果 ``mode = "reduced"`` ,则不返回Q矩阵,只返回R矩阵。 - Tensor R, 正交三角分解的R上三角矩阵。 diff --git a/docs/api/paddle/linalg/slogdet_cn.rst b/docs/api/paddle/linalg/slogdet_cn.rst index b3d64f1f9cb..0b7a0acfbd3 100644 --- a/docs/api/paddle/linalg/slogdet_cn.rst +++ b/docs/api/paddle/linalg/slogdet_cn.rst @@ -9,14 +9,12 @@ slogdet 参数 :::::::::::: -::::::::: - - **x** (Tensor) : 输入一个或批量矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 + - **x** (Tensor) : 输入一个或批量矩阵。 ``x`` 的形状应为 ``[*, M, M]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32、float64。 返回 :::::::::::: -::::::::: -- Tensor out_value, 输出矩阵的行列式值 Shape为。 ``[2, *]`` 。 +Tensor ,输出矩阵的行列式值 Shape为 ``[2, *]``。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/solve_cn.rst b/docs/api/paddle/linalg/solve_cn.rst index b15a1cca431..5ae8a73db03 100644 --- a/docs/api/paddle/linalg/solve_cn.rst +++ b/docs/api/paddle/linalg/solve_cn.rst @@ -27,8 +27,7 @@ solve 返回 :::::::::::: -::::::::: - - Tensor, 这个(或这批)矩阵 ``x`` 与 ``y`` 经过运算后的结果, 数据类型和输入 ``x`` 的一致。 +Tensor, 这个(或这批)矩阵 ``x`` 与 ``y`` 经过运算后的结果, 数据类型和输入 ``x`` 的一致。 代码示例 :::::::::: diff --git a/docs/api/paddle/linalg/svd_cn.rst b/docs/api/paddle/linalg/svd_cn.rst index 334621c90c7..42295f64887 100644 --- a/docs/api/paddle/linalg/svd_cn.rst +++ b/docs/api/paddle/linalg/svd_cn.rst @@ -19,7 +19,6 @@ svd 参数 :::::::::::: -::::::::: - **x** (Tensor) : 输入的欲进行奇异值分解的一个或一批方阵, 类型为 Tensor。 ``x`` 的形状应为 ``[*, M, N]``, 其中 ``*`` 为零或更大的批次维度, 数据类型支持float32, float64。 - **full_matrics** (bool) : 是否计算完整的U和V矩阵, 类型为 bool 默认为 False。 这个参数会影响U和V生成的Shape。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 @@ -27,10 +26,9 @@ svd 返回 :::::::::::: -::::::::: - - Tensor U, 奇异值分解的U矩阵。如果full_matrics设置为False,则Shape为 ``[*, M, K]`` ,如果full_metrics设置为True,那么Shape为 ``[*, M, M]`` 。其中K为M和N的最小值。 - - Tensor S, 奇异值向量,Shape为 ``[*, K]`` 。 - - Tensor VH, 奇异值分解的VH矩阵。如果full_matrics设置为False,则Shape为 ``[*, K, N]`` ,如果full_metrics设置为True,那么Shape为 ``[*, N, N]`` 。其中K为M和N的最小值。 + - Tensor U,奇异值分解的U矩阵。如果full_matrics设置为False,则Shape为 ``[*, M, K]`` ,如果full_metrics设置为True,那么Shape为 ``[*, M, M]`` 。其中K为M和N的最小值。 + - Tensor S,奇异值向量,Shape为 ``[*, K]`` 。 + - Tensor VH,奇异值分解的VH矩阵。如果full_matrics设置为False,则Shape为 ``[*, K, N]`` ,如果full_metrics设置为True,那么Shape为 ``[*, N, N]`` 。其中K为M和N的最小值。 代码示例: :::::::::: diff --git a/docs/api/paddle/linalg/triangular_solve_cn.rst b/docs/api/paddle/linalg/triangular_solve_cn.rst index 83277664dad..30a5644b123 100644 --- a/docs/api/paddle/linalg/triangular_solve_cn.rst +++ b/docs/api/paddle/linalg/triangular_solve_cn.rst @@ -8,7 +8,7 @@ triangular_solve 计算具有唯一解的线性方程组解,其中系数矩阵 `x` 是上(下)三角系数矩阵, `y` 是方程右边。 -记 :math:`X` 为一个或一批方阵,:math:`Y` 一个或一批矩阵。 +记 :math:`X` 表示一个或一批方阵,:math:`Y` 表示一个或一批矩阵。 则方程组为: @@ -28,16 +28,15 @@ triangular_solve ::::::::: - **x** (Tensor) : 线性方程组左边的系数方阵,其为一个或一批方阵。``x`` 的形状应为 ``[*, M, M]``,其中 ``*`` 为零或更大的批次维度,数据类型为float32, float64。 - **y** (Tensor) : 线性方程组右边的矩阵,其为一个或一批矩阵。``y`` 的形状应为 ``[*, M, K]``, 其中 ``*`` 为零或更大的批次维度,数据类型为float32, float64。 - - **upper** (bool, 可选) - 对系数矩阵 ``x`` 取上三角还是下三角。默认为True,表示取上三角。 - - **transpose** (bool, 可选) - 是否对系数矩阵 ``x`` 进行转置。默认为False,不进行转置。 - - **unitriangular** (bool, 可选) - 如果为True,则将系数矩阵 ``x`` 对角线元素假设为1来求解方程。默认为False。 + - **upper** (bool,可选) - 对系数矩阵 ``x`` 取上三角还是下三角。默认为True,表示取上三角。 + - **transpose** (bool,可选) - 是否对系数矩阵 ``x`` 进行转置。默认为False,不进行转置。 + - **unitriangular** (bool,可选) - 如果为True,则将系数矩阵 ``x`` 对角线元素假设为1来求解方程。默认为False。 - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -::::::::: - - Tensor, 线程方程组的解, 数据类型和 ``x`` 一致。 +Tensor,线程方程组的解,数据类型和 ``x`` 一致。 代码示例 :::::::::: From f815ee6fc8eecaf73b07d320626939fca80d5c7d Mon Sep 17 00:00:00 2001 From: Ligoml Date: Wed, 30 Mar 2022 18:18:28 +0800 Subject: [PATCH 085/107] update metric docs --- docs/api/paddle/metric/Auc_cn.rst | 49 +++++++++++-------- docs/api/paddle/metric/Metric_cn.rst | 65 ++++++++++++------------- docs/api/paddle/metric/Precision_cn.rst | 53 +++++++++++--------- docs/api/paddle/metric/Recall_cn.rst | 51 ++++++++++--------- 4 files changed, 118 insertions(+), 100 deletions(-) diff --git a/docs/api/paddle/metric/Auc_cn.rst b/docs/api/paddle/metric/Auc_cn.rst index 19cdd0ba01e..d2d4e4afc08 100644 --- a/docs/api/paddle/metric/Auc_cn.rst +++ b/docs/api/paddle/metric/Auc_cn.rst @@ -5,25 +5,26 @@ Auc .. py:class:: paddle.metric.Auc() -**注意**:目前只用Python实现Auc,可能速度略慢 +.. note:: +目前只用Python实现Auc,可能速度略慢。 -该接口计算Auc,在二分类(binary classification)中广泛使用。相关定义参考 https://en.wikipedia.org/wiki/Receiver_operating_characteristic#Area_under_the_curve 。 +该接口计算Auc,在二分类(binary classification)中广泛使用。 -该接口创建四个局部变量true_positives, true_negatives, false_positives和false_negatives,用于计算Auc。为了离散化AUC曲线,使用临界值的线性间隔来计算召回率和准确率的值。用false positive的召回值高度计算ROC曲线面积,用recall的准确值高度计算PR曲线面积。 +该接口创建四个局部变量true_positives,true_negatives,false_positives和false_negatives,用于计算Auc。为了离散化AUC曲线,使用临界值的线性间隔来计算召回率和准确率的值。用false positive的召回值高度计算ROC曲线面积,用recall的准确值高度计算PR曲线面积。 +参考链接:https://en.wikipedia.org/wiki/Receiver_operating_characteristic#Area_under_the_curve 参数 :::::::::::: -::::::::: - **curve** (str) - 将要计算的曲线名的模式,包括'ROC'(默认)或者'PR'(Precision-Recall-curve)。 - **num_thresholds** (int) - 离散化AUC曲线的整数阈值数,默认是4095。 - **name** (str,可选) – metric实例的名字,默认是'auc'。 -代码示例 -::::::::: +代码示例 1 +:::::::::::: -**独立使用示例** +独立使用示例 .. code-block:: python @@ -42,8 +43,10 @@ Auc m.update(preds=preds, labels=labels) res = m.accumulate() +代码示例 2 +:::::::::::: -**在Model API中的示例** +在Model API中的示例 .. code-block:: python @@ -81,8 +84,10 @@ Auc model.fit(data, batch_size=16) +方法 +:::::::::::: update(pred, label, *args) -::::::::: +''''''''' 更新AUC计算的状态。 @@ -91,34 +96,36 @@ update(pred, label, *args) - **preds** (numpy.array | Tensor): 一个shape为[batch_size, 2]的Numpy数组或Tensor,preds[i][j]表示第i个样本类别为j的概率。 - **labels** (numpy.array | Tensor): 一个shape为[batch_size, 1]的Numpy数组或Tensor,labels[i]是0或1,表示第i个样本的类别。 -**返回:** 无。 +**返回** + +无。 reset() -::::::::: +''''''''' 清空状态和计算结果。 -返回 -:::::::::::: -无 +**返回** + +无。 accumulate() -::::::::: +''''''''' 累积的统计指标,计算和返回AUC值。 -返回 -:::::::::::: +**返回** + AUC值,一个标量。 name() -::::::::: +''''''''' -返回Metric实例的名字, 参考上述的name,默认是'auc'。 +返回Metric实例的名字,参考上述的name,默认是'auc'。 + +**返回** -返回 -:::::::::::: 评估的名字,string类型。 diff --git a/docs/api/paddle/metric/Metric_cn.rst b/docs/api/paddle/metric/Metric_cn.rst index 6ca53dd1132..53b8a43b907 100644 --- a/docs/api/paddle/metric/Metric_cn.rst +++ b/docs/api/paddle/metric/Metric_cn.rst @@ -20,7 +20,7 @@ Metric `compute` 接口的进阶用法: 在 `compute` 中可以使用PaddlePaddle内置的算子进行评估器的状态,而不是通过 -Python/NumPy, 这样可以加速计算。 `update` 接口将 `compute` 的输出作为 +Python/NumPy,这样可以加速计算。 `update` 接口将 `compute` 的输出作为 输入,内部采用Python/NumPy计算。 `Metric` 计算流程如下 (在{}中的表示模型和评估器的计算): @@ -43,15 +43,12 @@ Python/NumPy, 这样可以加速计算。 `update` 接口将 `compute` 的输出 | || {Metric.update} \/ ------------------ -代码示例 -::::::::: +代码示例 1 +:::::::::::: -以 计算正确率的 `Accuracy` 为例,该评估器的输入为 `pred` 和 -`label`, 可以在 `compute` 中通过 `pred` 和 `label` -先计算正确预测的矩阵。 例如,预测结果包含10类, `pred` 的shape是[N, 10], - `label` 的shape是[N, 1], N是batch size,我们需要计算top-1和top-5的准 -确率,可以在 `compute` 中计算每个样本的top-5得分,正确预测的矩阵的shape -是[N, 5]. +以 计算正确率的 `Accuracy` 为例,该评估器的输入为 `pred` 和 `label`,可以在 `compute` 中通过 `pred` 和 `label`先计算正确预测的矩阵。 +例如,预测结果包含10类, `pred` 的shape是[N, 10],`label` 的shape是[N, 1],N是batch size,我们需要计算top-1和top-5的准确率, +可以在 `compute` 中计算每个样本的top-5得分,正确预测的矩阵的shape是[N, 5]。 .. code-block:: python @@ -63,8 +60,10 @@ Python/NumPy, 这样可以加速计算。 `update` 接口将 `compute` 的输出 correct = pred == label return paddle.cast(correct, dtype='float32') -在 `compute` 中的计算,使用内置的算子(可以跑在GPU上,是的速度更快)。 -作为 `update` 的输入,该接口计算如下: +代码示例 2 +:::::::::::: + +在 `compute` 中的计算,使用内置的算子(可以跑在GPU上,使得速度更快)。作为 `update` 的输入,该接口计算如下: .. code-block:: python @@ -78,55 +77,53 @@ Python/NumPy, 这样可以加速计算。 `update` 接口将 `compute` 的输出 self.count[i] += num_samples return accs +方法 +:::::::::::: reset() -::::::::: +''''''''' 清空状态和计算结果。 -返回 -:::::::::::: -无 +**返回** + +无。 update(*args) -::::::::: +''''''''' -更新状态。如果定义了 `compute` , `update` 的输入是 `compute` 的输出。 -如果没有定义,则输入是网络的输出**output**和标签**label**, -如: `update(output1, output2, ..., label1, label2,...)` . +更新状态。如果定义了 `compute` , `update` 的输入是 `compute` 的输出。如果没有定义,则输入是网络的输出**output**和标签**label**, +如: `update(output1, output2, ..., label1, label2,...)` 。 也可以参考 `update` 。 accumulate() -::::::::: +''''''''' 累积的统计指标,计算和返回评估结果。 -返回 -:::::::::::: -评估结果,一般是个标量 或 多个标量。 +**返回** + +评估结果,一般是 一个标量 或 多个标量。 name() -::::::::: +''''''''' -返回Metric的名字, 一般通过__init__构造函数传入。 +返回Metric的名字,一般通过__init__构造函数传入。 + +**返回** -返回 -:::::::::::: 评估的名字,string类型。 compute() -::::::::: +''''''''' -此接口可以通过PaddlePaddle内置的算子计算metric的状态,可以加速metric的计算, -为可选的高阶接口。 +此接口可以通过PaddlePaddle内置的算子计算metric的状态,可以加速metric的计算,为可选的高阶接口。 -如果这个接口定义了,输入是网络的输出 **outputs** 和 标签 **labels** , 定义如: -`compute(output1, output2, ..., label1, label2,...)` 。 -如果这个接口没有定义, 默认的行为是直接将输入参数返回给 `update` ,则其 -定义如: `update(output1, output2, ..., label1, label2,...)` 。 +- 如果这个接口定义了,输入是网络的输出 **outputs** 和 标签 **labels**,定义如:`compute(output1, output2, ..., label1, label2,...)` 。 +- 如果这个接口没有定义, 默认的行为是直接将输入参数返回给 `update` ,则其定义如: `update(output1, output2, ..., label1, label2,...)` 。 也可以参考 `compute` 。 diff --git a/docs/api/paddle/metric/Precision_cn.rst b/docs/api/paddle/metric/Precision_cn.rst index 554fe52e4c4..f34f3ebc469 100644 --- a/docs/api/paddle/metric/Precision_cn.rst +++ b/docs/api/paddle/metric/Precision_cn.rst @@ -6,20 +6,23 @@ Precision .. py:class:: paddle.metric.Precision() -精确率Precision(也称为 positive predictive value,正预测值)是被预测为正样例中实际为正的比例。 https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers 该类管理二分类任务的precision分数。 +精确率Precision(也称为 positive predictive value,正预测值)是被预测为正样例中实际为正的比例。该类管理二分类任务的precision分数。 -**注意**:这个metric只能用来评估二分类。 +相关链接:https://en.wikipedia.org/wiki/Evaluation_of_binary_classifiers +.. note:: +这个metric只能用来评估二分类。 参数 -::::::::: +:::::::::::: + - **name** (str,可选) – metric实例的名字,默认是'precision'。 -代码示例 -::::::::: +代码示例 1 +:::::::::::: -**独立使用示例** +独立使用示例 .. code-block:: python @@ -34,7 +37,10 @@ Precision res = m.accumulate() print(res) # 1.0 -**在Model API中的示例** +代码示例 2 +:::::::::::: + +在Model API中的示例 .. code-block:: python @@ -70,9 +76,10 @@ Precision data = Data() model.fit(data, batch_size=16) - +方法 +:::::::::::: update(preds, labels, *args) -::::::::: +''''''''' 更新Precision的状态。 @@ -81,35 +88,35 @@ update(preds, labels, *args) - **preds** (numpy.array | Tensor): 预测输出结果通常是sigmoid函数的输出,是一个数据类型为float64或float32的向量。 - **labels** (numpy.array | Tensor): 真实标签的shape和:code: `preds` 相同,数据类型为int32或int64。 -返回 -:::::::::::: +**返回** + 无。 reset() -::::::::: +''''''''' 清空状态和计算结果。 -返回 -:::::::::::: -无 +**返回** + +无。 accumulate() -::::::::: +''''''''' 累积的统计指标,计算和返回precision值。 -返回 -:::::::::::: +**返回** + precision值,一个标量。 name() -::::::::: +''''''''' -返回Metric实例的名字, 参考上述的name,默认是'precision'。 +返回Metric实例的名字,参考上述的name,默认是'precision'。 -返回 -:::::::::::: - 评估的名字,string类型。 +**返回** + +评估的名字,string类型。 diff --git a/docs/api/paddle/metric/Recall_cn.rst b/docs/api/paddle/metric/Recall_cn.rst index 933d13625f3..50f999d42f1 100644 --- a/docs/api/paddle/metric/Recall_cn.rst +++ b/docs/api/paddle/metric/Recall_cn.rst @@ -6,20 +6,24 @@ Recall .. py:class:: paddle.metric.Recall() -召回率Recall(也称为敏感度)是指得到的相关实例数占相关实例总数的比例。https://en.wikipedia.org/wiki/Precision_and_recall 该类管理二分类任务的召回率。 +召回率Recall(也称为敏感度)是指得到的相关实例数占相关实例总数的比例。该类管理二分类任务的召回率。 -**注意**:这个metric只能用来评估二分类。 +相关链接:https://en.wikipedia.org/wiki/Precision_and_recall + +.. note:: +这个metric只能用来评估二分类。 参数 -::::::::: +:::::::::::: + - **name** (str,可选) – metric实例的名字,默认是'recall'。 -代码示例 -::::::::: +代码示例 1 +:::::::::::: -**独立使用示例** +独立使用示例 .. code-block:: python @@ -34,7 +38,9 @@ Recall res = m.accumulate() print(res) # 2.0 / 3.0 -**在Model API中的示例** +代码示例 2 +:::::::::::: +在Model API中的示例 .. code-block:: python @@ -70,9 +76,10 @@ Recall data = Data() model.fit(data, batch_size=16) - +方法 +:::::::::::: update(preds, labels, *args) -::::::::: +''''''''' 更新Recall的状态。 @@ -81,36 +88,36 @@ update(preds, labels, *args) - **preds** (numpy.array | Tensor): 预测输出结果通常是sigmoid函数的输出,是一个数据类型为float64或float32的向量。 - **labels** (numpy.array | Tensor): 真实标签的shape和:code: `preds` 相同,数据类型为int32或int64。 -返回 -:::::::::::: +**返回** + 无。 reset() -::::::::: +''''''''' 清空状态和计算结果。 -返回 -:::::::::::: -无 +**返回** + + 无。 accumulate() -::::::::: +''''''''' 累积的统计指标,计算和返回recall值。 -返回 -:::::::::::: +**返回** + precision值,一个标量。 name() -::::::::: +''''''''' -返回Metric实例的名字, 参考上述的name,默认是'recall'。 +返回Metric实例的名字,参考上述的name,默认是'recall'。 + +**返回** -返回 -:::::::::::: 评估的名字,string类型。 From 8b11b13ab996e7021f12e0e4550776481593d898 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Wed, 30 Mar 2022 19:51:33 +0800 Subject: [PATCH 086/107] Update AdamW_cn.rst --- docs/api/paddle/optimizer/AdamW_cn.rst | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/docs/api/paddle/optimizer/AdamW_cn.rst b/docs/api/paddle/optimizer/AdamW_cn.rst index 4b20eefc6c8..6290f3f6d15 100755 --- a/docs/api/paddle/optimizer/AdamW_cn.rst +++ b/docs/api/paddle/optimizer/AdamW_cn.rst @@ -8,7 +8,7 @@ AdamW -AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决Adam优化器中L2正则化失效的问题。 +AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 优化器中L2正则化失效的问题。 其参数更新的计算公式如下: @@ -70,7 +70,7 @@ AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 Date: Wed, 30 Mar 2022 20:34:25 +0800 Subject: [PATCH 087/107] update onnx&optimizer docs --- docs/api/paddle/onnx/export_cn.rst | 12 ++--- docs/api/paddle/optimizer/Adadelta_cn.rst | 53 +++++++++++-------- docs/api/paddle/optimizer/Adagrad_cn.rst | 2 +- docs/api/paddle/optimizer/Adam_cn.rst | 49 ++++++++--------- docs/api/paddle/optimizer/Adamax_cn.rst | 48 +++++++++-------- docs/api/paddle/optimizer/Lamb_cn.rst | 50 +++++++++-------- docs/api/paddle/optimizer/Momentum_cn.rst | 39 +++++++------- docs/api/paddle/optimizer/Optimizer_cn.rst | 40 +++++++------- docs/api/paddle/optimizer/RMSProp_cn.rst | 44 +++++++-------- docs/api/paddle/optimizer/SGD_cn.rst | 36 ++++++------- .../optimizer/lr/CosineAnnealingDecay_cn.rst | 5 +- .../optimizer/lr/ExponentialDecay_cn.rst | 7 ++- .../optimizer/lr/InverseTimeDecay_cn.rst | 7 ++- .../paddle/optimizer/lr/LRScheduler_cn.rst | 32 +++++------ .../paddle/optimizer/lr/LambdaDecay_cn.rst | 8 ++- .../paddle/optimizer/lr/LinearWarmup_cn.rst | 8 ++- .../paddle/optimizer/lr/MultiStepDecay_cn.rst | 10 ++-- .../optimizer/lr/MultiplicativeDecay_cn.rst | 8 +-- .../optimizer/lr/NaturalExpDecay_cn.rst | 7 ++- docs/api/paddle/optimizer/lr/NoamDecay_cn.rst | 10 ++-- .../paddle/optimizer/lr/PiecewiseDecay_cn.rst | 7 ++- .../optimizer/lr/PolynomialDecay_cn.rst | 7 ++- .../optimizer/lr/ReduceOnPlateau_cn.rst | 6 +-- docs/api/paddle/optimizer/lr/StepDecay_cn.rst | 7 ++- 24 files changed, 255 insertions(+), 247 deletions(-) diff --git a/docs/api/paddle/onnx/export_cn.rst b/docs/api/paddle/onnx/export_cn.rst index 8c3a1600f76..ea473c53e96 100644 --- a/docs/api/paddle/onnx/export_cn.rst +++ b/docs/api/paddle/onnx/export_cn.rst @@ -9,19 +9,19 @@ export .. note:: - 具体使用案例请参考 :ref:`cn_model_to_onnx` , 更多信息请参考: `paddle2onnx `_ 。 + 具体使用案例请参考 :ref:`cn_model_to_onnx` ,更多信息请参考: `paddle2onnx `_ 。 参数 ::::::::: - layer (Layer) - 导出的 ``Layer`` 对象。 - - path (str) - 存储模型的路径前缀。格式为 ``dirname/file_prefix`` 或者 ``file_prefix``, 导出后``ONNX``模型自动添加后缀 ``.onnx`` 。 - - input_spec (list[InputSpec|Tensor], 可选) - 描述存储模型forward方法的输入,可以通过InputSpec或者示例Tensor进行描述。如果为 ``None`` ,所有原 ``Layer`` forward方法的输入变量将都会被配置为存储模型的输入变量。默认为 ``None``。 - - opset_version(int, optional) - 导出 ``ONNX`` 模型的Opset版本,目前稳定支持导出的版本为9、10和11。 默认为 ``9``。 - - **configs (dict, 可选) - 其他用于兼容的存储配置选项。这些选项将来可能被移除,如果不是必须使用,不推荐使用这些配置选项。默认为 ``None``。目前支持以下配置选项:(1) output_spec (list[Tensor]) - 选择存储模型的输出目标。默认情况下,所有原 ``Layer`` forward方法的返回值均会作为存储模型的输出。如果传入的 ``output_spec`` 列表不是所有的输出变量,存储的模型将会根据 ``output_spec`` 所包含的结果被裁剪。 + - path (str) - 存储模型的路径前缀。格式为 ``dirname/file_prefix`` 或者 ``file_prefix``,导出后``ONNX``模型自动添加后缀 ``.onnx`` 。 + - input_spec (list[InputSpec|Tensor],可选) - 描述存储模型forward方法的输入,可以通过InputSpec或者示例Tensor进行描述。如果为 ``None`` ,所有原 ``Layer`` forward方法的输入变量将都会被配置为存储模型的输入变量。默认为 ``None``。 + - opset_version(int,可选) - 导出 ``ONNX`` 模型的Opset版本,目前稳定支持导出的版本为9、10和11。 默认为 ``9``。 + - **configs (dict,可选) - 其他用于兼容的存储配置选项。这些选项将来可能被移除,如果不是必须使用,不推荐使用这些配置选项。默认为 ``None``。目前支持以下配置选项:(1) output_spec (list[Tensor]) - 选择存储模型的输出目标。默认情况下,所有原 ``Layer`` forward方法的返回值均会作为存储模型的输出。如果传入的 ``output_spec`` 列表不是所有的输出变量,存储的模型将会根据 ``output_spec`` 所包含的结果被裁剪。 返回 ::::::::: -无 +无。 代码示例 ::::::::: diff --git a/docs/api/paddle/optimizer/Adadelta_cn.rst b/docs/api/paddle/optimizer/Adadelta_cn.rst index 7d9f0675eaf..8545318ec04 100644 --- a/docs/api/paddle/optimizer/Adadelta_cn.rst +++ b/docs/api/paddle/optimizer/Adadelta_cn.rst @@ -6,9 +6,12 @@ Adadelta .. py:class:: paddle.optimizer.Adadelta(learning_rate=0.001, epsilon=1.0e-6, rho=0.95, parameters=None, weight_decay=0.01, grad_clip=None, name=None) -**注意:此接口不支持稀疏参数更新。** +.. note:: +此接口不支持稀疏参数更新。 -Adadelta优化器,具体细节可参考论文 `ADADELTA: AN ADAPTIVE LEARNING RATE METHOD `_ 。 +Adadelta优化器,是对 :ref:`Adagrad <_cn_api_paddle_optimizer_Adagrad>` 的改进。 + +相关论文:`ADADELTA: AN ADAPTIVE LEARNING RATE METHOD `_ 。 更新公式如下: @@ -22,16 +25,16 @@ Adadelta优化器,具体细节可参考论文 `ADADELTA: AN ADAPTIVE LEARNING 参数 :::::::::::: - - **learning_rate** (float|_LRScheduleri, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - - **epsilon** (float, 可选) - 保持数值稳定性的短浮点类型值,默认值为1e-06 - - **rho** (float, 可选) - 算法中的衰减率,默认值为0.95。 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - - **weight_decay** (float|Tensor, 可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **learning_rate** (float|_LRScheduleri,可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001。 + - **epsilon** (float,可选) - 保持数值稳定性的短浮点类型值,默认值为1e-06。 + - **rho** (float,可选) - 算法中的衰减率,默认值为0.95。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **weight_decay** (float|Tensor,可选) - 权重衰减系数,是一个float类型或者shape为[1],数据类型为float32的Tensor类型。默认值为0.01。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 -Adadelta优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决Adam优化器中L2正则化失效的问题。 +Adadelta优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决Adam优化器中L2正则化失效的问题。 @@ -58,14 +61,15 @@ Adadelta优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `_ **模式下生效** + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 + +无。 @@ -92,11 +96,12 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` 。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 @@ -123,9 +128,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -149,9 +154,9 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -160,7 +165,8 @@ set_lr(value) value (float) - 需要设置的学习率的值。 **返回** -None + +无。 **代码示例** @@ -188,13 +194,14 @@ None get_lr() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 **返回** + float,当前步骤的学习率。 diff --git a/docs/api/paddle/optimizer/Adagrad_cn.rst b/docs/api/paddle/optimizer/Adagrad_cn.rst index 660118bd298..85d3c0ffffc 100644 --- a/docs/api/paddle/optimizer/Adagrad_cn.rst +++ b/docs/api/paddle/optimizer/Adagrad_cn.rst @@ -6,7 +6,7 @@ Adagrad .. py:class:: paddle.optimizer.Adagrad(learning_rate, epsilon=1e-06, parameters=None, weight_decay=None, grad_clip=None, name=None, initial_accumulator_value=0.0) -Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以针对不同参数样本数不平均的问题,自适应地为各个参数分配不同的学习率。 +Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以针对不同参数样本数不平均的问题,自适应地为各个参数分配不同的学习率。 其参数更新的计算过程如下: diff --git a/docs/api/paddle/optimizer/Adam_cn.rst b/docs/api/paddle/optimizer/Adam_cn.rst index 9f87f96c6c5..11dba1254a8 100755 --- a/docs/api/paddle/optimizer/Adam_cn.rst +++ b/docs/api/paddle/optimizer/Adam_cn.rst @@ -28,18 +28,18 @@ Adam优化器出自 `Adam论文 `_ 的第二节 参数 :::::::::::: - - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - - **beta1** (float|Tensor, 可选) - 一阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.9 - - **beta2** (float|Tensor, 可选) - 二阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.999 - - **epsilon** (float, 可选) - 保持数值稳定性的短浮点类型值,默认值为1e-08 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001。 + - **beta1** (float|Tensor,可选) - 一阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.9。 + - **beta2** (float|Tensor,可选) - 二阶矩估计的指数衰减率,是一个float类型或者一个shape为[1],数据类型为float32的Tensor类型。默认值为0.999。 + - **epsilon** (float,可选) - 保持数值稳定性的短浮点类型值,默认值为1e-08。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 :ref:`cn_api_fluid_regularizer_L2Decay` 。如果一个参数已经在 :ref:`cn_api_fluid_ParamAttr` 中设置了正则化,这里的正则化设置将被忽略; 如果没有在 :ref:`cn_api_fluid_ParamAttr` 中设置正则化,这里的设置才会生效。默认值为None,表示没有正则化。 - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None - - **lazy_mode** (bool, 可选) - 设为True时,仅更新当前具有梯度的元素。官方Adam算法有两个移动平均累加器(moving-average accumulators)。累加器在每一步都会更新。在密集模式和稀疏模式下,两条移动平均线的每个元素都会更新。如果参数非常大,那么更新可能很慢。 lazy mode仅更新当前具有梯度的元素,所以它会更快。但是这种模式与原始的算法有不同的描述,可能会导致不同的结果,默认为False + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **lazy_mode** (bool,可选) - 设为True时,仅更新当前具有梯度的元素。官方Adam算法有两个移动平均累加器(moving-average accumulators)。累加器在每一步都会更新。在密集模式和稀疏模式下,两条移动平均线的每个元素都会更新。如果参数非常大,那么更新可能很慢。 lazy mode仅更新当前具有梯度的元素,所以它会更快。但是这种模式与原始的算法有不同的描述,可能会导致不同的结果,默认为False。 代码示例 @@ -90,14 +90,14 @@ Adam优化器出自 `Adam论文 `_ 的第二节 step() ''''''''' -**注意:** - - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +.. note:: + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 + +无。 **代码示例** @@ -124,12 +124,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 @@ -159,9 +160,8 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** - - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +.. note:: + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -186,9 +186,9 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -197,7 +197,8 @@ set_lr(value) value (float) - 需要设置的学习率的值。 **返回** -None + +无。 **代码示例** @@ -225,13 +226,13 @@ None get_lr() ''''''''' -**注意:** - - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +.. note:: +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 **返回** + float,当前步骤的学习率。 diff --git a/docs/api/paddle/optimizer/Adamax_cn.rst b/docs/api/paddle/optimizer/Adamax_cn.rst index 392e02c7e6d..0d42a5ff54a 100755 --- a/docs/api/paddle/optimizer/Adamax_cn.rst +++ b/docs/api/paddle/optimizer/Adamax_cn.rst @@ -8,7 +8,7 @@ Adamax -Adamax优化器是参考 `Adam论文 `_ 第7节Adamax优化相关内容所实现的。Adamax算法是基于无穷大范数的 `Adam `_ 算法的一个变种,使学习率更新的算法更加稳定和简单。 +Adamax优化器是参考 `Adam论文 `_ 第7节Adamax优化相关内容所实现的。Adamax算法是基于无穷大范数的 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 算法的一个变种,使学习率更新的算法更加稳定和简单。 其参数更新的计算公式如下: @@ -30,17 +30,17 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 参数 :::::::::::: - - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - - **beta1** (float, 可选) - 一阶矩估计的指数衰减率,默认值为0.9 - - **beta2** (float, 可选) - 二阶矩估计的指数衰减率,默认值为0.999 - - **epsilon** (float, 可选) - 保持数值稳定性的短浮点类型值,默认值为1e-08 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **learning_rate** (float|_LRScheduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001。 + - **beta1** (float,可选) - 一阶矩估计的指数衰减率,默认值为0.9。 + - **beta2** (float,可选) - 二阶矩估计的指数衰减率,默认值为0.999。 + - **epsilon** (float,可选) - 保持数值稳定性的短浮点类型值,默认值为1e-08。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 :ref:`cn_api_fluid_regularizer_L2Decay` 。如果一个参数已经在 :ref:`cn_api_fluid_ParamAttr` 中设置了正则化,这里的正则化设置将被忽略; 如果没有在 :ref:`cn_api_fluid_ParamAttr` 中设置正则化,这里的设置才会生效。默认值为None,表示没有正则化。 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 .. note:: 目前 ``Adamax`` 不支持 Sparse Parameter Optimization(稀疏参数优化)。 @@ -70,14 +70,15 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 step() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 + +无。 **代码示例** @@ -104,12 +105,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -139,9 +141,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -166,9 +168,9 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -177,7 +179,8 @@ set_lr(value) value (float) - 需要设置的学习率的值。 **返回** -None + +无。 **代码示例** @@ -205,13 +208,14 @@ None get_lr() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 **返回** + float,当前步骤的学习率。 diff --git a/docs/api/paddle/optimizer/Lamb_cn.rst b/docs/api/paddle/optimizer/Lamb_cn.rst index 88254f79c57..065ae5f6913 100755 --- a/docs/api/paddle/optimizer/Lamb_cn.rst +++ b/docs/api/paddle/optimizer/Lamb_cn.rst @@ -7,7 +7,7 @@ Lamb -LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器旨在不降低精度的前提下增大训练的批量大小,其支持自适应的逐元素更新和精确的分层校正。更多信息请参考 `Large Batch Optimization for Deep Learning: Training BERT in 76 minutes ` 。 参数更新如下: +LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器旨在不降低精度的前提下增大训练的批量大小,其支持自适应的逐元素更新和精确的分层校正。参数更新如下: .. math:: m_t=\beta_1*m_{t-1} + (1-\beta_1)*g_t @@ -24,18 +24,20 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 其中 :math:`m` 表示第一个动量,:math:`v` 代表第二个动量,:math:`\eta` 代表学习率,:math:`\lambda` 代表LAMB的权重学习率。 +相关论文:`Large Batch Optimization for Deep Learning: Training BERT in 76 minutes `_ + 参数 :::::::::::: - - **learning_rate** (float|Tensor, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个Tensor,默认值为0.001 + - **learning_rate** (float|Tensor,可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个Tensor,默认值为0.001。 - **lamb_weight_decay** (float,可选) – LAMB权重衰减率。默认值为0.01。 - - **beta1** (float, 可选) - 第一个动量估计的指数衰减率。默认值为0.9。 - - **beta2** (float, 可选) - 第二个动量估计的指数衰减率。默认值为0.999。 - - **epsilon** (float, 可选) - 保持数值稳定性的短浮点类型值,默认值为1e-06 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。默认值为None,此时将不进行梯度裁剪。 + - **beta1** (float,可选) - 第一个动量估计的指数衰减率。默认值为0.9。 + - **beta2** (float,可选) - 第二个动量估计的指数衰减率。默认值为0.999。 + - **epsilon** (float,可选) - 保持数值稳定性的短浮点类型值,默认值为1e-06。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。默认值为None,此时将不进行梯度裁剪。 - **exclude_from_weight_decay_fn** (function) - 当某个参数作为输入该函数返回值为 True 时,为该参数跳过权重衰减。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 .. note:: 目前 ``Lamb`` 不支持 Sparse Parameter Optimization(稀疏参数优化)。 @@ -63,15 +65,15 @@ LAMB(Layer-wise Adaptive Moments optimizer for Batching training)优化器 step() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 +无。 **代码示例** @@ -97,12 +99,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 **代码示例** @@ -131,9 +134,8 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** - - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +.. note:: +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -158,9 +160,9 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -169,7 +171,8 @@ set_lr(value) value (float) - 需要设置的学习率的值。 **返回** -None + +无。 **代码示例** @@ -197,13 +200,14 @@ None get_lr() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 **返回** + float,当前步骤的学习率。 diff --git a/docs/api/paddle/optimizer/Momentum_cn.rst b/docs/api/paddle/optimizer/Momentum_cn.rst index f2d9c27f293..ce1e2fdc2f0 100644 --- a/docs/api/paddle/optimizer/Momentum_cn.rst +++ b/docs/api/paddle/optimizer/Momentum_cn.rst @@ -6,7 +6,7 @@ Momentum .. py:class:: paddle.optimizer.Momentum(learning_rate=0.001, momentum=0.9, parameters=None, use_nesterov=False, weight_decay=None, grad_clip=None, name=None) -该接口实现含有速度状态的Simple Momentum 优化器 +该接口实现含有速度状态的Simple Momentum 优化器。 该优化器含有牛顿动量标志,公式更新如下: @@ -23,14 +23,14 @@ Momentum 参数 :::::::::::: - - **learning_rate** (float|_LRScheduler, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - - **momentum** (float, 可选) - 动量因子。 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - - **use_nesterov** (bool, 可选) - 赋能牛顿动量,默认值False。 - - **weight_decay** (float|Tensor, 可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **learning_rate** (float|_LRScheduler,可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001。 + - **momentum** (float,可选) - 动量因子。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **use_nesterov** (bool,可选) - 赋能牛顿动量,默认值False。 + - **weight_decay** (float|Tensor,可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 @@ -56,15 +56,15 @@ Momentum step() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 +无。 **代码示例** @@ -88,12 +88,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 @@ -119,9 +120,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -144,8 +145,8 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 diff --git a/docs/api/paddle/optimizer/Optimizer_cn.rst b/docs/api/paddle/optimizer/Optimizer_cn.rst index 103be170215..90eb959c6c7 100755 --- a/docs/api/paddle/optimizer/Optimizer_cn.rst +++ b/docs/api/paddle/optimizer/Optimizer_cn.rst @@ -12,14 +12,14 @@ Optimizer 参数 :::::::::::: - - **learning_rate** (float|_LRSeduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **learning_rate** (float|_LRSeduler) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 :ref:`cn_api_fluid_regularizer_L2Decay` 。如果一个参数已经在 :ref:`cn_api_fluid_ParamAttr` 中设置了正则化,这里的正则化设置将被忽略; 如果没有在 :ref:`cn_api_fluid_ParamAttr` 中设置正则化,这里的设置才会生效。默认值为None,表示没有正则化。 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 代码示例 @@ -47,14 +47,15 @@ Optimizer step() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 + +无。 **代码示例** @@ -82,12 +83,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 @@ -117,9 +119,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -144,9 +146,9 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -155,7 +157,8 @@ set_lr(value) value (float) - 需要设置的学习率的值。 **返回** -None + +无。 **代码示例** @@ -183,13 +186,14 @@ None get_lr() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 **返回** + float,当前步骤的学习率。 diff --git a/docs/api/paddle/optimizer/RMSProp_cn.rst b/docs/api/paddle/optimizer/RMSProp_cn.rst index ab319cf3f89..84ec33b5d4e 100755 --- a/docs/api/paddle/optimizer/RMSProp_cn.rst +++ b/docs/api/paddle/optimizer/RMSProp_cn.rst @@ -8,7 +8,7 @@ RMSProp -该接口实现均方根传播(RMSProp)法,是一种未发表的,自适应学习率的方法。原演示幻灯片中提出了RMSProp:[http://www.cs.toronto.edu/~tijmen/csc321/slides/lecture_slides_lec6.pdf]中的第29张。等式如下所示: +该接口实现均方根传播(RMSProp)法,是一种未发表的,自适应学习率的方法。原演示幻灯片中的第29张提出了 `RMSProp`_。等式如下所示: .. math:: r(w, t) & = \rho r(w, t-1) + (1 - \rho)(\nabla Q_{i}(w))^2\\ @@ -39,18 +39,14 @@ RMSProp - **epsilon** (float,可选) - 等式中的epsilon是平滑项,避免被零除,默认值1e-6。 - **momentum** (float,可选) - 方程中的β是动量项,默认值0.0。 - **centered** (bool,可选) - 如果为True,则通过梯度的估计方差,对梯度进行归一化;如果False,则由未centered的第二个moment归一化。将此设置为True有助于模型训练,但会消耗额外计算和内存资源。默认为False。 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 :ref:`cn_api_fluid_regularizer_L2Decay` 。如果一个参数已经在 :ref:`cn_api_fluid_ParamAttr` 中设置了正则化,这里的正则化设置将被忽略; 如果没有在 :ref:`cn_api_fluid_ParamAttr` 中设置正则化,这里的设置才会生效。默认值为None,表示没有正则化。 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选) - 可选的名称前缀,一般无需设置,默认值为None。 + - **name** (str,可选) - 可选的名称前缀,一般无需设置,默认值为None。 -抛出异常 -:::::::::::: - - - ``ValueError`` -如果 ``learning_rate`` , ``rho`` , ``epsilon`` , ``momentum`` 为None。 代码示例 :::::::::::: @@ -76,14 +72,15 @@ RMSProp step() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 + +无。 **代码示例** @@ -107,12 +104,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 @@ -137,9 +135,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_gradients() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -162,9 +160,9 @@ clear_gradients() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -173,7 +171,8 @@ set_lr(value) value (float) - 需要设置的学习率的值。 **返回** -None + +无。 **代码示例** @@ -201,13 +200,14 @@ None get_lr() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 **返回** + float,当前步骤的学习率。 diff --git a/docs/api/paddle/optimizer/SGD_cn.rst b/docs/api/paddle/optimizer/SGD_cn.rst index 9e7430ba65a..bb548c227f2 100644 --- a/docs/api/paddle/optimizer/SGD_cn.rst +++ b/docs/api/paddle/optimizer/SGD_cn.rst @@ -5,7 +5,7 @@ SGD .. py:class:: paddle.optimizer.SGD(learning_rate=0.001, parameters=None, weight_decay=None, grad_clip=None, name=None) -该接口实现随机梯度下降算法的优化器 +该接口实现随机梯度下降算法的优化器。 .. math:: \\param\_out=param-learning\_rate*grad\\ @@ -16,12 +16,12 @@ SGD 参数 :::::::::::: - - **learning_rate** (float|_LRScheduler, 可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001 - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - - **weight_decay** (float|Tensor, 可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **learning_rate** (float|_LRScheduler,可选) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个_LRScheduler类,默认值为0.001。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **weight_decay** (float|Tensor,可选) - 权重衰减系数,是一个float类型或者shape为[1] ,数据类型为float32的Tensor类型。默认值为0.01。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None + - **name** (str,可选)- 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 @@ -48,16 +48,15 @@ SGD step() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 **返回** -None。 - +无。 **代码示例** @@ -80,12 +79,13 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) **参数** - - **loss** (Tensor) – 需要最小化的损失值变量 - - **startup_program** (Program, 可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameters** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - - **no_grad_set** (set, 可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None + - **loss** (Tensor) – 需要最小化的损失值变量。 + - **startup_program** (Program,可选) – 用于初始化parameters中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program`。 + - **parameters** (list,可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter。 + - **no_grad_set** (set,可选) – 不需要更新的Parameter或者Parameter.name组成的集合,默认值为None。 **返回** + tuple(optimize_ops, params_grads),其中optimize_ops为参数优化OP列表;param_grads为由(param, param_grad)组成的列表,其中param和param_grad分别为参数和参数的梯度。在静态图模式下,该返回值可以加入到 ``Executor.run()`` 接口的 ``fetch_list`` 参数中,若加入,则会重写 ``use_prune`` 参数为True,并根据 ``feed`` 和 ``fetch_list`` 进行剪枝,详见 ``Executor`` 的文档。 @@ -111,9 +111,9 @@ minimize(loss, startup_program=None, parameters=None, no_grad_set=None) clear_grad() ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -137,9 +137,9 @@ clear_grad() set_lr(value) ''''''''' -**注意:** +.. note:: - **1. 该API只在** `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ **模式下生效** +该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 diff --git a/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst b/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst index 76cf8ac4c64..2d4884e1791 100644 --- a/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/CosineAnnealingDecay_cn.rst @@ -18,16 +18,17 @@ CosineAnnealingDecay \end{aligned} -:math:`\eta_{max}` 的初始值为 ``learning_rate``, :math:`T_{cur}` 是SGDR(重启训练SGD)训练过程中的当前训练轮数。SGDR的训练方法可以参考文档 `SGDR: Stochastic Gradient Descent with Warm Restarts `_. +:math:`\eta_{max}` 的初始值为 ``learning_rate``, :math:`T_{cur}` 是SGDR(重启训练SGD)训练过程中的当前训练轮数。SGDR的训练方法可以参考论文, 这里只是实现了 ``cosine annealing`` 动态学习率,热启训练部分没有实现。 +相关论文: `SGDR: Stochastic Gradient Descent with Warm Restarts `_ 参数 :::::::::::: - **learning_rate** (float) - 初始学习率,也就是公式中的 :math:`\eta_{max}` ,数据类型为Python float。 - **T_max** (float|int) - 训练的上限轮数,是余弦衰减周期的一半。 - - **eta_min** (float|int, 可选) - 学习率的最小值,即公式中的 :math:`\eta_{min}` 。默认值为0。 + - **eta_min** (float|int,可选) - 学习率的最小值,即公式中的 :math:`\eta_{min}` 。默认值为0。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 diff --git a/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst b/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst index 1f92fc72e22..5ef23c9c4e4 100644 --- a/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/ExponentialDecay_cn.rst @@ -89,11 +89,10 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** - 参照上述示例代码。 +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst b/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst index 5ec824ee419..9212b693e35 100644 --- a/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/InverseTimeDecay_cn.rst @@ -90,9 +90,8 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** - 参照上述示例代码。 +参照上述示例代码。 \ No newline at end of file diff --git a/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst b/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst index d95fc04bc90..8c3be86cfc8 100644 --- a/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst +++ b/docs/api/paddle/optimizer/lr/LRScheduler_cn.rst @@ -9,31 +9,31 @@ LRScheduler 目前在paddle中基于该基类,已经实现了12种策略,分别为: -* :code:`NoamDecay`: 诺姆衰减,相关算法请参考 `《Attention Is All You Need》 `_ 。请参考 :ref:`cn_api_paddle_optimizer_lr_NoamDecay` +* :code:`NoamDecay`: 诺姆衰减,相关算法请参考 `《Attention Is All You Need》 `_ 。请参考 :ref:`cn_api_paddle_optimizer_lr_NoamDecay`。 -* :code:`ExponentialDecay`: 指数衰减,即每次将当前学习率乘以给定的衰减率得到下一个学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_ExponentialDecay` +* :code:`ExponentialDecay`: 指数衰减,即每次将当前学习率乘以给定的衰减率得到下一个学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_ExponentialDecay`。 -* :code:`NaturalExpDecay`: 自然指数衰减,即每次将当前学习率乘以给定的衰减率的自然指数得到下一个学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_NaturalExpDecay` +* :code:`NaturalExpDecay`: 自然指数衰减,即每次将当前学习率乘以给定的衰减率的自然指数得到下一个学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_NaturalExpDecay`。 -* :code:`InverseTimeDecay`: 逆时间衰减,即得到的学习率与当前衰减次数成反比。请参考 :ref:`cn_api_paddle_optimizer_lr_InverseTimeDecay` +* :code:`InverseTimeDecay`: 逆时间衰减,即得到的学习率与当前衰减次数成反比。请参考 :ref:`cn_api_paddle_optimizer_lr_InverseTimeDecay`。 -* :code:`PolynomialDecay`: 多项式衰减,即得到的学习率为初始学习率和给定最终学习之间由多项式计算权重定比分点的插值。请参考 :ref:`cn_api_paddle_optimizer_lr_PolynomialDecay` +* :code:`PolynomialDecay`: 多项式衰减,即得到的学习率为初始学习率和给定最终学习之间由多项式计算权重定比分点的插值。请参考 :ref:`cn_api_paddle_optimizer_lr_PolynomialDecay`。 -* :code:`PiecewiseDecay`: 分段衰减,即由给定step数分段呈阶梯状衰减,每段内学习率相同。请参考 :ref:`cn_api_paddle_optimizer_lr_PiecewiseDecay` +* :code:`PiecewiseDecay`: 分段衰减,即由给定step数分段呈阶梯状衰减,每段内学习率相同。请参考 :ref:`cn_api_paddle_optimizer_lr_PiecewiseDecay`。 -* :code:`CosineAnnealingDecay`: 余弦式衰减,即学习率随step数变化呈余弦函数周期变化。请参考 :ref:`cn_api_paddle_optimizer_lr_CosineAnnealingDecay` +* :code:`CosineAnnealingDecay`: 余弦式衰减,即学习率随step数变化呈余弦函数周期变化。请参考 :ref:`cn_api_paddle_optimizer_lr_CosineAnnealingDecay`。 -* :code:`LinearWarmup`: 学习率随step数线性增加到指定学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_LinearWarmup` +* :code:`LinearWarmup`: 学习率随step数线性增加到指定学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_LinearWarmup`。 -* :code:`StepDecay`: 学习率每隔固定间隔的step数进行衰减,需要指定step的间隔数。请参考 :ref:`cn_api_paddle_optimizer_lr_StepDecay` +* :code:`StepDecay`: 学习率每隔固定间隔的step数进行衰减,需要指定step的间隔数。请参考 :ref:`cn_api_paddle_optimizer_lr_StepDecay`。 -* :code:`MultiStepDecay`: 学习率在特定的step数时进行衰减,需要指定衰减时的节点位置。请参考 :ref:`cn_api_paddle_optimizer_lr_MultiStepDecay` +* :code:`MultiStepDecay`: 学习率在特定的step数时进行衰减,需要指定衰减时的节点位置。请参考 :ref:`cn_api_paddle_optimizer_lr_MultiStepDecay`。 -* :code:`LambdaDecay`: 学习率根据自定义的lambda函数进行衰减。请参考 :ref:`cn_api_paddle_optimizer_lr_LambdaDecay` +* :code:`LambdaDecay`: 学习率根据自定义的lambda函数进行衰减。请参考 :ref:`cn_api_paddle_optimizer_lr_LambdaDecay`。 -* :code:`ReduceOnPlateau`: 学习率根据当前监控指标(一般为loss)来进行自适应调整,当loss趋于稳定时衰减学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_ReduceOnPlateau` +* :code:`ReduceOnPlateau`: 学习率根据当前监控指标(一般为loss)来进行自适应调整,当loss趋于稳定时衰减学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_ReduceOnPlateau`。 -* :code:`MultiplicativeDecay`: 每次将当前学习率乘以lambda函数得到下一个学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_MultiplicativeDecay` +* :code:`MultiplicativeDecay`: 每次将当前学习率乘以lambda函数得到下一个学习率。请参考 :ref:`cn_api_paddle_optimizer_lr_MultiplicativeDecay`。 你可以继承该基类实现任意的学习率策略,导出基类的方法为 ``form paddle.optimizer.lr import LRScheduler`` , 必须要重写该基类的 ``get_lr()`` 函数,否则会抛出 ``NotImplementedError`` 异常。 @@ -41,7 +41,7 @@ LRScheduler 参数 :::::::::::: - - **learning_rate** (float, 可选) - 初始学习率,数据类型为Python float。 + - **learning_rate** (float,可选) - 初始学习率,数据类型为Python float。 - **last_epoch** (int,可选) - 上一轮的轮数,重启训练时设置为上一轮的epoch数。默认值为 -1,则为初始学习率。 - **verbose** (bool,可选) - 如果是 ``True`` ,则在每一轮更新时在标准输出 `stdout` 输出一条信息。默认值为 ``False`` 。 @@ -93,10 +93,10 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 - **epoch** (int,可选)- 指定具体的epoch数。默认值None,此时将会从-1自动累加 ``epoch`` 数。 **返回** + 无。 -代码示例 : -:::::::::::: +**代码示例** 请参考 ``基类LRScheduler`` 的任意子类实现,这里以 ``StepLR`` 为例进行了示例: diff --git a/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst b/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst index a4c77a2e57f..83c30093483 100644 --- a/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/LambdaDecay_cn.rst @@ -95,10 +95,8 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: - - 参照上述示例代码。 +**代码示例** +参照上述示例代码。 \ No newline at end of file diff --git a/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst b/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst index 3f4b9476099..c00565e859e 100644 --- a/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst +++ b/docs/api/paddle/optimizer/lr/LinearWarmup_cn.rst @@ -101,11 +101,9 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: - - 参照上述示例代码。 +**代码示例** +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst b/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst index ebd86cbcedc..622ba51f47d 100644 --- a/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/MultiStepDecay_cn.rst @@ -5,7 +5,7 @@ MultiStepDecay .. py:class:: paddle.optimizer.lr.MultiStepDecay(learning_rate, milestones, gamma=0.1, last_epoch=-1, verbose=False) -该接口提供一种学习率按 `指定轮数` 进行衰减的策略。 +该接口提供一种学习率按 **指定轮数** 进行衰减的策略。 衰减过程可以参考以下代码: @@ -97,10 +97,8 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: - - 参照上述示例代码。 +**代码示例** +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst b/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst index 8a58f15a800..9a4e7bc83fc 100644 --- a/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/MultiplicativeDecay_cn.rst @@ -68,10 +68,10 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** + +参照上述示例代码。 - 参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst b/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst index 44fda97cac1..ae6bc9b50c3 100644 --- a/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/NaturalExpDecay_cn.rst @@ -88,10 +88,9 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** - 参照上述示例代码。 +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst b/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst index 8ec6444fbb8..3fc9db9f37f 100644 --- a/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/NoamDecay_cn.rst @@ -14,7 +14,7 @@ Noam衰减的计算方式如下: new\_learning\_rate = learning\_rate * d_{model}^{-0.5} * min(epoch^{-0.5}, epoch * warmup\_steps^{-1.5}) -关于Noam衰减的更多细节请参考 `attention is all you need `_ +相关论文: `attention is all you need `_ 。 参数 :::::::::::: @@ -94,11 +94,9 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: - - 参照上述示例代码。 +**代码示例** +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst b/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst index c3360f13eb0..3e45e907271 100644 --- a/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/PiecewiseDecay_cn.rst @@ -96,9 +96,8 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** - 参照上述示例代码。 +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst b/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst index 58bbb1b18d2..665bec44ac8 100644 --- a/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/PolynomialDecay_cn.rst @@ -104,10 +104,9 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** - 参照上述示例代码。 +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst b/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst index d2afea25478..5af6783692f 100644 --- a/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst +++ b/docs/api/paddle/optimizer/lr/ReduceOnPlateau_cn.rst @@ -16,7 +16,7 @@ ReduceOnPlateau :::::::::::: - **learning_rate** (float) - 初始学习率,数据类型为Python float。 - - **mode** (str,可选) - ``'min'`` 和 ``'max'`` 之一。通常情况下,为 ``'min'`` ,此时当 ``loss`` 停止下降时学习率将衰减。默认:``'min'`` 。 (注意:仅在特殊用法时,可以将其设置为 ``'max'`` ,此时判断逻辑相反, ``loss`` 停止上升学习率才衰减) + - **mode** (str,可选) - ``'min'`` 和 ``'max'`` 之一。通常情况下,为 ``'min'`` ,此时当 ``loss`` 停止下降时学习率将衰减。默认:``'min'`` 。 (注意:仅在特殊用法时,可以将其设置为 ``'max'`` ,此时判断逻辑相反, ``loss`` 停止上升学习率才衰减)。 - **factor** (float,可选) - 学习率衰减的比例。``new_lr = origin_lr * factor`` ,它是值小于1.0的float型数字,默认: 0.1。 - **patience** (int,可选) - 当 ``loss`` 连续 ``patience`` 个epoch没有下降(对应mode: 'min')或上升(对应mode: 'max')时,学习率才会衰减。默认:10。 - **threshold** (float,可选) - ``threshold`` 和 ``threshold_mode`` 两个参数将会决定 ``loss`` 最小变化的阈值。小于该阈值的变化将会被忽视。默认:1e-4。 @@ -95,8 +95,8 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,其根 **返回** - 无 +无。 **代码示例** - 参照上述示例代码。 +参照上述示例代码。 diff --git a/docs/api/paddle/optimizer/lr/StepDecay_cn.rst b/docs/api/paddle/optimizer/lr/StepDecay_cn.rst index 2f767249eab..44acade22b6 100644 --- a/docs/api/paddle/optimizer/lr/StepDecay_cn.rst +++ b/docs/api/paddle/optimizer/lr/StepDecay_cn.rst @@ -97,10 +97,9 @@ step函数需要在优化器的 `optimizer.step()` 函数之后调用,调用 **返回** - 无。 +无。 -代码示例 : -:::::::::::: +**代码示例** - 参照上述示例代码。 +参照上述示例代码。 From 56caab53fd5839c5f6541fc01d7133eab5d698b8 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 10:55:22 +0800 Subject: [PATCH 088/107] update profiler®ularizer docs --- docs/api/paddle/profiler/ProfilerState_cn.rst | 4 ++- .../api/paddle/profiler/ProfilerTarget_cn.rst | 8 +++-- docs/api/paddle/profiler/Profiler_cn.rst | 30 +++++++++++-------- docs/api/paddle/profiler/RecordEvent_cn.rst | 4 +-- docs/api/paddle/profiler/SortedKeys_cn.rst | 20 +++++++------ .../profiler/export_chrome_tracing_cn.rst | 4 +-- .../paddle/profiler/export_protobuf_cn.rst | 4 +-- .../api/paddle/profiler/make_scheduler_cn.rst | 21 ++++++++----- docs/api/paddle/regularizer/L1Decay_cn.rst | 15 +++++----- docs/api/paddle/regularizer/L2Decay_cn.rst | 14 ++++----- 10 files changed, 70 insertions(+), 54 deletions(-) diff --git a/docs/api/paddle/profiler/ProfilerState_cn.rst b/docs/api/paddle/profiler/ProfilerState_cn.rst index 20a4e81b25f..dc1e4252d1c 100644 --- a/docs/api/paddle/profiler/ProfilerState_cn.rst +++ b/docs/api/paddle/profiler/ProfilerState_cn.rst @@ -8,7 +8,9 @@ ProfilerState ProfilerState枚举类用来表示 :ref:`性能分析器 ` 的状态。 -状态说明如下: +状态说明 +:::::::::::: + - **ProfilerState.CLOSED** - 性能分析器处于"关闭"状态,不收集任何性能数据。 - **ProfilerState.READY** - 性能分析器处于"准备"状态,性能分析器开启,但是不做数据记录,该状态主要为了减少性能分析器初始化时的开销对所收集的性能数据的影响。 - **ProfilerState.RECORD** - 性能分析器处于"记录"状态,性能分析器正常工作,并且记录性能数据。 diff --git a/docs/api/paddle/profiler/ProfilerTarget_cn.rst b/docs/api/paddle/profiler/ProfilerTarget_cn.rst index 5fcbcefe2af..c087e304046 100644 --- a/docs/api/paddle/profiler/ProfilerTarget_cn.rst +++ b/docs/api/paddle/profiler/ProfilerTarget_cn.rst @@ -8,6 +8,8 @@ ProfilerTarget ProfilerTarget枚举类用来指定 :ref:`性能分析 ` 的设备。目前仅支持CPU和GPU。 -设备说明如下: - - **ProfilerTarget.CPU** - 性能分析对象为CPU上的活动 - - **ProfilerTarget.GPU** - 性能分析对象为GPU上的活动 \ No newline at end of file +设备说明 +:::::::::::: + + - **ProfilerTarget.CPU** - 性能分析对象为CPU上的活动。 + - **ProfilerTarget.GPU** - 性能分析对象为GPU上的活动。 \ No newline at end of file diff --git a/docs/api/paddle/profiler/Profiler_cn.rst b/docs/api/paddle/profiler/Profiler_cn.rst index 62c1100612f..238e3ae099e 100644 --- a/docs/api/paddle/profiler/Profiler_cn.rst +++ b/docs/api/paddle/profiler/Profiler_cn.rst @@ -10,22 +10,28 @@ Profiler 参数 ::::::::: - - **targets** (list, 可选) - 指定性能分析所要分析的设备,默认会自动分析所有存在且支持的设备,当前为CPU和GPU(可选值见 :ref:`ProfilerState ` )。 - - **scheduler** (Callable|tuple, 可选) - 如果是Callable对象,代表是性能分析器状态的调度器,该调度器会接受一个step_num参数并返回相应的状态(详情见 :ref:`状态说明 ` ),可以通过 :ref:`make_scheduler ` 接口生成调度器。如果没有设置这个参数(None),默认的调度器会一直让性能分析器保持RECORD状态到结束。如果是tuple类型, 有两个值start_batch和end_batch,则会在[start_batch, end_batch)(前闭后开区间)内处于RECORD状态进行性能分析。 - - **on_trace_ready** (Callable, 可选) - 处理性能分析器的回调函数,该回调函数接受Profiler对象作为参数,提供了一种自定义后处理的方式。当性能分析器处于RECORD_AND_RETURN状态或者结束时返回性能数据,将会调用该回调函数进行处理,默认为 :ref:`export_chrome_tracing ` (./profiler_log/)。 + - **targets** (list,可选) - 指定性能分析所要分析的设备,默认会自动分析所有存在且支持的设备,当前为CPU和GPU(可选值见 :ref:`ProfilerState ` )。 + - **scheduler** (Callable|tuple,可选) - 如果是Callable对象,代表是性能分析器状态的调度器,该调度器会接受一个step_num参数并返回相应的状态(详情见 :ref:`状态说明 ` ),可以通过 :ref:`make_scheduler ` 接口生成调度器。如果没有设置这个参数(None),默认的调度器会一直让性能分析器保持RECORD状态到结束。如果是tuple类型, 有两个值start_batch和end_batch,则会在[start_batch, end_batch)(前闭后开区间)内处于RECORD状态进行性能分析。 + - **on_trace_ready** (Callable,可选) - 处理性能分析器的回调函数,该回调函数接受Profiler对象作为参数,提供了一种自定义后处理的方式。当性能分析器处于RECORD_AND_RETURN状态或者结束时返回性能数据,将会调用该回调函数进行处理,默认为 :ref:`export_chrome_tracing ` (./profiler_log/)。 -代码示例 +代码示例 1 :::::::::: -1. 性能分析 batch [2, 5) +性能分析 batch [2, 5) COPY-FROM: paddle.profiler.Profiler:code-example1 -2. 性能分析 batch [2,4], [7, 9], [11,13] +代码示例 2 +:::::::::: + +性能分析 batch [2,4], [7, 9], [11,13] COPY-FROM: paddle.profiler.Profiler:code-example2 -3. 使用全部默认参数,且脱离环境管理器的用法,性能分析整个运行过程 +代码示例 3 +:::::::::: + +使用全部默认参数,且脱离环境管理器的用法,性能分析整个运行过程 COPY-FROM: paddle.profiler.Profiler:code-example3 @@ -72,7 +78,7 @@ export(path, format="json") **参数** - **path** (str) – 性能数据导出的文件名。 - - **format** (str, 可选) – 性能数据导出的格式,目前支持"json"和"pb"两种。即"json"为导出chrome tracing文件,"pb"为导出protobuf文件,默认值为"json"。 + - **format** (str,可选) – 性能数据导出的格式,目前支持"json"和"pb"两种。即"json"为导出chrome tracing文件,"pb"为导出protobuf文件,默认值为"json"。 **代码示例** @@ -88,10 +94,10 @@ summary(sorted_by=SortedKeys.CPUTotal, op_detail=True, thread_sep=False, time_un **参数** - - **sorted_by** ( :ref:`SortedKeys ` , 可选) – 表单的数据项排列方式, 默认值SortedKeys.CPUTotal。 - - **op_detail** (bool, 可选) – 是否打印算子内各过程的详细信息,默认值True。 - - **thread_sep** (bool, 可选) - 是否分线程打印,默认值False。 - - **time_unit** (str, 可选) - 表单数据的时间单位,默认为'ms', 可选's', 'us', 'ns'。 + - **sorted_by** ( :ref:`SortedKeys `,可选) – 表单的数据项排列方式,默认值SortedKeys.CPUTotal。 + - **op_detail** (bool,可选) – 是否打印算子内各过程的详细信息,默认值True。 + - **thread_sep** (bool,可选) - 是否分线程打印,默认值False。 + - **time_unit** (str,可选) - 表单数据的时间单位,默认为'ms',可选's'、'us'、'ns'。 **代码示例** diff --git a/docs/api/paddle/profiler/RecordEvent_cn.rst b/docs/api/paddle/profiler/RecordEvent_cn.rst index b84783ae485..442cefbd6ef 100644 --- a/docs/api/paddle/profiler/RecordEvent_cn.rst +++ b/docs/api/paddle/profiler/RecordEvent_cn.rst @@ -12,14 +12,14 @@ RecordEvent ::::::::: - **name** (str) - 记录打点的名字。 - - **event_type** (TracerEventType, 可选) - 可选参数,默认值为TracerEventType.UserDefined。该参数预留为内部使用,最好不要指定该参数。 + - **event_type** (TracerEventType,可选) - 可选参数,默认值为TracerEventType.UserDefined。该参数预留为内部使用,最好不要指定该参数。 代码示例 :::::::::: COPY-FROM: paddle.profiler.RecordEvent:code-example1 -注意: +.. note:: RecordEvent只有在 :ref:`性能分析器 ` 处于RECORD状态才会生效。 方法 diff --git a/docs/api/paddle/profiler/SortedKeys_cn.rst b/docs/api/paddle/profiler/SortedKeys_cn.rst index 5f9cfce0ae0..62b17b96d29 100644 --- a/docs/api/paddle/profiler/SortedKeys_cn.rst +++ b/docs/api/paddle/profiler/SortedKeys_cn.rst @@ -8,14 +8,16 @@ SortedKeys SortedKeys枚举类用来指定打印的统计 :ref:`表单 ` 内数据的排序方式。 -排序方式说明如下: - - **SortedKeys.CPUTotal** - 按活动的CPU总时间排序 - - **SortedKeys.CPUAvg** - 按活动的CPU平均时间排序 - - **SortedKeys.CPUMax** - 按活动的CPU上最大时间排序 - - **SortedKeys.CPUMin** - 按活动的CPU上最小时间排序 - - **SortedKeys.GPUTotal** - 按活动的GPU总时间排序 - - **SortedKeys.GPUAvg** - 按活动的GPU平均时间排序 - - **SortedKeys.GPUMax** - 按活动的GPU上最大时间排序 - - **SortedKeys.GPUMin** - 按活动的GPU上最小时间排序 +排序方式说明 +:::::::::::: + + - **SortedKeys.CPUTotal** - 按活动的CPU总时间排序。 + - **SortedKeys.CPUAvg** - 按活动的CPU平均时间排序。 + - **SortedKeys.CPUMax** - 按活动的CPU上最大时间排序。 + - **SortedKeys.CPUMin** - 按活动的CPU上最小时间排序。 + - **SortedKeys.GPUTotal** - 按活动的GPU总时间排序。 + - **SortedKeys.GPUAvg** - 按活动的GPU平均时间排序。 + - **SortedKeys.GPUMax** - 按活动的GPU上最大时间排序。 + - **SortedKeys.GPUMin** - 按活动的GPU上最小时间排序。 diff --git a/docs/api/paddle/profiler/export_chrome_tracing_cn.rst b/docs/api/paddle/profiler/export_chrome_tracing_cn.rst index b54fe83d85a..449198ff8c2 100644 --- a/docs/api/paddle/profiler/export_chrome_tracing_cn.rst +++ b/docs/api/paddle/profiler/export_chrome_tracing_cn.rst @@ -13,12 +13,12 @@ export_chrome_tracing ::::::::: - **dir_name** (str) - 性能数据导出所保存到的文件夹路径。 - - **worker_name** (str, 可选) - 性能数据导出所保存到的文件名前缀,默认是[hostname]_[pid]。 + - **worker_name** (str,可选) - 性能数据导出所保存到的文件名前缀,默认是[hostname]_[pid]。 返回 ::::::::: -回调函数(callable), 该函数会接收一个参数prof(Profiler对象),调用prof的export方法保存采集到的性能数据到chrome tracing文件。 +回调函数(callable),该函数会接收一个参数prof(Profiler对象),调用prof的export方法保存采集到的性能数据到chrome tracing文件。 代码示例 :::::::::: diff --git a/docs/api/paddle/profiler/export_protobuf_cn.rst b/docs/api/paddle/profiler/export_protobuf_cn.rst index 3179a60470e..d56b1428595 100644 --- a/docs/api/paddle/profiler/export_protobuf_cn.rst +++ b/docs/api/paddle/profiler/export_protobuf_cn.rst @@ -13,12 +13,12 @@ export_protobuf ::::::::: - **dir_name** (str) - 性能数据导出所保存到的文件夹路径。 - - **worker_name** (str, 可选) - 性能数据导出所保存到的文件名前缀,默认是[hostname]_[pid]。 + - **worker_name** (str,可选) - 性能数据导出所保存到的文件名前缀,默认是[hostname]_[pid]。 返回 ::::::::: -回调函数(callable), 该函数会接收一个参数prof(Profiler对象),调用prof的export方法保存采集到的性能数据到protobuf文件。 +回调函数(callable),该函数会接收一个参数prof(Profiler对象),调用prof的export方法保存采集到的性能数据到protobuf文件。 代码示例 :::::::::: diff --git a/docs/api/paddle/profiler/make_scheduler_cn.rst b/docs/api/paddle/profiler/make_scheduler_cn.rst index 2cc69cb4a5c..1bdc4a4958e 100644 --- a/docs/api/paddle/profiler/make_scheduler_cn.rst +++ b/docs/api/paddle/profiler/make_scheduler_cn.rst @@ -24,25 +24,30 @@ make_scheduler - **closed** (int) - 处于ProfilerState.CLOSED状态的step数量。 - **ready** (int) - 处于ProfilerState.CLOSED状态的step数量。 - **record** (int) - 处于ProfilerState.RECORD状态的step数量, record的最后一个step会处于ProfilerState.RECORD_AND_RETURN状态。 - - **repeat** (int, 可选) - 调度器重复该状态调度过程的次数, 默认值为0, 意味着一直重复该调度过程直到性能分析器结束。 - - **skip_first** (int, 可选) - 跳过前skip_first个step,不参与状态调度,并处于ProfilerState.CLOSED状态,默认值为0。 + - **repeat** (int,可选) - 调度器重复该状态调度过程的次数, 默认值为0, 意味着一直重复该调度过程直到性能分析器结束。 + - **skip_first** (int,可选) - 跳过前skip_first个step,不参与状态调度,并处于ProfilerState.CLOSED状态,默认值为0。 返回 ::::::::: -调度函数(callable), 该函数会接收一个参数step_num,并计算返回相应的ProfilerState。调度函数会根据上述状态转换过程进行调度。 +调度函数(callable),该函数会接收一个参数step_num,并计算返回相应的ProfilerState。调度函数会根据上述状态转换过程进行调度。 -代码示例 +代码示例 1 :::::::::: -1. 性能分析 batch [2, 5]。设定 -第0个batch处于CLOSED, 第1个batch处于READY, 第[2 - 5]个batch处于RECORD,在第5个batch返回收集的性能数据。 +性能分析 batch [2, 5]。 + +设定第0个batch处于CLOSED, 第1个batch处于READY,第[2 - 5]个batch处于RECORD,在第5个batch返回收集的性能数据。 COPY-FROM: paddle.profiler.make_scheduler:code-example1 -2. 性能分析 batch [3,6], [9,12], [15, 18]... 设定 -第0个batch跳过, 第1个batch处于CLOSED, 第2个batch处于READY, 第[3 - 6]个batch处于RECORD,在第6个batch返回收集的性能数据。即第7个batch处于CLOSED,第8个batch处于READY, +代码示例 2 +:::::::::: + +性能分析 batch [3,6], [9,12], [15, 18]... + +设定第0个batch跳过, 第1个batch处于CLOSED,第2个batch处于READ,第[3 - 6]个batch处于RECORD,在第6个batch返回收集的性能数据。即第7个batch处于CLOSED,第8个batch处于READY, 第[9-12]个batch处于RECORD,并在第12个batch返回第二轮所收集到的性能数据。以此类推,直到性能分析器结束。 COPY-FROM: paddle.profiler.make_scheduler:code-example2 diff --git a/docs/api/paddle/regularizer/L1Decay_cn.rst b/docs/api/paddle/regularizer/L1Decay_cn.rst index 5811e205380..97c3d1c6480 100644 --- a/docs/api/paddle/regularizer/L1Decay_cn.rst +++ b/docs/api/paddle/regularizer/L1Decay_cn.rst @@ -4,11 +4,7 @@ L1Decay ------------------------------- -属性 -:::::::::::: -paddle.regularizer.L1Decay(coeff=0.0) -''''''''' - +.. py:attribute:: paddle.regularizer.L1Decay(coeff=0.0) L1Decay实现L1权重衰减正则化,用于模型训练,使得权重矩阵稀疏。 @@ -24,11 +20,13 @@ L1Decay实现L1权重衰减正则化,用于模型训练,使得权重矩阵 .. math:: \\loss = coeff * reduce\_sum(abs(x))\\ -**参数** +参数 +:::::::::::: - **coeff** (float) – L1正则化系数,默认值为0.0。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -51,7 +49,8 @@ L1Decay实现L1权重衰减正则化,用于模型训练,使得权重矩阵 momentum.clear_grad() -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/regularizer/L2Decay_cn.rst b/docs/api/paddle/regularizer/L2Decay_cn.rst index b9544de9337..c84325311df 100644 --- a/docs/api/paddle/regularizer/L2Decay_cn.rst +++ b/docs/api/paddle/regularizer/L2Decay_cn.rst @@ -3,10 +3,7 @@ L2Decay ------------------------------- -属性 -:::::::::::: -paddle.regularizer.L2Decay(coeff=0.0) -''''''''' +.. py:attribute:: paddle.regularizer.L2Decay(coeff=0.0) L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模型对训练数据过拟合。 @@ -23,11 +20,13 @@ L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模 .. math:: \\loss = 0.5 * coeff * reduce\_sum(square(x))\\ -**参数** +参数 +:::::::::::: - **coeff** (float) – 正则化系数,默认值为0.0。 -**代码示例 1** +代码示例 1 +:::::::::::: .. code-block:: python @@ -50,7 +49,8 @@ L2Decay实现L2权重衰减正则化,用于模型训练,有助于防止模 momentum.clear_grad() -**代码示例 2** +代码示例 2 +:::::::::::: .. code-block:: python From 909bf1619f61ba7b38c184db067412233f241203 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 11:51:34 +0800 Subject: [PATCH 089/107] update signal docs --- docs/api/paddle/signal/istft_cn.rst | 18 ------------------ docs/api/paddle/signal/stft_cn.rst | 12 ------------ 2 files changed, 30 deletions(-) diff --git a/docs/api/paddle/signal/istft_cn.rst b/docs/api/paddle/signal/istft_cn.rst index 8cd148695bf..28d0051d555 100644 --- a/docs/api/paddle/signal/istft_cn.rst +++ b/docs/api/paddle/signal/istft_cn.rst @@ -53,24 +53,6 @@ istft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``TypeError`` – 如果输入 ``x`` 的数据类型不是 ``complex64`` 或 ``complex128``. -- ``ValueError`` – 如果输入的窗函数不满足NOLA条件. -- ``AssertionError`` – 如果输入 ``x`` 的维度不为2D或者3D. -- ``AssertionError`` – 如果 ``hop_length`` 小于或等于0,或者大于 ``win_length``. -- ``AssertionError`` – 如果 ``win_length`` 小于或等于0或者大于 ``n_fft``. -- ``AssertionError`` – 如果 ``onesided`` 为 ``True``,但 ``fft_size`` 不等于 - ``n_fft//2 + 1``. -- ``AssertionError`` – 如果 ``onesided`` 为 ``False``,但 ``fft_size`` 不等于 - ``n_fft``. -- ``AssertionError`` – 如果输入的窗函数的维度不为1D或者其长度不等于 ``win_length``. -- ``AssertionError`` – 如果 ``return_complex`` 为 ``True``,但 ``onesided`` - 为 ``True``. -- ``AssertionError`` – 如果 ``return_complex`` 为 ``False``,但窗函数的数据类型为 - 复数。 - 返回 ::::::::: 逆短时傅里叶变换的结果,是重构信号的最小二乘估计Tensor,其形状为 ``[..., seq_length]``。 diff --git a/docs/api/paddle/signal/stft_cn.rst b/docs/api/paddle/signal/stft_cn.rst index f13d43f7d06..ca89dcafc31 100644 --- a/docs/api/paddle/signal/stft_cn.rst +++ b/docs/api/paddle/signal/stft_cn.rst @@ -51,18 +51,6 @@ stft - **name** (str,可选) - 输出的名字。一般无需设置,默认值为None。该参数供开发人员打印调试 信息时使用,具体用法请参见 :ref:`api_guide_Name` 。 -抛出异常 -::::::::: - -- ``TypeError`` – 如果输入 ``x`` 的数据类型不是 ``float16``, ``float32``, - ``float64``, ``complex64`` 或 ``complex128``. -- ``AssertionError`` – 如果输入 ``x`` 的维度不为1D或者2D. -- ``AssertionError`` – 如果 ``hop_length`` 小于或等于0. -- ``AssertionError`` – 如果 ``n_fft`` 小于或等于0或者大于输入信号长度。 -- ``AssertionError`` – 如果 ``win_length`` 小于或等于0或者大于 ``n_fft``. -- ``AssertionError`` – 如果输入的窗函数的维度不为1D或者其长度不等于 ``win_length``. -- ``AssertionError`` – 如果输入复信号或复窗函数,但 ``onesided`` 为 ``True``. - 返回 ::::::::: 短时傅里叶变换的结果,复数Tensor。当输入实信号和实窗函数,如果 ``onesided`` 为 ``True``, From baf24539bc3bcb370d87962252945f0112adef03 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 15:26:01 +0800 Subject: [PATCH 090/107] update static docs --- docs/api/paddle/static/BuildStrategy_cn.rst | 2 +- docs/api/paddle/static/CompiledProgram_cn.rst | 10 ++- .../paddle/static/ExecutionStrategy_cn.rst | 2 +- docs/api/paddle/static/Executor_cn.rst | 55 ++++++++------ .../static/ExponentialMovingAverage_cn.rst | 13 ++-- docs/api/paddle/static/InputSpec_cn.rst | 21 ++--- .../paddle/static/IpuCompiledProgram_cn.rst | 10 ++- docs/api/paddle/static/IpuStrategy_cn.rst | 12 ++- .../api/paddle/static/ParallelExecutor_cn.rst | 25 +++--- docs/api/paddle/static/Print_cn.rst | 24 +++--- docs/api/paddle/static/Program_cn.rst | 67 ++++++++++------ docs/api/paddle/static/Variable_cn.rst | 76 +++++++++---------- .../paddle/static/WeightNormParamAttr_cn.rst | 1 - docs/api/paddle/static/append_backward_cn.rst | 11 +-- docs/api/paddle/static/auc_cn.rst | 24 +++--- .../paddle/static/create_global_var_cn.rst | 5 +- docs/api/paddle/static/data_cn.rst | 2 +- docs/api/paddle/static/global_scope_cn.rst | 6 +- docs/api/paddle/static/gradients_cn.rst | 11 +-- docs/api/paddle/static/ipu_shard_guard_cn.rst | 2 +- docs/api/paddle/static/load_cn.rst | 3 +- .../paddle/static/load_inference_model_cn.rst | 10 +-- .../paddle/static/load_program_state_cn.rst | 4 +- docs/api/paddle/static/nn/batch_norm_cn.rst | 5 +- .../static/nn/bilinear_tensor_product_cn.rst | 5 +- docs/api/paddle/static/nn/case_cn.rst | 17 +---- docs/api/paddle/static/nn/cond_cn.rst | 2 +- docs/api/paddle/static/nn/conv2d_cn.rst | 41 +++++----- .../paddle/static/nn/conv2d_transpose_cn.rst | 41 +++++----- docs/api/paddle/static/nn/conv3d_cn.rst | 28 +++++-- .../paddle/static/nn/conv3d_transpose_cn.rst | 35 ++++++--- docs/api/paddle/static/nn/crf_decoding_cn.rst | 5 +- docs/api/paddle/static/nn/data_norm_cn.rst | 5 +- .../api/paddle/static/nn/deform_conv2d_cn.rst | 24 +++--- docs/api/paddle/static/nn/embedding_cn.rst | 10 +-- docs/api/paddle/static/nn/fc_cn.rst | 23 +++--- docs/api/paddle/static/nn/group_norm_cn.rst | 2 +- .../api/paddle/static/nn/instance_norm_cn.rst | 5 +- docs/api/paddle/static/nn/layer_norm_cn.rst | 30 ++++---- .../paddle/static/nn/multi_box_head_cn.rst | 17 +++-- docs/api/paddle/static/nn/nce_cn.rst | 19 ++--- docs/api/paddle/static/nn/prelu_cn.rst | 10 +-- docs/api/paddle/static/nn/row_conv_cn.rst | 20 +++-- .../paddle/static/nn/sequence_concat_cn.rst | 7 +- .../api/paddle/static/nn/sequence_conv_cn.rst | 21 ++--- .../static/nn/sequence_enumerate_cn.rst | 3 +- .../static/nn/sequence_expand_as_cn.rst | 3 +- .../paddle/static/nn/sequence_expand_cn.rst | 5 +- .../static/nn/sequence_first_step_cn.rst | 4 +- .../static/nn/sequence_last_step_cn.rst | 6 +- docs/api/paddle/static/nn/sequence_pad_cn.rst | 3 +- .../api/paddle/static/nn/sequence_pool_cn.rst | 7 +- .../paddle/static/nn/sequence_reshape_cn.rst | 8 +- .../paddle/static/nn/sequence_reverse_cn.rst | 5 +- .../paddle/static/nn/sequence_scatter_cn.rst | 7 +- .../paddle/static/nn/sequence_slice_cn.rst | 8 +- .../paddle/static/nn/sequence_softmax_cn.rst | 4 +- .../paddle/static/nn/sequence_unpad_cn.rst | 4 +- .../paddle/static/nn/sparse_embedding_cn.rst | 7 +- .../api/paddle/static/nn/spectral_norm_cn.rst | 8 +- docs/api/paddle/static/nn/switch_case_cn.rst | 22 +----- docs/api/paddle/static/nn/while_loop_cn.rst | 4 +- .../paddle/static/normalize_program_cn.rst | 5 -- docs/api/paddle/static/program_guard_cn.rst | 4 +- docs/api/paddle/static/py_func_cn.rst | 4 - docs/api/paddle/static/save_cn.rst | 6 +- .../paddle/static/save_inference_model_cn.rst | 9 +-- docs/api/paddle/static/save_to_file_cn.rst | 3 +- docs/api/paddle/static/scope_guard_cn.rst | 3 +- .../static/serialize_persistables_cn.rst | 7 +- .../paddle/static/serialize_program_cn.rst | 7 +- .../paddle/static/set_program_state_cn.rst | 5 +- 72 files changed, 448 insertions(+), 481 deletions(-) diff --git a/docs/api/paddle/static/BuildStrategy_cn.rst b/docs/api/paddle/static/BuildStrategy_cn.rst index 531e9fea7ca..a1708d97b0a 100644 --- a/docs/api/paddle/static/BuildStrategy_cn.rst +++ b/docs/api/paddle/static/BuildStrategy_cn.rst @@ -9,7 +9,7 @@ BuildStrategy 返回 ::::::::: -BuildStrategy,一个BuildStrategy的实例 +BuildStrategy,一个BuildStrategy的实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/static/CompiledProgram_cn.rst b/docs/api/paddle/static/CompiledProgram_cn.rst index 9dc2f9a7eb5..2d7e3743619 100644 --- a/docs/api/paddle/static/CompiledProgram_cn.rst +++ b/docs/api/paddle/static/CompiledProgram_cn.rst @@ -11,12 +11,12 @@ CompiledProgram根据 `build_strategy` 的配置将输入的Program或Graph进 参数 ::::::::: - - **program_or_graph** (Graph|Program): 该参数为被执行的Program或Graph。 - - **build_strategy** (BuildStrategy): 通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多信息,请参阅 ``fluid.BuildStrategy`` 。 默认为None。 + - **program_or_graph** (Graph|Program):该参数为被执行的Program或Graph。 + - **build_strategy** (BuildStrategy):通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多信息,请参阅 ``fluid.BuildStrategy`` 。 默认为None。 返回 ::::::::: -CompiledProgram,初始化后的 ``CompiledProgram`` 对象 +CompiledProgram,初始化后的 ``CompiledProgram`` 对象。 代码示例 :::::::::: @@ -34,6 +34,7 @@ with_data_parallel(loss_name=None, build_strategy=None, exec_strategy=None, shar 如果在构建CompiledProgram和调用with_data_parallel时都指定了build_strategy,在CompiledProgram中的build_strategy会被复写,因此,如果是数据并行训练,建议在调用with_data_parallel接口时设置build_strategy。 **参数** + - **loss_name** (str) - 该参数为模型最后得到的损失变量的名字,**注意:如果是模型训练,必须设置loss_name,否则计算结果可能会有问题。** 默认为:None。 - **build_strategy** (BuildStrategy): 通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多的信息,请参阅 ``fluid.BuildStrategy`` 。 默认为:None。 - **exec_strategy** (ExecutionStrategy) - 通过exec_strategy指定执行计算图过程可以调整的选项,例如线程池大小等。 关于exec_strategy更多信息,请参阅 ``fluid.ExecutionStrategy`` 。 默认为:None。 @@ -41,7 +42,8 @@ with_data_parallel(loss_name=None, build_strategy=None, exec_strategy=None, shar - **places** (list(CUDAPlace)|list(CPUPlace)) - 该参数指定模型运行所在的设备。如果希望在GPU0和GPU1上运行,places为[fluid.CUDAPlace(0), fluid.CUDAPlace(1)];如果希望使用2个CPU运行,places为[fluid.CPUPlace()] * 2。 如果没有设置该参数,即该参数为None,模型执行时,将从环境变量中获取可用的设备:如果使用GPU,模型执行时,从环境变量FLAGS_selected_gpus或CUDA_VISIBLE_DEVICES中获取当前可用的设备ID;如果使用CPU,模型执行时,从环境变量CPU_NUM中获取当前可利用的CPU个数。例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1。默认为:None。 **返回** -CompiledProgram,配置之后的 ``CompiledProgram`` 对象 + +CompiledProgram,配置之后的 ``CompiledProgram`` 对象。 .. note:: 1. 如果只是进行多卡测试,不需要设置loss_name以及share_vars_from。 diff --git a/docs/api/paddle/static/ExecutionStrategy_cn.rst b/docs/api/paddle/static/ExecutionStrategy_cn.rst index 73f0f9f535b..57adf2eae65 100644 --- a/docs/api/paddle/static/ExecutionStrategy_cn.rst +++ b/docs/api/paddle/static/ExecutionStrategy_cn.rst @@ -10,7 +10,7 @@ ExecutionStrategy 返回 ::::::::: -ExecutionStrategy,一个ExecutionStrategy的实例 +ExecutionStrategy,一个ExecutionStrategy的实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/static/Executor_cn.rst b/docs/api/paddle/static/Executor_cn.rst index 07dfbbefb82..854762fe580 100644 --- a/docs/api/paddle/static/Executor_cn.rst +++ b/docs/api/paddle/static/Executor_cn.rst @@ -15,11 +15,15 @@ Executor支持单GPU、多GPU以及CPU运行。 参数 :::::::::::: - - **place** (paddle.CPUPlace()|paddle.CUDAPlace(N)|None) – 该参数表示Executor执行所在的设备,这里的N为GPU对应的ID。当该参数为 `None` 时,PaddlePaddle会根据其安装版本设置默认的运行设备。当安装的Paddle为CPU版时,默认运行设置会设置成 `CPUPlace()` ,而当Paddle为GPU版时,默认运行设备会设置成 `CUDAPlace(0)` 。默认值为None。注意:多卡训练初始化Executor时也只用传入一个Place或None,其他API会处理使用的多卡,见 `多卡使用方式 `_ + - **place** (paddle.CPUPlace()|paddle.CUDAPlace(N)|None) – 该参数表示Executor执行所在的设备,这里的N为GPU对应的ID。当该参数为 `None` 时,PaddlePaddle会根据其安装版本设置默认的运行设备。当安装的Paddle为CPU版时,默认运行设置会设置成 `CPUPlace()` ,而当Paddle为GPU版时,默认运行设备会设置成 `CUDAPlace(0)` 。默认值为None。 + + +.. note:: +多卡训练初始化Executor时也只用传入一个Place或None,其他API会处理使用的多卡,见 `多卡使用方式 `_ 返回 :::::::::::: -初始化后的 ``Executor`` 对象 +初始化后的 ``Executor`` 对象。 代码示例 :::::::::::: @@ -85,7 +89,8 @@ close() 关闭执行器。该接口主要用于对于分布式训练,调用该接口后不可以再使用该执行器。该接口会释放在PServers上和目前Trainer有关联的资源。 **返回** -无 + +无。 **代码示例** @@ -118,7 +123,8 @@ run(program=None, feed=None, fetch_list=None, feed_var_name='feed', fetch_var_na - **use_prune** (bool) - 该参数表示输入Program是否会被裁剪。如果该参数为True,会根据feed和fetch_list裁剪Program,这意味着对生成fetch_list没有必要的算子和变量会被裁剪掉。默认为False,即算子和变量在运行过程不会被裁剪。注意如果Optimizer.minimize()返回的tuple被作为fetch_list参数,那么use_prune会被重载为True并且Program会被裁剪。 **返回** -返回fetch_list中指定的变量值 + +返回fetch_list中指定的变量值。 .. note:: 1. 如果是多卡训练,并且feed参数为dict类型,输入数据将被均匀分配到不同的卡上,例如:使用2块GPU训练,输入样本数为3,即[0, 1, 2],经过拆分之后,GPU0上的样本数为1,即[0],GPU1上的样本数为2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个batch的样本数是否少于当前可用的CPU核数或GPU卡数,如果是少于,建议丢弃该batch。 @@ -229,17 +235,18 @@ infer_from_dataset的文档与train_from_dataset几乎完全相同,只是在 **参数** - - **program** (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的) - - **dataset** (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的数据集。必要时请检查Dataset文件。默认为None - - **scope** (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域 - - **thread** (int) – 用户想要在这个函数中运行的线程数量。线程的实际数量为min(Dataset.thread_num, thread),如果thread > 0,默认为0 - - **debug** (bool) – 是否开启debug模式,默认为False - - **fetch_list** (Tensor List) – 返回变量列表,每个变量都会在预测过程中被打印出来,默认为None - - **fetch_info** (String List) – 每个变量的打印信息,默认为None - - **print_period** (int) – 每两次打印之间间隔的mini-batches的数量,默认为100 + - **program** (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的)。 + - **dataset** (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的数据集。必要时请检查Dataset文件。默认为None。 + - **scope** (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域。 + - **thread** (int) – 用户想要在这个函数中运行的线程数量。线程的实际数量为min(Dataset.thread_num, thread),如果thread > 0,默认为0。 + - **debug** (bool) – 是否开启debug模式,默认为False。 + - **fetch_list** (Tensor List) – 返回变量列表,每个变量都会在预测过程中被打印出来,默认为None。 + - **fetch_info** (String List) – 每个变量的打印信息,默认为None。 + - **print_period** (int) – 每两次打印之间间隔的mini-batches的数量,默认为100。 **返回** -None + +无。 **代码示例** @@ -268,21 +275,23 @@ train_from_dataset(program=None, dataset=None, scope=None, thread=0, debug=False 从预定义的数据集中训练。 数据集在paddle.fluid.dataset中定义。 给定程序(或编译程序),train_from_dataset将使用数据集中的所有数据样本。 输入范围可由用户给出。 默认情况下,范围是global_scope()。训练中的线程总数是thread。 训练中使用的线程数将是数据集中threadnum的最小值,同时也是此接口中线程的值。 可以设置debug,以便执行器显示所有算子的运行时间和当前训练任务的吞吐量。 -注意:train_from_dataset将销毁每次运行在executor中创建的所有资源。 +.. note:: +train_from_dataset将销毁每次运行在executor中创建的所有资源。 **参数** - - **program** (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的) - - **dataset** (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的数据集。必要时请检查Dataset文件。默认为None - - **scope** (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域 - - **thread** (int) – 用户想要在这个函数中运行的线程数量。线程的实际数量为min(Dataset.thread_num, thread),如果thread > 0,默认为0 - - **debug** (bool) – 是否开启debug模式,默认为False - - **fetch_list** (Tensor List) – 返回变量列表,每个变量都会在训练过程中被打印出来,默认为None - - **fetch_info** (String List) – 每个变量的打印信息,默认为None - - **print_period** (int) – 每两次打印之间间隔的mini-batches的数量,默认为100 + - **program** (Program|CompiledProgram) – 需要执行的program,如果没有给定那么默认使用default_main_program (未编译的)。 + - **dataset** (paddle.fluid.Dataset) – 在此函数外创建的数据集,用户应当在调用函数前提供完整定义的数据集。必要时请检查Dataset文件。默认为None。 + - **scope** (Scope) – 执行这个program的域,用户可以指定不同的域。默认为全局域。 + - **thread** (int) – 用户想要在这个函数中运行的线程数量。线程的实际数量为min(Dataset.thread_num, thread),如果thread > 0,默认为0。 + - **debug** (bool) – 是否开启debug模式,默认为False。 + - **fetch_list** (Tensor List) – 返回变量列表,每个变量都会在训练过程中被打印出来,默认为None。 + - **fetch_info** (String List) – 每个变量的打印信息,默认为None。 + - **print_period** (int) – 每两次打印之间间隔的mini-batches的数量,默认为100。 **返回** -None + +无。 **代码示例** diff --git a/docs/api/paddle/static/ExponentialMovingAverage_cn.rst b/docs/api/paddle/static/ExponentialMovingAverage_cn.rst index e93edd7c483..11bcc64b7dc 100644 --- a/docs/api/paddle/static/ExponentialMovingAverage_cn.rst +++ b/docs/api/paddle/static/ExponentialMovingAverage_cn.rst @@ -12,12 +12,16 @@ ExponentialMovingAverage 用 ``update()`` 方法计算出的平均结果将保存在由实例化对象创建和维护的临时变量中,并且可以通过调用 ``apply()`` 方法把结果应用于当前模型的参数。同时,可用 ``restore()`` 方法恢复原始参数。 -**偏置校正** 所有的滑动平均均初始化为 :math:`0` ,因此它们相对于零是有偏的,可以通过除以因子 :math:`(1 - \text{decay}^t)` 来校正,因此在调用 ``apply()`` 方法时,作用于参数的真实滑动平均值将为: +**偏置校正** + +所有的滑动平均均初始化为 :math:`0` ,因此它们相对于零是有偏的,可以通过除以因子 :math:`(1 - \text{decay}^t)` 来校正,因此在调用 ``apply()`` 方法时,作用于参数的真实滑动平均值将为: .. math:: \widehat{\text{EMA}}_t = \frac{\text{EMA}_t}{1 - \text{decay}^t} -**衰减率调节** 一个非常接近于1的很大的衰减率将会导致平均值滑动得很慢。更优的策略是,开始时设置一个相对较小的衰减率。参数 ``thres_steps`` 允许用户传递一个变量以设置衰减率,在这种情况下, +**衰减率调节** + +一个非常接近于1的很大的衰减率将会导致平均值滑动得很慢。更优的策略是,开始时设置一个相对较小的衰减率。参数 ``thres_steps`` 允许用户传递一个变量以设置衰减率,在这种情况下, 真实的衰减率变为: .. math:: @@ -39,27 +43,26 @@ COPY-FROM: paddle.static.ExponentialMovingAverage :::::::::::: update() ''''''''' -''''''''' 更新指数滑动平均,在训练过程中需调用此方法。 apply(executor, need_restore=True) ''''''''' -''''''''' 模型评测时,将滑动平均的结果作用在参数上。 **参数** + - **executor** (Executor) – 将滑动平均值作用在参数上的执行器。 - **need_restore** (bool,可选) – 是否在结束后恢复原始参数,默认值为 ``True`` 。 restore(executor) ''''''''' -'''''''''' 恢复参数。 **参数** + - **executor** (Executor) – 执行恢复动作的执行器。 diff --git a/docs/api/paddle/static/InputSpec_cn.rst b/docs/api/paddle/static/InputSpec_cn.rst index e81f3b493e2..02490aee403 100644 --- a/docs/api/paddle/static/InputSpec_cn.rst +++ b/docs/api/paddle/static/InputSpec_cn.rst @@ -18,11 +18,8 @@ InputSpec 返回 :::::::::::: -初始化后的 ``InputSpec`` 对象 +初始化后的 ``InputSpec`` 对象。 -返回类型 -:::::::::::: -InputSpec 代码示例 :::::::::::: @@ -50,10 +47,8 @@ from_tensor(tensor, name=None) **返回** -根据Tensor信息构造的 ``InputSpec`` 对象 -**返回类型** -InputSpec +根据Tensor信息构造的 ``InputSpec`` 对象。 **代码示例** @@ -80,10 +75,8 @@ from_numpy(ndarray, name=None) **返回** -根据ndarray信息构造的 ``InputSpec`` 对象 -**返回类型** -InputSpec +根据ndarray信息构造的 ``InputSpec`` 对象。 **代码示例** @@ -107,10 +100,8 @@ batch(batch_size) - **batch_size** (int) - 被插入的batch size整型数值 **返回** - 更新shape信息后的 ``InputSpec`` 对象 -**返回类型** -InputSpec + 更新shape信息后的 ``InputSpec`` 对象。 **代码示例** @@ -130,10 +121,8 @@ unbatch() **返回** - 更新shape信息后的 ``InputSpec`` 对象 -**返回类型** -InputSpec + 更新shape信息后的 ``InputSpec`` 对象。 **代码示例** diff --git a/docs/api/paddle/static/IpuCompiledProgram_cn.rst b/docs/api/paddle/static/IpuCompiledProgram_cn.rst index 9e006bb639a..8f6fc76a3d9 100644 --- a/docs/api/paddle/static/IpuCompiledProgram_cn.rst +++ b/docs/api/paddle/static/IpuCompiledProgram_cn.rst @@ -17,7 +17,7 @@ IpuCompiledProgram将输入的Program转换和优化成IPU所需要的形式, 返回 ::::::::: -IpuCompiledProgram,初始化后的 ``IpuCompiledProgram`` 对象 +IpuCompiledProgram,初始化后的 ``IpuCompiledProgram`` 对象。 代码示例 :::::::::: @@ -32,11 +32,13 @@ compile(self, feed_list, fetch_list) 该接口用于将Program进行编译,以便在ipu上运行。用户可以通过 `feed_list` 、`fetch_list` 传入计算图输入和输出的名字。 **参数** - - **feed_list** (list): 该参数为模型的输入变量的名字。 - - **fetch_list** (list): 模型运行之后需要返回的变量的名字。 + + - **feed_list** (list):该参数为模型的输入变量的名字。 + - **fetch_list** (list):模型运行之后需要返回的变量的名字。 **返回** -Program,编译之后的 ``Program`` 对象 + +Program,编译之后的 ``Program`` 对象。 **代码示例** diff --git a/docs/api/paddle/static/IpuStrategy_cn.rst b/docs/api/paddle/static/IpuStrategy_cn.rst index e8afbd2eb08..71bdb679ce1 100644 --- a/docs/api/paddle/static/IpuStrategy_cn.rst +++ b/docs/api/paddle/static/IpuStrategy_cn.rst @@ -12,7 +12,7 @@ IpuStrategy 返回 ::::::::: - IpuStrategy实例 +IpuStrategy实例。 代码示例 :::::::::: @@ -27,6 +27,7 @@ set_graph_config(self, num_ipus, is_training, micro_batch_size, enable_manual_sh 该接口用于向IpuStrategy实例传递IPU构图的Graph配置。 **参数** + - **num_ipus** (int,可选)- 指定IPU devices的个数,默认值为1,表示仅用一个IPU。 - **is_training** (bool,可选)- 声明是训练还是推理,默认值为True,表示使用训练模式。 - **micro_batch_size** (int,可选)- 当计算图输入的micro_batch_size可变时,指定计算图中输入micro_batch_size,默认值为1,表示如果micro_batch_size可变,将默认置1。 @@ -42,6 +43,7 @@ set_pipelining_config(self, enable_pipelining, batches_per_step, enable_gradient 该接口用于向IpuStrategy实例传递IPU构图的子图数据流水线配置。 **参数** + - **enable_pipelining** (bool,可选)- 是否使能子图之间的数据流水线。仅支持当enable_manual_shard=True时,enable_pipelining可以置为True。默认值为False,表示不使能该功能。 - **batches_per_step** (int,可选)- 指定数据流水线每次运算多少个batch的数据。默认值为1,表示不使能数据流水线功能。 - **enable_gradient_accumulation** (bool,可选)- 是否使能梯度累积,只用于训练模式。默认值为Flase,表示不使能梯度累积功能。 @@ -57,6 +59,7 @@ set_precision_config(self, enable_fp16) 该接口用于向IpuStrategy实例传递IPU构图的精度配置。 **参数** + - **enable_fp16** (bool)- 是否使能fp16运算模式并将fp32转换为fp16。默认值为False,表示不使能fp16运算模式。 **代码示例** @@ -69,6 +72,7 @@ add_custom_op(self, paddle_op, popart_op, domain, version) 该接口用于向IpuStrategy实例传递PopART自定义算子的信息。 **参数** + - **paddle_op** (str)- 待添加的Paddle自定义算子在的名称,根据Paddle自定义算子的定义设置此参数。 - **popart_op** (str,可选)- 待添加的PopART自定义算子的名称,默认值为None,表示和paddle_op相同,根据PopART自定算子的定义设置此参数。 - **domain** (str,可选)- 待添加的PopART自定义算子的domain属性,默认值为"custom.ops",根据PopART自定算子的定义设置此参数。 @@ -84,6 +88,7 @@ set_options(self, options) 批量向IpuStrategy实例传递参数。 **参数** + - **options** (dict)- 需要传递的参数字典。 **代码示例** @@ -96,6 +101,7 @@ get_option(self, option) 获取IpuStrategy实例的某一参数。 **参数** + - **option** (str)- 需要获取参数的名称。 **代码示例** @@ -108,6 +114,7 @@ enable_pattern(self, pattern) 启用某一PopART Pattern。 **参数** + - **pattern** (str)- 需要开启的Pattern名称。 **代码示例** @@ -120,14 +127,13 @@ disable_pattern(self, pattern) 禁用某一PopART Pattern。 **参数** + - **pattern** (str)- 需要禁用的Pattern名称。 **代码示例** COPY-FROM: paddle.static.IpuStrategy.disable_pattern -属性 -:::::::::::: 属性 :::::::::::: num_ipus diff --git a/docs/api/paddle/static/ParallelExecutor_cn.rst b/docs/api/paddle/static/ParallelExecutor_cn.rst index 1c1c6b6a610..d908196e852 100644 --- a/docs/api/paddle/static/ParallelExecutor_cn.rst +++ b/docs/api/paddle/static/ParallelExecutor_cn.rst @@ -9,7 +9,10 @@ ParallelExecutor -``ParallelExecutor`` 是 ``Executor`` 的一个升级版本,可以支持基于数据并行的多节点模型训练和测试。如果采用数据并行模式, ``ParallelExecutor`` 在构造时会将参数分发到不同的节点上,并将输入的 ``Program`` 拷贝到不同的节点,在执行过程中,各个节点独立运行模型,将模型反向计算得到的参数梯度在多个节点之间进行聚合,之后各个节点独立的进行参数的更新。如果使用GPU运行模型,即 ``use_cuda=True`` ,节点指代GPU, ``ParallelExecutor`` 将自动获取在当前机器上可用的GPU资源,用户也可以通过在环境变量设置可用的GPU资源,例如:希望使用GPU0、GPU1计算,export CUDA_VISIBLEDEVICES=0,1;如果在CPU上进行操作,即 ``use_cuda=False`` ,节点指代CPU,**注意:此时需要用户在环境变量中手动添加 CPU_NUM ,并将该值设置为CPU设备的个数,例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1**。 +``ParallelExecutor`` 是 ``Executor`` 的一个升级版本,可以支持基于数据并行的多节点模型训练和测试。如果采用数据并行模式, ``ParallelExecutor`` 在构造时会将参数分发到不同的节点上,并将输入的 ``Program`` 拷贝到不同的节点,在执行过程中,各个节点独立运行模型,将模型反向计算得到的参数梯度在多个节点之间进行聚合,之后各个节点独立的进行参数的更新。 + +- 如果使用GPU运行模型,即 ``use_cuda=True`` ,节点指代GPU, ``ParallelExecutor`` 将自动获取在当前机器上可用的GPU资源,用户也可以通过在环境变量设置可用的GPU资源,例如:希望使用GPU0、GPU1计算,export CUDA_VISIBLEDEVICES=0,1; +- 如果在CPU上进行操作,即 ``use_cuda=False`` ,节点指代CPU,**注意:此时需要用户在环境变量中手动添加 CPU_NUM ,并将该值设置为CPU设备的个数,例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1**。 参数 :::::::::::: @@ -17,7 +20,9 @@ ParallelExecutor - **use_cuda** (bool) – 该参数表示是否使用GPU执行。 - **loss_name** (str) - 该参数为模型最后得到的损失变量的名字。**注意:如果是数据并行模型训练,必须设置loss_name,否则计算结果可能会有问题。** 默认为:None。 - **main_program** (Program) – 需要被执行的Program 。如果未提供该参数,即该参数为None,在该接口内,main_program将被设置为paddle.static.default_main_program()。 默认为:None。 - - **share_vars_from** (ParallelExecutor) - 如果设置了share_vars_from,当前的ParallelExecutor将与share_vars_from指定的ParallelExecutor共享参数值。需要设置该参数的情况:模型训练过程中需要进行模型测试,并且训练和测试都是采用数据并行模式,那么测试对应的ParallelExecutor在调用with_data_parallel时,需要将share_vars_from设置为训练所对应的ParallelExecutor。由于ParallelExecutor只有在第一次执行时才会将参数变量分发到其他设备上,因此share_vars_from指定的ParallelExecutor必须在当前ParallelExecutor之前运行。默认为:None。 + - **share_vars_from** (ParallelExecutor) - 如果设置了share_vars_from,当前的ParallelExecutor将与share_vars_from指定的ParallelExecutor共享参数值。 + 需要设置该参数的情况:模型训练过程中需要进行模型测试,并且训练和测试都是采用数据并行模式,那么测试对应的ParallelExecutor在调用with_data_parallel时,需要将share_vars_from设置为训练所对应的ParallelExecutor。 + 由于ParallelExecutor只有在第一次执行时才会将参数变量分发到其他设备上,因此share_vars_from指定的ParallelExecutor必须在当前ParallelExecutor之前运行。默认为:None。 - **exec_strategy** (ExecutionStrategy) - 通过exec_strategy指定执行计算图过程可以调整的选项,例如线程池大小等。 关于exec_strategy更多信息,请参阅 ``paddle.static.ExecutionStrategy`` 。 默认为:None。 - **build_strategy** (BuildStrategy): 通过配置build_strategy,对计算图进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等。关于build_strategy更多的信息,请参阅 ``paddle.static.BuildStrategy`` 。 默认为:None。 - **num_trainers** (int) – 进行GPU分布式训练时需要设置该参数。如果该参数值大于1,NCCL将会通过多层级节点的方式来初始化。每个节点应有相同的GPU数目。默认为:1。 @@ -26,12 +31,7 @@ ParallelExecutor 返回 :::::::::::: -初始化后的 ``ParallelExecutor`` 对象 - -抛出异常 -:::::::::::: -``TypeError`` - - 如果提供的参数 ``share_vars_from`` 不是 ``ParallelExecutor`` 类型的,将会抛出此异常。 +初始化后的 ``ParallelExecutor`` 对象。 .. note:: 1. 如果只是进行多卡测试,不需要设置loss_name以及share_vars_from。 @@ -100,12 +100,8 @@ run(fetch_list, feed=None, feed_dict=None, return_numpy=True) - **return_numpy** (bool) – 该变量表示是否将fetched tensor转换为numpy。默认为:True。 **返回** -返回fetch_list中指定的变量值 -**抛出异常** - - - ``ValueError`` - 如果feed参数是list类型,但是它的长度不等于可用设备(执行场所)的数目,再或者给定的feed不是dict类型,抛出此异常 - - ``TypeError`` - 如果feed参数是list类型,但是它里面的元素不是dict类型时,抛出此异常 +返回fetch_list中指定的变量值。 .. note:: 1. 如果feed参数为dict类型,输入数据将被均匀分配到不同的卡上,例如:使用2块GPU训练,输入样本数为3,即[0, 1, 2],经过拆分之后,GPU0上的样本数为1,即[0],GPU1上的样本数为2,即[1, 2]。如果样本数少于设备数,程序会报错,因此运行模型时,应额外注意数据集的最后一个batch的样本数是否少于当前可用的CPU核数或GPU卡数,如果是少于,建议丢弃该batch。 @@ -166,7 +162,8 @@ drop_local_exe_scopes() 立即清除scope中的临时变量。模型运行过程中,生成的中间临时变量将被放到local execution scope中,为了避免对临时变量频繁的申请与释放,ParallelExecutor中采取的策略是间隔若干次迭代之后清理一次临时变量。ParallelExecutor在ExecutionStrategy中提供了num_iteration_per_drop_scope选项,该选项表示间隔多少次迭代之后清理一次临时变量。如果num_iteration_per_drop_scope值为100,但是希望在迭代50次之后清理一次临时变量,可以通过手动调用该接口。 **返回** -无 + +无。 **代码示例** diff --git a/docs/api/paddle/static/Print_cn.rst b/docs/api/paddle/static/Print_cn.rst index 72a4057efc8..08510568e5e 100644 --- a/docs/api/paddle/static/Print_cn.rst +++ b/docs/api/paddle/static/Print_cn.rst @@ -9,28 +9,26 @@ Print -**Print操作命令** - -该OP创建一个打印操作,打印正在访问的Tensor内容。 +创建一个打印操作,打印正在访问的Tensor内容。 封装传入的Tensor,以便无论何时访问Tensor,都会打印信息message和Tensor的当前值。 参数 :::::::::::: - - **input** (Variable)-将要打印的Tensor - - **summarize** (int)-打印Tensor中的元素数目,如果值为-1则打印所有元素。默认值为20 - - **message** (str)-打印Tensor信息前自定义的字符串类型消息,作为前缀打印 - - **first_n** (int)-打印Tensor的次数 - - **print_tensor_name** (bool)-可选,指明是否打印Tensor名称,默认为True - - **print_tensor_type** (bool)-可选,指明是否打印Tensor类型,默认为True - - **print_tensor_shape** (bool)-可选,指明是否打印Tensor维度信息,默认为True - - **print_tensor_lod** (bool)-可选,指明是否打印Tensor的LoD信息,默认为True - - **print_phase** (str)-可选,指明打印的阶段,包括 ``forward`` , ``backward`` 和 ``both`` ,默认为 ``both`` 。设置为 ``forward`` 时,只打印Tensor的前向信息;设置为 ``backward`` 时,只打印Tensor的梯度信息;设置为 ``both`` 时,则同时打印Tensor的前向信息以及梯度信息。 + - **input** (Variable)-将要打印的Tensor。 + - **summarize** (int)-打印Tensor中的元素数目,如果值为-1则打印所有元素。默认值为20。 + - **message** (str)-打印Tensor信息前自定义的字符串类型消息,作为前缀打印。 + - **first_n** (int)-打印Tensor的次数。 + - **print_tensor_name** (bool,可选)-指明是否打印Tensor名称,默认为True。 + - **print_tensor_type** (bool,可选)-指明是否打印Tensor类型,默认为True。 + - **print_tensor_shape** (bool,可选)-指明是否打印Tensor维度信息,默认为True。 + - **print_tensor_lod** (bool,可选)-指明是否打印Tensor的LoD信息,默认为True。 + - **print_phase** (str,可选)-指明打印的阶段,包括 ``forward`` , ``backward`` 和 ``both`` ,默认为 ``both`` 。设置为 ``forward`` 时,只打印Tensor的前向信息;设置为 ``backward`` 时,只打印Tensor的梯度信息;设置为 ``both`` 时,则同时打印Tensor的前向信息以及梯度信息。 返回 :::::::::::: -输出Tensor +输出Tensor。 .. note:: 输入和输出是两个不同的Variable,在接下来的过程中,应该使用输出Variable而非输入Variable,否则打印层将失去backward的信息。 diff --git a/docs/api/paddle/static/Program_cn.rst b/docs/api/paddle/static/Program_cn.rst index 81a05f3f8b7..cd386161b1a 100644 --- a/docs/api/paddle/static/Program_cn.rst +++ b/docs/api/paddle/static/Program_cn.rst @@ -6,7 +6,8 @@ Program .. py:class:: paddle.static.Program -**注意:默认情况下,Paddle内部默认含有** :ref:`cn_api_fluid_default_startup_program` **和** :ref:`cn_api_fluid_default_main_program` **,它们共享参数。** :ref:`cn_api_fluid_default_startup_program` **只运行一次来初始化参数,** :ref:`cn_api_fluid_default_main_program` **在每个mini batch中运行并更新权重。** +.. note:: +默认情况下,Paddle内部默认含有 :ref:`cn_api_fluid_default_startup_program` 和 :ref:`cn_api_fluid_default_main_program` ,它们共享参数。 :ref:`cn_api_fluid_default_startup_program` 只运行一次来初始化参数, :ref:`cn_api_fluid_default_main_program` 在每个mini batch中运行并更新权重。 Program是Paddle对于计算图的一种静态描述,使用Program的构造函数可以创建一个Program。Program中包括至少一个 :ref:`api_guide_Block` ,当 :ref:`api_guide_Block` 中存在条件选择的控制流OP(例如 :ref:`cn_api_fluid_layers_While` 等)时,该Program将会含有嵌套着的 :ref:`api_guide_Block` 即控制流外部的 :ref:`api_guide_Block` 将包含着控制流内部的 :ref:`api_guide_Block` ,而嵌套的 :ref:`api_guide_Block` 的元素访问控制将由具体的控制流OP来决定。关于Program具体的结构和包含的类型请参阅 `framework.proto `_ 。 @@ -16,7 +17,7 @@ Program是Paddle对于计算图的一种静态描述,使用Program的构造函 返回 ::::::::: -Program,创建的空的Program +Program,创建的空的Program。 代码示例 :::::::::: @@ -44,17 +45,17 @@ Program,创建的空的Program to_string(throw_on_error, with_details=False) ''''''''' -将Program转换为字符串 +将Program转换为字符串。 **参数** + - **throw_on_error** (bool) - 是否在没有设置必需字段时抛出异常。 - - **with_details** (bool) - 值为true时,打印更多关于变量和参数的信息,如trainable, optimize_attr等 + - **with_details** (bool) - 值为true时,打印更多关于变量和参数的信息,如trainable, optimize_attr等。 **返回** -str,由Program转换得到的字符串 -**抛出异常** - ``ValueError`` - 当 ``throw_on_error == true`` ,当没有设置任何必需的字段时,抛出 ``ValueError`` 。 +str,由Program转换得到的字符串。 + **代码示例** @@ -106,10 +107,12 @@ clone(for_test=False) optimizer.minimize(loss) **参数** - - **for_test** (bool) – 取值为True时,clone方法内部会把operator的属性 ``is_test`` 设置为 True, 并裁剪反向OP和参数优化OP,默认值为False + + - **for_test** (bool) – 取值为True时,clone方法内部会把operator的属性 ``is_test`` 设置为 True, 并裁剪反向OP和参数优化OP,默认值为False。 **返回** -Program,当 ``for_test=True`` 时返回一个新的、仅包含当前Program前向内容的Program。否则返回一个新的,和当前Program完全相同的Program + +Program,当 ``for_test=True`` 时返回一个新的、仅包含当前Program前向内容的Program。否则返回一个新的,和当前Program完全相同的Program。 **代码示例** @@ -237,14 +240,16 @@ Program,当 ``for_test=True`` 时返回一个新的、仅包含当前Program **static** parse_from_string(binary_str) ''''''''' -通过对 `protobuf `_ 的反序列化,转换成Program +通过对 `protobuf `_ 的反序列化,转换成Program。 **参数** - - **binary_str_type** (str) – `protobuf `_ 二进制字符串 + + - **binary_str_type** (str) – `protobuf `_ 二进制字符串。 **返回** -Program,反序列化后的 Program + +Program,反序列化后的 Program。 **代码示例** @@ -275,10 +280,11 @@ Program,反序列化后的 Program num_blocks ''''''''' -该Program中的 :ref:`api_guide_Block` 的个数 +该Program中的 :ref:`api_guide_Block` 的个数。 **返回** -int,该Program中的 :ref:`api_guide_Block` 的个数 + +int,该Program中的 :ref:`api_guide_Block` 的个数。 **代码示例** @@ -305,7 +311,8 @@ random_seed 程序中随机运算符的默认随机种子。0意味着随机生成随机种子。 **返回** -int64,该Program中当前正在使用的random seed + +int64,该Program中当前正在使用的random seed。 **代码示例** @@ -338,7 +345,8 @@ global_block() 获取该Program的第一个 :ref:`api_guide_Block` 。 **返回** -:ref:`api_guide_Block`,该Program的第一个 :ref:`api_guide_Block` + +:ref:`api_guide_Block`,该Program的第一个 :ref:`api_guide_Block`。 **代码示例** @@ -357,13 +365,15 @@ global_block() block(index) ''''''''' -返回该Program中 , ``index`` 指定的 :ref:`api_guide_Block` 。 ``index`` 类型为int +返回该Program中 , ``index`` 指定的 :ref:`api_guide_Block` 。 ``index`` 类型为int。 **参数** - - **index** (int) - 需要获取的 :ref:`api_guide_Block` 的index + + - **index** (int) - 需要获取的 :ref:`api_guide_Block` 的index。 **返回** -:ref:`api_guide_Block`,该Program中index对应的那个 :ref:`api_guide_Block` + +:ref:`api_guide_Block`,该Program中index对应的那个 :ref:`api_guide_Block`。 **代码示例** @@ -384,7 +394,8 @@ current_block() 获取当前 :ref:`api_guide_Block` 。当前 :ref:`api_guide_Block` 是用来添加OP的。 **返回** -:ref:`api_guide_Block`,该Program中用户当前所在的 :ref:`api_guide_Block` + +:ref:`api_guide_Block`,该Program中用户当前所在的 :ref:`api_guide_Block`。 **代码示例** @@ -405,7 +416,8 @@ list_vars() 获取当前Program中所有变量。返回值是一个可迭代对象(iterable object)。 **返回** -Generator,会yield每个Program中的变量 + +Generator,会yield每个Program中的变量。 **代码示例** @@ -431,6 +443,7 @@ all_parameters() 获取当前Program中所有的 :ref:`api_guide_parameter` 。返回值是一个列表。 **返回** + list[ :ref:`api_guide_parameter` ],一个包含当前Program中所有参数的列表。 **代码示例** @@ -467,10 +480,12 @@ state_dict(mode='all', scope=None) 获取当前 ``Program`` 持久性变量。并将所有持久性变量存放在dict结构中。 **参数** - - mode (str, 可选) - 获取何种持久性变量。目前支持以下选项: (1) 'opt':获得优化器的持久性变量放在dict结构中; (2) 'param':获得组网中的持久性变量放在dict结构中,不包含优化器中的持久性变量; (3) 'all':获得组网和优化器中的持久性变量放在dict结构中;默认值为'all'。 - - scope (Scope, 可选) - 如果scope为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并从中获取 ``state_dict`` ;否则从指定的 ``scope`` 获取 ``state_dict`` 。默认值为 ``None`` 。 + + - mode (str,可选) - 获取何种持久性变量。目前支持以下选项: (1) 'opt':获得优化器的持久性变量放在dict结构中; (2) 'param':获得组网中的持久性变量放在dict结构中,不包含优化器中的持久性变量; (3) 'all':获得组网和优化器中的持久性变量放在dict结构中;默认值为'all'。 + - scope (Scope,可选) - 如果scope为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并从中获取 ``state_dict`` ;否则从指定的 ``scope`` 获取 ``state_dict`` 。默认值为 ``None`` 。 **返回** + dict, 包含持久性变量的dict,键值是持久性变量的名字,值为持久性变量。 **代码示例** @@ -500,11 +515,13 @@ set_state_dict(state_dict, scope=None) 将 ``state_dict`` 中的持久性变量设置到 ``Program`` 中。 **参数** + - state_dict (dict) - 包含持久性变量的字典。键值是持久性变量的名字,值为持久性变量。 - - scope (Scope, 可选) - 如果scope为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并将 ``state_dict`` 中久性变量设置到这个作用域中;否则将 ``state_dict`` 设置到指定的 ``scope`` 中。默认值为 ``None`` 。 + - scope (Scope,可选) - 如果scope为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并将 ``state_dict`` 中久性变量设置到这个作用域中;否则将 ``state_dict`` 设置到指定的 ``scope`` 中。默认值为 ``None`` 。 **返回** -None + +无。 **代码示例** diff --git a/docs/api/paddle/static/Variable_cn.rst b/docs/api/paddle/static/Variable_cn.rst index 7f783814627..1792a2962a8 100644 --- a/docs/api/paddle/static/Variable_cn.rst +++ b/docs/api/paddle/static/Variable_cn.rst @@ -6,10 +6,10 @@ Variable .. py:class:: paddle.static.Variable -**注意:** - **1. 请不要直接调用** `Variable` **的构造函数,因为这会造成严重的错误发生!** +.. note:: + 1. 请不要直接调用 `Variable` 的构造函数,因为这会造成严重的错误发生! - **2. 请使用** `Block.create_var` **创建一个静态的** `Variable` **,该静态的** `Variable` **在使用** :ref:`cn_api_fluid_executor` **执行前是没有实际数据的。** + 2. 请使用 `Block.create_var` 创建一个静态的 `Variable` ,该静态的 `Variable` 在使用 :ref:`cn_api_fluid_executor` 执行前是没有实际数据的。 在Paddle静态图模式中,OP的每个输入和输出都是 :ref:`api_guide_Variable` 。多数情况下, :ref:`api_guide_Variable` 用于保存不同种类的数据或训练标签。 @@ -41,17 +41,14 @@ to_string(throw_on_error, with_details=True) 获取该 :ref:`api_guide_Variable` 的静态描述字符串。 **参数:** + - **throw_on_error** (bool) - 是否在没有设置必需字段时抛出异常。 - **with_details** (bool) - 值为true时,打印更多关于 :ref:`api_guide_Variable` 的信息,如 ``error_clip`` , ``stop_gradient`` 等。 **返回** -用于静态描述该 :ref:`api_guide_Variable` 的字符串。 -**返回类型** - str +用于静态描述该 :ref:`api_guide_Variable` 的字符串。 -**抛出异常** - ``ValueError`` - 当 ``throw_on_error == true`` ,当没有设置任何必需的字段时,抛出 ``ValueError`` 。 **代码示例** .. code-block:: python @@ -77,10 +74,8 @@ clone(self) 返回一个新的 ``Variable`` , 其复制原 ``Variable`` 并且新的 ``Variable`` 也被保留在计算图中,即复制的新 ``Variable`` 也参与反向计算。调用 ``out = variable.clone()`` 与 ``out = assign(variable)`` 效果一样。 **返回** -复制的新 ``Variable``。 -**返回类型** - ``Variable`` +复制的新 ``Variable``。 **代码示例** .. code-block:: python @@ -99,13 +94,11 @@ clone(self) detach(self) ''''''''' -返回一个新的 ``Variable`` , 并从当前计算图分离 +返回一个新的 ``Variable`` , 并从当前计算图分离. **返回** -与当前计算图分离的 ``Variable``。 -**返回类型** - ``Variable`` +与当前计算图分离的 ``Variable``。 **代码示例** COPY-FROM: paddle.static.Variable.detach @@ -117,6 +110,7 @@ astype(self, dtype) 将该 :ref:`api_guide_Variable` 中的数据转换成目标 ``Dtype``。 **参数:** + - **self** ( :ref:`api_guide_Variable` ) - 当前 :ref:`api_guide_Variable` , 用户不需要传入。 - **dtype** (int | float | float64) - 希望转换成的 ``Dtype``。 @@ -124,8 +118,7 @@ astype(self, dtype) **返回** 一个全新的转换了 ``Dtype`` 的 :ref:`api_guide_Variable`。 -**返回类型** - :ref:`api_guide_Variable` + **代码示例** .. code-block:: python @@ -148,10 +141,12 @@ get_value(scope=None) 获取 :ref:`api_guide_Variable` 的值。 **参数** + - scope ( Scope,可选 ) - 从指定的 ``scope`` 中获取 :ref:`api_guide_Variable` 的值。如果 ``scope`` 为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并从中获取 :ref:`api_guide_Variable` 的值;否则,从指定的 ``scope`` 中获取 :ref:`api_guide_Variable` 的值。 **返回** -Tensor, :ref:`api_guide_Variable` 的值 + +Tensor, :ref:`api_guide_Variable` 的值. **代码示例** @@ -190,11 +185,13 @@ set_value(value, scope=None) 将 ``value`` 设置为 :ref:`api_guide_Variable` 的值。 **参数** + - value ( Tensor|ndarray ) - :ref:`api_guide_Variable` 的值。 - scope ( Scope,可选 ) - 将 :ref:`api_guide_Variable` 的值设置到指定的 ``scope`` 中。如果 ``scope`` 为 ``None`` ,通过 `paddle.static.global_scope()` 获取全局/默认作用域实例,并将 :ref:`api_guide_Variable` 的值设置到这个用域实例中;否则,将 :ref:`api_guide_Variable` 的值设置到指定的 ``scope`` 中。 **返回** -None + +无。 **代码示例** @@ -233,10 +230,9 @@ size(self) 返回该 :ref:`api_guide_Variable` 中的数据元素数量, 结果是一个shape为[1]的int64的 ``Variable`` 。 **返回** - 单元元素数量 -**返回类型** - ``Variable`` +``Variable``:单元元素数量。 + **代码示例** COPY-FROM: paddle.static.Variable.size @@ -248,10 +244,8 @@ ndimension(self) 返回该 :ref:`api_guide_Variable` 的维度,也称作rank。 **返回** - ``Variable`` 的维度 -**返回类型** - ``Variable`` +``Variable`` 的维度。 **代码示例** .. code-block:: python @@ -271,10 +265,7 @@ dim(self) 返回该 :ref:`api_guide_Variable` 的维度,也称作rank。 **返回** - ``Variable`` 的维度 - -**返回类型** - ``Variable`` +``Variable`` 的维度。 **代码示例** .. code-block:: python @@ -288,24 +279,22 @@ dim(self) # Variable's number of dim: 2 -属性 -:::::::::::: - 属性 :::::::::::: persistable ''''''''' -**注意:该属性我们即将废弃,此介绍仅为了帮助用户理解概念, 1.6版本后用户可以不再关心该属性** - - **1. 该属性除参数以外默认值为** ``False`` **,而参数的该属性默认值为** ``True`` 。 +.. note:: +1. 该属性我们即将废弃,此介绍仅为了帮助用户理解概念, 1.6版本后用户可以不再关心该属性 +2. 该属性除参数以外默认值为 ``False`` ,而参数的该属性默认值为 ``True`` 。 此 :ref:`api_guide_Variable` 是否是长期存活的 :ref:`api_guide_Variable`。 name ''''''''' -**注意:静态图模式下,同一个** :ref:`api_guide_Block` **中的两个或更多** :ref:`api_guide_Variable` **拥有相同** ``name`` **将意味着他们会共享相同的内容。通常我们使用这种方式来实现参数共享。** +.. note:: +静态图模式下,同一个 :ref:`api_guide_Block` 中的两个或更多 :ref:`api_guide_Variable` 拥有相同 ``name`` 将意味着他们会共享相同的内容。通常我们使用这种方式来实现参数共享。 此 :ref:`api_guide_Variable` 的名字(str)。 @@ -313,34 +302,39 @@ name shape ''''''''' -**注意:该属性是只读属性。** +.. note:: +该属性是只读属性。 此 :ref:`api_guide_Variable` 在每个维度上的元素数量。 dtype ''''''''' -**注意:该属性是只读属性。** +.. note:: +该属性是只读属性。 此 :ref:`api_guide_Variable` 的实际数据类型。 lod_level ''''''''' -**注意:该属性是只读属性。** +.. note:: +该属性是只读属性。 此 :ref:`api_guide_Variable` 的 ``LoD`` 信息,关于 ``LoD`` 可以参考 :ref:`api_fluid_LoDTensor` 相关内容。 type ''''''''' -**注意:该属性是只读属性。** +.. note:: +该属性是只读属性。 此 :ref:`api_guide_Variable` 的内存模型,例如是::ref:`api_fluid_LoDTensor` ,或者SelectedRows。 ndim ''''''''' -**注意:该属性是只读属性。** +.. note:: +该属性是只读属性。 此 :ref:`api_guide_Variable` 的维度,也称作rank。 diff --git a/docs/api/paddle/static/WeightNormParamAttr_cn.rst b/docs/api/paddle/static/WeightNormParamAttr_cn.rst index 9ce3ada1296..ce969e51f15 100644 --- a/docs/api/paddle/static/WeightNormParamAttr_cn.rst +++ b/docs/api/paddle/static/WeightNormParamAttr_cn.rst @@ -6,7 +6,6 @@ WeightNormParamAttr .. py:class:: paddle.static.WeightNormParamAttr(dim=None, name=None, initializer=None, learning_rate=1.0, regularizer=None, trainable=True, do_model_average=False, need_clip=True) -:api_attr: 声明式编程模式(静态图) .. note:: 动态图模式下请使用 ``paddle.nn.utils.weight_norm`` 。 diff --git a/docs/api/paddle/static/append_backward_cn.rst b/docs/api/paddle/static/append_backward_cn.rst index 624d88efd96..8f889f92940 100644 --- a/docs/api/paddle/static/append_backward_cn.rst +++ b/docs/api/paddle/static/append_backward_cn.rst @@ -26,16 +26,7 @@ append_backward 返回 :::::::::::: - 参数及其梯度 Tensor 的元组的列表。元组的第一个值为参数,第二个值为该参数的梯度 Tensor 。 - -返回类型 -:::::::::::: - list[(Tensor , Tensor)] - -抛出异常 -:::::::::::: - - - ``AssertionError`` - 如果 loss 不是 Tensor 的实例。 + list[(Tensor , Tensor)],参数及其梯度 Tensor 的元组的列表。元组的第一个值为参数,第二个值为该参数的梯度 Tensor 。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/auc_cn.rst b/docs/api/paddle/static/auc_cn.rst index 619e79af97c..f4daf2d7da3 100755 --- a/docs/api/paddle/static/auc_cn.rst +++ b/docs/api/paddle/static/auc_cn.rst @@ -12,7 +12,9 @@ auc 该层根据前向输出和标签计算AUC,在二分类(binary classification)估计中广泛使用。 -注:如果输入标注包含一种值,只有0或1两种情况,数据类型则强制转换成布尔值。相关定义可以在这里: https://en.wikipedia.org/wiki/Receiver_operating_characteristic#Area_under_the_curve 找到 +注:如果输入标注包含一种值,只有0或1两种情况,数据类型则强制转换成布尔值。 + +相关定义可以在这里找到: https://en.wikipedia.org/wiki/Receiver_operating_characteristic#Area_under_the_curve 有两种可能的曲线: @@ -23,8 +25,8 @@ auc 参数 :::::::::::: - - **input** (Tensor|LoDTensor) - 数据类型为float32,float64。浮点二维变量,值的范围为[0,1]。每一行降序排列。该输入为网络预测值的输入。 - - **label** (Tensor|LoDTensor) - 数据类型为int32,int64。二维整型变量,为训练数据的标签。 + - **input** (Tensor|LoDTensor) - 数据类型为float32、float64。浮点二维变量,值的范围为[0,1]。每一行降序排列。该输入为网络预测值的输入。 + - **label** (Tensor|LoDTensor) - 数据类型为int32、int64。二维整型变量,为训练数据的标签。 - **curve** (str) - 曲线类型,可以为 ``ROC`` 或 ``PR``,默认 ``ROC``。 - **num_thresholds** (int) - 将roc曲线离散化时使用的临界值数。默认200。 - **topk** (int) - 取topk的输出值用于计算。 @@ -32,14 +34,16 @@ auc 返回 :::::::::::: -元组,当前计算出的AUC。数据类型是tensor,支持float32和float64。 +tuple,当前计算出的AUC。数据类型是tensor,支持float32和float64。 + 返回的元组为auc_out, batch_auc_out, [batch_stat_pos, batch_stat_neg, stat_pos, stat_neg]。 -auc_out为准确率的结果。 -batch_auc_out为batch准确率的结果。 -batch_stat_pos为batch计算时label=1的统计值 -batch_stat_neg为batch计算时label=0的统计值 -stat_pos计算时label=1的统计值 -stat_neg为计算时label=0的统计值 + +- auc_out为准确率的结果; +- batch_auc_out为batch准确率的结果; +- batch_stat_pos为batch计算时label=1的统计值; +- batch_stat_neg为batch计算时label=0的统计值; +- stat_pos计算时label=1的统计值; +- stat_neg为计算时label=0的统计值。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/create_global_var_cn.rst b/docs/api/paddle/static/create_global_var_cn.rst index f00430dac48..6f71cd11260 100644 --- a/docs/api/paddle/static/create_global_var_cn.rst +++ b/docs/api/paddle/static/create_global_var_cn.rst @@ -22,11 +22,8 @@ create_global_var 返回 :::::::::::: -创建的Tensor变量 +Variable,创建的Tensor变量。 -返回类型 -:::::::::::: -Variable 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/data_cn.rst b/docs/api/paddle/static/data_cn.rst index 9d1b934b182..54fda88783d 100644 --- a/docs/api/paddle/static/data_cn.rst +++ b/docs/api/paddle/static/data_cn.rst @@ -22,7 +22,7 @@ data 返回 :::::::::::: -Tensor, 全局变量,可进行数据访问 +Tensor,全局变量,可进行数据访问。 代码示例 diff --git a/docs/api/paddle/static/global_scope_cn.rst b/docs/api/paddle/static/global_scope_cn.rst index c4c279ea980..cb3e2d8d408 100644 --- a/docs/api/paddle/static/global_scope_cn.rst +++ b/docs/api/paddle/static/global_scope_cn.rst @@ -13,11 +13,7 @@ global_scope 返回 :::::::::::: -全局/默认作用域实例 - -返回类型 -:::::::::::: -Scope +Scope,全局/默认作用域实例。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/gradients_cn.rst b/docs/api/paddle/static/gradients_cn.rst index 85d2ac00977..0925f0d667d 100644 --- a/docs/api/paddle/static/gradients_cn.rst +++ b/docs/api/paddle/static/gradients_cn.rst @@ -14,19 +14,16 @@ gradients 参数 :::::::::::: - - **targets** (Tensor|list[Tensor]) – 目标 Tensor 或包含 Tensor 的列表 - - **inputs** (Tensor|list[Tensor]) – 输入 Tensor 或包含 Tensor 的列表 - - **target_gradients** (Tensor|list[Tensor],可选) – 目标的梯度 Tensor,应与目标 Tensor 的形状相同;如果设置为None,则以 1 初始化所有梯度 Tensor + - **targets** (Tensor|list[Tensor]) – 目标 Tensor 或包含 Tensor 的列表。 + - **inputs** (Tensor|list[Tensor]) – 输入 Tensor 或包含 Tensor 的列表。 + - **target_gradients** (Tensor|list[Tensor],可选) – 目标的梯度 Tensor,应与目标 Tensor 的形状相同;如果设置为None,则以 1 初始化所有梯度 Tensor。 - **no_grad_set** (set[Tensor|str],可选) – 在 `block0` ( :ref:`api_guide_Block` ) 中要忽略梯度的 Tensor 的名字的集合。所有的 :ref:`api_guide_Block` 中带有 ``stop_gradient = True`` 的所有 Tensor 的名字都会被自动添加到此集合中。如果该参数不为 ``None`` ,则会将该参数集合的内容添加到默认的集合中。默认值为 ``None`` 。 返回 :::::::::::: -数组,包含与输入对应的梯度。如果一个输入不影响目标函数,则对应的梯度 Tensor 为 None 。 +list[Tensor],包含与输入对应的梯度。如果一个输入不影响目标函数,则对应的梯度 Tensor 为 None 。 -返回类型 -:::::::::::: -(list[Tensor]) 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/ipu_shard_guard_cn.rst b/docs/api/paddle/static/ipu_shard_guard_cn.rst index 68ab9dac6d9..00de3796d51 100644 --- a/docs/api/paddle/static/ipu_shard_guard_cn.rst +++ b/docs/api/paddle/static/ipu_shard_guard_cn.rst @@ -21,7 +21,7 @@ ipu_shard_guard 返回 ::::::::: - 无 + 无。 代码示例 :::::::::: diff --git a/docs/api/paddle/static/load_cn.rst b/docs/api/paddle/static/load_cn.rst index 32c81867b5a..f3873d28d3d 100644 --- a/docs/api/paddle/static/load_cn.rst +++ b/docs/api/paddle/static/load_cn.rst @@ -5,7 +5,6 @@ load .. py:function:: paddle.static.load(program, model_path, executor=None, var_list=None) -:api_attr: 声明式编程模式(静态图) 该接口从Program中过滤出参数和优化器信息,然后从文件中获取相应的值。 @@ -24,7 +23,7 @@ load 返回 :::::::::::: - 无 +无。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/load_inference_model_cn.rst b/docs/api/paddle/static/load_inference_model_cn.rst index 7893b4ad598..af5dd94a364 100644 --- a/docs/api/paddle/static/load_inference_model_cn.rst +++ b/docs/api/paddle/static/load_inference_model_cn.rst @@ -17,22 +17,18 @@ load_inference_model - **path_prefix** (str) – 模型的存储目录 + 模型名称(不包含后缀)。如果是 None,表示从内存加载模型。 - **executor** (Executor) – 运行模型的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **kwargs** - 支持的 key 包括 'model_filename', 'params_filename'。(注意:kwargs 主要是用来做反向兼容的)。 + - **model_filename** (str) - 自定义 model_filename。 - **params_filename** (str) - 自定义 params_filename。 返回 :::::::::::: 该接口返回一个包含三个元素的列表 [program,feed_target_names, fetch_targets]。它们的含义描述如下: + - **program** (Program)– ``Program`` (详见 :ref:`api_guide_Program` )类的实例。此处它被用于预测,因此可被称为Inference Program。 - **feed_target_names** (list)– 字符串列表,包含着Inference Program预测时所需提供数据的所有变量名称(即所有输入变量的名称)。 - **fetch_targets** (list)– ``Variable`` (详见 :ref:`api_guide_Program` )类型列表,包含着模型的所有输出变量。通过这些输出变量即可得到模型的预测结果。 -**返回类型:** 列表(list) - -抛出异常 -:::::::::::: - - - ``ValueError`` – 如果 ``path_prefix.pdmodel`` 或 ``path_prefix.pdiparams`` 不存在,则抛出异常。 代码示例 :::::::::::: @@ -69,6 +65,6 @@ load_inference_model # 在上述示例中,inference program 被保存在 "./infer_model.pdmodel" 文件中, # 参数被保存在 "./infer_model.pdiparams" 文件中。 - # 加载 inference program 后, executor可使用 fetch_targets 和 feed_target_names, + # 加载 inference program 后, executor可使用 fetch_targets 和 feed_target_names, # 执行Program,并得到预测结果。 diff --git a/docs/api/paddle/static/load_program_state_cn.rst b/docs/api/paddle/static/load_program_state_cn.rst index d8d679a87a8..b4c720c7a29 100644 --- a/docs/api/paddle/static/load_program_state_cn.rst +++ b/docs/api/paddle/static/load_program_state_cn.rst @@ -11,11 +11,11 @@ load_program_state :::::::::::: - **model_path** (str) - 存储 ``Program`` 的参数和优化器的Tensor信息的目录名称+文件前缀,格式为 ``目录名称/文件前缀`` 。 - - **var_list** (list, 可选) - 指定加载的Tensor列表,该参数只在加载旧接口[save_params,save_persistables,save_vars]保存的模型文件时使用。当加载的是多个小文件时,Tensor列表可以是所有加载文件中Tensor的子集;当加载的单个大文件时,Tensor列表必须和加载文件中的Tensor保持一致。 + - **var_list** (list,可选) - 指定加载的Tensor列表,该参数只在加载旧接口[save_params,save_persistables,save_vars]保存的模型文件时使用。当加载的是多个小文件时,Tensor列表可以是所有加载文件中Tensor的子集;当加载的单个大文件时,Tensor列表必须和加载文件中的Tensor保持一致。 返回 :::::::::::: -存储参数和优化器信息的dict +存储参数和优化器信息的dict。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/batch_norm_cn.rst b/docs/api/paddle/static/nn/batch_norm_cn.rst index a569884f6a8..2db5a918af6 100644 --- a/docs/api/paddle/static/nn/batch_norm_cn.rst +++ b/docs/api/paddle/static/nn/batch_norm_cn.rst @@ -13,8 +13,9 @@ batch_norm 可用作卷积和全连接操作的批正则化函数,根据当前批次数据按通道计算的均值和方差进行正则化。该层需要的数据格式如下: -1.NHWC[batch,in_height,in_width,in_channels] -2.NCHW[batch,in_channels,in_height,in_width] +- 1.NHWC[batch,in_height,in_width,in_channels] + +- 2.NCHW[batch,in_channels,in_height,in_width] 更多详情请参考 : `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift `_ diff --git a/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst b/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst index 17a0d578215..937539f592f 100644 --- a/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst +++ b/docs/api/paddle/static/nn/bilinear_tensor_product_cn.rst @@ -17,6 +17,7 @@ bilinear_tensor_product out_{i} = x * W_{i} * {y^\mathrm{T}}, i=0,1,...,size-1 在这个公式中: + - :math:`x`: 第一个输入,包含 :math:`M` 个元素,形状为 [batch_size, M]。 - :math:`y`: 第二个输入,包含 :math:`N` 个元素,形状为 [batch_size, N]。 - :math:`W_{i}`: 第 :math:`i` 个被学习的权重,形状是 [M, N]。 @@ -29,14 +30,14 @@ bilinear_tensor_product - **x** (Variable): 2-D 输入张量,形状为 [batch_size, M], 数据类型为 float32 或 float64。 - **y** (Variable): 2-D 输入张量,形状为 [batch_size, N],数据类型与 **x** 一致。 - **size** (int): 此层的维度。 - - **act** (str, 可选): 应用到该层输出的激活函数。 + - **act** (str,可选): 应用到该层输出的激活函数。 - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为 None。 - **param_attr** (ParamAttr,可选) :指定权重参数属性的对象。默认值为 None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **bias_attr** (ParamAttr,可选) : 指定偏置参数属性的对象。默认值为 None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 返回 :::::::::::: - Variable, 一个形为 [batch_size, size] 的 2-D 张量。 + Variable,一个形为 [batch_size, size] 的 2-D 张量。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/case_cn.rst b/docs/api/paddle/static/nn/case_cn.rst index ea12ba3f2ea..4a9b6d1c19c 100644 --- a/docs/api/paddle/static/nn/case_cn.rst +++ b/docs/api/paddle/static/nn/case_cn.rst @@ -6,8 +6,6 @@ case .. py:function:: paddle.static.nn.case(pred_fn_pairs, default=None, name=None) -:api_attr: 声明式编程模式(静态图) - 该OP的运行方式类似于python的if-elif-elif-else。 @@ -20,22 +18,11 @@ case 返回 :::::::::::: -如果 ``pred_fn_pairs`` 中存在pred是True的元组(pred, fn),则返回第一个为True的pred的元组中fn的返回结果;如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; -如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 是None,则返回 ``pred_fn_pairs`` 中最后一个pred的返回结果。 - -返回类型 -:::::::::::: Tensor|list(Tensor) -抛出异常 -:::::::::::: +- 如果 ``pred_fn_pairs`` 中存在pred是True的元组(pred, fn),则返回第一个为True的pred的元组中fn的返回结果;如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; +- 如果 ``pred_fn_pairs`` 中不存在pred为True的元组(pred, fn) 且 ``default`` 是None,则返回 ``pred_fn_pairs`` 中最后一个pred的返回结果。 - - ``TypeError`` - 如果 ``pred_fn_pairs`` 的类型不是list或tuple。 - - ``TypeError`` - 如果 ``pred_fn_pairs`` 的元素的类型不是tuple。 - - ``TypeError`` - 如果 ``pred_fn_pairs`` 的tuple类型的元素大小不是2。 - - ``TypeError`` - 如果 ``pred_fn_pairs`` 中的2-tuple的第一个元素的类型不是Tensor。 - - ``TypeError`` - 如果 ``pred_fn_pairs`` 中的2-tuple的第二个元素不是可调用对象。 - - ``TypeError`` - 当 ``default`` 不是None又不是可调用对象时。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/cond_cn.rst b/docs/api/paddle/static/nn/cond_cn.rst index ca4b77581f4..000f59be539 100644 --- a/docs/api/paddle/static/nn/cond_cn.rst +++ b/docs/api/paddle/static/nn/cond_cn.rst @@ -13,7 +13,7 @@ cond ``true_fn`` 和 ``false_fn`` 需要返回同样嵌套结构(nest structure)的Tensor,如果不想返回任何值也可都返回 ``None`` 。 PaddlePaddle里Tensor的嵌套结构是指一个Tensor,或者Tensor的元组(tuple),或者Tensor的列表(list)。 -**注意:** +.. note:: 1. ``true_fn`` 和 ``false_fn`` 返回的元组必须形状相同,但是里面的Tensor形状可以不同。 2. 本接口在动态图和静态图模式下都可以运行,在动态图情况下就只会按 ``pred`` 条件运行其中一支分支。 3. 静态图模式下,因为各个分支都要参与组网,因此不论运行哪个分支,在 ``true_fn`` 和 ``false_fn`` 内外创建的Tensor和Op都会组网,即PaddlePaddle并不是惰性语法(lazy semantics)。例如 diff --git a/docs/api/paddle/static/nn/conv2d_cn.rst b/docs/api/paddle/static/nn/conv2d_cn.rst index 97a30855bf0..be2b1f72f1c 100644 --- a/docs/api/paddle/static/nn/conv2d_cn.rst +++ b/docs/api/paddle/static/nn/conv2d_cn.rst @@ -9,7 +9,13 @@ conv2d -该OP是二维卷积层(convolution2D layer),根据输入、滤波器、步长(stride)、填充(padding)、膨胀比例(dilations)一组参数计算输出特征层大小。输入和输出是NCHW或NHWC格式,其中N是批尺寸,C是通道数,H是特征高度,W是特征宽度。滤波器是MCHW格式,M是输出图像通道数,C是输入图像通道数,H是滤波器高度,W是滤波器宽度。如果组数(groups)大于1,C等于输入图像通道数除以组数的结果。详情请参考UFLDL's : `卷积 `_ 。如果bias_attr不为False,卷积计算会添加偏置项。如果指定了激活函数类型,相应的激活函数会作用在最终结果上。 +该OP是二维卷积层(convolution2D layer),根据输入、滤波器、步长(stride)、填充(padding)、膨胀比例(dilations)一组参数计算输出特征层大小。 + +输入和输出是NCHW或NHWC格式,其中N是批尺寸,C是通道数,H是特征高度,W是特征宽度。滤波器是MCHW格式,M是输出图像通道数,C是输入图像通道数,H是滤波器高度,W是滤波器宽度。 + +如果组数(groups)大于1,C等于输入图像通道数除以组数的结果。详情请参考UFLDL's : `卷积 `_ 。 + +如果bias_attr不为False,卷积计算会添加偏置项。如果指定了激活函数类型,相应的激活函数会作用在最终结果上。 对每个输入X,有等式: @@ -18,12 +24,13 @@ conv2d Out = \sigma \left ( W * X + b \right ) 其中: - - :math:`X` :输入值,NCHW或NHWC格式的4-D Tensor - - :math:`W` :滤波器值,MCHW格式的4-D Tensor - - :math:`*` :卷积操作 - - :math:`b` :偏置值,2-D Tensor,形状为 ``[M,1]`` - - :math:`\sigma` :激活函数 - - :math:`Out` :输出值,NCHW或NHWC格式的4-D Tensor, 和 ``X`` 的形状可能不同 + + - :math:`X` :输入值,NCHW或NHWC格式的4-D Tensor; + - :math:`W` :滤波器值,MCHW格式的4-D Tensor; + - :math:`*` :卷积操作; + - :math:`b` :偏置值,2-D Tensor,形状为 ``[M,1]``; + - :math:`\sigma` :激活函数; + - :math:`Out` :输出值,NCHW或NHWC格式的4-D Tensor, 和 ``X`` 的形状可能不同。 **示例** @@ -67,7 +74,12 @@ conv2d - **num_filters** (int) - 滤波器(卷积核)的个数。和输出图像通道相同。 - **filter_size** (int|list|tuple) - 滤波器大小。如果它是一个列表或元组,则必须包含两个整数值:(filter_size_height,filter_size_width)。若为一个整数,filter_size_height = filter_size_width = filter_size。 - **stride** (int|list|tuple,可选) - 步长大小。滤波器和输入进行卷积计算时滑动的步长。如果它是一个列表或元组,则必须包含两个整型数:(stride_height,stride_width)。若为一个整数,stride_height = stride_width = stride。默认值:1。 - - **padding** (int|list|tuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含4个二元组:当 ``data_format`` 为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 ``data_format`` 为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]];(2)包含4个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right];(3)包含2个整数值:[padding_height, padding_width],此时padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。 + - **padding** (int|list|tuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式: + + - (1)包含4个二元组:当 ``data_format`` 为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 ``data_format`` 为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]]; + - (2)包含4个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right]; + - (3)包含2个整数值:[padding_height, padding_width],此时padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。 + - **dilation** (int|list|tuple,可选) - 膨胀比例大小。空洞卷积时会使用该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。如果膨胀比例为列表或元组,则必须包含两个整型数:(dilation_height,dilation_width)。若为一个整数,dilation_height = dilation_width = dilation。默认值:1。 - **groups** (int,可选) - 二维卷积层的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=n,输入和滤波器分别根据通道数量平均分为n组,第一组滤波器和第一组输入进行卷积计算,第二组滤波器和第二组输入进行卷积计算,……,第n组滤波器和第n组输入进行卷积计算。默认值:1。 - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 @@ -82,19 +94,6 @@ conv2d 4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回卷积计算的结果,如果指定激活层,则返回卷积和激活计算之后的最终结果。 -抛出异常 -:::::::::::: - - - ``ValueError`` - 如果 ``use_cudnn`` 不是bool值。 - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 - - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 - - ``ValueError`` - 如果 ``padding`` 含有4个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。 - - ``ShapeError`` - 如果输入不是4-D Tensor。 - - ``ShapeError`` - 如果输入和滤波器的维度大小不相同。 - - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 - - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/conv2d_transpose_cn.rst b/docs/api/paddle/static/nn/conv2d_transpose_cn.rst index 4d56905e759..b6414fd5a52 100644 --- a/docs/api/paddle/static/nn/conv2d_transpose_cn.rst +++ b/docs/api/paddle/static/nn/conv2d_transpose_cn.rst @@ -11,9 +11,15 @@ conv2d_transpose 二维转置卷积层(Convlution2D transpose layer) -该层根据输入(input)、滤波器(filter)和卷积核膨胀比例(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过output_size指定输出特征层大小。输入(Input)和输出(Output)为NCHW或NHWC格式,其中N为批尺寸,C为通道数(channel),H为特征层高度,W为特征层宽度。滤波器是MCHW格式,M是输出图像通道数,C是输入图像通道数,H是滤波器高度,W是滤波器宽度。如果组数大于1,C等于输入图像通道数除以组数的结果。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解转置卷积层细节,请参考下面的说明和 参考文献_ 。如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。 +该层根据输入(input)、滤波器(filter)和卷积核膨胀比例(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过output_size指定输出特征层大小。 -.. _参考文献: https://arxiv.org/pdf/1603.07285.pdf +输入(Input)和输出(Output)为NCHW或NHWC格式,其中N为批尺寸,C为通道数(channel),H为特征层高度,W为特征层宽度。滤波器是MCHW格式,M是输出图像通道数,C是输入图像通道数,H是滤波器高度,W是滤波器宽度。如果组数大于1,C等于输入图像通道数除以组数的结果。 + +转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解转置卷积层细节,请参考下面的说明和论文细节。 + +如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。 + +论文参考: https://arxiv.org/pdf/1603.07285.pdf 输入 :math:`X` 和输出 :math:`Out` 函数关系如下: @@ -22,12 +28,13 @@ conv2d_transpose Out=\sigma (W*X+b)\\ 其中: - - :math:`X` : 输入,具有NCHW或NHWC格式的4-D Tensor - - :math:`W` : 滤波器,具有NCHW格式的4-D Tensor - - :math:`*` : 卷积计算(注意:转置卷积本质上的计算还是卷积) - - :math:`b` : 偏置(bias),2-D Tensor,形状为 ``[M,1]`` - - :math:`σ` : 激活函数 - - :math:`Out` : 输出值,NCHW或NHWC格式的4-D Tensor, 和 ``X`` 的形状可能不同 + + - :math:`X` : 输入,具有NCHW或NHWC格式的4-D Tensor; + - :math:`W` : 滤波器,具有NCHW格式的4-D Tensor; + - :math:`*` : 卷积计算(注意:转置卷积本质上的计算还是卷积); + - :math:`b` : 偏置(bias),2-D Tensor,形状为 ``[M,1]``; + - :math:`σ` : 激活函数; + - :math:`Out` : 输出值,NCHW或NHWC格式的4-D Tensor, 和 ``X`` 的形状可能不同。 **示例** @@ -62,9 +69,9 @@ conv2d_transpose & H'_{out} = (H_{in}-1)*strides[0] + dilations[0]*(H_f-1)+1\\ & W'_{out} = (W_{in}-1)*strides[1] + dilations[1]*(W_f-1)+1 \\ -注意: - -如果output_size为None,则 :math:`H_{out}` = :math:`H^\prime_{out}` , :math:`W_{out}` = :math:`W^\prime_{out}` ;否则,指定的output_size_height(输出特征层的高) :math:`H_{out}` 应当介于 :math:`H^\prime_{out}` 和 :math:`H^\prime_{out} + strides[0]` 之间(不包含 :math:`H^\prime_{out} + strides[0]` ), 并且指定的output_size_width(输出特征层的宽) :math:`W_{out}` 应当介于 :math:`W^\prime_{out}` 和 :math:`W^\prime_{out} + strides[1]` 之间(不包含 :math:`W^\prime_{out} + strides[1]` )。 +.. note:: +如果output_size为None,则 :math:`H_{out}` = :math:`H^\prime_{out}` , :math:`W_{out}` = :math:`W^\prime_{out}` ; +否则,指定的output_size_height(输出特征层的高) :math:`H_{out}` 应当介于 :math:`H^\prime_{out}` 和 :math:`H^\prime_{out} + strides[0]` 之间(不包含 :math:`H^\prime_{out} + strides[0]` ), 并且指定的output_size_width(输出特征层的宽) :math:`W_{out}` 应当介于 :math:`W^\prime_{out}` 和 :math:`W^\prime_{out} + strides[1]` 之间(不包含 :math:`W^\prime_{out} + strides[1]` )。 由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。 @@ -93,18 +100,6 @@ conv2d_transpose 4-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。 -抛出异常 -:::::::::::: - - - ``ValueError`` : 如果输入的shape、filter_size、stride、padding和groups不匹配,抛出ValueError - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 - - ``ValueError`` - 如果 ``padding`` 含有4个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。 - - ``ValueError`` - 如果 ``output_size`` 和 ``filter_size`` 同时为None。 - - ``ShapeError`` - 如果输入不是4-D Tensor。 - - ``ShapeError`` - 如果输入和滤波器的维度大小不相同。 - - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/conv3d_cn.rst b/docs/api/paddle/static/nn/conv3d_cn.rst index d28324adf52..bca9d2e4e91 100644 --- a/docs/api/paddle/static/nn/conv3d_cn.rst +++ b/docs/api/paddle/static/nn/conv3d_cn.rst @@ -9,7 +9,13 @@ conv3d -该OP是三维卷积层(convolution3D layer),根据输入、滤波器、步长(stride)、填充(padding)、膨胀比例(dilations)一组参数计算得到输出特征层大小。输入和输出是NCDHW或NDHWC格式,其中N是批尺寸,C是通道数,D是特征层深度,H是特征层高度,W是特征层宽度。三维卷积(Convlution3D)和二维卷积(Convlution2D)相似,但多了一维深度信息(depth)。如果bias_attr不为False,卷积计算会添加偏置项。如果指定了激活函数类型,相应的激活函数会作用在最终结果上。 +该OP是三维卷积层(convolution3D layer),根据输入、滤波器、步长(stride)、填充(padding)、膨胀比例(dilations)一组参数计算得到输出特征层大小。 + +输入和输出是NCDHW或NDHWC格式,其中N是批尺寸,C是通道数,D是特征层深度,H是特征层高度,W是特征层宽度。 + +三维卷积(Convlution3D)和二维卷积(Convlution2D)相似,但多了一维深度信息(depth)。 + +如果bias_attr不为False,卷积计算会添加偏置项。如果指定了激活函数类型,相应的激活函数会作用在最终结果上。 对每个输入X,有等式: @@ -18,12 +24,13 @@ conv3d Out = \sigma \left ( W * X + b \right ) 其中: - - :math:`X` :输入值,NCDHW或NDHWC格式的5-D Tensor - - :math:`W` :滤波器值,MCDHW格式的5-D Tensor - - :math:`*` :卷积操作 - - :math:`b` :偏置值,2-D Tensor,形为 ``[M,1]`` - - :math:`\sigma` :激活函数 - - :math:`Out` :输出值, NCDHW或NDHWC格式的5-D Tensor,和 ``X`` 的形状可能不同 + + - :math:`X` :输入值,NCDHW或NDHWC格式的5-D Tensor; + - :math:`W` :滤波器值,MCDHW格式的5-D Tensor; + - :math:`*` :卷积操作; + - :math:`b` :偏置值,2-D Tensor,形为 ``[M,1]``; + - :math:`\sigma` :激活函数; + - :math:`Out` :输出值, NCDHW或NDHWC格式的5-D Tensor,和 ``X`` 的形状可能不同。 **示例** @@ -72,7 +79,12 @@ conv3d - **num_fliters** (int) - 滤波器(卷积核)的个数。和输出图像通道相同。 - **filter_size** (int|list|tuple) - 滤波器大小。如果它是一个列表或元组,则必须包含三个整数值:(filter_size_depth, filter_size_height,filter_size_width)。若为一个整数,则filter_size_depth = filter_size_height = filter_size_width = filter_size。 - **stride** (int|list|tuple,可选) - 步长大小。滤波器和输入进行卷积计算时滑动的步长。如果它是一个列表或元组,则必须包含三个整型数:(stride_depth, stride_height, stride_width)。若为一个整数,stride_depth = stride_height = stride_width = stride。默认值:1。 - - **padding** (int|list|tuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含5个二元组:当 ``data_format`` 为"NCDHW"时为 [[0,0], [0,0], [padding_depth_front, padding_depth_back], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 ``data_format`` 为"NDHWC"时为[[0,0], [padding_depth_front, padding_depth_back], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]];(2)包含6个整数值:[padding_depth_front, padding_depth_back, padding_height_top, padding_height_bottom, padding_width_left, padding_width_right];(3)包含3个整数值:[padding_depth, padding_height, padding_width],此时 padding_depth_front = padding_depth_back = padding_depth, padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_depth = padding_height = padding_width = padding。默认值:0。 + - **padding** (int|list|tuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式: + + - (1)包含5个二元组:当 ``data_format`` 为"NCDHW"时为 [[0,0], [0,0], [padding_depth_front, padding_depth_back], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 ``data_format`` 为"NDHWC"时为[[0,0], [padding_depth_front, padding_depth_back], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]]; + - (2)包含6个整数值:[padding_depth_front, padding_depth_back, padding_height_top, padding_height_bottom, padding_width_left, padding_width_right]; + - (3)包含3个整数值:[padding_depth, padding_height, padding_width],此时 padding_depth_front = padding_depth_back = padding_depth, padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_depth = padding_height = padding_width = padding。默认值:0。 + - **dilation** (int|list|tuple,可选) - 膨胀比例大小。空洞卷积时会使用该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。如果膨胀比例为列表或元组,则必须包含三个整型数:(dilation_depth, dilation_height,dilation_width)。若为一个整数,dilation_depth = dilation_height = dilation_width = dilation。默认值:1。 - **groups** (int,可选) - 三维卷积层的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=n,输入和滤波器分别根据通道数量平均分为n组,第一组滤波器和第一组输入进行卷积计算,第二组滤波器和第二组输入进行卷积计算,……,第n组滤波器和第n组输入进行卷积计算。默认值:1。 - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 diff --git a/docs/api/paddle/static/nn/conv3d_transpose_cn.rst b/docs/api/paddle/static/nn/conv3d_transpose_cn.rst index 5d8e98c8e09..bd67ee90fa2 100755 --- a/docs/api/paddle/static/nn/conv3d_transpose_cn.rst +++ b/docs/api/paddle/static/nn/conv3d_transpose_cn.rst @@ -11,9 +11,15 @@ conv3d_transpose 三维转置卷积层(Convlution3D transpose layer) -该层根据输入(input)、滤波器(filter)和卷积核膨胀比例(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过output_size指定输出特征层大小。输入(Input)和输出(Output)为NCDHW或者NDHWC格式。其中N为批尺寸,C为通道数(channel),D为特征深度,H为特征层高度,W为特征层宽度。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解卷积转置层细节,请参考下面的说明和 参考文献_ 。如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。 +该层根据输入(input)、滤波器(filter)和卷积核膨胀比例(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过output_size指定输出特征层大小。 -.. _参考文献: https://www.matthewzeiler.com/mattzeiler/deconvolutionalnetworks.pdf +输入(Input)和输出(Output)为NCDHW或者NDHWC格式。其中N为批尺寸,C为通道数(channel),D为特征深度,H为特征层高度,W为特征层宽度。 + +转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解卷积转置层细节,请参考下面的说明和论文细节。 + +如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。 + +论文参考: https://www.matthewzeiler.com/mattzeiler/deconvolutionalnetworks.pdf 输入 :math:`X` 和输出 :math:`Out` 函数关系如下: @@ -21,12 +27,13 @@ conv3d_transpose \\Out=\sigma (W*X+b)\\ 其中: - - :math:`X` : 输入,具有NCDHW或NDHWC格式的5-D Tensor - - :math:`W` : 滤波器,具有NCDHW格式的5-D Tensor - - :math:`*` : 卷积操作(注意:转置卷积本质上的计算还是卷积) - - :math:`b` : 偏置(bias),2-D Tensor,形状为 ``[M,1]`` - - :math:`σ` : 激活函数 - - :math:`Out` : 输出值,NCDHW或NDHWC格式的5-D Tensor,和 ``X`` 的形状可能不同 + + - :math:`X` : 输入,具有NCDHW或NDHWC格式的5-D Tensor; + - :math:`W` : 滤波器,具有NCDHW格式的5-D Tensor; + - :math:`*` : 卷积操作(注意:转置卷积本质上的计算还是卷积); + - :math:`b` : 偏置(bias),2-D Tensor,形状为 ``[M,1]``; + - :math:`σ` : 激活函数; + - :math:`Out` : 输出值,NCDHW或NDHWC格式的5-D Tensor,和 ``X`` 的形状可能不同。 **示例** @@ -68,9 +75,10 @@ conv3d_transpose H'_{out}=(H_{in}-1)*strides[1] + dilations[1]*(H_f-1)+1\\ W'_{out}=(W_{in}-1)*strides[2] + dilations[2]*(W_f-1)+1\\ -注意: +.. note:: -如果output_size为None,则 :math:`D_{out}` = :math:`D^\prime_{out}` , :math:`H_{out}` = :math:`H^\prime_{out}` , :math:`W_{out}` = :math:`W^\prime_{out}` ;否则,指定的output_size_depth(输出特征层的深度) :math:`D_{out}` 应当介于 :math:`D^\prime_{out}` 和 :math:`D^\prime_{out} + strides[0]` 之间(不包含 :math:`D^\prime_{out} + strides[0]` ),指定的output_size_height(输出特征层的高) :math:`H_{out}` 应当介于 :math:`H^\prime_{out}` 和 :math:`H^\prime_{out} + strides[1]` 之间(不包含 :math:`H^\prime_{out} + strides[1]` ), 并且指定的output_size_width(输出特征层的宽) :math:`W_{out}` 应当介于 :math:`W^\prime_{out}` 和 :math:`W^\prime_{out} + strides[2]` 之间(不包含 :math:`W^\prime_{out} + strides[2]` )。 +如果output_size为None,则 :math:`D_{out}` = :math:`D^\prime_{out}` , :math:`H_{out}` = :math:`H^\prime_{out}` , :math:`W_{out}` = :math:`W^\prime_{out}` ; +否则,指定的output_size_depth(输出特征层的深度) :math:`D_{out}` 应当介于 :math:`D^\prime_{out}` 和 :math:`D^\prime_{out} + strides[0]` 之间(不包含 :math:`D^\prime_{out} + strides[0]` ),指定的output_size_height(输出特征层的高) :math:`H_{out}` 应当介于 :math:`H^\prime_{out}` 和 :math:`H^\prime_{out} + strides[1]` 之间(不包含 :math:`H^\prime_{out} + strides[1]` ), 并且指定的output_size_width(输出特征层的宽) :math:`W_{out}` 应当介于 :math:`W^\prime_{out}` 和 :math:`W^\prime_{out} + strides[2]` 之间(不包含 :math:`W^\prime_{out} + strides[2]` )。 由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。 @@ -83,7 +91,12 @@ conv3d_transpose - **num_filters** (int) - 滤波器(卷积核)的个数,与输出的图片的通道数相同。 - **output_size** (int|tuple,可选) - 输出图片的大小。如果output_size是一个元组,则必须包含三个整型数,(output_size_depth,output_size_height,output_size_width)。如果output_size=None,则内部会使用filter_size、padding和stride来计算output_size。如果output_size和filter_size是同时指定的,那么它们应满足上面的公式。默认:None。output_size和filter_size不能同时为None。 - **filter_size** (int|tuple,可选) - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_depth,filter_size_height, filter_size_width)。否则,filter_size_depth = filter_size_height = filter_size_width = filter_size。如果filter_size=None,则必须指定output_size, ``conv2d_transpose`` 内部会根据output_size、padding和stride计算出滤波器大小。默认:None。output_size和filter_size不能同时为None。 - - **padding** (int|list|tuple|str,可选) - 填充padding大小。padding参数在输入特征层每边添加 ``dilation * (kernel_size - 1) - padding`` 个0。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含5个二元组:当 ``data_format`` 为"NCDHW"时为 [[0,0], [0,0], [pad_depth_front, pad_depth_back], [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right]],当 ``data_format`` 为"NDHWC"时为[[0,0], [pad_depth_front, pad_depth_back], [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right], [0,0]];(2)包含6个整数值:[pad_depth_front, pad_depth_back, pad_height_top, pad_height_bottom, pad_width_left, pad_width_right];(3)包含3个整数值:[pad_depth, pad_height, pad_width],此时 pad_depth_front = pad_depth_back = pad_depth, pad_height_top = pad_height_bottom = pad_height, pad_width_left = pad_width_right = pad_width。若为一个整数,pad_depth = pad_height = pad_width = padding。默认值:0。 + - **padding** (int|list|tuple|str,可选) - 填充padding大小。padding参数在输入特征层每边添加 ``dilation * (kernel_size - 1) - padding`` 个0。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式: + + - (1)包含5个二元组:当 ``data_format`` 为"NCDHW"时为 [[0,0], [0,0], [pad_depth_front, pad_depth_back], [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right]],当 ``data_format`` 为"NDHWC"时为[[0,0], [pad_depth_front, pad_depth_back], [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right], [0,0]]; + - (2)包含6个整数值:[pad_depth_front, pad_depth_back, pad_height_top, pad_height_bottom, pad_width_left, pad_width_right]; + - (3)包含3个整数值:[pad_depth, pad_height, pad_width],此时 pad_depth_front = pad_depth_back = pad_depth, pad_height_top = pad_height_bottom = pad_height, pad_width_left = pad_width_right = pad_width。若为一个整数,pad_depth = pad_height = pad_width = padding。默认值:0。 + - **stride** (int|tuple,可选) - 步长stride大小。滤波器和输入进行卷积计算时滑动的步长。如果stride是一个元组,那么元组的形式为(stride_depth,stride_height,stride_width)。否则,stride_depth = stride_height = stride_width = stride。默认:stride = 1。 - **dilation** (int|tuple,可选) - 膨胀比例dilation大小。空洞卷积时会指该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息,根据 `可视化效果图 `_ 较好理解。如果膨胀比例dilation是一个元组,那么元组的形式为(dilation_depth,dilation_height, dilation_width)。否则,dilation_depth = dilation_height = dilation_width = dilation。默认:dilation= 1。 - **groups** (int,可选) - 三维转置卷积层的组数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,输入和滤波器分别根据通道数量平均分为两组,第一组滤波器和第一组输入进行卷积计算,第二组滤波器和第二组输入进行卷积计算。默认:group = 1。 diff --git a/docs/api/paddle/static/nn/crf_decoding_cn.rst b/docs/api/paddle/static/nn/crf_decoding_cn.rst index bad3da80609..32998eeb60c 100644 --- a/docs/api/paddle/static/nn/crf_decoding_cn.rst +++ b/docs/api/paddle/static/nn/crf_decoding_cn.rst @@ -6,7 +6,6 @@ crf_decoding .. py:function:: paddle.static.nn.crf_decoding(input, param_attr, label=None, length=None) -:api_attr: 声明式编程模式(静态图) 该层读取由 :ref:`cn_api_fluid_layers_linear_chain_crf` 学习的 emission feature weights(发射状态特征的权重)和 transition feature weights (转移特征的权重) 进行解码。 @@ -26,11 +25,11 @@ crf_decoding - **input** (Tensor) — 一个形为 [N x D] 的 LoDTensor,其中 N 是mini-batch的大小,D是标注(tag) 的总数; 或者形为 [B x S x D] 的普通 Tensor,B 是批次大小,S 是序列最大长度,D 是标注的总数。 该输入是 :ref:`cn_api_fluid_layers_linear_chain_crf`` 的 unscaled emission weight matrix (未标准化的发射权重矩阵)。数据类型为 float32 或者 float64。 - **param_attr** (ParamAttr,可选) :指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_guide_ParamAttr` 。 - **label** (Tensor,可选) — 形为 [N x 1] 的正确标注(ground truth)(LoDTensor 模式),或者形状为 [B x S]。 有关该参数的更多信息,请详见上述描述。数据类型为 int64。 - - **length** (Tensor,可选) — 形状为 [B x 1], 表示输入序列的真实长度。该输入非 None,表示该层工作在 padding 模式下,即 ``input`` 和 ``label`` 都是带 padding 的普通 Tensor。数据类型为 int64。 + - **length** (Tensor,可选) — 形状为 [B x 1],表示输入序列的真实长度。该输入非 None,表示该层工作在 padding 模式下,即 ``input`` 和 ``label`` 都是带 padding 的普通 Tensor。数据类型为 int64。 返回 :::::::::::: -Tensor, 解码结果具体内容根据 ``Label`` 参数是否提供而定,请参照上面的介绍来详细了解。 +Tensor,解码结果具体内容根据 ``Label`` 参数是否提供而定,请参照上面的介绍来详细了解。 代码示例 diff --git a/docs/api/paddle/static/nn/data_norm_cn.rst b/docs/api/paddle/static/nn/data_norm_cn.rst index bfb2ac4e8cc..31ef6fcc1c0 100644 --- a/docs/api/paddle/static/nn/data_norm_cn.rst +++ b/docs/api/paddle/static/nn/data_norm_cn.rst @@ -47,11 +47,8 @@ data_norm 返回 :::::::::::: - 张量变量,是对输入数据进行正则化后的结果。 +Tensor,是对输入数据进行正则化后的结果。 -返回类型 -:::::::::::: - Tensor 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/deform_conv2d_cn.rst b/docs/api/paddle/static/nn/deform_conv2d_cn.rst index 658d7d88516..c3697039798 100644 --- a/docs/api/paddle/static/nn/deform_conv2d_cn.rst +++ b/docs/api/paddle/static/nn/deform_conv2d_cn.rst @@ -19,13 +19,14 @@ deform_conv2d op对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor :math:`y(p) = \sum_{k=1}^{K}{w_k * x(p + p_k + \Delta p_k)}` -其中 :math:`\Delta p_k` 和 :math:`\Delta m_k` 分别为第k个位置的可学习偏移和调制标量。在deform_conv2d_v1中 :math:`\Delta m_k` 为1. +其中 :math:`\Delta p_k` 和 :math:`\Delta m_k` 分别为第k个位置的可学习偏移和调制标量。在deform_conv2d_v1中 :math:`\Delta m_k` 为1。 具体细节可以参考论文:`<> `_ 和 `<> `_ 。 **示例** 输入: + input 形状: :math:`(N, C_{in}, H_{in}, W_{in})` 卷积核形状: :math:`(C_{out}, C_{in}, H_f, W_f)` @@ -35,6 +36,7 @@ deform_conv2d op对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor mask 形状: :math:`(N, deformable\_groups * H_f * H_w, H_{in}, W_{in})` 输出: + 输出形状: :math:`(N, C_{out}, H_{out}, W_{out})` 其中 @@ -51,27 +53,23 @@ deform_conv2d op对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor - **x** (Tensor) - 形状为 :math:`[N, C, H, W]` 的输入Tensor,数据类型为float32或float64。 - **offset** (Tensor) – 可变形卷积层的输入坐标偏移,数据类型为float32或float64。 - - **mask** (Tensor, 可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 + - **mask** (Tensor,可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 - **num_filters** (int) – 卷积核数,与输出Tensor通道数相同。 - **filter_size** (int|tuple) – 卷积核大小。如果filter_size为元组,则必须包含两个整数(filter_size_H, filter_size_W)。若数据类型为int,卷积核形状为(filter_size, filter_size)。 - - **stride** (int|tuple, 可选) – 步长大小。如果stride为元组,则必须包含两个整数(stride_H, stride_W)。否则stride_H = stride_W = stride。默认值为1。 - - **padding** (int|tuple, 可选) – padding大小。如果padding为元组,则必须包含两个整数(padding_H, padding_W)。否则padding_H = padding_W = padding。默认值为0。 - - **dilation** (int|tuple, 可选) – dilation大小。如果dilation为元组,则必须包含两个整数(dilation_H, dilation_W)。否则dilation_H = dilation_W = dilation。默认值为1。 - - **groups** (int, 可选) – 卷积组数。依据Alex Krizhevsky的Deep CNN论文中的分组卷积,有:当group=2时,前一半卷积核只和前一半输入通道有关,而后一半卷积核只和后一半输入通道有关。默认值为1。 - - **deformable_groups** (int, 可选) – 可变形卷积组数。默认值为1。 - - **im2col_step** (int, 可选) – 每个im2col计算的最大图像数。总batch大小应可以被该值整除或小于该值。如果您面临内存问题,可以尝试在此处使用一个较小的值。默认值为1。 + - **stride** (int|tuple,可选) – 步长大小。如果stride为元组,则必须包含两个整数(stride_H, stride_W)。否则stride_H = stride_W = stride。默认值为1。 + - **padding** (int|tuple,可选) – padding大小。如果padding为元组,则必须包含两个整数(padding_H, padding_W)。否则padding_H = padding_W = padding。默认值为0。 + - **dilation** (int|tuple,可选) – dilation大小。如果dilation为元组,则必须包含两个整数(dilation_H, dilation_W)。否则dilation_H = dilation_W = dilation。默认值为1。 + - **groups** (int,可选) – 卷积组数。依据Alex Krizhevsky的Deep CNN论文中的分组卷积,有:当group=2时,前一半卷积核只和前一半输入通道有关,而后一半卷积核只和后一半输入通道有关。默认值为1。 + - **deformable_groups** (int,可选) – 可变形卷积组数。默认值为1。 + - **im2col_step** (int,可选) – 每个im2col计算的最大图像数。总batch大小应可以被该值整除或小于该值。如果您面临内存问题,可以尝试在此处使用一个较小的值。默认值为1。 - **weight_attr** (ParamAttr,可选) – 可变形卷积的可学习权重的属性。如果将其设置为None或某种ParamAttr,可变形卷积将创建ParamAttr作为weight_attr。如果没有设置此weight_attr的Initializer,该参数将被Normal(0.0, std)初始化,且其中的std为 :math:`(\frac{2.0 }{filter\_elem\_num})^{0.5}` 。默认值为None。 - **bias_attr** (ParamAttr|bool,可选) – 可变形卷积层的偏置的参数属性。如果设为False,则输出单元不会加偏置。如果设为None或者某种ParamAttr,conv2d会创建ParamAttr作为bias_attr。如果不设置bias_attr的Initializer,偏置会被初始化为0。默认值为None。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -Tensor, 可变形卷积输出的4-D Tensor,数据类型为float32或float64。 +Tensor,可变形卷积输出的4-D Tensor,数据类型为float32或float64。 -抛出异常 -:::::::::::: -ValueError – 如果input, filter_size, stride, padding和groups的大小不匹配。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/embedding_cn.rst b/docs/api/paddle/static/nn/embedding_cn.rst index 4197e5c48d5..efe934c6df3 100644 --- a/docs/api/paddle/static/nn/embedding_cn.rst +++ b/docs/api/paddle/static/nn/embedding_cn.rst @@ -9,13 +9,14 @@ embedding -嵌入层(Embedding Layer) +**嵌入层(Embedding Layer)** 该OP根据input中的id信息从embedding矩阵中查询对应embedding信息,并会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。 输出的Tensor的shape是将输入Tensor shape的会在输出的embedding最后追加一维emb_size。 -注:input中的id必须满足 ``0 =< id < size[0]``,否则程序会抛异常退出。 +.. note:: +input中的id必须满足 ``0 =< id < size[0]``,否则程序会抛异常退出。 :: @@ -71,11 +72,8 @@ embedding 返回 :::::::::::: -input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 +Variable,input映射后得到的Embedding Tensor或LoDTensor,数据类型和dtype定义的类型一致。 -返回类型 -:::::::::::: -Variable 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/fc_cn.rst b/docs/api/paddle/static/nn/fc_cn.rst index a8a8637eadf..62544cb97a6 100755 --- a/docs/api/paddle/static/nn/fc_cn.rst +++ b/docs/api/paddle/static/nn/fc_cn.rst @@ -29,12 +29,12 @@ fc 其中: -- :math:`M` :输入Tensor的个数。如果输入是Tensor列表,:math:`M` 等于 :math:`len(X)` -- :math:`X_i` :第i个输入Tensor -- :math:`W_i` :对应第i个输入Tensor的权重矩阵 -- :math:`b` :偏置参数 -- :math:`Act` :activation function (激活函数) -- :math:`Out` :输出Tensor +- :math:`M` :输入Tensor的个数。如果输入是Tensor列表,:math:`M` 等于 :math:`len(X)`; +- :math:`X_i` :第i个输入Tensor; +- :math:`W_i` :对应第i个输入Tensor的权重矩阵; +- :math:`b` :偏置参数; +- :math:`Act` :activation function (激活函数); +- :math:`Out` :输出Tensor。 .. code-block:: text @@ -71,9 +71,9 @@ fc - **x** (Tensor|list of Tensor) – 一个多维Tensor或由多个Tensor组成的list,每个输入Tensor的维度至少是2。数据类型可以为float16,float32或float64。 - **size** (int) – 全连接层输出单元的数目,即输出Tensor的特征维度。 - **num_flatten_dims** (int) – 输入可以接受维度大于2的Tensor。在计算时,输入首先会被扁平化为一个二维矩阵,之后再与权重相乘。参数 :attr:`num_flatten_dims` 决定了输入Tensor扁平化的方式: 前 :math:`num\_flatten\_dims` (包含边界,从1开始数) 个维度会被扁平化为二维矩阵的第一维 (即为矩阵的高), 剩下的 :math:`rank(x) - num\_flatten\_dims` 维被扁平化为二维矩阵的第二维 (即矩阵的宽)。 例如, 假设 :attr:`x` 是一个五维的Tensor,其形状为 :math:`[2, 3, 4, 5, 6]` , :attr:`num_flatten_dims` = 3时扁平化后的矩阵形状为 :math:`[2 * 3 * 4, 5 * 6] = [24, 30]` ,最终输出Tensor的形状为 :math:`[2, 3, 4, size]` 。默认值为1。 -- **weight_attr** (ParamAttr, 可选) – 指定权重参数的属性。默认值为None,表示使用默认的权重参数属性,将权重参数初始化为0。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。注意:如果该api输入x为一个张量的数组,那**weight_attr**也应该是一个同样长度的数组,并且与x数组一一对应。 -- **bias_attr** (ParamAttr|bool, 可选) – 指定偏置参数的属性。:attr:`bias_attr` 为bool类型且设置为False时,表示不会为该层添加偏置。 :attr:`bias_attr` 如果设置为True或者None,则表示使用默认的偏置参数属性,将偏置参数初始化为0。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。默认值为None。 -- **activation** (str, 可选) – 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 +- **weight_attr** (ParamAttr,可选) – 指定权重参数的属性。默认值为None,表示使用默认的权重参数属性,将权重参数初始化为0。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。注意:如果该api输入x为一个张量的数组,那**weight_attr**也应该是一个同样长度的数组,并且与x数组一一对应。 +- **bias_attr** (ParamAttr|bool,可选) – 指定偏置参数的属性。:attr:`bias_attr` 为bool类型且设置为False时,表示不会为该层添加偏置。 :attr:`bias_attr` 如果设置为True或者None,则表示使用默认的偏置参数属性,将偏置参数初始化为0。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。默认值为None。 +- **activation** (str,可选) – 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 @@ -83,11 +83,6 @@ fc Tensor,形状为 :math:`[batch\_size, *, size]` ,数据类型与输入Tensor相同。 -抛出异常 -::::::::: - -- :math:`ValueError` - 如果输入Tensor的维度小于2 - 代码示例 ::::::::: diff --git a/docs/api/paddle/static/nn/group_norm_cn.rst b/docs/api/paddle/static/nn/group_norm_cn.rst index 1da9391908b..b3c4fb80abe 100755 --- a/docs/api/paddle/static/nn/group_norm_cn.rst +++ b/docs/api/paddle/static/nn/group_norm_cn.rst @@ -6,7 +6,7 @@ group_norm .. py:function:: paddle.static.nn.group_norm(input, groups, epsilon=1e-05, param_attr=None, bias_attr=None, act=None, data_layout='NCHW', name=None) -参考论文: `Group Normalization `_ +论文参考: `Group Normalization `_ 参数 ::::::::: diff --git a/docs/api/paddle/static/nn/instance_norm_cn.rst b/docs/api/paddle/static/nn/instance_norm_cn.rst index a04cdeb7573..e40c18f82ec 100644 --- a/docs/api/paddle/static/nn/instance_norm_cn.rst +++ b/docs/api/paddle/static/nn/instance_norm_cn.rst @@ -36,11 +36,8 @@ NCHW[batch,in_channels,in_height,in_width] 返回 :::::::::::: - 张量,在输入中运用instance normalization后的结果 +Tensor,在输入中运用instance normalization后的结果。 -返回类型 -:::::::::::: -变量(Tensor) 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/layer_norm_cn.rst b/docs/api/paddle/static/nn/layer_norm_cn.rst index 8e19eed0850..f2625f9a5cc 100644 --- a/docs/api/paddle/static/nn/layer_norm_cn.rst +++ b/docs/api/paddle/static/nn/layer_norm_cn.rst @@ -9,7 +9,9 @@ layer_norm -该OP实现了层归一化层(Layer Normalization Layer),其可以应用于小批量输入数据。更多详情请参考:`Layer Normalization `_ +该OP实现了层归一化层(Layer Normalization Layer),其可以应用于小批量输入数据。 + +论文参考:`Layer Normalization `_ 计算公式如下 @@ -20,24 +22,24 @@ layer_norm \\y=f(\frac{g}{\sigma}(x-\mu) + b)\\ -- :math:`x` : 该层神经元的向量表示 -- :math:`H` : 层中隐藏神经元个数 -- :math:`\epsilon` : 添加较小的值到方差中以防止除零 -- :math:`g` : 可训练的比例参数 -- :math:`b` : 可训练的偏差参数 +- :math:`x` : 该层神经元的向量表示; +- :math:`H` : 层中隐藏神经元个数; +- :math:`\epsilon` : 添加较小的值到方差中以防止除零; +- :math:`g` : 可训练的比例参数; +- :math:`b` : 可训练的偏差参数。 参数 :::::::::::: - **input** (Tensor) - 维度为任意维度的多维 ``Tensor`` ,数据类型为float32或float64。 - - **scale** (bool, 可选) - 指明是否在归一化后学习自适应增益 ``g`` 。默认值:True。 - - **shift** (bool, 可选) - 指明是否在归一化后学习自适应偏差 ``b`` 。默认值:True。 - - **begin_norm_axis** (int, 可选) - 指明归一化将沿着 ``begin_norm_axis`` 到 ``rank(input)`` 的维度执行。默认值:1。 - - **epsilon** (float, 可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。 - - **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - - **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - - **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 - - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。。 + - **scale** (bool,可选) - 指明是否在归一化后学习自适应增益 ``g`` 。默认值:True。 + - **shift** (bool,可选) - 指明是否在归一化后学习自适应偏差 ``b`` 。默认值:True。 + - **begin_norm_axis** (int,可选) - 指明归一化将沿着 ``begin_norm_axis`` 到 ``rank(input)`` 的维度执行。默认值:1。 + - **epsilon** (float,可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。 + - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 + - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 + - **act** (str,可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 + - **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: diff --git a/docs/api/paddle/static/nn/multi_box_head_cn.rst b/docs/api/paddle/static/nn/multi_box_head_cn.rst index a9b3d928296..c44e87f8b01 100644 --- a/docs/api/paddle/static/nn/multi_box_head_cn.rst +++ b/docs/api/paddle/static/nn/multi_box_head_cn.rst @@ -9,7 +9,9 @@ multi_box_head -基于SSD(Single Shot MultiBox Detector)算法,在不同层输入特征上提取先验框、计算回归的坐标位置和分类的置信度,并合并到一起作为输出,具体参数解释和输出格式参考下面说明。更详细信息,请参阅SSD论文 `SSD:Single Shot MultiBox Detector `_ 的2.2节。 +基于SSD(Single Shot MultiBox Detector)算法,在不同层输入特征上提取先验框、计算回归的坐标位置和分类的置信度,并合并到一起作为输出,具体参数解释和输出格式参考下面说明。更详细信息,请参阅SSD论文的2.2节。 + +论文参考:`SSD:Single Shot MultiBox Detector `_ 。 参数 :::::::::::: @@ -51,18 +53,19 @@ multi_box_head 返回 :::::::::::: +list(Variable) | tuple(Variable) + - **mbox_loc(Variable)** - 预测框的回归位置。格式为[N,num_priors,4],其中 ``N`` 是batch size, ``num_priors`` 是总共提取的先验框的个数。 - **mbox_conf(Variable)** - 预测框的分类信度。格式为[N,num_priors,C],其中 ``num_priors`` 同上,C是类别数。 - **boxes(Variable)** - 提取的先验框。布局是[num_priors,4], ``num_priors`` 同上,常量4是坐标个数。 - **variances(Variable)** - 提取的先验框方差。布局是[num_priors,4], ``num_priors`` 同上。 -返回类型 -:::::::::::: -list(Variable) | tuple(Variable) -代码示例 1: 设置min_ratio和max_ratio +代码示例 1 :::::::::::: +设置min_ratio和max_ratio + .. code-block:: python import paddle @@ -88,9 +91,11 @@ list(Variable) | tuple(Variable) flip=True, clip=True) -代码示例 2: 设置min_sizes和max_sizes +代码示例 2: :::::::::::: +设置min_sizes和max_sizes + .. code-block:: python import paddle diff --git a/docs/api/paddle/static/nn/nce_cn.rst b/docs/api/paddle/static/nn/nce_cn.rst index e0cc16840cc..6eb9f7b9edc 100644 --- a/docs/api/paddle/static/nn/nce_cn.rst +++ b/docs/api/paddle/static/nn/nce_cn.rst @@ -9,10 +9,11 @@ nce -计算并返回噪音对比估计损失值( noise-contrastive estimation training loss)。 -请参考 `Noise-contrastive estimation: A new estimation principle for unnormalized statistical models +计算并返回噪音对比估计损失值( noise-contrastive estimation training loss)。该层默认使用均匀分布进行抽样。 + +论文参考: `Noise-contrastive estimation: A new estimation principle for unnormalized statistical models `_ -该层默认使用均匀分布进行抽样。 + 参数 :::::::::::: @@ -26,18 +27,14 @@ nce - **num_neg_samples** (int) - 负样例的数量,默认值是10。 - **name** (str,可选) - 该layer的名称,具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 - **sampler** (str,可选) – 采样器,用于从负类别中进行取样。可以是 ``uniform``, ``log_uniform`` 或 ``custom_dist`` , 默认 ``uniform`` 。 - - **custom_dist** (nd.array, 可选) – 第0维的长度为 ``num_total_classes`` 。 如果采样器类别为 ``custom_dist`` ,则使用此参数。custom_dist[i] 是第i个类别被取样的概率。默认为 None - - **seed** (int,可选) – 采样器使用的seed。默认为0 + - **custom_dist** (nd.array,可选) – 第0维的长度为 ``num_total_classes`` 。 如果采样器类别为 ``custom_dist`` ,则使用此参数。custom_dist[i] 是第i个类别被取样的概率。默认为 None。 + - **seed** (int,可选) – 采样器使用的seed。默认为0。 - **is_sparse** (bool,可选) – 标志位,指明是否使用稀疏更新, 为 ``True`` 时 :math:`weight@GRAD` 和 :math:`bias@GRAD` 的类型会变为 SelectedRows。默认为 ``False`` 。 返回 :::::::::::: - nce loss,数据类型与 **input** 相同 - -返回类型 -:::::::::::: - Tensor - +Tensor,nce loss,数据类型与 **input** 相同。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/prelu_cn.rst b/docs/api/paddle/static/nn/prelu_cn.rst index 5703277d3ad..794de5dff44 100644 --- a/docs/api/paddle/static/nn/prelu_cn.rst +++ b/docs/api/paddle/static/nn/prelu_cn.rst @@ -12,11 +12,9 @@ prelu激活函数 共提供三种激活方式: -.. code-block:: text - - all: 所有元素使用同一个alpha值 - channel: 在同一个通道中的元素使用同一个alpha值 - element: 每一个元素有一个独立的alpha值 + - all: 所有元素使用同一个alpha值; + - channel: 在同一个通道中的元素使用同一个alpha值; + - element: 每一个元素有一个独立的alpha值。 参数 @@ -31,7 +29,7 @@ prelu激活函数 返回 :::::::::::: - 表示激活输出Tensor,数据类型和形状于输入相同。 +表示激活输出Tensor,数据类型和形状于输入相同。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/row_conv_cn.rst b/docs/api/paddle/static/nn/row_conv_cn.rst index 0887aba7be8..63bdf2b0073 100644 --- a/docs/api/paddle/static/nn/row_conv_cn.rst +++ b/docs/api/paddle/static/nn/row_conv_cn.rst @@ -6,15 +6,11 @@ row_conv .. py:function:: paddle.static.nn.row_conv(input, future_context_size, param_attr=None, act=None) -:api_attr: 声明式编程模式(静态图) +该接口为行卷积(Row-convolution operator)或称之为超前卷积(lookahead convolution),最早介绍于DeepSpeech2论文中,双向的RNN在深度语音模型中很有用,它通过对整个序列执行正向和反向传递来学习序列的表示。 -该接口为行卷积(Row-convolution operator)或称之为超前卷积(lookahead convolution),最早介绍于DeepSpeech2论文中,论文链接: - - ``_ - -双向的RNN在深度语音模型中很有用,它通过对整个序列执行正向和反向传递来学习序列的表示。然而,与单向RNNs不同的是,在线部署和低延迟设置中,双向RNNs具有难度。超前卷积将来自未来子序列的信息以一种高效的方式进行计算,以改进单向递归神经网络。 row convolution operator 与一维序列卷积不同,计算方法如下: +然而,与单向RNNs不同的是,在线部署和低延迟设置中,双向RNNs具有难度。超前卷积将来自未来子序列的信息以一种高效的方式进行计算,以改进单向递归神经网络。 row convolution operator 与一维序列卷积不同,计算方法如下: 给定输入序列长度为 :math:`t` 的输入序列 :math:`X` 和输入维度 :math:`D` ,以及一个大小为 :math:`context * D` 的滤波器 :math:`W` ,输出序列卷积为: @@ -27,15 +23,17 @@ row_conv - :math:`X_j` : 第j行输出变量,形为[1,D] - :math:`W_{j-i}` : 第(j-i)行参数,其形状为[1,D]。 -详细请参考 `设计文档 `_ 。 +详细请参考 `设计文档 `_ 。 +论文链接:`Deep Speech 2: End-to-End Speech Recognition in English and Mandarin `_。 + 参数 :::::::::::: - - **input** (Tensor) -- 支持输入为LodTensor和Tensor,输入类型可以是[float32, float64],它支持可变时间长度的输入序列。当输入input为LodTensor时,其内部张量是一个具有形状(T x N)的矩阵,其中T是这个mini batch中的总的timestep,N是输入数据维数。当输入input为Tensor时,其形状为(B x T x N)的三维矩阵,B为mini batch大小,T为每个batch输入中的最大timestep,N是输入数据维数。当输入input为LoDTensor,形状为[9, N],LoD信息为[2, 3, 4],等价于输入input为形状是[3, 4, N]的Tensor。 - - **future_context_size** (int) -- 下文大小。请注意,卷积核的shape是[future_context_size + 1, N],N和输入input的数据维度N保持一致。 - - **param_attr** (ParamAttr) -- 参数的属性,包括名称、初始化器等。 - - **act** (str) -- 非线性激活函数。 + - **input** (Tensor) - 支持输入为LodTensor和Tensor,输入类型可以是[float32, float64],它支持可变时间长度的输入序列。当输入input为LodTensor时,其内部张量是一个具有形状(T x N)的矩阵,其中T是这个mini batch中的总的timestep,N是输入数据维数。当输入input为Tensor时,其形状为(B x T x N)的三维矩阵,B为mini batch大小,T为每个batch输入中的最大timestep,N是输入数据维数。当输入input为LoDTensor,形状为[9, N],LoD信息为[2, 3, 4],等价于输入input为形状是[3, 4, N]的Tensor。 + - **future_context_size** (int) - 下文大小。请注意,卷积核的shape是[future_context_size + 1, N],N和输入input的数据维度N保持一致。 + - **param_attr** (ParamAttr) - 参数的属性,包括名称、初始化器等。 + - **act** (str) - 非线性激活函数。 返回 :::::::::::: diff --git a/docs/api/paddle/static/nn/sequence_concat_cn.rst b/docs/api/paddle/static/nn/sequence_concat_cn.rst index 414468f7da4..501804efcc4 100644 --- a/docs/api/paddle/static/nn/sequence_concat_cn.rst +++ b/docs/api/paddle/static/nn/sequence_concat_cn.rst @@ -6,7 +6,8 @@ sequence_concat .. py:function:: paddle.static.nn.sequence_concat(input, name=None) -**注意:该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.concat ` .** +.. note:: +该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.concat ` 。 **该OP仅支持LoDTensor** ,通过LoDTensor的LoD信息将输入的多个LoDTensor进行连接(concat),输出连接后的LoDTensor。 @@ -33,12 +34,12 @@ sequence_concat 参数 ::::::::: - - **input** (list of Variable) – 多个LoDTensor组成的list,要求每个输入LoDTensor的LoD长度必须一致。数据类型为float32,float64或int64。 + - **input** (list of Variable) – 多个LoDTensor组成的list,要求每个输入LoDTensor的LoD长度必须一致。数据类型为float32、float64或int64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 ::::::::: -Tensor, 输出连接后的LoDTensor,数据类型和输入一致。 +Tensor,输出连接后的LoDTensor,数据类型和输入一致。 代码示例 ::::::::: diff --git a/docs/api/paddle/static/nn/sequence_conv_cn.rst b/docs/api/paddle/static/nn/sequence_conv_cn.rst index a053704132a..b3b7610a702 100644 --- a/docs/api/paddle/static/nn/sequence_conv_cn.rst +++ b/docs/api/paddle/static/nn/sequence_conv_cn.rst @@ -6,11 +6,12 @@ sequence_conv .. py:function:: paddle.static.nn.sequence_conv(input, num_filters, filter_size=3, filter_stride=1, padding=True, padding_start=None, bias_attr=None, param_attr=None, act=None, name=None) -**注意:该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.nn.functional.conv2d ` .** +.. note:: +1. 该API的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.nn.functional.conv2d ` 。 +2. 参数 ``padding`` 为无用参数,将在未来的版本中被移除。 -该OP在给定的卷积参数下(如卷积核数目、卷积核大小等),对输入的变长序列(sequence)LoDTensor进行卷积操作。默认情况下,该OP会自适应地在每个输入序列的两端等长地填充全0数据,以确保卷积后的序列输出长度和输入长度一致。支持通过配置 ``padding_start`` 参数来指定序列填充的行为。 -**提示:** 参数 ``padding`` 为无用参数,将在未来的版本中被移除。 +在给定的卷积参数下(如卷积核数目、卷积核大小等),对输入的变长序列(sequence)LoDTensor进行卷积操作。默认情况下,该OP会自适应地在每个输入序列的两端等长地填充全0数据,以确保卷积后的序列输出长度和输入长度一致。支持通过配置 ``padding_start`` 参数来指定序列填充的行为。 :: @@ -53,13 +54,13 @@ sequence_conv - **input** (Variable) - 维度为 :math:`(M, K)` 的二维LoDTensor,仅支持lod_level为1。其中M是mini-batch的总时间步数,K是输入的 ``hidden_size`` 特征维度。数据类型为float32或float64。 - **num_filters** (int) - 滤波器的数量。 - - **filter_size** (int, 可选) - 滤波器的高度(H);不支持指定滤波器宽度(W),宽度固定取值为输入的 ``hidden_size`` 。默认值为3。 - - **filter_stride** (int, 可选) - 滤波器每次移动的步长。目前只支持取值为1,默认为1。 - - **padding** (bool, 可选) - **此参数不起任何作用,将在未来的版本中被移除。** 无论 ``padding`` 取值为False或者True,默认地,该函数会自适应地在每个输入序列的两端等长地填充全0数据,以确保卷积后的输出序列长度和输入长度一致。默认填充是考虑到输入的序列长度可能会小于卷积核大小,这会导致无正确计算卷积输出。填充为0的数据在训练过程中不会被更新。默认为True。 - - **padding_start** (int, 可选) - 表示对输入序列填充时的起始位置,可以为负值。负值表示在每个序列的首端填充 ``|padding_start|`` 个时间步(time_step)的全0数据;正值表示对每个序列跳过前 ``padding_start`` 个时间步的数据。同时在末端填充 :math:`filter\_size + padding\_start - 1` 个时间步的全0数据,以保证卷积输出序列长度和输入长度一致。如果 ``padding_start`` 为None,则在每个序列的两端填充 :math:`\frac{filter\_size}{2}` 个时间步的全0数据;如果 ``padding_start`` 设置为0,则只在序列的末端填充 :math:`filter\_size - 1` 个时间步的全0数据。默认为None。 - - **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - - **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - - **act** (str, 可选) – 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 + - **filter_size** (int,可选) - 滤波器的高度(H);不支持指定滤波器宽度(W),宽度固定取值为输入的 ``hidden_size`` 。默认值为3。 + - **filter_stride** (int,可选) - 滤波器每次移动的步长。目前只支持取值为1,默认为1。 + - **padding** (bool,可选) - **此参数不起任何作用,将在未来的版本中被移除。** 无论 ``padding`` 取值为False或者True,默认地,该函数会自适应地在每个输入序列的两端等长地填充全0数据,以确保卷积后的输出序列长度和输入长度一致。默认填充是考虑到输入的序列长度可能会小于卷积核大小,这会导致无正确计算卷积输出。填充为0的数据在训练过程中不会被更新。默认为True。 + - **padding_start** (int,可选) - 表示对输入序列填充时的起始位置,可以为负值。负值表示在每个序列的首端填充 ``|padding_start|`` 个时间步(time_step)的全0数据;正值表示对每个序列跳过前 ``padding_start`` 个时间步的数据。同时在末端填充 :math:`filter\_size + padding\_start - 1` 个时间步的全0数据,以保证卷积输出序列长度和输入长度一致。如果 ``padding_start`` 为None,则在每个序列的两端填充 :math:`\frac{filter\_size}{2}` 个时间步的全0数据;如果 ``padding_start`` 设置为0,则只在序列的末端填充 :math:`filter\_size - 1` 个时间步的全0数据。默认为None。 + - **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 + - **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 + - **act** (str,可选) – 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 diff --git a/docs/api/paddle/static/nn/sequence_enumerate_cn.rst b/docs/api/paddle/static/nn/sequence_enumerate_cn.rst index 5649464378a..6b080dea234 100644 --- a/docs/api/paddle/static/nn/sequence_enumerate_cn.rst +++ b/docs/api/paddle/static/nn/sequence_enumerate_cn.rst @@ -8,7 +8,8 @@ sequence_enumerate 枚举形状为 ``[d_1, 1]`` 的输入序列所有长度为 ``win_size`` 的子序列,生成一个形状为 ``[d_1, win_size]`` 的新序列,需要时以 ``pad_value`` 填充。 -注意,该OP的输入 ``input`` 只能是LodTensor。 +.. note:: +该API的输入 ``input`` 只能是LodTensor。 范例如下: diff --git a/docs/api/paddle/static/nn/sequence_expand_as_cn.rst b/docs/api/paddle/static/nn/sequence_expand_as_cn.rst index cefd2fd2e93..0fa0674744b 100644 --- a/docs/api/paddle/static/nn/sequence_expand_as_cn.rst +++ b/docs/api/paddle/static/nn/sequence_expand_as_cn.rst @@ -8,7 +8,8 @@ sequence_expand_as Sequence Expand As Layer,该OP根据输入 ``y`` 的第0级lod对输入 ``x`` 进行扩展。当前实现要求 ``y`` 的lod层数(level)必须为1,且 ``x`` 的第一维必须和 ``y`` 的第0层lod大小相同,所以扩展后的LodTensor具有和 ``y`` 相同的lod。扩展结果与输入 ``x`` 的lod无关,所以无需考虑 ``x`` 的lod。 -注意,该OP的输入 ``x`` 可以是Tensor或LoDTensor, ``y`` 只能是LodTensor。 +.. note:: +该API的输入 ``x`` 可以是Tensor或LoDTensor, ``y`` 只能是LodTensor。 范例解释如下: diff --git a/docs/api/paddle/static/nn/sequence_expand_cn.rst b/docs/api/paddle/static/nn/sequence_expand_cn.rst index 55ed9d2f2ec..36a953cb1c4 100644 --- a/docs/api/paddle/static/nn/sequence_expand_cn.rst +++ b/docs/api/paddle/static/nn/sequence_expand_cn.rst @@ -6,13 +6,12 @@ sequence_expand .. py:function:: paddle.static.nn.sequence_expand(x, y, ref_level=-1, name=None) -:api_attr: 声明式编程模式(静态图) - 序列扩张层(Sequence Expand Layer),根据输入 ``y`` 的第 ``ref_level`` 层lod对输入 ``x`` 进行扩展。 ``x`` 的lod level最多为1,若 ``x`` 的lod level为1,则 ``x`` 的lod大小必须与 ``y`` 的第 ``ref_level`` 层lod大小相等;若 ``x`` 的lod level为0,则 ``x`` 的第一维大小必须与 ``y`` 第 ``ref_level`` 层大小相等。 ``x`` 的秩最少为2,当 ``x`` 的秩大于2时,将被当作是一个二维张量处理。 -注意,该OP的输入 ``x`` 可以是Tensor或LodTensor, ``y`` 只能是LodTensor。 +.. note:: +该API的输入 ``x`` 可以是Tensor或LodTensor, ``y`` 只能是LodTensor。 范例解释如下: diff --git a/docs/api/paddle/static/nn/sequence_first_step_cn.rst b/docs/api/paddle/static/nn/sequence_first_step_cn.rst index 90e1db03292..84c1f7ea133 100644 --- a/docs/api/paddle/static/nn/sequence_first_step_cn.rst +++ b/docs/api/paddle/static/nn/sequence_first_step_cn.rst @@ -6,8 +6,10 @@ sequence_first_step .. py:function:: paddle.static.nn.sequence_first_step(input) +.. note:: +该API仅支持LoDTensor类型的输入。 -该OP **仅支持LoDTensor类型的输入** ,将对输入的LoDTensor,在最后一层lod_level上,选取其每个序列(sequence)的第一个时间步(time_step)的特征向量作为池化后的输出向量。 +对输入的LoDTensor,在最后一层lod_level上,选取其每个序列(sequence)的第一个时间步(time_step)的特征向量作为池化后的输出向量。 :: diff --git a/docs/api/paddle/static/nn/sequence_last_step_cn.rst b/docs/api/paddle/static/nn/sequence_last_step_cn.rst index f8f709ade7e..d712f9f99b8 100644 --- a/docs/api/paddle/static/nn/sequence_last_step_cn.rst +++ b/docs/api/paddle/static/nn/sequence_last_step_cn.rst @@ -6,11 +6,11 @@ sequence_last_step .. py:function:: paddle.static.nn.sequence_last_step(input) -:api_attr: 声明式编程模式(静态图) +.. note:: +该API仅支持LoDTensor类型的输入。 - -该OP **仅支持LoDTensor类型的输入** ,将对输入的LoDTensor,在最后一层lod_level上,选取其每个序列(sequence)的最后一个时间步(time-step)的特征向量作为池化后的输出向量。 +对输入的LoDTensor,在最后一层lod_level上,选取其每个序列(sequence)的最后一个时间步(time-step)的特征向量作为池化后的输出向量。 :: diff --git a/docs/api/paddle/static/nn/sequence_pad_cn.rst b/docs/api/paddle/static/nn/sequence_pad_cn.rst index 3c0b942c5d3..59a3b57c562 100644 --- a/docs/api/paddle/static/nn/sequence_pad_cn.rst +++ b/docs/api/paddle/static/nn/sequence_pad_cn.rst @@ -8,7 +8,8 @@ sequence_pad 序列填充操作符(Sequence Pad Operator),该OP将同一batch中的序列填充到一个一致的长度(由 ``maxlen`` 指定)。填充的新元素的值具体由输入 ``pad_value`` 指定,并会添加到每一个序列的末尾,使得他们最终的长度保持一致。最后返回一个Python tuple ``(Out, Length)`` ,其中LodTensor ``Out`` 为填充后的序列,LodTensor ``Length`` 为填充前的原序列长度信息。 -注意,该OP的输入 ``x`` 只能是LodTensor。 +.. note:: +该API的输入 ``x`` 只能是LodTensor。 范例如下: diff --git a/docs/api/paddle/static/nn/sequence_pool_cn.rst b/docs/api/paddle/static/nn/sequence_pool_cn.rst index fe34dd84f94..0e5bfe331d0 100644 --- a/docs/api/paddle/static/nn/sequence_pool_cn.rst +++ b/docs/api/paddle/static/nn/sequence_pool_cn.rst @@ -6,13 +6,12 @@ sequence_pool .. py:function:: paddle.static.nn.sequence_pool(input, pool_type, is_test=False, pad_value=0.0) -:api_attr: 声明式编程模式(静态图) +.. note:: +该API的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.nn.functional.avg_pool2d ` 或 :ref:`paddle.nn.functional.max_pool2d ` 。 -**注意:该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.nn.functional.avg_pool2d ` 或 :ref:`paddle.nn.functional.max_pool2d ` .** - -该OP **仅支持LoDTensor类型的输入** ,将对输入的LoDTensor进行指定方式的池化(pooling)操作。通过指定pool_type参数,将输入的每个序列(sequence)在最后一层lod_level上或时间步(time-step)上对特征进行诸如sum、average、sqrt等池化操作。 +对输入的LoDTensor进行指定方式的池化(pooling)操作。通过指定pool_type参数,将输入的每个序列(sequence)在最后一层lod_level上或时间步(time-step)上对特征进行诸如sum、average、sqrt等池化操作。 支持六种pool_type: diff --git a/docs/api/paddle/static/nn/sequence_reshape_cn.rst b/docs/api/paddle/static/nn/sequence_reshape_cn.rst index bb185d03448..408cde3ba21 100644 --- a/docs/api/paddle/static/nn/sequence_reshape_cn.rst +++ b/docs/api/paddle/static/nn/sequence_reshape_cn.rst @@ -6,13 +6,11 @@ sequence_reshape .. py:function:: paddle.static.nn.sequence_reshape(input, new_dim) -:api_attr: 声明式编程模式(静态图) +.. note:: +该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.reshape ` 。 - -**注意:该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.reshape ` 。** - -**该OP仅支持LoDTensor** ,在指定 ``new_dim`` 参数下,通过序列原始长度、和原始shape计算出新的shape,以输出包含新维度(new_dim)下的LoDTensor。目前仅支持1-level LoDTensor,请确保(原长度*原维数)可以除以新的维数,且每个序列没有余数。 +在指定 ``new_dim`` 参数下,通过序列原始长度、和原始shape计算出新的shape,以输出包含新维度(new_dim)下的LoDTensor。目前仅支持1-level LoDTensor,请确保(原长度*原维数)可以除以新的维数,且每个序列没有余数。 :: diff --git a/docs/api/paddle/static/nn/sequence_reverse_cn.rst b/docs/api/paddle/static/nn/sequence_reverse_cn.rst index f18fd8e4327..9edf44d3215 100644 --- a/docs/api/paddle/static/nn/sequence_reverse_cn.rst +++ b/docs/api/paddle/static/nn/sequence_reverse_cn.rst @@ -6,7 +6,10 @@ sequence_reverse .. py:function:: paddle.static.nn.sequence_reverse(x, name=None) -**该OP仅支持LoDTensor** ,对于输入的LoDTensor,在每个序列(sequence)上进行反转。目前仅支持对LoD层次(LoD level)为1的LoDTensor进行反转。该OP在构建反向 :ref:`cn_api_fluid_layers_DynamicRNN` 网络时十分有用。 +.. note:: +该API仅支持LoDTensor。 + +输入的LoDTensor,在每个序列(sequence)上进行反转。目前仅支持对LoD层次(LoD level)为1的LoDTensor进行反转。该OP在构建反向 :ref:`cn_api_fluid_layers_DynamicRNN` 网络时十分有用。 :: diff --git a/docs/api/paddle/static/nn/sequence_scatter_cn.rst b/docs/api/paddle/static/nn/sequence_scatter_cn.rst index 49dc324f2e7..7d78819a7d8 100644 --- a/docs/api/paddle/static/nn/sequence_scatter_cn.rst +++ b/docs/api/paddle/static/nn/sequence_scatter_cn.rst @@ -6,16 +6,13 @@ sequence_scatter .. py:function:: paddle.static.nn.sequence_scatter(input, index, updates, name=None) -:api_attr: 声明式编程模式(静态图) - - .. note:: 该OP的输入index,updates必须是LoDTensor。 -该OP根据index提供的位置将updates中的信息更新到输出中。 +根据index提供的位置将updates中的信息更新到输出中。 -该OP先使用input初始化output,然后通过output[instance_index][index[pos]] += updates[pos]方式,将updates的信息更新到output中,其中instance_idx是pos对应的在batch中第k个样本。 +先使用input初始化output,然后通过output[instance_index][index[pos]] += updates[pos]方式,将updates的信息更新到output中,其中instance_idx是pos对应的在batch中第k个样本。 output[i][j]的值取决于能否在index中第i+1个区间中找到对应的数据j,若能找到out[i][j] = input[i][j] + update[m][n],否则 out[i][j] = input[i][j]。 diff --git a/docs/api/paddle/static/nn/sequence_slice_cn.rst b/docs/api/paddle/static/nn/sequence_slice_cn.rst index 78ad2d543f5..a36e231238b 100644 --- a/docs/api/paddle/static/nn/sequence_slice_cn.rst +++ b/docs/api/paddle/static/nn/sequence_slice_cn.rst @@ -9,9 +9,13 @@ sequence_slice **实现Sequence Slice(序列切片)运算** -**该OP输入只能是LoDTensor, 如果您需要处理的是Tensor类型,请使用 :ref:`paddle.slice ` 。** 该层从给定序列中截取子序列。截取依据为所给的开始 ``offset`` (偏移量) 和子序列长 ``length`` 。 + +.. note:: +该API输入只能是LoDTensor, 如果您需要处理的是Tensor类型,请使用 :ref:`paddle.slice ` 。 + + :: 输入变量: (1) input (LoDTensor): @@ -44,7 +48,7 @@ sequence_slice 返回 ::::::::: -Tensor, 序列切片运算结果 +Tensor,序列切片运算结果。 代码示例 ::::::::: diff --git a/docs/api/paddle/static/nn/sequence_softmax_cn.rst b/docs/api/paddle/static/nn/sequence_softmax_cn.rst index 7f8f514cf32..380bcca652e 100644 --- a/docs/api/paddle/static/nn/sequence_softmax_cn.rst +++ b/docs/api/paddle/static/nn/sequence_softmax_cn.rst @@ -7,9 +7,9 @@ sequence_softmax .. py:function:: paddle.static.nn.sequence_softmax(input, use_cudnn=False, name=None) .. note:: - 该OP的输入只能是LoDTensor,如果要处理的输入是Tensor类型,请使用 :ref:`paddle.nn.functional.softmax ` . + 该API的输入只能是LoDTensor,如果要处理的输入是Tensor类型,请使用 :ref:`paddle.nn.functional.softmax `。 -该OP根据LoD信息将输入的第0维度进行划分,在划分的每一个区间内部进行运算。 +根据LoD信息将输入的第0维度进行划分,在划分的每一个区间内部进行运算。 对第i个区间内的元素的计算公式如下: diff --git a/docs/api/paddle/static/nn/sequence_unpad_cn.rst b/docs/api/paddle/static/nn/sequence_unpad_cn.rst index b972383390e..189b10dbae2 100644 --- a/docs/api/paddle/static/nn/sequence_unpad_cn.rst +++ b/docs/api/paddle/static/nn/sequence_unpad_cn.rst @@ -11,9 +11,9 @@ sequence_unpad .. note:: - 该OP的输入为Tensor,输出为LoDTensor。该OP用于移除填充元素,与之对应,还存在进行数据填充的OP sequence_pad,详情见: :ref:`cn_api_fluid_layers_sequence_pad` + 该API的输入为Tensor,输出为LoDTensor。用于移除填充元素,与之对应,还存在进行数据填充的API :ref:`cn_api_fluid_layers_sequence_pad`。 -该OP根据length的信息,将input中padding(填充)元素移除,并且返回一个LoDTensor。 +根据length的信息,将input中padding(填充)元素移除,并且返回一个LoDTensor。 :: diff --git a/docs/api/paddle/static/nn/sparse_embedding_cn.rst b/docs/api/paddle/static/nn/sparse_embedding_cn.rst index a8ebc29f7d4..b451e812ba4 100644 --- a/docs/api/paddle/static/nn/sparse_embedding_cn.rst +++ b/docs/api/paddle/static/nn/sparse_embedding_cn.rst @@ -7,13 +7,14 @@ sparse_embedding .. py:function:: paddle.static.nn.sparse_embedding(input, size, padding_idx=None, is_test=False, entry=None, table_class="CommonSparseTable", param_attr=None, dtype='float32') -该OP在飞桨参数服务器模式的大规模稀疏训练中作为embedding lookup层的算子,而不是使用paddle.nn.functional.embedding。 +在飞桨参数服务器模式的大规模稀疏训练中作为embedding lookup层的算子,而不是使用paddle.nn.functional.embedding。 -该OP根据input中的id信息从embedding矩阵中查询对应embedding信息,并会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。 +根据input中的id信息从embedding矩阵中查询对应embedding信息,并会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。 输出的Tensor的shape是将输入Tensor shape的会在输出的embedding最后追加一维emb_size。 -注:input中的id必须满足 ``0 =< id < size[0]``,否则程序会抛异常退出。 +.. note:: +input中的id必须满足 ``0 =< id < size[0]``,否则程序会抛异常退出。 :: diff --git a/docs/api/paddle/static/nn/spectral_norm_cn.rst b/docs/api/paddle/static/nn/spectral_norm_cn.rst index 22772cf0aae..059ae49e9dd 100644 --- a/docs/api/paddle/static/nn/spectral_norm_cn.rst +++ b/docs/api/paddle/static/nn/spectral_norm_cn.rst @@ -24,21 +24,21 @@ spectral_norm \sigma(\mathbf{W}) &= \mathbf{u}^{T} \mathbf{W} \mathbf{v}\\ \mathbf{W} &= \frac{\mathbf{W}}{\sigma(\mathbf{W})} -可参考: `Spectral Normalization `_ +论文参考: `Spectral Normalization `_ 参数 ::::::::: - **weight** (Tensor) - spectral_norm算子的输入权重张量,可以是2-D, 3-D, 4-D, 5-D Tensor,它是fc、conv1d、conv2d、conv3d层的权重,数据类型为float32或float64。 - **dim** (int,可选) - 将输入(weight)重塑为矩阵之前应排列到第一个的维度索引,如果input(weight)是fc层的权重,则应设置为0;如果input(weight)是conv层的权重,则应设置为1,默认为0。 - - **power_iters** (int,可选) - 将用于计算spectral norm的功率迭代次数,默认值1 - - **eps** (float,可选) - epsilon用于保证计算规范中的数值稳定性,分母会加上 ``eps`` 防止除零,默认1e-12 + - **power_iters** (int,可选) - 将用于计算spectral norm的功率迭代次数,默认值1。 + - **eps** (float,可选) - epsilon用于保证计算规范中的数值稳定性,分母会加上 ``eps`` 防止除零,默认1e-12。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 返回 ::::::::: - Tensor, 谱正则化后权重张量,维度和数据类型与输入 ``weight`` 一致。 + Tensor,谱正则化后权重张量,维度和数据类型与输入 ``weight`` 一致。 代码示例 diff --git a/docs/api/paddle/static/nn/switch_case_cn.rst b/docs/api/paddle/static/nn/switch_case_cn.rst index 0091a04dd15..1847849dde4 100644 --- a/docs/api/paddle/static/nn/switch_case_cn.rst +++ b/docs/api/paddle/static/nn/switch_case_cn.rst @@ -6,10 +6,8 @@ switch_case .. py:function:: paddle.static.nn.switch_case(branch_index, branch_fns, default=None, name=None) -:api_attr: 声明式编程模式(静态图) - -该OP的运行方式类似于c++的switch/case。 +运行方式类似于c++的switch/case。 参数 :::::::::::: @@ -21,25 +19,11 @@ switch_case 返回 :::::::::::: -如果 ``branch_fns`` 中存在与 ``branch_index`` 匹配的可调用对象,则返回该可调用对象的返回结果;如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; -如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 是None,则返回 ``branch_fns`` 中键值最大的可调用对象的返回结果。 -返回类型 -:::::::::::: Tensor|list(Tensor) -抛出异常 -:::::::::::: - - - ``TypeError`` - 如果 ``branch_index`` 的类型不是list或tuple。 - - ``TypeError`` - 如果 ``branch_index`` 的数据类型不是 ``int32``, ``int64`` 或 ``uint8``。 - - ``TypeError`` - 如果 ``branch_fns`` 的类型不是dict,list或tuple。 - - ``TypeError`` - 如果 ``branch_fns`` 的元素不是2-tuple。 - - ``TypeError`` - 如果 ``branch_fns`` 中的2-tuple的第一个元素的类型不是整数。 - - ``ValueError`` - 如果 ``branch_fns`` 中的2-tuple的第一个元素值不唯一。 - - ``TypeError`` - 如果 ``branch_fns`` 中的2-tuple的第二个元素不是可调用对象。 - - ``TypeError`` - 当 ``default`` 不是None又不是可调用对象时。 - +- 如果 ``branch_fns`` 中存在与 ``branch_index`` 匹配的可调用对象,则返回该可调用对象的返回结果;如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 不是None,则返回调用 ``default`` 的返回结果; +- 如果 ``branch_fns`` 中不存在与 ``branch_index`` 匹配的可调用对象且 ``default`` 是None,则返回 ``branch_fns`` 中键值最大的可调用对象的返回结果。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/nn/while_loop_cn.rst b/docs/api/paddle/static/nn/while_loop_cn.rst index 600c13a23bc..7156089c79b 100644 --- a/docs/api/paddle/static/nn/while_loop_cn.rst +++ b/docs/api/paddle/static/nn/while_loop_cn.rst @@ -9,7 +9,7 @@ ____________________________________ 该API用于实现类似while的循环控制功能,只要循环条件 ``cond`` 的返回值为True,``while_loop`` 则会循环执行循环体 ``body`` ,直到 ``cond`` 的返回值为False。 -**注意:** +.. note:: ``body`` 中定义的局部变量无法使用 ``Executor`` 的 ``fetch_list`` 来获取的,变量需在 ``body`` 外定义并将其置于 ``loop_vars`` 中进行循环更新后才可通过 ``fetch_list`` 获取。 参数 @@ -23,7 +23,7 @@ ____________________________________ 返回 ::::::::: -list|tuple, 循环迭代之后 ``body`` 的返回值,和 ``loop_vars`` 具有相同的结构。 +list|tuple,循环迭代之后 ``body`` 的返回值,和 ``loop_vars`` 具有相同的结构。 示例代码 diff --git a/docs/api/paddle/static/normalize_program_cn.rst b/docs/api/paddle/static/normalize_program_cn.rst index 78575945d16..df16910b4af 100644 --- a/docs/api/paddle/static/normalize_program_cn.rst +++ b/docs/api/paddle/static/normalize_program_cn.rst @@ -22,11 +22,6 @@ normalize_program :::::::::::: 优化之后的 program。 -抛出异常 -:::::::::::: - - - ``TypeError`` – 如果 ``program`` 类型不是 ``Program``, 或 ``feed_vars``, ``fetch_vars`` 类型不是 Variable 或 list[Variable],则抛出异常。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/program_guard_cn.rst b/docs/api/paddle/static/program_guard_cn.rst index 49aca289b53..125ef85764d 100644 --- a/docs/api/paddle/static/program_guard_cn.rst +++ b/docs/api/paddle/static/program_guard_cn.rst @@ -19,7 +19,7 @@ program_guard - **main_program** (Program) – ``with`` 语句中将使用的新的 main program。 - **startup_program** (Program,可选) – ``with`` 语句中将使用的新的 startup program。若传入 ``None`` 则不改变当前的启动程序,即仍使用 default_startup_program。默认值为 None。 -代码示例 +代码示例 1 :::::::::::: .. code-block:: python @@ -35,7 +35,7 @@ program_guard 例如,当组的网不需要 startup_program 初始化各变量时,可以传入一个临时的 program。 -代码示例 +代码示例 2 :::::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/py_func_cn.rst b/docs/api/paddle/static/py_func_cn.rst index 0b0139fc99c..2b7a2cd4115 100644 --- a/docs/api/paddle/static/py_func_cn.rst +++ b/docs/api/paddle/static/py_func_cn.rst @@ -22,7 +22,6 @@ PaddlePaddle 通过py_func在Python端注册OP。py_func的设计原理在于Pad 参数 :::::::::::: -::::::::: - **func** (callable) - 所注册的Python OP的前向函数,运行网络时,将根据该函数与前向输入 ``x`` ,计算前向输出 ``out`` 。 在 ``func`` 建议先主动将Tensor转换为numpy数组,方便灵活的使用numpy相关的操作,如果未转换成numpy,则可能某些操作无法兼容。 - **x** (Tensor|tuple(Tensor)|list[Tensor]) - 前向函数 ``func`` 的输入,多个Tensor以tuple(Tensor)或list[Tensor]的形式传入。 - **out** (T|tuple(T)|list[T]) - 前向函数 ``func`` 的输出,可以为T|tuple(T)|list[T],其中T既可以为Tensor,也可以为numpy数组。由于Paddle无法自动推断 ``out`` 的形状和数据类型,必须应事先创建 ``out`` 。 @@ -32,13 +31,11 @@ PaddlePaddle 通过py_func在Python端注册OP。py_func的设计原理在于Pad 返回 :::::::::::: -::::::::: Tensor|tuple(Tensor)|list[Tensor],前向函数的输出 ``out`` 代码示例 1 :::::::::::: -::::::::: .. code-block:: python @@ -100,7 +97,6 @@ Tensor|tuple(Tensor)|list[Tensor],前向函数的输出 ``out`` 代码示例 2 :::::::::::: -::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/save_cn.rst b/docs/api/paddle/static/save_cn.rst index 55809f41948..a48aa8acdc5 100644 --- a/docs/api/paddle/static/save_cn.rst +++ b/docs/api/paddle/static/save_cn.rst @@ -5,7 +5,6 @@ save .. py:function:: paddle.static.save(program, model_path, protocol=4) -:api_attr: 声明式编程模式(静态图) 该接口将传入的参数、优化器信息和网络描述保存到 ``model_path`` 。 @@ -21,11 +20,12 @@ save - **program** ( :ref:`cn_api_fluid_Program` ) – 要保存的Program。 - **model_path** (str) – 保存program的文件前缀。格式为 ``目录名称/文件前缀``。如果文件前缀为空字符串,会引发异常。 - - **protocol** (int, 可选) – pickle模块的协议版本,默认值为4,取值范围是[2,4]。 + - **protocol** (int,可选) – pickle模块的协议版本,默认值为4,取值范围是[2,4]。 返回 :::::::::::: - 无 + +无。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/save_inference_model_cn.rst b/docs/api/paddle/static/save_inference_model_cn.rst index 17ef52ae7d5..45521e9227f 100644 --- a/docs/api/paddle/static/save_inference_model_cn.rst +++ b/docs/api/paddle/static/save_inference_model_cn.rst @@ -20,16 +20,15 @@ save_inference_model - **fetch_vars** (Variable | list[Variable]) – 模型的所有输出变量。 - **executor** (Executor) – 用于保存预测模型的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - **kwargs** - 支持的 key 包括 'program'。(注意:kwargs 主要是用来做反向兼容的)。 - - **program** - 自定义一个 program,默认使用 default_main_program。 + - **program** - 自定义一个 program,默认使用 default_main_program。 -**返回:** None -抛出异常 +返回 :::::::::::: - - ``ValueError`` – 若 ``feed_vars`` 不是 ``Variable`` 或 ``Variable`` 类型列表,则抛出异常。 - - ``ValueError`` – 若 ``fetch_vars`` 不是 ``Variable`` 或 ``Variable`` 类型列表,则抛出异常。 +无。 + 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/save_to_file_cn.rst b/docs/api/paddle/static/save_to_file_cn.rst index c61d7e2a208..b2e4dedb07b 100644 --- a/docs/api/paddle/static/save_to_file_cn.rst +++ b/docs/api/paddle/static/save_to_file_cn.rst @@ -18,7 +18,8 @@ save_to_file 返回 :::::::::::: - None + +无。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/scope_guard_cn.rst b/docs/api/paddle/static/scope_guard_cn.rst index b9b6caefe42..52a5d491ce9 100644 --- a/docs/api/paddle/static/scope_guard_cn.rst +++ b/docs/api/paddle/static/scope_guard_cn.rst @@ -23,7 +23,8 @@ scope_guard 返回 :::::::::::: -无 + +无。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/serialize_persistables_cn.rst b/docs/api/paddle/static/serialize_persistables_cn.rst index 1da48670d13..15edcfb1838 100644 --- a/docs/api/paddle/static/serialize_persistables_cn.rst +++ b/docs/api/paddle/static/serialize_persistables_cn.rst @@ -17,17 +17,14 @@ serialize_persistables - **feed_vars** (Variable | list[Variable]) – 模型的输入变量。 - **fetch_vars** (Variable | list[Variable]) – 模型的输出变量。 - **executor** (Executor) - 用于保存预测模型的 ``executor`` ,详见 :ref:`api_guide_executor` 。 - - **kwargs** - 支持的 key 包括 'program'。(注意:kwargs 主要是用来做反向兼容的) + - **kwargs** - 支持的 key 包括 program。(注意:kwargs 主要是用来做反向兼容的) + - **program** - 指定包含要序列化的参数的 program,默认是 default_main_program。 返回 :::::::::::: 参数序列化之后的字节数组。 -抛出异常 -:::::::::::: - - - ``ValueError`` – 如果 ``feed_vars`` 或 ``fetch_vars`` 类型不是 Variable 或 list[Variable],则抛出异常。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/serialize_program_cn.rst b/docs/api/paddle/static/serialize_program_cn.rst index 62a47903eb8..de0252863d0 100644 --- a/docs/api/paddle/static/serialize_program_cn.rst +++ b/docs/api/paddle/static/serialize_program_cn.rst @@ -16,17 +16,14 @@ serialize_program - **feed_vars** (Variable | list[Variable]) – 模型的输入变量。 - **fetch_vars** (Variable | list[Variable]) – 模型的输出变量。 - - **kwargs** - 支持的 key 包括 'program'。(注意:kwargs 主要是用来做反向兼容的) + - **kwargs** - 支持的 key 包括 program。(注意:kwargs 主要是用来做反向兼容的) + - **program** - 指定想要序列化的 program,默认是 default_main_program。 返回 :::::::::::: 字节数组。 -抛出异常 -:::::::::::: - - - ``ValueError`` – 如果 ``feed_vars`` 或 ``fetch_vars`` 类型不是 Variable 或 list[Variable],则抛出异常。 代码示例 :::::::::::: diff --git a/docs/api/paddle/static/set_program_state_cn.rst b/docs/api/paddle/static/set_program_state_cn.rst index ccf9c4ab12c..c1312ec6a8a 100644 --- a/docs/api/paddle/static/set_program_state_cn.rst +++ b/docs/api/paddle/static/set_program_state_cn.rst @@ -10,7 +10,8 @@ set_program_state 如果参数的 shape 或 dtype 不匹配,则会引发异常。 -**注意:必须在运行 start_up_program 之后调用此函数。** +.. note:: +必须在运行 start_up_program 之后调用此函数。 参数 :::::::::::: @@ -20,7 +21,7 @@ set_program_state 返回 :::::::::::: -无 +无. 代码示例 :::::::::::: From 9a6e3389fe12df5e91d2f59b8ef3ff60c5cf4056 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 15:47:35 +0800 Subject: [PATCH 091/107] update text&utils&version docs --- docs/api/paddle/text/Conll05st_cn.rst | 2 +- docs/api/paddle/text/Imdb_cn.rst | 2 +- docs/api/paddle/text/Imikolov_cn.rst | 6 ++-- docs/api/paddle/text/Movielens_cn.rst | 4 +-- docs/api/paddle/text/UCIHousing_cn.rst | 4 +-- docs/api/paddle/text/WMT14_cn.rst | 15 +++++---- docs/api/paddle/text/WMT16_cn.rst | 33 +++++++------------ docs/api/paddle/text/viterbi_decode_cn.rst | 2 ++ .../utils/cpp_extension/CUDAExtension_cn.rst | 6 ++-- .../utils/cpp_extension/CppExtension_cn.rst | 2 +- .../paddle/utils/cpp_extension/load_cn.rst | 16 ++++----- .../paddle/utils/cpp_extension/setup_cn.rst | 13 ++++---- .../download/get_weights_path_from_url_cn.rst | 2 +- .../paddle/utils/unique_name/generate_cn.rst | 2 +- .../paddle/utils/unique_name/switch_cn.rst | 4 +-- docs/api/paddle/version/show_cn.rst | 2 +- 16 files changed, 54 insertions(+), 61 deletions(-) diff --git a/docs/api/paddle/text/Conll05st_cn.rst b/docs/api/paddle/text/Conll05st_cn.rst index 1b58e90f295..927ae26ffbc 100644 --- a/docs/api/paddle/text/Conll05st_cn.rst +++ b/docs/api/paddle/text/Conll05st_cn.rst @@ -7,7 +7,7 @@ Conll05st 该类是对 `Conll05st `_ -测试数据集的实现. +测试数据集的实现。 .. note:: 只支持自动下载公共的 Conll05st测试数据集。 diff --git a/docs/api/paddle/text/Imdb_cn.rst b/docs/api/paddle/text/Imdb_cn.rst index 2fd3ed2e102..dcbfe72e976 100644 --- a/docs/api/paddle/text/Imdb_cn.rst +++ b/docs/api/paddle/text/Imdb_cn.rst @@ -16,7 +16,7 @@ Imdb - cutoff(int) - 构建词典的截止大小。默认为Default 150。 - download(bool) - 如果:attr:`data_file`未设置,是否自动下载数据集。默认为True。 -返回值 +返回 ::::::::: ``Dataset``, IMDB数据集实例。 diff --git a/docs/api/paddle/text/Imikolov_cn.rst b/docs/api/paddle/text/Imikolov_cn.rst index 79850254e07..0c70f57a736 100644 --- a/docs/api/paddle/text/Imikolov_cn.rst +++ b/docs/api/paddle/text/Imikolov_cn.rst @@ -10,15 +10,15 @@ Imikolov 参数 ::::::::: - - data_file(str)- 保存数据的路径,如果参数:attr:`download`设置为True, - 可设置为None。默认为None。 + + - data_file(str)- 保存数据的路径,如果参数:attr:`download`设置为True,可设置为None。默认为None。 - data_type(str)- 'NGRAM'或'SEQ'。默认为'NGRAM'。 - window_size(int) - 'NGRAM'数据滑动窗口的大小。默认为-1。 - mode(str)- 'train' 'test' mode. Default 'train'. - min_word_freq(int)- 构建词典的最小词频。默认为50。 - download(bool)- 如果:attr:`data_file`未设置,是否自动下载数据集。默认为True。 -返回值 +返回 ::::::::: ``Dataset``,imikolov数据集实例。 diff --git a/docs/api/paddle/text/Movielens_cn.rst b/docs/api/paddle/text/Movielens_cn.rst index 2be40738e7a..aac7c420095 100644 --- a/docs/api/paddle/text/Movielens_cn.rst +++ b/docs/api/paddle/text/Movielens_cn.rst @@ -11,8 +11,8 @@ Movielens 参数 ::::::::: - - data_file(str)- 保存压缩数据的路径,如果参数:attr:`download`设置为True, - 可设置为None。默认为None。 + + - data_file(str)- 保存压缩数据的路径,如果参数:attr:`download`设置为True,可设置为None。默认为None。 - mode(str)- 'train' 或 'test' 模式。默认为'train'。 - test_ratio(float) - 为测试集划分的比例。默认为0.1。 - rand_seed(int)- 随机数种子。默认为0。 diff --git a/docs/api/paddle/text/UCIHousing_cn.rst b/docs/api/paddle/text/UCIHousing_cn.rst index 701ed1a3b0a..db3e1d18d84 100644 --- a/docs/api/paddle/text/UCIHousing_cn.rst +++ b/docs/api/paddle/text/UCIHousing_cn.rst @@ -11,8 +11,8 @@ UCIHousing 参数 ::::::::: - - data_file(str)- 保存数据的路径,如果参数:attr:`download`设置为True, - 可设置为None。默认为None。 + + - data_file(str)- 保存数据的路径,如果参数:attr:`download`设置为True,可设置为None。默认为None。 - mode(str)- 'train'或'test'模式。默认为'train'。 - download(bool)- 如果:attr:`data_file`未设置,是否自动下载数据集。默认为True。 diff --git a/docs/api/paddle/text/WMT14_cn.rst b/docs/api/paddle/text/WMT14_cn.rst index 8cf46d61338..6579eb11833 100644 --- a/docs/api/paddle/text/WMT14_cn.rst +++ b/docs/api/paddle/text/WMT14_cn.rst @@ -13,20 +13,21 @@ http://paddlemodels.bj.bcebos.com/wmt/wmt14.tgz 参数 ::::::::: - - data_file(str)- 保存数据集压缩文件的路径, 如果参数:attr: `download` 设置为True,可设置为None。默认为None。 + - **data_file**(str)- 保存数据集压缩文件的路径, 如果参数:attr: `download` 设置为True,可设置为None。默认为None。 - - mode(str)- 'train', 'test' 或'gen'。默认为'train'。 + - **mode**(str)- 'train','test' 或'gen'。默认为'train'。 - - dict_size(int)- 词典大小。默认为-1。 + - **dict_size**(int)- 词典大小。默认为-1。 - - download(bool)- 如果:attr: `data_file` 未设置,是否自动下载数据集。默认为True。 + - **download**(bool)- 如果:attr: `data_file` 未设置,是否自动下载数据集。默认为True。 返回值 ::::::::: ``Dataset``,WMT14数据集实例。 - - src_ids (np.array) - 源语言当前的token id序列。 - - trg_ids (np.array) - 目标语言当前的token id序列。 - - trg_ids_next (np.array) - 目标语言下一段的token id序列。 + + - **src_ids** (np.array) - 源语言当前的token id序列。 + - **trg_ids** (np.array) - 目标语言当前的token id序列。 + - **trg_ids_next** (np.array) - 目标语言下一段的token id序列。 代码示例 ::::::::: diff --git a/docs/api/paddle/text/WMT16_cn.rst b/docs/api/paddle/text/WMT16_cn.rst index 8f3a8b48e3f..8018aef95cf 100644 --- a/docs/api/paddle/text/WMT16_cn.rst +++ b/docs/api/paddle/text/WMT16_cn.rst @@ -10,35 +10,24 @@ WMT16 ACL2016多模态机器翻译。有关更多详细信息,请访问此网站: http://www.statmt.org/wmt16/multimodal-task.html#task1 -如果您任务中使用了该数据集,请引用如下论文: -Multi30K: Multilingual English-German Image Descriptions. - -.. code-block:: text - - @article{elliott-EtAl:2016:VL16, - author = {{Elliott}, D. and {Frank}, S. and {Sima"an}, K. and {Specia}, L.}, - title = {Multi30K: Multilingual English-German Image Descriptions}, - booktitle = {Proceedings of the 6th Workshop on Vision and Language}, - year = {2016}, - pages = {70--74}, - year = 2016 - } +如果您任务中使用了该数据集,请引用论文:`Multi30K: Multilingual English-German Image Descriptions. `_ 。 参数 ::::::::: - - data_file(str)- 保存数据集压缩文件的路径,如果参数:attr:`download`设置为True,可设置为None。默认值为None。 - - mode(str)- 'train', 'test' 或 'val'。默认为'train'。 - - src_dict_size(int)- 源语言词典大小。默认为-1。 - - trg_dict_size(int) - 目标语言测点大小。默认为-1。 - - lang(str)- 源语言,'en' 或 'de'。默认为 'en'。 - - download(bool)- 如果:attr:`data_file`未设置,是否自动下载数据集。默认为True。 + - **data_file**(str)- 保存数据集压缩文件的路径,如果参数:attr:`download`设置为True,可设置为None。默认值为None。 + - **mode**(str)- 'train','test' 或 'val'。默认为'train'。 + - **src_dict_size**(int)- 源语言词典大小。默认为-1。 + - **trg_dict_size**(int) - 目标语言测点大小。默认为-1。 + - **lang**(str)- 源语言,'en' 或 'de'。默认为 'en'。 + - **download**(bool)- 如果:attr:`data_file`未设置,是否自动下载数据集。默认为True。 返回值 ::::::::: ``Dataset``,WMT16数据集实例。实例一共有三个字段: - - src_ids (np.array) - 源语言当前的token id序列。 - - trg_ids (np.array) - 目标语言当前的token id序列。 - - trg_ids_next (np.array) - 目标语言下一段的token id序列。 + + - **src_ids** (np.array) - 源语言当前的token id序列。 + - **trg_ids** (np.array) - 目标语言当前的token id序列。 + - **trg_ids_next** (np.array) - 目标语言下一段的token id序列。 代码示例 ::::::::: diff --git a/docs/api/paddle/text/viterbi_decode_cn.rst b/docs/api/paddle/text/viterbi_decode_cn.rst index af574410114..a196ea66ce5 100644 --- a/docs/api/paddle/text/viterbi_decode_cn.rst +++ b/docs/api/paddle/text/viterbi_decode_cn.rst @@ -8,6 +8,7 @@ viterbi_decode 参数 ::::::::: + - **potentials (Tensor)** 发射概率。形状为[batch_size, lengths, num_tags],数据类型为float32或float64。 - **transition_params (Tensor)** 转移概率。形状为[num_tags, num_tags],数据类型为float32或float64。 - **lengths (Tensor)** 序列真实长度。形状为[batch_size],数据类型为int64。 @@ -16,6 +17,7 @@ viterbi_decode 返回 ::::::::: + - **scores (Tensor)** Viterbi路径的最高得分。形状为[batch_size],数据类型为float32或float64。 - **paths (Tensor)** Viterbi路径。形状为[batch_size, lengths],数据类型为int64。 diff --git a/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst b/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst index f3f6b1c5ed0..9680358dc3b 100644 --- a/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/CUDAExtension_cn.rst @@ -36,9 +36,9 @@ CUDAExtension 参数 :::::::::::: - - **sources** (list[str]): 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp等后缀;cuda 源文件以 .cu 为后缀。 - - **\*args, \*\*kwargs** (可选): 用于指定 Extension 的其他参数,支持的参数与 ``setuptools.Extension`` 一致。 + - **sources** (list[str]) - 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp等后缀;cuda 源文件以 .cu 为后缀。 + - **\*args, \*\*kwargs** (可选) - 用于指定 Extension 的其他参数,支持的参数与 ``setuptools.Extension`` 一致。 返回 :::::::::::: - ``setuptools.Extension`` 对象 + ``setuptools.Extension`` 对象。 diff --git a/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst b/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst index c38c7f4334d..0f6abf26be2 100644 --- a/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst @@ -39,4 +39,4 @@ CppExtension 返回 :::::::::::: - ``setuptools.Extension`` 对象 \ No newline at end of file + ``setuptools.Extension`` 对象。 \ No newline at end of file diff --git a/docs/api/paddle/utils/cpp_extension/load_cn.rst b/docs/api/paddle/utils/cpp_extension/load_cn.rst index 78f5b4698e5..8036ac5e3d0 100644 --- a/docs/api/paddle/utils/cpp_extension/load_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/load_cn.rst @@ -43,14 +43,14 @@ load 参数 :::::::::::: - - **name** (str): 用于指定编译自定义 OP 时,生成的动态链接库的名字,不包括后缀如 .so 或者 .dll - - **sources** (list[str]): 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp 等后缀;cuda 源文件以 .cu 为后缀。 - - **extra_cxx_cflags** (list[str], 可选): 用于指定编译 cpp 源文件时额外的编译选项。默认情况下,Paddle 框架相关的必要选项均已被隐式地包含;默认值为 None 。 - - **extra_cuda_cflags** (list[str], 可选): 用于指定编译 cuda 源文件时额外的编译选项。默认情况下,Paddle 框架相关的必要选项均已被隐式地包含; ``nvcc`` 相关的编译选项请参考: `CUDA Compiler Driver NVCC `_ 。 默认值为 None 。 - - **extra_ldflags** (list[str], 可选): 用于指定编译自定义 OP 时额外的链接选项。GCC 支持的链接选项请参考: `GCC Link Options `_ 。 默认值为 None 。 - - **extra_include_paths** (list[str], 可选): 用于指定编译 cpp 或 cuda 源文件时,额外的头文件搜索目录。默认情况下,Paddle 框架相关头文件所在目录 ``site-packages/paddle/include`` 已被隐式地包含。默认值为 None 。 - - **build_directory** (str, 可选): 用于指定存放生成动态链接库的目录。若为 None, 则会使用环境变量 ``PADDLE_EXTENSION_DIR`` 的值作为默认的存放目录。可使用 :ref:`cn_api_paddle_utils_cpp_extension_get_build_directory` 接口查看当前的目录设置。默认值为 None 。 - - **verbose** (str, 可选): 用于指定是否需要输出编译过程中的日志信息,默认为 False。 + - **name** (str) - 用于指定编译自定义 OP 时,生成的动态链接库的名字,不包括后缀如 .so 或者 .dll + - **sources** (list[str]) - 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp 等后缀;cuda 源文件以 .cu 为后缀。 + - **extra_cxx_cflags** (list[str],可选) - 用于指定编译 cpp 源文件时额外的编译选项。默认情况下,Paddle 框架相关的必要选项均已被隐式地包含;默认值为 None 。 + - **extra_cuda_cflags** (list[str],可选) - 用于指定编译 cuda 源文件时额外的编译选项。默认情况下,Paddle 框架相关的必要选项均已被隐式地包含; ``nvcc`` 相关的编译选项请参考: `CUDA Compiler Driver NVCC `_ 。 默认值为 None 。 + - **extra_ldflags** (list[str],可选) - 用于指定编译自定义 OP 时额外的链接选项。GCC 支持的链接选项请参考: `GCC Link Options `_ 。 默认值为 None 。 + - **extra_include_paths** (list[str],可选) - 用于指定编译 cpp 或 cuda 源文件时,额外的头文件搜索目录。默认情况下,Paddle 框架相关头文件所在目录 ``site-packages/paddle/include`` 已被隐式地包含。默认值为 None 。 + - **build_directory** (str,可选) - 用于指定存放生成动态链接库的目录。若为 None, 则会使用环境变量 ``PADDLE_EXTENSION_DIR`` 的值作为默认的存放目录。可使用 :ref:`cn_api_paddle_utils_cpp_extension_get_build_directory` 接口查看当前的目录设置。默认值为 None 。 + - **verbose** (str,可选) - 用于指定是否需要输出编译过程中的日志信息,默认为 False。 返回 :::::::::::: diff --git a/docs/api/paddle/utils/cpp_extension/setup_cn.rst b/docs/api/paddle/utils/cpp_extension/setup_cn.rst index c6fb3caa58a..1e90563938a 100644 --- a/docs/api/paddle/utils/cpp_extension/setup_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/setup_cn.rst @@ -12,7 +12,7 @@ setup 同时,编译前会执行 `ABI 兼容性检查 `_ ,即检查编译器版本是否与本地安装的 Paddle 一致。如在Linux下,对于 CUDA 10.1 以上的 Paddle 默认使用 GCC 8.2 编译,则本地 ``cc`` 对应的编译器版本也需为 8.2 ,在Windows下, Paddle 使用Visualt Studio 2017编译,则本地也需安装 大于2017的Visual Studio,如果不满足,则可能由于 ABI 兼容性原因引发自定义 OP 编译或执行报错。 Mac 下默认使用 clang 进行编译,无 ABI 兼容性问题。 -相对于即时编译的 :ref:`cn_api_paddle_utils_cpp_extension_load` 接口,此接口仅需执行一次 ``python setup.py install`` 命令,即可像其他 python 库一样 import 导入使用。如下是一个 ``setup.py`` 文件的简单样例: +相对于即时编译的 :ref:`cn_api_paddle_utils_cpp_extension_load` 接口,此接口仅需执行一次 ``python setup.py install`` 命令,即可像其他 python 库一样 import 导入使用。如下是一个 ``setup.py`` 文件的简单样例: .. note:: @@ -64,11 +64,12 @@ setup :::::::::::: - **name** (string) - 用于指定生成的动态链接库的名称,以及安装到 site-packages 的 ``Module`` 名字 - - **ext_modules** (Extension): 用于指定包含自定义 OP 必要源文件、编译选项等信息的 ``Extension`` 。若只编译运行在 CPU 设备上的 OP,请使用 :ref:`cn_api_paddle_utils_cpp_extension_CppExtension` ; 若编译同时支持 GPU 设备上的 OP, 请使用 :ref:`cn_api_paddle_utils_cpp_extension_CUDAExtension` 。 - - **include_dirs** (list[str], 可选): 用于指定编译自定义 OP 时额外的头文件搜索目录。此接口默认会自动添加 ``site-packages/paddle/include`` 目录。若自定义 OP 源码引用了其他三方库文件,可以通过此参数指定三方库的搜索目录。默认值为 None 。 - - **extra_compile_args** (list[str] | dict, 可选): 用于指定编译自定义 OP 时额外的编译选项,如 ``-O3`` 等。若为 ``list[str]`` 类型,则表示这些编译选项会同时应用到 ``cc`` 和 ``nvcc`` 编译过程;可以通过 ``{'cxx': [...], 'nvcc': [...]}`` 字典的形式单独指定额外的 ``cc`` 或 ``nvcc`` 的编译选项。默认值为 None 。 - - **\*\*attr** (dict, 可选) - 其他参数与 ``setuptools.setup`` 一致。 + - **ext_modules** (Extension) - 用于指定包含自定义 OP 必要源文件、编译选项等信息的 ``Extension`` 。若只编译运行在 CPU 设备上的 OP,请使用 :ref:`cn_api_paddle_utils_cpp_extension_CppExtension` ; 若编译同时支持 GPU 设备上的 OP, 请使用 :ref:`cn_api_paddle_utils_cpp_extension_CUDAExtension` 。 + - **include_dirs** (list[str],可选) - 用于指定编译自定义 OP 时额外的头文件搜索目录。此接口默认会自动添加 ``site-packages/paddle/include`` 目录。若自定义 OP 源码引用了其他三方库文件,可以通过此参数指定三方库的搜索目录。默认值为 None 。 + - **extra_compile_args** (list[str] | dict,可选) - 用于指定编译自定义 OP 时额外的编译选项,如 ``-O3`` 等。若为 ``list[str]`` 类型,则表示这些编译选项会同时应用到 ``cc`` 和 ``nvcc`` 编译过程;可以通过 ``{'cxx': [...], 'nvcc': [...]}`` 字典的形式单独指定额外的 ``cc`` 或 ``nvcc`` 的编译选项。默认值为 None 。 + - **\*\*attr** (dict,可选) - 其他参数与 ``setuptools.setup`` 一致。 返回 :::::::::::: -None + +无。 diff --git a/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst b/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst index 80a18da411d..c1212d8d7df 100644 --- a/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst +++ b/docs/api/paddle/utils/download/get_weights_path_from_url_cn.rst @@ -5,7 +5,7 @@ get_weights_path_from_url .. py:function:: paddle.utils.download.get_weights_path_from_url(url, md5sum=None) - 从 ``WEIGHT_HOME`` 文件夹获取权重,如果不存在,就从url下载 + 从 ``WEIGHT_HOME`` 文件夹获取权重,如果不存在,就从url下载。 参数 :::::::::::: diff --git a/docs/api/paddle/utils/unique_name/generate_cn.rst b/docs/api/paddle/utils/unique_name/generate_cn.rst index 23b5dd2c813..89c1c5ac014 100644 --- a/docs/api/paddle/utils/unique_name/generate_cn.rst +++ b/docs/api/paddle/utils/unique_name/generate_cn.rst @@ -17,7 +17,7 @@ generate 返回 :::::::::::: -str, 含前缀key的唯一名称。 +str,含前缀key的唯一名称。 代码示例 :::::::::::: diff --git a/docs/api/paddle/utils/unique_name/switch_cn.rst b/docs/api/paddle/utils/unique_name/switch_cn.rst index 1d42a8bdf93..71d891db5ae 100644 --- a/docs/api/paddle/utils/unique_name/switch_cn.rst +++ b/docs/api/paddle/utils/unique_name/switch_cn.rst @@ -13,11 +13,11 @@ switch 参数 :::::::::::: - - **new_generator** (UniqueNameGenerator, 可选) - 要切换到的新命名空间,一般无需设置。缺省值为None,表示切换到一个匿名的新命名空间。 + - **new_generator** (UniqueNameGenerator,可选) - 要切换到的新命名空间,一般无需设置。缺省值为None,表示切换到一个匿名的新命名空间。 返回 :::::::::::: -UniqueNameGenerator, 先前的命名空间,一般无需操作该返回值。 +UniqueNameGenerator,先前的命名空间,一般无需操作该返回值。 代码示例 :::::::::::: diff --git a/docs/api/paddle/version/show_cn.rst b/docs/api/paddle/version/show_cn.rst index bcd27a54575..33136590d47 100644 --- a/docs/api/paddle/version/show_cn.rst +++ b/docs/api/paddle/version/show_cn.rst @@ -22,7 +22,7 @@ show - cuda - 若paddle wheel包为GPU版本,则返回paddle wheel包编译时使用的CUDA的版本信息;若paddle wheel包为CPU版本,则返回 ``False`` 。 - cudnn - 若paddle wheel包为GPU版本,则返回paddle wheel包编译时使用的cuDNN的版本信息;若paddle wheel包为CPU版本,则返回 ``False`` 。 -代码示例: +代码示例 :::::::::: .. code-block:: python From 12af54015c864d0551484c5afbe9e4dd0abd862b Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 16:07:53 +0800 Subject: [PATCH 092/107] update vision docs --- .../paddle/vision/datasets/Cifar100_cn.rst | 6 ++--- .../api/paddle/vision/datasets/Cifar10_cn.rst | 6 ++--- .../vision/datasets/DatasetFolder_cn.rst | 4 ++- .../vision/datasets/FashionMNIST_cn.rst | 6 ++--- .../api/paddle/vision/datasets/Flowers_cn.rst | 6 ++--- .../paddle/vision/datasets/ImageFolder_cn.rst | 4 ++- docs/api/paddle/vision/datasets/MNIST_cn.rst | 4 +-- .../api/paddle/vision/datasets/VOC2012_cn.rst | 6 ++--- docs/api/paddle/vision/models/DenseNet_cn.rst | 4 +-- .../paddle/vision/models/ShuffleNetV2_cn.rst | 4 +-- docs/api/paddle/vision/ops/PSRoIPool_cn.rst | 2 +- docs/api/paddle/vision/ops/RoIAlign_cn.rst | 2 +- docs/api/paddle/vision/ops/RoIPool_cn.rst | 4 +-- .../paddle/vision/ops/deform_conv2d_cn.rst | 6 +++-- docs/api/paddle/vision/ops/psroi_pool_cn.rst | 4 +-- docs/api/paddle/vision/ops/roi_align_cn.rst | 10 ++++--- docs/api/paddle/vision/ops/roi_pool_cn.rst | 6 ++--- docs/api/paddle/vision/ops/yolo_box_cn.rst | 22 ++++++++-------- docs/api/paddle/vision/ops/yolo_loss_cn.rst | 26 +++++++++---------- 19 files changed, 70 insertions(+), 62 deletions(-) diff --git a/docs/api/paddle/vision/datasets/Cifar100_cn.rst b/docs/api/paddle/vision/datasets/Cifar100_cn.rst index 0a1fc48fe3b..6e64a56373d 100644 --- a/docs/api/paddle/vision/datasets/Cifar100_cn.rst +++ b/docs/api/paddle/vision/datasets/Cifar100_cn.rst @@ -6,7 +6,7 @@ Cifar100 .. py:class:: paddle.vision.datasets.Cifar100() - `Cifar-100 `_ 数据集的实现,数据集包含100种类别. + `Cifar-100 `_ 数据集的实现,数据集包含100种类别。 参数 ::::::::: @@ -14,11 +14,11 @@ Cifar100 - mode (str) - ``'train'`` 或 ``'test'`` 模式,默认为 ``'train'`` 。 - transform (callable) - 图片数据的预处理,若为 ``None`` 即为不做预处理。默认值为 ``None``。 - download (bool) - 当 ``data_file`` 是 ``None`` 时,该参数决定是否自动下载数据集文件。默认为 ``True`` 。 - - backend (str, optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 + - backend (str,optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 返回 ::::::::: - Cifar100数据集实例 + Cifar100数据集实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/datasets/Cifar10_cn.rst b/docs/api/paddle/vision/datasets/Cifar10_cn.rst index 32fc35d7fd6..a60dfc3b8e8 100644 --- a/docs/api/paddle/vision/datasets/Cifar10_cn.rst +++ b/docs/api/paddle/vision/datasets/Cifar10_cn.rst @@ -6,7 +6,7 @@ Cifar10 .. py:class:: paddle.vision.datasets.Cifar10() - `Cifar-10 `_ 数据集的实现,数据集包含10种类别. + `Cifar-10 `_ 数据集的实现,数据集包含10种类别。 参数 ::::::::: @@ -14,12 +14,12 @@ Cifar10 - mode (str) - ``'train'`` 或 ``'test'`` 模式,默认为 ``'train'`` 。 - transform (callable) - 图片数据的预处理,若为 ``None`` 即为不做预处理。默认值为 ``None``。 - download (bool) - 当 ``data_file`` 是 ``None`` 时,该参数决定是否自动下载数据集文件。默认为 ``True`` 。 - - backend (str, optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 + - backend (str,optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 返回 ::::::::: - Cifar10数据集实例 + Cifar10数据集实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst b/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst index 35837ad3794..3f4f0c119ec 100644 --- a/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst +++ b/docs/api/paddle/vision/datasets/DatasetFolder_cn.rst @@ -5,7 +5,9 @@ DatasetFolder .. py:class:: paddle.vision.datasets.DatasetFolder(root, loader=None, extensions=None, transform=None, is_valid_file=None) - 一种通用的数据加载方式,当输入以如下的格式存放时: + 一种通用的数据加载方式,输入以如下的格式存放: + +.. code-block:: text root/class_a/1.ext root/class_a/2.ext root/class_a/3.ext diff --git a/docs/api/paddle/vision/datasets/FashionMNIST_cn.rst b/docs/api/paddle/vision/datasets/FashionMNIST_cn.rst index 893a0eddbe7..7a0ea2b2438 100644 --- a/docs/api/paddle/vision/datasets/FashionMNIST_cn.rst +++ b/docs/api/paddle/vision/datasets/FashionMNIST_cn.rst @@ -6,7 +6,7 @@ FashionMNIST .. py:class:: paddle.vision.datasets.FashionMNIST() - `Fashion-MNIST `_ 数据集 + `Fashion-MNIST `_ 数据集。 参数 ::::::::: @@ -14,12 +14,12 @@ FashionMNIST - label_path (str) - 标签文件路径,如果 ``download`` 参数设置为 ``True`` , ``label_path`` 参数可以设置为 ``None`` 。默认值为 ``None`` 。 - mode (str) - ``'train'`` 或 ``'test'`` 模式,默认为 ``'train'`` 。 - download (bool) - 当 ``data_file`` 是 ``None`` 时,该参数决定是否自动下载数据集文件。默认为 ``True`` 。 - - backend (str, optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 + - backend (str,optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 返回 ::::::::: - FashionMNIST数据集实例 + FashionMNIST数据集实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/datasets/Flowers_cn.rst b/docs/api/paddle/vision/datasets/Flowers_cn.rst index 96dfff66fcd..0ea89a907bf 100644 --- a/docs/api/paddle/vision/datasets/Flowers_cn.rst +++ b/docs/api/paddle/vision/datasets/Flowers_cn.rst @@ -6,7 +6,7 @@ Flowers .. py:class:: paddle.vision.datasets.Flowers() - `Flowers102 `_ 数据集 + `Flowers102 `_ 数据集。 参数 ::::::::: @@ -16,12 +16,12 @@ Flowers - mode (str) - ``'train'`` 或 ``'test'`` 模式,默认为 ``'train'`` 。 - transform (callable) - 图片数据的预处理,若为 ``None`` 即为不做预处理。默认值为 ``None``。 - download (bool) - 当 ``data_file`` 是 ``None`` 时,该参数决定是否自动下载数据集文件。默认为 ``True`` 。 - - backend (str, optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 + - backend (str,optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 返回 ::::::::: - Flowers数据集实例 + Flowers数据集实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/datasets/ImageFolder_cn.rst b/docs/api/paddle/vision/datasets/ImageFolder_cn.rst index 6262b869dc8..ccbda914df6 100644 --- a/docs/api/paddle/vision/datasets/ImageFolder_cn.rst +++ b/docs/api/paddle/vision/datasets/ImageFolder_cn.rst @@ -5,7 +5,9 @@ ImageFolder .. py:class:: paddle.vision.datasets.ImageFolder(root, loader=None, extensions=None, transform=None, is_valid_file=None) - 一种通用的数据加载方式,当输入以如下的格式存放时: + 一种通用的数据加载方式,输入以如下的格式存放: + +.. code-block:: text root/1.ext root/2.ext root/sub_dir/3.ext diff --git a/docs/api/paddle/vision/datasets/MNIST_cn.rst b/docs/api/paddle/vision/datasets/MNIST_cn.rst index 6ff8cd072e2..97409e93dc8 100644 --- a/docs/api/paddle/vision/datasets/MNIST_cn.rst +++ b/docs/api/paddle/vision/datasets/MNIST_cn.rst @@ -6,7 +6,7 @@ MNIST .. py:class:: paddle.vision.datasets.MNIST() - `MNIST `_ 数据集 + `MNIST `_ 数据集。 参数 ::::::::: @@ -19,7 +19,7 @@ MNIST 返回 ::::::::: - MNIST数据集实例 + MNIST数据集实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/datasets/VOC2012_cn.rst b/docs/api/paddle/vision/datasets/VOC2012_cn.rst index 1d78987fbf4..176e633b96b 100644 --- a/docs/api/paddle/vision/datasets/VOC2012_cn.rst +++ b/docs/api/paddle/vision/datasets/VOC2012_cn.rst @@ -6,19 +6,19 @@ VOC2012 .. py:class:: paddle.vision.datasets.VOC2012() - `VOC2012 `_ 数据集 + `VOC2012 `_ 数据集。 参数 ::::::::: - data_file (str) - 数据集文件路径,如果 ``download`` 参数设置为 ``True`` , ``data_file`` 参数可以设置为 ``None`` 。默认值为 ``None`` 。 - mode (str) - ``'train'`` 或 ``'test'`` 模式,默认为 ``'train'`` 。 - download (bool) - 当 ``data_file`` 是 ``None`` 时,该参数决定是否自动下载数据集文件。默认为 ``True`` 。 - - backend (str, optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 + - backend (str,optional) - 指定要返回的图像类型:PIL.Image或numpy.ndarray。必须是{'pil','cv2'}中的值。如果未设置此选项,将从paddle.vsion.get_image_backend获得这个值。 默认值: ``None`` 。 返回 ::::::::: -VOC2012数据集实例 +VOC2012数据集实例。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/models/DenseNet_cn.rst b/docs/api/paddle/vision/models/DenseNet_cn.rst index c9a433277cc..bb365cdcb32 100644 --- a/docs/api/paddle/vision/models/DenseNet_cn.rst +++ b/docs/api/paddle/vision/models/DenseNet_cn.rst @@ -9,9 +9,9 @@ DenseNet 参数 ::::::::: - - **layers** (int, 可选) - densenet的层数。默认值:121。 + - **layers** (int,可选) - densenet的层数。默认值:121。 - **bn_size** (int,可选) - 中间层growth rate的拓展倍数。默认值:4。 - - **dropout** (float, 可选) - dropout rate。默认值:0.。 + - **dropout** (float,可选) - dropout rate。默认值:0.。 - **num_classes** (int,可选) - 类别数目,即最后一个全连接层输出的维度。默认值:1000。 - **with_pool** (bool,可选) - 是否定义最后一个全连接层之前的池化层。默认值:True。 diff --git a/docs/api/paddle/vision/models/ShuffleNetV2_cn.rst b/docs/api/paddle/vision/models/ShuffleNetV2_cn.rst index 9c5fa2a3cb8..6fa92836c50 100644 --- a/docs/api/paddle/vision/models/ShuffleNetV2_cn.rst +++ b/docs/api/paddle/vision/models/ShuffleNetV2_cn.rst @@ -10,8 +10,8 @@ ShuffleNetV2 参数 ::::::::: - **scale** (float,可选) - 模型通道数的缩放比例。默认值:1.0。 - - **act** (str, 可选) - 网络中使用的激活函数。默认值:"relu"。 - - **num_classes** (int, 可选) - 最后一个全连接层输出的维度。如果该值小于0,则不定义最后一个全连接层。默认值:1000。 + - **act** (str,可选) - 网络中使用的激活函数。默认值:"relu"。 + - **num_classes** (int,可选) - 最后一个全连接层输出的维度。如果该值小于0,则不定义最后一个全连接层。默认值:1000。 - **with_pool** (bool,可选) - 是否定义最后一个全连接层之前的池化层。默认值:True。 返回 diff --git a/docs/api/paddle/vision/ops/PSRoIPool_cn.rst b/docs/api/paddle/vision/ops/PSRoIPool_cn.rst index 2d403e1ebbb..4118019e0cd 100644 --- a/docs/api/paddle/vision/ops/PSRoIPool_cn.rst +++ b/docs/api/paddle/vision/ops/PSRoIPool_cn.rst @@ -21,7 +21,7 @@ PSRoIPool 返回 ::::::::: - 无 +无。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/ops/RoIAlign_cn.rst b/docs/api/paddle/vision/ops/RoIAlign_cn.rst index ed760b87a18..94f9ef6c33f 100644 --- a/docs/api/paddle/vision/ops/RoIAlign_cn.rst +++ b/docs/api/paddle/vision/ops/RoIAlign_cn.rst @@ -10,7 +10,7 @@ RoIAlign 参数 ::::::::: - output_size (int|Tuple(int, int)) - 池化后输出的尺寸(H, W),数据类型为int32。如果output_size是单个int类型整数,则H和W都与其相等。 - - spatial_scale (float, 可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到输入特征图的尺寸,默认值1.0。 + - spatial_scale (float,可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到输入特征图的尺寸,默认值1.0。 形状 ::::::::: diff --git a/docs/api/paddle/vision/ops/RoIPool_cn.rst b/docs/api/paddle/vision/ops/RoIPool_cn.rst index a8b8644c60a..a08a035cddd 100644 --- a/docs/api/paddle/vision/ops/RoIPool_cn.rst +++ b/docs/api/paddle/vision/ops/RoIPool_cn.rst @@ -10,7 +10,7 @@ RoIPool 参数 ::::::::: - output_size (int|Tuple(int, int)) - 池化后输出的尺寸(H, W), 数据类型为int32. 如果output_size是int类型,H和W都与其相等。 - - spatial_scale (float, 可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到input特征图的尺寸,默认值1.0。 + - spatial_scale (float,可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到input特征图的尺寸,默认值1.0。 形状 ::::::::: @@ -21,7 +21,7 @@ RoIPool 返回 ::::::::: - 无 +无。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/ops/deform_conv2d_cn.rst b/docs/api/paddle/vision/ops/deform_conv2d_cn.rst index 9927ba0513a..34952605b25 100755 --- a/docs/api/paddle/vision/ops/deform_conv2d_cn.rst +++ b/docs/api/paddle/vision/ops/deform_conv2d_cn.rst @@ -22,6 +22,7 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x **示例** 输入: + input 形状: :math:`(N, C_{in}, H_{in}, W_{in})` 卷积核形状: :math:`(C_{out}, C_{in}, H_f, W_f)` @@ -31,6 +32,7 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x mask 形状: :math:`(N, H_f * W_f, H_{out}, W_{out})` 输出: + 输出形状: :math:`(N, C_{out}, H_{out}, W_{out})` 其中 @@ -48,13 +50,13 @@ deform_conv2d 对输入4-D Tensor计算2-D可变形卷积。给定输入Tensor x - **x** (Tensor) - 形状为 :math:`[N, C, H, W]` 的输入Tensor,数据类型为float32或float64。 - **offset** (Tensor) – 可变形卷积层的输入坐标偏移,数据类型为float32或float64。 - **weight** (Tensor) – 卷积核参数,形状为 :math:`[[M, C/g, kH, kW]`, 其中 M 是输出通道数,g 是group组数,kH是卷积核高度尺寸,kW是卷积核宽度尺寸。数据类型为float32或float64。 - - **bias** (Tensor, 可选) - 可变形卷积偏置项, 形状为 :math:`[M,]` 。 + - **bias** (Tensor,选) - 可变形卷积偏置项, 形状为 :math:`[M,]` 。 - **stride** (int|list|tuple,可选) - 步长大小。卷积核和输入进行卷积计算时滑动的步长。如果它是一个列表或元组,则必须包含两个整型数:(stride_height,stride_width)。若为一个整数,stride_height = stride_width = stride。默认值:1。 - **padding** (int|list|tuple,可选) - 填充大小。卷积核操作填充大小。如果它是一个列表或元组,则必须包含两个整型数:(padding_height,padding_width)。若为一个整数,padding_height = padding_width = padding。默认值:0。 - **dilation** (int|list|tuple,可选) - 空洞大小。空洞卷积时会使用该参数,卷积核对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。如果空洞大小为列表或元组,则必须包含两个整型数:(dilation_height,dilation_width)。若为一个整数,dilation_height = dilation_width = dilation。默认值:1。 - **deformable_groups** (int,可选) - 可变形卷积组数。默认值:1。 - **groups** (int,可选) - 二维卷积层的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=n,输入和卷积核分别根据通道数量平均分为n组,第一组卷积核和第一组输入进行卷积计算,第二组卷积核和第二组输入进行卷积计算,……,第n组卷积核和第n组输入进行卷积计算。默认值:1。 - - **mask** (Tensor, 可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 + - **mask** (Tensor,可选) – 可变形卷积层的输入掩码,当使用可变形卷积算子v1时,请将mask设置为None, 数据类型为float32或float64。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 diff --git a/docs/api/paddle/vision/ops/psroi_pool_cn.rst b/docs/api/paddle/vision/ops/psroi_pool_cn.rst index fdc8d1f210e..db0c0fe3ac9 100644 --- a/docs/api/paddle/vision/ops/psroi_pool_cn.rst +++ b/docs/api/paddle/vision/ops/psroi_pool_cn.rst @@ -16,11 +16,11 @@ PSROIPooling由R-FCN提出。更多详细信息,请参阅 https://arxiv.org/ab - boxes_num (Tensor) - 该batch中每一张图所包含的框数量。 - output_size (int|Tuple(int, int)) - 池化后输出的尺寸(H, W), 数据类型为int32. 如果output_size是int类型,H和W都与其相等。 - spatial_scale (float) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到输入特征图的尺寸。 - - name (str, 可选)- 默认值为None。一般用户无需设置,具体用法请参见 :ref:`api_guide_Name` 。 + - name (str,可选)- 默认值为None。一般用户无需设置,具体用法请参见 :ref:`api_guide_Name` 。 返回 ::::::::: - 4-D Tensor。池化后的ROIs, 其形状是(Roi数量,输出通道数,池化后高度,池化后宽度)。输出通道数等于输入通道数/(池化后高度 * 池化后宽度)。 + 4-D Tensor。池化后的ROIs,其形状是(Roi数量,输出通道数,池化后高度,池化后宽度)。输出通道数等于输入通道数/(池化后高度 * 池化后宽度)。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/ops/roi_align_cn.rst b/docs/api/paddle/vision/ops/roi_align_cn.rst index b5d7eab1e45..18267b54cf7 100644 --- a/docs/api/paddle/vision/ops/roi_align_cn.rst +++ b/docs/api/paddle/vision/ops/roi_align_cn.rst @@ -5,7 +5,9 @@ roi_align .. py:function:: paddle.vision.ops.roi_align(input, boxes, boxes_num, output_size, spatial_scale=1.0, aligned=True, name=None) -RoI Align是在指定输入的感兴趣区域上执行双线性插值以获得固定大小的特征图(例如7*7),如 Mask R-CNN论文中所述, 请参阅 https://arxiv.org/abs/1703.06870。 +RoI Align是在指定输入的感兴趣区域上执行双线性插值以获得固定大小的特征图(例如7*7),如 Mask R-CNN论文中所述。 + +论文参考:`Mask R-CNN `_ 。 参数 ::::::::: @@ -13,9 +15,9 @@ RoI Align是在指定输入的感兴趣区域上执行双线性插值以获得 - boxes (Tensor) - 待执行池化的RoIs(Regions of Interest)的框坐标。它应当是一个形状为(boxes_num, 4)的2-D Tensor,以[[x1, y1, x2, y2], ...]的形式给出。其中(x1, y1)是左上角的坐标值,(x2, y2)是右下角的坐标值。 - boxes_num (Tensor) - 该batch中每一张图所包含的框数量。数据类型为int32。 - output_size (int|Tuple(int, int)) - 池化后输出的尺寸(H, W),数据类型为int32。如果output_size是单个int类型整数,则H和W都与其相等。 - - spatial_scale (float, 可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到input特征图的尺寸。 - - aligned (bool, 可选)- 默认值为True,表示像素移动框将其坐标移动-0.5,以便与两个相邻像素索引更好地对齐。如果为False,则是使用遗留版本的实现。 - - name (str, 可选)- 默认值为None。一般用户无需设置,具体用法请参见 :ref:`api_guide_Name`。 + - spatial_scale (float,可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到input特征图的尺寸。 + - aligned (bool,可选)- 默认值为True,表示像素移动框将其坐标移动-0.5,以便与两个相邻像素索引更好地对齐。如果为False,则是使用遗留版本的实现。 + - name (str,可选)- 默认值为None。一般用户无需设置,具体用法请参见 :ref:`api_guide_Name`。 返回 ::::::::: diff --git a/docs/api/paddle/vision/ops/roi_pool_cn.rst b/docs/api/paddle/vision/ops/roi_pool_cn.rst index 10522f0abcd..a5868939a90 100644 --- a/docs/api/paddle/vision/ops/roi_pool_cn.rst +++ b/docs/api/paddle/vision/ops/roi_pool_cn.rst @@ -11,11 +11,11 @@ roi_pool 参数 ::::::::: - x (Tensor) - 输入的特征图,形状为(N, C, H, W)。 - - boxes (Tensor) - 待执行池化的ROIs(Regions of Interest, 感兴趣区域)的框坐标。它应当是一个形状为(num_rois, 4)的2-D Tensor,以[[x1, y1, x2, y2], ...]的形式给出。其中(x1, y1)是左上角的坐标值,(x2, y2)是右下角的坐标值。 + - boxes (Tensor) - 待执行池化的ROIs(Regions of Interest,感兴趣区域)的框坐标。它应当是一个形状为(num_rois, 4)的2-D Tensor,以[[x1, y1, x2, y2], ...]的形式给出。其中(x1, y1)是左上角的坐标值,(x2, y2)是右下角的坐标值。 - boxes_num (Tensor) - 该batch中每一张图所包含的框数量。 - output_size (int|Tuple(int, int)) - 池化后输出的尺寸(H, W), 数据类型为int32. 如果output_size是int类型,H和W都与其相等。 - - spatial_scale (float, 可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到input特征图的尺寸,默认值1.0。 - - name (str, 可选)- 默认值为None。一般用户无需设置,具体用法请参见 :ref:`api_guide_Name` 。 + - spatial_scale (float,可选) - 空间比例因子,用于将boxes中的坐标从其输入尺寸按比例映射到input特征图的尺寸,默认值1.0。 + - name (str,可选)- 默认值为None。一般用户无需设置,具体用法请参见 :ref:`api_guide_Name` 。 返回 diff --git a/docs/api/paddle/vision/ops/yolo_box_cn.rst b/docs/api/paddle/vision/ops/yolo_box_cn.rst index daa6a371b36..e12221e1dc6 100644 --- a/docs/api/paddle/vision/ops/yolo_box_cn.rst +++ b/docs/api/paddle/vision/ops/yolo_box_cn.rst @@ -30,21 +30,21 @@ yolo_box 参数 ::::::::: - - **x** (Tensor): YoloBox的输入张量是一个4-D张量,形状为[N,C,H,W]。第二维(C)存储每个anchor box位置坐标,每个anchor box的置信度分数和one hot key。通常,X应该是YOLOv3网络的输出。数据类型为float32或float64 - - **img_size** (Tensor): YoloBox的图像大小张量,这是一个形状为[N,2]的二维张量。该张量保持每个输入图像的高度和宽度,用于对输出图像按输入图像比例调整输出框的大小。数据类型为int32。 - - **anchors** (list | tuple) : anchor的宽度和高度,它将逐对解析 - - **class_num** (int): 要预测的类数 - - **conf_thresh** (float): 检测框的置信度得分阈值。置信度得分低于阈值的框应该被忽略 - - **downsample_ratio** (int): 从网络输入到YoloBox操作输入的下采样率,因此应依次为第一个,第二个和第三个YoloBox运算设置该值为32,16,8 - - **clip_bbox** (bool, 可选): 是否将输出的bbox裁剪到 :attr:`img_size` 范围内,默认为True。 - - **name** (str,可选): 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 - - **scale_x_y** (float, 可选): 放缩解码边界框的中心点,默认值:1.0 . + - **x** (Tensor)- YoloBox的输入张量是一个4-D张量,形状为[N,C,H,W]。第二维(C)存储每个anchor box位置坐标,每个anchor box的置信度分数和one hot key。通常,X应该是YOLOv3网络的输出。数据类型为float32或float64。 + - **img_size** (Tensor)- YoloBox的图像大小张量,这是一个形状为[N,2]的二维张量。该张量保持每个输入图像的高度和宽度,用于对输出图像按输入图像比例调整输出框的大小。数据类型为int32。 + - **anchors** (list | tuple) - anchor的宽度和高度,它将逐对解析。 + - **class_num** (int)- 要预测的类数。 + - **conf_thresh** (float)- 检测框的置信度得分阈值。置信度得分低于阈值的框应该被忽略。 + - **downsample_ratio** (int)- 从网络输入到YoloBox操作输入的下采样率,因此应依次为第一个,第二个和第三个YoloBox运算设置该值为32,16,8 + - **clip_bbox** (bool,可选)- 是否将输出的bbox裁剪到 :attr:`img_size` 范围内,默认为True。 + - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 + - **scale_x_y** (float,可选) - 放缩解码边界框的中心点,默认值:1.0。 返回 ::::::::: - 1. 框的坐标,形为[N,M,4]的三维张量 - 2. 框的分类得分, 形为 [N,M,class_num]的三维张量 + 1. 框的坐标,形为[N,M,4]的三维张量; + 2. 框的分类得分, 形为 [N,M,class_num]的三维张量。 代码示例 ::::::::: diff --git a/docs/api/paddle/vision/ops/yolo_loss_cn.rst b/docs/api/paddle/vision/ops/yolo_loss_cn.rst index 4ef2e155118..0dfda4507a3 100644 --- a/docs/api/paddle/vision/ops/yolo_loss_cn.rst +++ b/docs/api/paddle/vision/ops/yolo_loss_cn.rst @@ -54,24 +54,24 @@ yolov3 loss前的网络输出形状为[N,C,H,W],H和W应该相同,用 参数 :::::::::::: - - **x** (Tensor) : YOLOv3损失运算的输入张量,这是一个形状为[N,C,H,W]的四维Tensor。H和W应该相同,第二维(C)存储框的位置信息,以及每个anchor box的置信度得分和one-hot分类。数据类型为float32或float64。 - - **gt_box** (Tensor) : 真实框,应该是[N,B,4]的形状。第三维用来承载x、y、w、h,其中 x, y是真实框的中心坐标,w, h是框的宽度和高度,且x、y、w、h将除以输入图片的尺寸,缩放到[0,1]区间内。 N是batch size,B是图像中所含有的的最多的box数目。数据类型为float32或float64。 - - **gt_label** (Tensor) : 真实框的类id,应该形为[N,B]。数据类型为int32。 - - **anchors** (list|tuple) : 指定anchor框的宽度和高度,它们将逐对进行解析 - - **anchor_mask** (list|tuple) : 当前YOLOv3损失计算中使用anchor的mask索引 - - **class_num** (int) : 要预测的类别数 - - **ignore_thresh** (float) : 一定条件下忽略某框置信度损失的忽略阈值 - - **downsample_ratio** (int) : 网络输入到YOLOv3 loss输入的下采样率,因此第一,第二和第三个 loss 的下采样率应分别为32,16,8 - - **gt_score** (Tensor): 真实框的混合得分,形为[N,B]。 默认None。数据类型为float32或float64。 - - **use_label_smooth** (bool): 是否使用平滑标签。 默认为True - - **name** (str,可选): 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 - - **scale_x_y** (float, 可选): 缩放解码边界框的中心点。 默认值1.0 。 + - **x** (Tensor) - YOLOv3损失运算的输入张量,这是一个形状为[N,C,H,W]的四维Tensor。H和W应该相同,第二维(C)存储框的位置信息,以及每个anchor box的置信度得分和one-hot分类。数据类型为float32或float64。 + - **gt_box** (Tensor) - 真实框,应该是[N,B,4]的形状。第三维用来承载x、y、w、h,其中 x, y是真实框的中心坐标,w, h是框的宽度和高度,且x、y、w、h将除以输入图片的尺寸,缩放到[0,1]区间内。 N是batch size,B是图像中所含有的的最多的box数目。数据类型为float32或float64。 + - **gt_label** (Tensor) - 真实框的类id,应该形为[N,B]。数据类型为int32。 + - **anchors** (list|tuple) - 指定anchor框的宽度和高度,它们将逐对进行解析 + - **anchor_mask** (list|tuple) - 当前YOLOv3损失计算中使用anchor的mask索引 + - **class_num** (int) - 要预测的类别数 + - **ignore_thresh** (float) - 一定条件下忽略某框置信度损失的忽略阈值 + - **downsample_ratio** (int) - 网络输入到YOLOv3 loss输入的下采样率,因此第一,第二和第三个 loss 的下采样率应分别为32,16,8 + - **gt_score** (Tensor)- 真实框的混合得分,形为[N,B]。 默认None。数据类型为float32或float64。 + - **use_label_smooth** (bool)- 是否使用平滑标签。 默认为True + - **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name` 。 + - **scale_x_y** (float,可选) - 缩放解码边界框的中心点。 默认值1.0 。 返回 ::::::::: -Tensor, yolov3损失的值,具有形状[N]的1-D Tensor。 +Tensor,yolov3损失的值,具有形状[N]的1-D Tensor。 代码示例 From f63349d43f75e677c19a966d0d7d770e084c856f Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 16:18:28 +0800 Subject: [PATCH 093/107] update vision docs --- docs/api/paddle/vision/transforms/BaseTransform_cn.rst | 4 +--- docs/api/paddle/vision/transforms/BrightnessTransform_cn.rst | 2 +- docs/api/paddle/vision/transforms/CenterCrop_cn.rst | 2 +- docs/api/paddle/vision/transforms/ColorJitter_cn.rst | 4 ++-- docs/api/paddle/vision/transforms/ContrastTransform_cn.rst | 2 +- docs/api/paddle/vision/transforms/Grayscale_cn.rst | 2 +- docs/api/paddle/vision/transforms/RandomCrop_cn.rst | 2 +- docs/api/paddle/vision/transforms/RandomHorizontalFlip_cn.rst | 2 +- docs/api/paddle/vision/transforms/RandomResizedCrop_cn.rst | 4 ++-- docs/api/paddle/vision/transforms/RandomRotation_cn.rst | 2 +- docs/api/paddle/vision/transforms/RandomVerticalFlip_cn.rst | 2 +- docs/api/paddle/vision/transforms/SaturationTransform_cn.rst | 2 +- docs/api/paddle/vision/transforms/ToTensor_cn.rst | 4 ++-- docs/api/paddle/vision/transforms/Transpose_cn.rst | 4 ++-- docs/api/paddle/vision/transforms/adjust_brightness_cn.rst | 2 +- docs/api/paddle/vision/transforms/adjust_contrast_cn.rst | 2 +- docs/api/paddle/vision/transforms/adjust_hue_cn.rst | 2 +- docs/api/paddle/vision/transforms/center_crop_cn.rst | 2 +- docs/api/paddle/vision/transforms/rotate_cn.rst | 2 +- docs/api/paddle/vision/transforms/to_tensor_cn.rst | 2 +- 20 files changed, 24 insertions(+), 26 deletions(-) diff --git a/docs/api/paddle/vision/transforms/BaseTransform_cn.rst b/docs/api/paddle/vision/transforms/BaseTransform_cn.rst index 725dd53fdb4..c47b304fd2b 100644 --- a/docs/api/paddle/vision/transforms/BaseTransform_cn.rst +++ b/docs/api/paddle/vision/transforms/BaseTransform_cn.rst @@ -21,9 +21,7 @@ BaseTransform 参数 ::::::::: - - keys (list[str]|tuple[str], optional) - 输入的类型. 你的输入可以是单一的图像,也可以是包含不同数据结构的元组, ``keys`` 可以用来指定输入类型. 举个例子, 如果你的输入就是一个单一的图像,那么 ``keys`` 可以为 ``None`` 或者 ("image")。如果你的输入是两个图像:``(image, image)`` ,那么 `keys` 应该设置为 ``("image", "image")`` 。如果你的输入是 ``(image, boxes)``, 那么 ``keys`` 应该为 ``("image", "boxes")`` 。 - - 目前支持的数据类型如下所示: + - keys (list[str]|tuple[str], optional) - 输入的类型. 你的输入可以是单一的图像,也可以是包含不同数据结构的元组, ``keys`` 可以用来指定输入类型. 举个例子, 如果你的输入就是一个单一的图像,那么 ``keys`` 可以为 ``None`` 或者 ("image")。如果你的输入是两个图像:``(image, image)`` ,那么 `keys` 应该设置为 ``("image", "image")`` 。如果你的输入是 ``(image, boxes)``, 那么 ``keys`` 应该为 ``("image", "boxes")`` 。目前支持的数据类型如下所示: - "image": 输入的图像, 它的维度为 ``(H, W, C)`` 。 - "coords": 输入的左边, 它的维度为 ``(N, 2)`` 。 diff --git a/docs/api/paddle/vision/transforms/BrightnessTransform_cn.rst b/docs/api/paddle/vision/transforms/BrightnessTransform_cn.rst index 4cd9b388b8b..7bd6475fea8 100644 --- a/docs/api/paddle/vision/transforms/BrightnessTransform_cn.rst +++ b/docs/api/paddle/vision/transforms/BrightnessTransform_cn.rst @@ -11,7 +11,7 @@ BrightnessTransform ::::::::: - value (float) - 亮度调整范围大小,会从给定参数后的均匀分布[max(0,1 - brightness), 1 + brightness]中随机选择进行实际调整,可以是任何非负数。参数等于0时输出原始图像。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/CenterCrop_cn.rst b/docs/api/paddle/vision/transforms/CenterCrop_cn.rst index e7786a392d2..3a33cee0846 100644 --- a/docs/api/paddle/vision/transforms/CenterCrop_cn.rst +++ b/docs/api/paddle/vision/transforms/CenterCrop_cn.rst @@ -11,7 +11,7 @@ CenterCrop ::::::::: - size (int|tuple) - 输出图像的形状大小。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/ColorJitter_cn.rst b/docs/api/paddle/vision/transforms/ColorJitter_cn.rst index f9e6059d505..662d6602685 100644 --- a/docs/api/paddle/vision/transforms/ColorJitter_cn.rst +++ b/docs/api/paddle/vision/transforms/ColorJitter_cn.rst @@ -5,7 +5,7 @@ ColorJitter .. py:class:: paddle.vision.transforms.ColorJitter(brightness=0, contrast=0, saturation=0, hue=0, keys=None) -随机调整图像的亮度,对比度,饱和度和色调。 +随机调整图像的亮度、对比度、饱和度和色调。 参数 ::::::::: @@ -13,7 +13,7 @@ ColorJitter - brightness(float) - 亮度调整范围大小,会从给定参数后的均匀分布[max(0,1 - brightness), 1 + brightness]中随机选择进行实际调整,不能是负数。 - contrast(float) - 对比度调整范围大小,,会从给定参数后的均匀分布[max(0,1 - contrast), 1 + contrast]中随机选择进行实际调整,不能是负数。 - saturation(float) - 饱和度调整范围大小,,会从给定参数后的均匀分布[max(0,1 - saturation), 1 + saturation]中随机选择进行实际调整,不能是负数。 - - hue(float) - 色调调整范围大小,,会从给定参数后的均匀分布[-hue, hue]中随机选择进行实际调整,参数值需要在0到0.5之间。 + - hue(float) - 色调调整范围大小,会从给定参数后的均匀分布[-hue, hue]中随机选择进行实际调整,参数值需要在0到0.5之间。 - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 diff --git a/docs/api/paddle/vision/transforms/ContrastTransform_cn.rst b/docs/api/paddle/vision/transforms/ContrastTransform_cn.rst index e8f3a0f9912..327decc346a 100644 --- a/docs/api/paddle/vision/transforms/ContrastTransform_cn.rst +++ b/docs/api/paddle/vision/transforms/ContrastTransform_cn.rst @@ -11,7 +11,7 @@ ContrastTransform ::::::::: - value (float) - 对比度调整范围大小,会从给定参数后的均匀分布[max(0,1 - contrast), 1 + contrast]中随机选择进行实际调整,不能是负数。参数值为0时返回原图像。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/Grayscale_cn.rst b/docs/api/paddle/vision/transforms/Grayscale_cn.rst index c77650b7bd7..c56a0d701ff 100644 --- a/docs/api/paddle/vision/transforms/Grayscale_cn.rst +++ b/docs/api/paddle/vision/transforms/Grayscale_cn.rst @@ -11,7 +11,7 @@ Grayscale ::::::::: - num_output_channels (int,可选) - 输出图像的通道数,参数值为1或3。默认值:1。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/RandomCrop_cn.rst b/docs/api/paddle/vision/transforms/RandomCrop_cn.rst index 0d0935dfc7b..39448a2b514 100644 --- a/docs/api/paddle/vision/transforms/RandomCrop_cn.rst +++ b/docs/api/paddle/vision/transforms/RandomCrop_cn.rst @@ -13,7 +13,7 @@ RandomCrop - size (sequence|int) - 裁剪后的图片大小。如果size是一个int值,而不是(h, w)这样的序列,那么会做一个方形的裁剪(size, size)。 - padding (int|sequence,可选) - 对图像四周外边进行填充,如果提供了长度为4的序列,则将其分别用于填充左边界,上边界,右边界和下边界。 默认值:0,不填充。 - pad_if_needed (boolean,可选) - 如果裁剪后的图像小于期望的大小时,是否对裁剪后的图像进行填充,以避免引发异常,默认值:False,保持初次裁剪后的大小,不填充。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/RandomHorizontalFlip_cn.rst b/docs/api/paddle/vision/transforms/RandomHorizontalFlip_cn.rst index 496af162f66..0e73df80c61 100644 --- a/docs/api/paddle/vision/transforms/RandomHorizontalFlip_cn.rst +++ b/docs/api/paddle/vision/transforms/RandomHorizontalFlip_cn.rst @@ -11,7 +11,7 @@ RandomHorizontalFlip ::::::::: - prob (float) - 图片执行水平翻转的概率,取值范围为[0, 1], 默认值为0.5。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/RandomResizedCrop_cn.rst b/docs/api/paddle/vision/transforms/RandomResizedCrop_cn.rst index fc16c5706df..88d49c32612 100644 --- a/docs/api/paddle/vision/transforms/RandomResizedCrop_cn.rst +++ b/docs/api/paddle/vision/transforms/RandomResizedCrop_cn.rst @@ -15,8 +15,8 @@ RandomResizedCrop - size (int|list|tuple) - 输出图像大小,当为单个int值时,生成指定size大小的方形图片,为(height,width)格式的数组或元组时按照参数大小输出。 - scale (list|tuple) - 相对于原图的尺寸,随机裁剪后图像大小的范围。默认值:(0.08,1.0)。 - ratio (list|tuple) - 裁剪后的目标图像宽高比范围,默认值: (0.75, 1.33)。 - - interpolation (int|str, optional) - 插值的方法. 默认值: 'bilinear'. 当使用 ``pil`` 作为后端时, 支持的插值方法如下: - "nearest": Image.NEAREST, - "bilinear": Image.BILINEAR, - "bicubic": Image.BICUBIC, - "box": Image.BOX, - "lanczos": Image.LANCZOS, - "hamming": Image.HAMMING。当使用 ``cv2`` 作为后端时, 支持的插值方法如下: - "nearest": cv2.INTER_NEAREST, - "bilinear": cv2.INTER_LINEAR, - "area": cv2.INTER_AREA, - "bicubic": cv2.INTER_CUBIC, - "lanczos": cv2.INTER_LANCZOS4。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - interpolation (int|str,可选) - 插值的方法. 默认值: 'bilinear'. 当使用 ``pil`` 作为后端时, 支持的插值方法如下: - "nearest": Image.NEAREST, - "bilinear": Image.BILINEAR, - "bicubic": Image.BICUBIC, - "box": Image.BOX, - "lanczos": Image.LANCZOS, - "hamming": Image.HAMMING。当使用 ``cv2`` 作为后端时, 支持的插值方法如下: - "nearest": cv2.INTER_NEAREST, - "bilinear": cv2.INTER_LINEAR, - "area": cv2.INTER_AREA, - "bicubic": cv2.INTER_CUBIC, - "lanczos": cv2.INTER_LANCZOS4。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/RandomRotation_cn.rst b/docs/api/paddle/vision/transforms/RandomRotation_cn.rst index 96ff12cef9d..789d8c2db97 100644 --- a/docs/api/paddle/vision/transforms/RandomRotation_cn.rst +++ b/docs/api/paddle/vision/transforms/RandomRotation_cn.rst @@ -26,7 +26,7 @@ RandomRotate 当参数值为True时,会对图像大小进行扩展,让其能够足以容纳整个旋转后的图像。当参数值为False时,会按照原图像大小保留旋转后的图像。**这个扩展操作的前提是围绕中心旋转且没有平移**。 - center (2-tuple,可选) - 旋转的中心点坐标,原点是图片左上角,默认值是图像的中心点。 - fill (int,可选) - 对图像扩展时填充的值。默认值:0。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/RandomVerticalFlip_cn.rst b/docs/api/paddle/vision/transforms/RandomVerticalFlip_cn.rst index 3c7c9626301..f3d966093be 100644 --- a/docs/api/paddle/vision/transforms/RandomVerticalFlip_cn.rst +++ b/docs/api/paddle/vision/transforms/RandomVerticalFlip_cn.rst @@ -11,7 +11,7 @@ RandomVerticalFlip ::::::::: - prob (float) - 执行图片垂直翻转的概率,默认值为0.5。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/SaturationTransform_cn.rst b/docs/api/paddle/vision/transforms/SaturationTransform_cn.rst index e793cc9c780..b7833c5a25f 100644 --- a/docs/api/paddle/vision/transforms/SaturationTransform_cn.rst +++ b/docs/api/paddle/vision/transforms/SaturationTransform_cn.rst @@ -11,7 +11,7 @@ SaturationTransform ::::::::: - value (float) - 饱和度的调整数值,非负数,当参数值为0时返回原始图像。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/ToTensor_cn.rst b/docs/api/paddle/vision/transforms/ToTensor_cn.rst index 3f24a016b80..9afd49f5ef6 100644 --- a/docs/api/paddle/vision/transforms/ToTensor_cn.rst +++ b/docs/api/paddle/vision/transforms/ToTensor_cn.rst @@ -20,8 +20,8 @@ ToTensor 参数 ::::::::: - - data_format (str, optional): 返回张量的格式,必须为 'HWC' 或 'CHW'。 默认值: 'CHW'。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform`` 定义一致。默认值: None。 + - data_format (str,可选): 返回张量的格式,必须为 'HWC' 或 'CHW'。 默认值: 'CHW'。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform`` 定义一致。默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/Transpose_cn.rst b/docs/api/paddle/vision/transforms/Transpose_cn.rst index 1ccf0c448d5..ec06f08f199 100644 --- a/docs/api/paddle/vision/transforms/Transpose_cn.rst +++ b/docs/api/paddle/vision/transforms/Transpose_cn.rst @@ -11,8 +11,8 @@ Transpose 参数 ::::::::: - - order (list|tuple, optional) - 目标的维度顺序. Default: (2, 0, 1)。 - - keys (list[str]|tuple[str], optional) - 与 ``BaseTransform``. 默认值: None。 + - order (list|tuple,可选) - 目标的维度顺序. Default: (2, 0, 1)。 + - keys (list[str]|tuple[str],可选) - 与 ``BaseTransform``. 默认值: None。 形状 ::::::::: diff --git a/docs/api/paddle/vision/transforms/adjust_brightness_cn.rst b/docs/api/paddle/vision/transforms/adjust_brightness_cn.rst index f2cc81fe978..806700b6ac3 100644 --- a/docs/api/paddle/vision/transforms/adjust_brightness_cn.rst +++ b/docs/api/paddle/vision/transforms/adjust_brightness_cn.rst @@ -11,7 +11,7 @@ adjust_brightness ::::::::: - img (PIL.Image|np.array) - 输入的图像。 - - brightness_factor (float): 调节图像亮度值的多少,可以是任何非负数。参数等于0时输出黑色图像,参数等于1时输出原始图像,参数大于1时输出图像亮度增强,如参数等于2时图像亮度增强两倍。 + - brightness_factor (float) - 调节图像亮度值的多少,可以是任何非负数。参数等于0时输出黑色图像,参数等于1时输出原始图像,参数大于1时输出图像亮度增强,如参数等于2时图像亮度增强两倍。 返回 ::::::::: diff --git a/docs/api/paddle/vision/transforms/adjust_contrast_cn.rst b/docs/api/paddle/vision/transforms/adjust_contrast_cn.rst index 9f5ecb57ff9..06a801190a6 100644 --- a/docs/api/paddle/vision/transforms/adjust_contrast_cn.rst +++ b/docs/api/paddle/vision/transforms/adjust_contrast_cn.rst @@ -11,7 +11,7 @@ adjust_contrast ::::::::: - img (PIL.Image|np.array) - 输入的图像。 - - contrast_factor (float): 调节图像对比度的多少,可以是任何非负数。参数等于0时输出纯灰色图像,参数等于1时输出原始图像,参数大于1时图像对比度增强,如参数等于2时图像对比度增强两倍。 + - contrast_factor (float) - 调节图像对比度的多少,可以是任何非负数。参数等于0时输出纯灰色图像,参数等于1时输出原始图像,参数大于1时图像对比度增强,如参数等于2时图像对比度增强两倍。 返回 ::::::::: diff --git a/docs/api/paddle/vision/transforms/adjust_hue_cn.rst b/docs/api/paddle/vision/transforms/adjust_hue_cn.rst index a85d800cfc1..5b31d036128 100644 --- a/docs/api/paddle/vision/transforms/adjust_hue_cn.rst +++ b/docs/api/paddle/vision/transforms/adjust_hue_cn.rst @@ -11,7 +11,7 @@ adjust_hue ::::::::: - img (PIL.Image|np.array) - 输入的图像。 - - hue_factor (float): 图像的色调通道的偏移量. 数值应在 ``[-0.5, 0.5]`` 。0.5和-0.5分别表示HSV空间中色相通道正向和负向完全反转,0表示没有调整色调。因此,-0.5和0.5都会给出一个带有互补色的图像,而0则会给出原始图像。 + - hue_factor (float) - 图像的色调通道的偏移量. 数值应在 ``[-0.5, 0.5]`` 。0.5和-0.5分别表示HSV空间中色相通道正向和负向完全反转,0表示没有调整色调。因此,-0.5和0.5都会给出一个带有互补色的图像,而0则会给出原始图像。 返回 ::::::::: diff --git a/docs/api/paddle/vision/transforms/center_crop_cn.rst b/docs/api/paddle/vision/transforms/center_crop_cn.rst index b2baecc10bb..d0b5866ccaa 100644 --- a/docs/api/paddle/vision/transforms/center_crop_cn.rst +++ b/docs/api/paddle/vision/transforms/center_crop_cn.rst @@ -11,7 +11,7 @@ center_crop ::::::::: - img (PIL.Image|np.array) - 用于裁剪的图像。 - - output_size (int|list|tuple): 要裁剪的矩形框的大小:(height, width)。如果是 ``int`` 值,则所有方向按照这个值裁剪。 + - output_size (int|list|tuple) - 要裁剪的矩形框的大小:(height, width)。如果是 ``int`` 值,则所有方向按照这个值裁剪。 返回 ::::::::: diff --git a/docs/api/paddle/vision/transforms/rotate_cn.rst b/docs/api/paddle/vision/transforms/rotate_cn.rst index 8440e9e6c0b..bb358ed4a6d 100644 --- a/docs/api/paddle/vision/transforms/rotate_cn.rst +++ b/docs/api/paddle/vision/transforms/rotate_cn.rst @@ -12,7 +12,7 @@ rotate - img (PIL.Image|numpy.ndarray) - 输入图像。 - angle (float|int) - 旋转角度,顺时针。 - - resample (int|str, 可选): 可选的重采样滤波器。 如果省略,或者图像只有一个通道,则根据后端将其设置为PIL.Image.NEAREST或cv2.INTER_NEAREST。使采用pil后端时,支持方法如下:"nearest": Image.NEAREST, "bilinear": Image.BILINEAR, "bicubic": Image.BICUBIC;当采用cv2后端时,支持方法如下:"nearest": cv2.INTER_NEAREST, - "bilinear": cv2.INTER_LINEAR, "bicubic": cv2.INTER_CUBIC. + - resample (int|str,可选): 可选的重采样滤波器。 如果省略,或者图像只有一个通道,则根据后端将其设置为PIL.Image.NEAREST或cv2.INTER_NEAREST。使采用pil后端时,支持方法如下:"nearest": Image.NEAREST, "bilinear": Image.BILINEAR, "bicubic": Image.BICUBIC;当采用cv2后端时,支持方法如下:"nearest": cv2.INTER_NEAREST, - "bilinear": cv2.INTER_LINEAR, "bicubic": cv2.INTER_CUBIC. - expand (bool,可选) - 是否要对旋转后的图片进行大小扩展,默认值: False,不进行扩展。当参数值为True时,会对图像大小进行扩展,让其能够足以容纳整个旋转后的图像。当参数值为False时,会按照原图像大小保留旋转后的图像。 **这个扩展操作的前提是围绕中心旋转且没有平移。** - center (2-tuple,可选) - 旋转的中心点坐标,原点是图片左上角,默认值是图像的中心点。 - fill (int,可选) - 对图像扩展时填充的值。默认值:0。 diff --git a/docs/api/paddle/vision/transforms/to_tensor_cn.rst b/docs/api/paddle/vision/transforms/to_tensor_cn.rst index e9af1ccc2c6..6fcdfaf1ac1 100644 --- a/docs/api/paddle/vision/transforms/to_tensor_cn.rst +++ b/docs/api/paddle/vision/transforms/to_tensor_cn.rst @@ -18,7 +18,7 @@ to_tensor ::::::::: - pic (PIL.Image|numpy.ndarray) - 输入的图像数据。 - - data_format (str, optional): 返回的张量的格式,必须为 'HWC' 或 'CHW'。 默认值: 'CHW'。 + - data_format (str,可选): 返回的张量的格式,必须为 'HWC' 或 'CHW'。 默认值: 'CHW'。 返回 ::::::::: From 429aba0bba4568a3c928e5b0e4c3cf5c84cc48a0 Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Thu, 31 Mar 2022 16:28:38 +0800 Subject: [PATCH 094/107] update nn.* docs --- docs/api/paddle/nn/AdaptiveAvgPool1D_cn.rst | 3 - docs/api/paddle/nn/AdaptiveAvgPool2D_cn.rst | 3 - docs/api/paddle/nn/AdaptiveAvgPool3D_cn.rst | 3 - docs/api/paddle/nn/AdaptiveMaxPool1D_cn.rst | 3 - docs/api/paddle/nn/AvgPool2D_cn.rst | 6 ++ docs/api/paddle/nn/AvgPool3D_cn.rst | 6 ++ docs/api/paddle/nn/BatchNorm1D_cn.rst | 4 +- docs/api/paddle/nn/BatchNorm2D_cn.rst | 4 +- docs/api/paddle/nn/BatchNorm3D_cn.rst | 4 +- docs/api/paddle/nn/BeamSearchDecoder_cn.rst | 96 ++++++++----------- docs/api/paddle/nn/BiRNN_cn.rst | 8 +- docs/api/paddle/nn/Bilinear_cn.rst | 1 + docs/api/paddle/nn/Conv1DTranspose_cn.rst | 4 +- docs/api/paddle/nn/Conv1D_cn.rst | 10 +- docs/api/paddle/nn/Conv2DTranspose_cn.rst | 15 +-- docs/api/paddle/nn/Conv2D_cn.rst | 22 ++--- docs/api/paddle/nn/Conv3DTranspose_cn.rst | 16 +--- docs/api/paddle/nn/Conv3D_cn.rst | 21 ++-- docs/api/paddle/nn/Embedding_cn.rst | 6 +- docs/api/paddle/nn/GRUCell_cn.rst | 9 +- docs/api/paddle/nn/GRU_cn.rst | 9 +- docs/api/paddle/nn/GroupNorm_cn.rst | 4 +- docs/api/paddle/nn/Hardshrink_cn.rst | 5 +- docs/api/paddle/nn/Hardsigmoid_cn.rst | 3 +- docs/api/paddle/nn/Hardswish_cn.rst | 1 - docs/api/paddle/nn/InstanceNorm1D_cn.rst | 5 +- docs/api/paddle/nn/InstanceNorm2D_cn.rst | 5 +- docs/api/paddle/nn/InstanceNorm3D_cn.rst | 5 +- docs/api/paddle/nn/KLDivLoss_cn.rst | 4 +- docs/api/paddle/nn/LSTMCell_cn.rst | 13 ++- docs/api/paddle/nn/LSTM_cn.rst | 8 +- docs/api/paddle/nn/LayerDict_cn.rst | 3 - docs/api/paddle/nn/LayerList_cn.rst | 3 - docs/api/paddle/nn/LayerNorm_cn.rst | 4 +- docs/api/paddle/nn/Layer_cn.rst | 4 - docs/api/paddle/nn/LeakyReLU_cn.rst | 4 +- docs/api/paddle/nn/Linear_cn.rst | 5 +- docs/api/paddle/nn/LogSoftmax_cn.rst | 6 +- docs/api/paddle/nn/MSELoss_cn.rst | 4 +- docs/api/paddle/nn/RNN_cn.rst | 8 +- docs/api/paddle/nn/SimpleRNNCell_cn.rst | 12 ++- docs/api/paddle/nn/SimpleRNN_cn.rst | 8 +- docs/api/paddle/nn/SyncBatchNorm_cn.rst | 4 +- docs/api/paddle/nn/Tanh_cn.rst | 6 +- docs/api/paddle/nn/Upsample_cn.rst | 4 +- .../api/paddle/nn/UpsamplingBilinear2D_cn.rst | 9 -- docs/api/paddle/nn/UpsamplingNearest2D_cn.rst | 9 -- docs/api/paddle/nn/dynamic_decode_cn.rst | 19 ++-- 48 files changed, 193 insertions(+), 225 deletions(-) diff --git a/docs/api/paddle/nn/AdaptiveAvgPool1D_cn.rst b/docs/api/paddle/nn/AdaptiveAvgPool1D_cn.rst index 50990b34df1..506e5cf3ac8 100755 --- a/docs/api/paddle/nn/AdaptiveAvgPool1D_cn.rst +++ b/docs/api/paddle/nn/AdaptiveAvgPool1D_cn.rst @@ -34,9 +34,6 @@ AdaptiveAvgPool1D ::::::::: 计算AdaptiveAvgPool1D的可调用对象 -抛出异常 -::::::::: - - ``ValueError`` - ``output_size`` 应是一个整数。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/AdaptiveAvgPool2D_cn.rst b/docs/api/paddle/nn/AdaptiveAvgPool2D_cn.rst index 14e1d34f7be..9932901afca 100755 --- a/docs/api/paddle/nn/AdaptiveAvgPool2D_cn.rst +++ b/docs/api/paddle/nn/AdaptiveAvgPool2D_cn.rst @@ -39,9 +39,6 @@ AdaptiveAvgPool2D ::::::::: 计算AdaptiveAvgPool2D的可调用对象 -抛出异常 -::::::::: - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/AdaptiveAvgPool3D_cn.rst b/docs/api/paddle/nn/AdaptiveAvgPool3D_cn.rst index a2d38709458..adda3956178 100755 --- a/docs/api/paddle/nn/AdaptiveAvgPool3D_cn.rst +++ b/docs/api/paddle/nn/AdaptiveAvgPool3D_cn.rst @@ -42,9 +42,6 @@ AdaptiveAvgPool3D ::::::::: 计算AdaptiveAvgPool3D的可调用对象 -抛出异常 -::::::::: - - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/AdaptiveMaxPool1D_cn.rst b/docs/api/paddle/nn/AdaptiveMaxPool1D_cn.rst index da0d5322313..080d300a67a 100755 --- a/docs/api/paddle/nn/AdaptiveMaxPool1D_cn.rst +++ b/docs/api/paddle/nn/AdaptiveMaxPool1D_cn.rst @@ -35,9 +35,6 @@ AdaptiveMaxPool1D ::::::::: 计算AdaptiveMaxPool1D的可调用对象 -抛出异常 -::::::::: - - ``ValueError`` - ``output_size`` 应是一个整数或长度为1的list,tuple 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/AvgPool2D_cn.rst b/docs/api/paddle/nn/AvgPool2D_cn.rst index 627ec1ffd91..639ce732787 100644 --- a/docs/api/paddle/nn/AvgPool2D_cn.rst +++ b/docs/api/paddle/nn/AvgPool2D_cn.rst @@ -10,12 +10,18 @@ AvgPool2D 例如: 输入: + X 形状::math:`\left ( N,C,H_{in},W_{in} \right )` + 属性: + kernel_size: :math:`ksize` stride: :math:`stride` + 输出: + Out 形状::math:`\left ( N,C,H_{out},W_{out} \right )` + .. math:: out(N_i, C_j, h, w) = \frac{1}{ksize[0] * ksize[1]} \sum_{m=0}^{ksize[0]-1} \sum_{n=0}^{ksize[1]-1} input(N_i, C_j, stride[0] \times h + m, stride[1] \times w + n) diff --git a/docs/api/paddle/nn/AvgPool3D_cn.rst b/docs/api/paddle/nn/AvgPool3D_cn.rst index d98f792482e..a22aaf9e019 100644 --- a/docs/api/paddle/nn/AvgPool3D_cn.rst +++ b/docs/api/paddle/nn/AvgPool3D_cn.rst @@ -10,12 +10,18 @@ AvgPool3D 例如: 输入: + X 形状::math:`\left ( N,C, D_{in}, H_{in},W_{in} \right )` + 属性: + kernel_size: :math:`[KD, KH, KW]` stride: :math:`stride` + 输出: + Out 形状::math:`\left ( N,C, D_{in}, H_{out},W_{out} \right )` + .. math:: \text{out}(N_i, C_j, d, h, w) ={} & \sum_{k=0}^{kD-1} \sum_{m=0}^{kH-1} \sum_{n=0}^{kW-1} \\ & \frac{\text{input}(N_i, C_j, \text{stride}[0] \times d + k, diff --git a/docs/api/paddle/nn/BatchNorm1D_cn.rst b/docs/api/paddle/nn/BatchNorm1D_cn.rst index 491a533606c..890217d928c 100644 --- a/docs/api/paddle/nn/BatchNorm1D_cn.rst +++ b/docs/api/paddle/nn/BatchNorm1D_cn.rst @@ -51,7 +51,9 @@ BatchNorm1D :::::::::::: 无 -形状: +形状 +:::::::::::: + - input: 形状为(批大小,通道数)的2-D Tensor 或(批大小, 通道数,长度)的3-D Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/BatchNorm2D_cn.rst b/docs/api/paddle/nn/BatchNorm2D_cn.rst index f28a5fcab66..402d3334043 100644 --- a/docs/api/paddle/nn/BatchNorm2D_cn.rst +++ b/docs/api/paddle/nn/BatchNorm2D_cn.rst @@ -51,7 +51,9 @@ BatchNorm2D :::::::::::: 无 -形状: +形状 +:::::::::::: + - input: 形状为(批大小,通道数, 高度,宽度)的4-D Tensor 或(批大小, 通道数,宽度,高度)的4-D Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/BatchNorm3D_cn.rst b/docs/api/paddle/nn/BatchNorm3D_cn.rst index 631a05fd4d6..098829188b8 100644 --- a/docs/api/paddle/nn/BatchNorm3D_cn.rst +++ b/docs/api/paddle/nn/BatchNorm3D_cn.rst @@ -51,7 +51,9 @@ BatchNorm3D :::::::::::: 无 -形状: +形状 +:::::::::::: + - input: 形状为(批大小,通道数, 维度,高度,宽度)的5-D Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/BeamSearchDecoder_cn.rst b/docs/api/paddle/nn/BeamSearchDecoder_cn.rst index 112e1ec6324..f8fa3b11f04 100644 --- a/docs/api/paddle/nn/BeamSearchDecoder_cn.rst +++ b/docs/api/paddle/nn/BeamSearchDecoder_cn.rst @@ -12,7 +12,7 @@ BeamSearchDecoder 带beam search解码策略的解码器。该接口包装一个cell来计算概率,然后执行一个beam search步骤计算得分,并为每个解码步骤选择候选输出。更多详细信息请参阅 `Beam search `_ -**注意** 在使用beam search解码时,cell的输入和状态将被扩展到 :math:`beam\_size` ,得到 :math:`[batch\_size * beam\_size, ...]` 一样的形状,这个操作在BeamSearchDecoder中自动完成,因此,其他任何在 :code:`cell.call` 中使用的tensor,如果形状为 :math:`[batch\_size, ...]` ,都必须先手动使用 :code:`BeamSearchDecoder.tile_beam_merge_with_batch` 接口扩展。最常见的情况是带注意机制的编码器输出。 +**注意** 在使用beam search解码时,cell的输入和状态将被扩展到 :math:`beam\_size` ,得到 :math:`[batch\_size * beam\_size, ...]` 一样的形状,这个操作在BeamSearchDecoder中自动完成,因此,其他任何在 :code:`cell.call` 中使用的Tensor,如果形状为 :math:`[batch\_size, ...]` ,都必须先手动使用 :code:`BeamSearchDecoder.tile_beam_merge_with_batch` 接口扩展。最常见的情况是带注意机制的编码器输出。 参数 :::::::::::: @@ -56,7 +56,7 @@ BeamSearchDecoder 的一个实例,可以用于传入 `paddle.nn.dynamic\_decod tile_beam_merge_with_batch(x, beam_size) ''''''''' -扩展tensor的batch维度。此函数的输入是形状为 :math:`[batch\_size, s_0, s_1, ...]` 的tensor t,由minibatch中的样本 :math:`t[0], ..., t[batch\_size - 1]` 组成。将其扩展为形状是 :math:`[batch\_size * beam\_size, s_0, s_1, ...]` 的tensor,由 :math:`t[0], t[0], ..., t[1], t[1], ...` 组成, 每个minibatch中的样本重复 :math:`beam\_size` 次。 +扩展Tensor的batch维度。此函数的输入是形状为 :math:`[batch\_size, s_0, s_1, ...]` 的Tensor t,由minibatch中的样本 :math:`t[0], ..., t[batch\_size - 1]` 组成。将其扩展为形状是 :math:`[batch\_size * beam\_size, s_0, s_1, ...]` 的Tensor,由 :math:`t[0], t[0], ..., t[1], t[1], ...` 组成, 每个minibatch中的样本重复 :math:`beam\_size` 次。 **参数** @@ -64,55 +64,49 @@ tile_beam_merge_with_batch(x, beam_size) - **beam_size** (int) - 在beam search中使用的beam宽度。 **返回** -形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 - -**返回类型** -Variable + +Tensor, 形状为 :math:`[batch\_size * beam\_size, ...]` 的Tensor,其数据类型与 :code:`x` 相同。 + _split_batch_beams(x) ''''''''' -将形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor变换为形状为 :math:`[batch\_size, beam\_size, ...]` 的新tensor。 +将形状为 :math:`[batch\_size * beam\_size, ...]` 的Tensor变换为形状为 :math:`[batch\_size, beam\_size, ...]` 的新Tensor。 **参数** - **x** (Variable) - 形状为 :math:`[batch\_size * beam\_size, ...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 **返回** -形状为 :math:`[batch\_size, beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 -**返回类型** -Variable +Tensor, 形状为 :math:`[batch\_size, beam\_size, ...]` 的Tensor,其数据类型与 :code:`x` 相同。 _merge_batch_beams(x) ''''''''' -将形状为 :math:`[batch\_size, beam\_size, ...]` 的tensor变换为形状为 :math:`[batch\_size * beam\_size,...]` 的新tensor。 +将形状为 :math:`[batch\_size, beam\_size, ...]` 的Tensor变换为形状为 :math:`[batch\_size * beam\_size,...]` 的新Tensor。 **参数** - - **x** (Variable) - 形状为 :math:`[batch\_size, beam_size,...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 + - **x** (Variable) - 形状为 :math:`[batch\_size, beam_size,...]` 的Tenosr。数据类型应为float32,float64,int32,int64或bool。 **返回** -形状为 :math:`[batch\_size * beam\_size, ...]` 的tensor,其数据类型与 :code:`x` 相同。 -**返回类型** -Variable +Tensor, 形状为 :math:`[batch\_size * beam\_size, ...]` 的Tensor,其数据类型与 :code:`x` 相同。 _expand_to_beam_size(x) ''''''''' -此函数输入形状为 :math:`[batch\_size,s_0,s_1,...]` 的tensor t,由minibatch中的样本 :math:`t[0],...,t[batch\_size-1]` 组成。将其扩展为形状 :math:`[ batch\_size,beam\_size,s_0,s_1,...]` 的tensor,由 :math:`t[0],t[0],...,t[1],t[1],...` 组成,其中每个minibatch中的样本重复 :math:`beam\_size` 次。 +此函数输入形状为 :math:`[batch\_size,s_0,s_1,...]` 的Tensor t,由minibatch中的样本 :math:`t[0],...,t[batch\_size-1]` 组成。将其扩展为形状 :math:`[ batch\_size,beam\_size,s_0,s_1,...]` 的Tensor,由 :math:`t[0],t[0],...,t[1],t[1],...` 组成,其中每个minibatch中的样本重复 :math:`beam\_size` 次。 **参数** - **x** (Variable) - 形状为 :math:`[batch\_size, ...]` 的tenosr。数据类型应为float32,float64,int32,int64或bool。 **返回** -具有与 :code:`x` 相同的形状和数据类型的tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的tensor(tensor中所有概率质量被分配给EOS标记)。 -**返回类型** -Variable +Tensor, 具有与 :code:`x` 相同的形状和数据类型的Tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的Tensor(Tensor中所有概率质量被分配给EOS标记)。 + _mask_probs(probs, finished) ''''''''' @@ -121,31 +115,29 @@ _mask_probs(probs, finished) **参数** - - **probs** (Variable) - 形状为 :math:`[batch\_size,beam\_size,vocab\_size]` 的tensor,表示对数概率。其数据类型应为float32。 - - **finish** (Variable) - 形状为 :math:`[batch\_size,beam\_size]` 的tensor,表示所有beam的完成状态。其数据类型应为bool。 + - **probs** (Variable) - 形状为 :math:`[batch\_size,beam\_size,vocab\_size]` 的 Tensor,表示对数概率。其数据类型应为float32。 + - **finish** (Variable) - 形状为 :math:`[batch\_size,beam\_size]` 的 Tensor,表示所有beam的完成状态。其数据类型应为bool。 **返回** -具有与 :code:`x` 相同的形状和数据类型的tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的tensor(tensor中所有概率质量被分配给EOS标记)。 -**返回类型** -Variable +Tensor, 具有与 :code:`x` 相同的形状和数据类型的Tensor,其中未完成的beam保持不变,而已完成的beam被替换成特殊的Tensor(Tensor中所有概率质量被分配给EOS标记)。 + _gather(x, indices, batch_size) ''''''''' -对tensor :code:`x` 根据索引 :code:`indices` 收集。 +对Tensor :code:`x` 根据索引 :code:`indices` 收集。 **参数** - - **x** (Variable) - 形状为 :math:`[batch\_size, beam\_size,...]` 的tensor。 - - **index** (Variable) - 一个形状为 :math:`[batch\_size, beam\_size]` 的int64 tensor,表示我们用来收集的索引。 - - **batch_size** (Variable) - 形状为 :math:`[1]` 的tensor。其数据类型应为int32或int64。 + - **x** (Variable) - 形状为 :math:`[batch\_size, beam\_size,...]` 的Tensor。 + - **index** (Variable) - 一个形状为 :math:`[batch\_size, beam\_size]` 的int64 Tensor,表示我们用来收集的索引。 + - **batch_size** (Variable) - 形状为 :math:`[1]` 的Tensor。其数据类型应为int32或int64。 **返回** -具有与 :code:``x` 相同的形状和数据类型的tensor,表示收集后的tensor。 -**返回类型** -Variable +Tensor, 具有与 :code:``x` 相同的形状和数据类型的 Tensor,表示收集后的 Tensor。 + initialize(initial_cell_states) ''''''''' @@ -154,13 +146,12 @@ initialize(initial_cell_states) **参数** - - **initial_cell_states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。调用者提供的参数。 + - **initial_cell_states** (Variable) - 单个Ten'so'r变量或Tensor变量组成的嵌套结构。调用者提供的参数。 **返回** -一个元组 :code:`(initial_inputs, initial_states, finished)`。:code:`initial_inputs` 是一个tensor,当 :code:`embedding_fn` 为None时,该tensor t的形状为 :math:`[batch\_size,beam\_size]` ,值为 :code:`start_token` ;否则使用 :code:`embedding_fn(t)` 返回的值。:code:`initial_states` 是tensor变量的嵌套结构(命名元组,字段包括 :code:`cell_states,log_probs,finished,lengths`),其中 :code:`log_probs,finished,lengths` 都含有一个tensor,形状为 :math:`[batch\_size, beam\_size]`,数据类型为float32,bool,int64。:code:`cell_states` 具有与输入参数 :code:`initial_cell_states` 相同结构的值,但形状扩展为 :math:`[batch\_size,beam\_size,...]`。 :code:`finished` 是一个布尔型tensor,由False填充,形状为 :math:`[batch\_size,beam\_size]`。 -**返回类型** -tuple +tuple, 一个元组 :code:`(initial_inputs, initial_states, finished)`。:code:`initial_inputs` 是一个Tensor,当 :code:`embedding_fn` 为None时,该Tensor t的形状为 :math:`[batch\_size,beam\_size]` ,值为 :code:`start_token` ;否则使用 :code:`embedding_fn(t)` 返回的值。:code:`initial_states` 是Tensor变量的嵌套结构(命名元组,字段包括 :code:`cell_states,log_probs,finished,lengths`),其中 :code:`log_probs,finished,lengths` 都含有一个Tensor,形状为 :math:`[batch\_size, beam\_size]`,数据类型为float32,bool,int64。:code:`cell_states` 具有与输入参数 :code:`initial_cell_states` 相同结构的值,但形状扩展为 :math:`[batch\_size,beam\_size,...]`。 :code:`finished` 是一个布尔型Tensor,由False填充,形状为 :math:`[batch\_size,beam\_size]`。 + _beam_search_step(time, logits, next_cell_states, beam_state) ''''''''' @@ -169,16 +160,15 @@ _beam_search_step(time, logits, next_cell_states, beam_state) **参数** - - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。 - - **logits** (Variable) - 形状为 :math:`[batch\_size,beam\_size,vocab\_size]` 的tensor,表示当前时间步的logits。其数据类型为float32。 - - **next_cell_states** (Variable) - 单个tensor变量或tensor变量组成的嵌套结构。它的结构,形状和数据类型与 :code:`initialize()` 的返回值 :code:`initial_states` 中的 :code:`cell_states` 相同。它代表该cell的下一个状态。 - - **beam_state** (Variable) - tensor变量的结构。在第一个解码步骤与 :code:`initialize()` 返回的 :code:`initial_states` 同,其他步骤与 :code:`step()` 返回的 :code:`beam_search_state` 相同。 + - **time** (Variable) - 调用者提供的形状为[1]的Tensor,表示当前解码的时间步长。其数据类型为int64。 + - **logits** (Variable) - 形状为 :math:`[batch\_size,beam\_size,vocab\_size]` 的Tensor,表示当前时间步的logits。其数据类型为float32。 + - **next_cell_states** (Variable) - 单个Tensor变量或Tensor变量组成的嵌套结构。它的结构,形状和数据类型与 :code:`initialize()` 的返回值 :code:`initial_states` 中的 :code:`cell_states` 相同。它代表该cell的下一个状态。 + - **beam_state** (Variable) - Tensor变量的结构。在第一个解码步骤与 :code:`initialize()` 返回的 :code:`initial_states` 同,其他步骤与 :code:`step()` 返回的 :code:`beam_search_state` 相同。 **返回** -一个元组 :code:`(beam_search_output, beam_search_state)`。:code:`beam_search_output` 是tensor变量的命名元组,字段为 :code:`scores,predicted_ids parent_ids`。其中 :code:`scores,predicted_ids,parent_ids` 都含有一个tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`beam_search_state` 具有与输入参数 :code:`beam_state` 相同的结构,形状和数据类型。 -**返回类型** -tuple +tuple, 一个元组 :code:`(beam_search_output, beam_search_state)`。:code:`beam_search_output` 是Tensor变量的命名元组,字段为 :code:`scores,predicted_ids parent_ids`。其中 :code:`scores,predicted_ids,parent_ids` 都含有一个Tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`beam_search_state` 具有与输入参数 :code:`beam_state` 相同的结构,形状和数据类型。 + step(time, inputs, states, **kwargs) ''''''''' @@ -187,16 +177,15 @@ step(time, inputs, states, **kwargs) **参数** - - **time** (Variable) - 调用者提供的形状为[1]的tensor,表示当前解码的时间步长。其数据类型为int64。。 - - **inputs** (Variable) - tensor变量。在第一个解码时间步时与由 :code:`initialize()` 返回的 :code:`initial_inputs` 相同,其他时间步与由 :code:`step()` 返回的 :code:`next_inputs` 相同。 - - **states** (Variable) - tensor变量的结构。在第一个解码时间步时与 :code:`initialize()` 返回的 :code:`initial_states` 相同,其他时间步与由 :code:`step()` 返回的 :code:`beam_search_state` 相同。 + - **time** (Variable) - 调用者提供的形状为[1]的Tensor,表示当前解码的时间步长。其数据类型为int64。。 + - **inputs** (Variable) - Tensor变量。在第一个解码时间步时与由 :code:`initialize()` 返回的 :code:`initial_inputs` 相同,其他时间步与由 :code:`step()` 返回的 :code:`next_inputs` 相同。 + - **states** (Variable) - Tensor变量的结构。在第一个解码时间步时与 :code:`initialize()` 返回的 :code:`initial_states` 相同,其他时间步与由 :code:`step()` 返回的 :code:`beam_search_state` 相同。 - **kwargs** - 附加的关键字参数,由调用者提供。 **返回** -一个元组 :code:`(beam_search_output,beam_search_state,next_inputs,finish)` 。:code:`beam_search_state` 和参数 :code:`states` 具有相同的结构,形状和数据类型。 :code:`next_inputs` 与输入参数 :code:`inputs` 具有相同的结构,形状和数据类型。 :code:`beam_search_output` 是tensor变量的命名元组(字段包括 :code:`scores,predicted_ids,parent_ids` ),其中 :code:`scores,predicted_ids,parent_ids` 都含有一个tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`finished` 是一个bool类型的tensor,形状为 :math:`[batch\_size,beam\_size]`。 -**返回类型** -tuple +tuple, 一个元组 :code:`(beam_search_output,beam_search_state,next_inputs,finish)` 。:code:`beam_search_state` 和参数 :code:`states` 具有相同的结构,形状和数据类型。 :code:`next_inputs` 与输入参数 :code:`inputs` 具有相同的结构,形状和数据类型。 :code:`beam_search_output` 是Tensor变量的命名元组(字段包括 :code:`scores,predicted_ids,parent_ids` ),其中 :code:`scores,predicted_ids,parent_ids` 都含有一个Tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为float32 ,int64,int64。:code:`finished` 是一个bool类型的Tensor,形状为 :math:`[batch\_size,beam\_size]`。 + finalize(outputs, final_states, sequence_lengths) ''''''''' @@ -205,12 +194,11 @@ finalize(outputs, final_states, sequence_lengths) **参数** - - **outputs** (Variable) - tensor变量组成的结构(命名元组),该结构和数据类型与 :code:`output_dtype` 相同。tensor将所有时间步的输出堆叠,因此具有形状 :math:`[time\_step,batch\_size,...]`。 - - **final_states** (Variable) - tensor变量组成的结构(命名元组)。它是 :code:`decoder.step` 在最后一个解码步骤返回的 :code:`next_states`,因此具有与任何时间步的 :code:`state` 相同的结构、形状和数据类型。 - - **sequence_lengths** (Variable) - tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为int64。它包含解码期间确定的每个beam的序列长度。 + - **outputs** (Variable) - Tensor变量组成的结构(命名元组),该结构和数据类型与 :code:`output_dtype` 相同。Tensor将所有时间步的输出堆叠,因此具有形状 :math:`[time\_step,batch\_size,...]`。 + - **final_states** (Variable) - Tensor变量组成的结构(命名元组)。它是 :code:`decoder.step` 在最后一个解码步骤返回的 :code:`next_states`,因此具有与任何时间步的 :code:`state` 相同的结构、形状和数据类型。 + - **sequence_lengths** (Variable) - Tensor,形状为 :math:`[batch\_size,beam\_size]`,数据类型为int64。它包含解码期间确定的每个beam的序列长度。 **返回** -一个元组 :code:`(predicted_ids, final_states)`。:code:`predicted_ids` 是一个tensor,形状为 :math:`[time\_step,batch\_size,beam\_size]`,数据类型为int64。:code:`final_states` 与输入参数 :code:`final_states` 相同。 -**返回类型** -tuple +tuple, 一个元组 :code:`(predicted_ids, final_states)`。:code:`predicted_ids` 是一个Tensor,形状为 :math:`[time\_step,batch\_size,beam\_size]`,数据类型为int64。:code:`final_states` 与输入参数 :code:`final_states` 相同。 + diff --git a/docs/api/paddle/nn/BiRNN_cn.rst b/docs/api/paddle/nn/BiRNN_cn.rst index 1b6b6e0e55b..bb649f880e7 100644 --- a/docs/api/paddle/nn/BiRNN_cn.rst +++ b/docs/api/paddle/nn/BiRNN_cn.rst @@ -18,12 +18,16 @@ BiRNN - **cell_bw** (RNNCellBase) - 后向cell。RNNCellBase类的一个实例。 - **time_major** (bool,可选) - 指定input的第一个维度是否是time steps。默认为False。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 输入。如果time_major为False,则Tensor的形状为[batch_size,time_steps,input_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,input_size],input_size为cell的input_size。 - **initial_states** (list|tuple,可选) - 输入前向和后向cell的初始状态,如果没有给出则会调用 :code:`cell.get_initial_states` 生成初始状态。默认为None。 - **sequence_length** (Tensor,可选) - 指定输入序列的长度,形状为[batch_size],数据类型为int64或int32。在输入序列中所有time step不小于sequence_length的元素都会被当作填充元素处理(状态不再更新)。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为False,则Tensor的形状为[batch_size,time_steps,cell_fw.hidden_size + cell_bw.hidden_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,cell_fw.hidden_size + cell_bw.hidden_size]。 - **final_states** (tuple) - 前向和后向cell的最终状态。 diff --git a/docs/api/paddle/nn/Bilinear_cn.rst b/docs/api/paddle/nn/Bilinear_cn.rst index 48758428338..9fdb36db434 100644 --- a/docs/api/paddle/nn/Bilinear_cn.rst +++ b/docs/api/paddle/nn/Bilinear_cn.rst @@ -16,6 +16,7 @@ Bilinear out = out + b 在这个公式中: + - :math:`x1`: 第一个输入,包含 :in1_features个元素,形状为 [batch_size, in1_features]。 - :math:`x2`: 第二个输入,包含 :in2_features个元素,形状为 [batch_size, in2_features]。 - :math:`W_{i}`: 第 :i个被学习的权重,形状是 [in1_features, in2_features], 而完整的W(即可训练的参数W)的形状为[out_features, in1_features, in2_features]。 diff --git a/docs/api/paddle/nn/Conv1DTranspose_cn.rst b/docs/api/paddle/nn/Conv1DTranspose_cn.rst index 7068a811853..9dd030f9596 100644 --- a/docs/api/paddle/nn/Conv1DTranspose_cn.rst +++ b/docs/api/paddle/nn/Conv1DTranspose_cn.rst @@ -19,6 +19,7 @@ Conv1DTranspose Out=\sigma (W*X+b)\\ 其中: + - :math:`X` : 输入,具有NCL或NLC格式的3-D Tensor - :math:`W` : 卷积核,具有NCL格式的3-D Tensor - :math:`*` : 卷积计算(注意:转置卷积本质上的计算还是卷积) @@ -43,7 +44,8 @@ Conv1DTranspose - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCL"和"NLC"。N是批尺寸,C是通道数,L特征长度。默认值:"NCL"。 -形状: +形状 +:::::::::::: - 输入::math:`(N,C_{in}, L_{in})` diff --git a/docs/api/paddle/nn/Conv1D_cn.rst b/docs/api/paddle/nn/Conv1D_cn.rst index acf0f57d4b2..2725db4e5c2 100644 --- a/docs/api/paddle/nn/Conv1D_cn.rst +++ b/docs/api/paddle/nn/Conv1D_cn.rst @@ -18,6 +18,7 @@ Conv1D Out = \sigma \left ( W * X + b \right ) 其中: + - :math:`X` :输入值,NCL或NLC格式的3-D Tensor - :math:`W` :卷积核值,MCL格式的3-D Tensor - :math:`*` :卷积操作 @@ -44,8 +45,7 @@ Conv1D 属性 :::::::::::: -属性 -:::::::::::: + weight ''''''''' 本层的可学习参数,类型为 ``Parameter`` @@ -54,7 +54,8 @@ bias ''''''''' 本层的可学习偏置,类型为 ``Parameter`` -形状: +形状 +:::::::::::: - 输入: :math:`(N, C_{in}, L_{in})` - 卷积核: :math:`(C_{out}, C_{in}, K)` - 偏置: :math:`(C_{out})` @@ -77,7 +78,8 @@ bias -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Conv2DTranspose_cn.rst b/docs/api/paddle/nn/Conv2DTranspose_cn.rst index f35e7a427ec..263fe9a8250 100644 --- a/docs/api/paddle/nn/Conv2DTranspose_cn.rst +++ b/docs/api/paddle/nn/Conv2DTranspose_cn.rst @@ -19,6 +19,7 @@ Conv2DTranspose Out=\sigma (W*X+b)\\ 其中: + - :math:`X` : 输入,具有NCHW或NHWC格式的4-D Tensor - :math:`W` : 卷积核,具有NCHW格式的4-D Tensor - :math:`*` : 卷积计算(注意:转置卷积本质上的计算还是卷积) @@ -51,7 +52,8 @@ Conv2DTranspose - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。 -形状: +形状 +:::::::::::: - 输入::math:`(N,C_{in}, H_{in}, W_{in})` @@ -82,17 +84,6 @@ Conv2DTranspose & H'_{out} = (H_{in}-1)*strides[0] + dilations[0]*(kernel\_size[0]-1)+1\\ & W'_{out} = (W_{in}-1)*strides[1] + dilations[1]*(kernel\_size[1]-1)+1 \\ -抛出异常 -:::::::::::: - - - ``ValueError`` : 如果输入的shape、filter_size、stride、padding和groups不匹配,抛出ValueError - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 - - ``ValueError`` - 如果 ``padding`` 含有4个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。 - - ``ValueError`` - 如果 ``output_size`` 和 ``filter_size`` 同时为None。 - - ``ShapeError`` - 如果输入不是4-D Tensor。 - - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/Conv2D_cn.rst b/docs/api/paddle/nn/Conv2D_cn.rst index fa0327a661f..127dc84f085 100644 --- a/docs/api/paddle/nn/Conv2D_cn.rst +++ b/docs/api/paddle/nn/Conv2D_cn.rst @@ -18,6 +18,7 @@ Conv2D Out = \sigma \left ( W * X + b \right ) 其中: + - :math:`X` :输入值,NCHW或NHWC格式的4-D Tensor - :math:`W` :卷积核值,MCHW格式的4-D Tensor - :math:`*` :卷积操作 @@ -44,8 +45,7 @@ Conv2D 属性 :::::::::::: -属性 -:::::::::::: + weight ''''''''' 本层的可学习参数,类型为 ``Parameter`` @@ -54,7 +54,8 @@ bias ''''''''' 本层的可学习偏置,类型为 ``Parameter`` -形状: +形状 +:::::::::::: - 输入: :math:`(N, C_{in}, H_{in}, W_{in})` - 卷积核: :math:`(C_{out}, C_{in}, K_{h}, K_{w})` @@ -86,20 +87,9 @@ bias W_{out} = \frac{\left ( W_{in} -\left ( dilation[1]*\left ( kernel\_size[1]-1 \right )+1 \right ) \right )}{stride[1]}+1 -**抛出异常** - - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 - - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 - - ``ValueError`` - 如果 ``padding`` 含有4个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。 - - ``ShapeError`` - 如果输入不是4-D Tensor。 - - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 - - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 - - -**代码示例** +代码示例 +:::::::::::: .. code-block:: python import paddle diff --git a/docs/api/paddle/nn/Conv3DTranspose_cn.rst b/docs/api/paddle/nn/Conv3DTranspose_cn.rst index d163046e49a..e9f76cc2a82 100755 --- a/docs/api/paddle/nn/Conv3DTranspose_cn.rst +++ b/docs/api/paddle/nn/Conv3DTranspose_cn.rst @@ -18,6 +18,7 @@ Conv3DTranspose \\Out=\sigma (W*X+b)\\ 其中: + - :math:`X` : 输入,具有NCDHW或NDHWC格式的5-D Tensor - :math:`W` : 卷积核,具有NCDHW格式的5-D Tensor - :math:`*` : 卷积操作(注意:转置卷积本质上的计算还是卷积) @@ -49,7 +50,8 @@ Conv3DTranspose - **bias_attr** (ParamAttr|bool, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCDHW"。 -形状: +形状 +:::::::::::: - 输入::math:`(N,C_{in}, H_{in}, W_{in})` @@ -84,18 +86,6 @@ Conv3DTranspose & H'_{out} = (H_{in}-1)*strides[1] + dilations[1]*(kernel\_size[1]-1)+1\\ & W'_{out} = (W_{in}-1)*strides[2] + dilations[2]*(kernel\_size[2]-1)+1 \\ -抛出异常 -:::::::::::: - - - ``ValueError`` : 如果输入的shape、kernel_size、stride、padding和groups不匹配,抛出ValueError - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 - - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 - - ``ValueError`` - 如果 ``padding`` 含有4个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。 - - ``ValueError`` - 如果 ``output_size`` 和 ``filter_size`` 同时为None。 - - ``ShapeError`` - 如果输入不是4-D Tensor。 - - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/Conv3D_cn.rst b/docs/api/paddle/nn/Conv3D_cn.rst index 9ae78e5a5cd..86a319b6d22 100644 --- a/docs/api/paddle/nn/Conv3D_cn.rst +++ b/docs/api/paddle/nn/Conv3D_cn.rst @@ -18,6 +18,7 @@ Conv3D Out = \sigma \left ( W * X + b \right ) 其中: + - :math:`X` :输入值,NCDHW或NDHWC格式的5-D Tensor - :math:`W` :卷积核值,MCDHW格式的5-D Tensor - :math:`*` :卷积操作 @@ -43,8 +44,7 @@ Conv3D 属性 :::::::::::: -属性 -:::::::::::: + weight ''''''''' 本层的可学习参数,类型为 ``Parameter`` @@ -53,7 +53,8 @@ bias ''''''''' 本层的可学习偏置,类型为 ``Parameter`` -形状: +形状 +:::::::::::: - 输入::math:`(N, C_{in}, D_{in}, H_{in}, W_{in})` - 卷积核::math:`(C_{out}, C_{in}, K_{d}, K_{h}, K_{w})` @@ -88,19 +89,9 @@ bias W_{out} = \frac{\left ( W_{in} -\left ( dilation[2]*\left ( kernel\_size[2]-1 \right )+1 \right ) \right )}{stride[2]}+1 -**抛出异常** - - - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。 - - ``ValueError`` - 如果 ``input`` 的通道数未被明确定义。 - - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。 - - ``ValueError`` - 如果 ``padding`` 含有5个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。 - - ``ShapeError`` - 如果输入不是5-D Tensor。 - - ``ShapeError`` - 如果输入和卷积核的维度大小不相同。 - - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。 - - ``ShapeError`` - 如果输出的通道数不能被 ``groups`` 整除。 - -**代码示例** +代码示例 +:::::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Embedding_cn.rst b/docs/api/paddle/nn/Embedding_cn.rst index af0e9b5f844..e00b0348833 100644 --- a/docs/api/paddle/nn/Embedding_cn.rst +++ b/docs/api/paddle/nn/Embedding_cn.rst @@ -44,17 +44,13 @@ Embedding - **padding_idx** (int|long|None) - padding_idx的配置区间为 ``[-weight.shape[0], weight.shape[0]``,如果配置了padding_idx,那么在训练过程中遇到此id时,其参数及对应的梯度将会以0进行填充。 - **sparse** (bool) - 是否使用稀疏更新,在词嵌入权重较大的情况下,使用稀疏更新能够获得更快的训练速度及更小的内存/显存占用。 - **weight_attr** (ParamAttr|None) - 指定嵌入向量的配置,包括初始化方法,具体用法请参见 :ref:`api_guide_ParamAttr` ,一般无需设置,默认值为None。 -0填充。 - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。 返回 :::::::::::: -input映射后得到的Embedding Tensor,数据类型和词嵌入的定义类型一致。 +Tensor, input映射后得到的Embedding Tensor,数据类型和词嵌入的定义类型一致。 -返回类型 -:::::::::::: -Tensor 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/GRUCell_cn.rst b/docs/api/paddle/nn/GRUCell_cn.rst index 17cde0ef0a5..adccea63681 100644 --- a/docs/api/paddle/nn/GRUCell_cn.rst +++ b/docs/api/paddle/nn/GRUCell_cn.rst @@ -26,6 +26,7 @@ GRUCell y_{t} & = h_{t} 其中: + - :math:`\sigma` :sigmoid激活函数。 详情请参考论文 :`An Empirical Exploration of Recurrent Network Architectures `_。 @@ -42,13 +43,17 @@ GRUCell - **bias_hh_attr** (ParamAttr,可选) - bias_hh的参数。默认为None。 - **name** (str, 可选): OP的名字。默认为None。详情请参考 :ref:`api_guide_Name`。 -变量: +变量 +:::::::::::: + - **weight_ih** (Parameter) - input到hidden的变换矩阵的权重。形状为(3 * hidden_size, input_size)。对应公式中的 :math:`W_{ir}, W_{iz}, W_{ic}`。 - **weight_hh** (Parameter) - hidden到hidden的变换矩阵的权重。形状为(3 * hidden_size, hidden_size)。对应公式中的 :math:`W_{hr}, W_{hz}, W_{hc}`。 - **bias_ih** (Parameter) - input到hidden的变换矩阵的偏置。形状为(3 * hidden_size, )。对应公式中的 :math:`b_{ir}, b_{iz}, b_{ic}`。 - **bias_hh** (Parameter) - hidden到hidden的变换矩阵的偏置。形状为(3 * hidden_size, )。对应公式中的 :math:`b_{hr}, b_{hz}, b_{hc}`。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 输入。形状为[batch_size, input_size],对应公式中的 :math:`x_t`。 - **states** (Tensor,可选) - 上一轮的隐藏状态。对应公式中的 :math:`h_{t-1}`。当state为None的时候,初始状态为全0矩阵。默认为None。 diff --git a/docs/api/paddle/nn/GRU_cn.rst b/docs/api/paddle/nn/GRU_cn.rst index 91d1abcee82..4d103ef157b 100644 --- a/docs/api/paddle/nn/GRU_cn.rst +++ b/docs/api/paddle/nn/GRU_cn.rst @@ -26,6 +26,7 @@ GRU y_{t} & = h_{t} 其中: + - :math:`\sigma` :sigmoid激活函数。 参数 @@ -42,12 +43,16 @@ GRU - **bias_ih_attr** (ParamAttr,可选) - bias_ih的参数。默认为None。 - **bias_hh_attr** (ParamAttr,可选) - bias_hh的参数。默认为None。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 网络输入。如果time_major为True,则Tensor的形状为[time_steps,batch_size,input_size],如果time_major为False,则Tensor的形状为[batch_size,time_steps,input_size]。`time_steps` 指输入序列的长度。 - **initial_states** (Tensor,可选) - 网络的初始状态,形状为[num_layers * num_directions, batch_size, hidden_size]。如果没有给出则会以全零初始化。 - **sequence_length** (Tensor,可选) - 指定输入序列的实际长度,形状为[batch_size],数据类型为int64或int32。在输入序列中所有time step不小于sequence_length的元素都会被当作填充元素处理(状态不再更新)。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为True,则Tensor的形状为[time_steps,batch_size,num_directions * hidden_size],如果time_major为False,则Tensor的形状为[batch_size,time_steps,num_directions * hidden_size],当direction设置为bidirectional时,num_directions等于2,否则等于1。`time_steps` 指输出序列的长度。 - **final_states** (Tensor) - 最终状态。形状为[num_layers * num_directions, batch_size, hidden_size],当direction设置为bidirectional时,num_directions等于2,返回值的前向和后向的状态的索引是0,2,4,6...和1,3,5,7...,否则等于1。 diff --git a/docs/api/paddle/nn/GroupNorm_cn.rst b/docs/api/paddle/nn/GroupNorm_cn.rst index 4105fd4f6b1..13af54afb78 100644 --- a/docs/api/paddle/nn/GroupNorm_cn.rst +++ b/docs/api/paddle/nn/GroupNorm_cn.rst @@ -20,11 +20,9 @@ GroupNorm - **data_format** (string, 可选) - 只支持“NCHW”(num_batches,channels,height,width)格式。默认值:“NCHW”。 - **name** (string, 可选) – GroupNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回 +形状 :::::::::::: -无 -形状: - input: 形状为(批大小, 通道数, \*) 的Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/Hardshrink_cn.rst b/docs/api/paddle/nn/Hardshrink_cn.rst index 8240e68feca..d74c3358261 100644 --- a/docs/api/paddle/nn/Hardshrink_cn.rst +++ b/docs/api/paddle/nn/Hardshrink_cn.rst @@ -24,12 +24,13 @@ Hardshrink激活层 - threshold (float, 可选) - Hardshrink激活计算公式中的threshold值。默认值为0.5。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -形状: +形状 +:::::::::: - input: 任意形状的Tensor。 - output: 和input具有相同形状的Tensor。 代码示例 -::::::::: +:::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Hardsigmoid_cn.rst b/docs/api/paddle/nn/Hardsigmoid_cn.rst index d1f528dcc05..2fc5ca5944b 100644 --- a/docs/api/paddle/nn/Hardsigmoid_cn.rst +++ b/docs/api/paddle/nn/Hardsigmoid_cn.rst @@ -21,9 +21,8 @@ Hardsigmoid激活层。sigmoid的分段线性逼近激活函数,速度比sigmo 其中,:math:`x` 为输入的 Tensor 参数 -:::::::::::: - :::::::::: + - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 形状: diff --git a/docs/api/paddle/nn/Hardswish_cn.rst b/docs/api/paddle/nn/Hardswish_cn.rst index 33a5ba47a2a..2c72996ffd4 100644 --- a/docs/api/paddle/nn/Hardswish_cn.rst +++ b/docs/api/paddle/nn/Hardswish_cn.rst @@ -21,7 +21,6 @@ Hardswish激活函数。在MobileNetV3架构中被提出,相较于swish函数 其中,:math:`x` 为输入的 Tensor 参数 -:::::::::::: :::::::::: - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/InstanceNorm1D_cn.rst b/docs/api/paddle/nn/InstanceNorm1D_cn.rst index 14a3de02f05..c3c53b0220b 100644 --- a/docs/api/paddle/nn/InstanceNorm1D_cn.rst +++ b/docs/api/paddle/nn/InstanceNorm1D_cn.rst @@ -18,6 +18,7 @@ InstanceNorm1D Note: + `H` 是高度, `W` 是宽度. @@ -33,11 +34,9 @@ Note: - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回 +形状 :::::::::::: -无 -形状: - input: 形状为(批大小,通道数)的2-D Tensor 或(批大小, 通道数,长度)的3-D Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/InstanceNorm2D_cn.rst b/docs/api/paddle/nn/InstanceNorm2D_cn.rst index 138ca440db4..d7c695f5a8a 100644 --- a/docs/api/paddle/nn/InstanceNorm2D_cn.rst +++ b/docs/api/paddle/nn/InstanceNorm2D_cn.rst @@ -17,6 +17,7 @@ InstanceNorm2D y_i &\gets \gamma \hat{x_i} + \beta \quad &// scale-and-shift Note: + `H` 是高度, `W` 是宽度. @@ -32,11 +33,9 @@ Note: - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回 +形状 :::::::::::: -无 -形状: - input: 形状为(批大小,通道数,高度,宽度)的4-D Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/InstanceNorm3D_cn.rst b/docs/api/paddle/nn/InstanceNorm3D_cn.rst index f9cc7dead37..873491a8bd6 100644 --- a/docs/api/paddle/nn/InstanceNorm3D_cn.rst +++ b/docs/api/paddle/nn/InstanceNorm3D_cn.rst @@ -16,6 +16,7 @@ InstanceNorm3D y_i &\gets \gamma \hat{x_i} + \beta \quad &// scale-and-shift Note: + `H` 是高度, `W` 是宽度. @@ -31,11 +32,9 @@ Note: - **name** (string, 可选) – InstanceNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回 +形状 :::::::::::: -无 -形状: - input: 形状为5-D Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/KLDivLoss_cn.rst b/docs/api/paddle/nn/KLDivLoss_cn.rst index 5d7e9dbfc0c..779312f7d0b 100644 --- a/docs/api/paddle/nn/KLDivLoss_cn.rst +++ b/docs/api/paddle/nn/KLDivLoss_cn.rst @@ -27,7 +27,9 @@ kL发散损失计算如下: - **reduction** (str,可选) - 要应用于输出的reduction类型,可用类型为‘none’ | ‘batchmean’ | ‘mean’ | ‘sum’,‘none’表示无reduction,‘batchmean’ 表示输出的总和除以批大小,‘mean’ 表示所有输出的平均值,‘sum’表示输出的总和。 -形状: +形状 +:::::::::::: + - **input** (Tensor): - 输入的Tensor,维度是[N, *], 其中N是batch size, `*` 是任意数量的额外维度。数据类型为:float32、float64。 - **label** (Tensor): - 标签,维度是[N, *], 与 ``input`` 相同。数据类型为:float32、float64。 - **output** (Tensor): - 输入 ``input`` 和标签 ``label`` 间的kl散度。如果 `reduction` 是 ``'none'``, 则输出Loss的维度为 [N, *], 与输入 ``input`` 相同。如果 `reduction` 是 ``'batchmean'`` 、 ``'mean'`` 或 ``'sum'``, 则输出Loss的维度为 [1]。 diff --git a/docs/api/paddle/nn/LSTMCell_cn.rst b/docs/api/paddle/nn/LSTMCell_cn.rst index 6857e81aec1..453999bb791 100644 --- a/docs/api/paddle/nn/LSTMCell_cn.rst +++ b/docs/api/paddle/nn/LSTMCell_cn.rst @@ -26,6 +26,7 @@ LSTMCell 其中: + - :math:`\sigma` :sigmoid激活函数。 详情请参考论文 :`An Empirical Exploration of Recurrent Network Architectures `_。 @@ -42,17 +43,23 @@ LSTMCell - **bias_hh_attr** (ParamAttr,可选) - bias_hh的参数。默认为None。 - **name** (str, 可选): OP的名字。默认为None。详情请参考 :ref:`api_guide_Name`。 -变量: +变量 +:::::::::::: + - **weight_ih** (Parameter) - input到hidden的变换矩阵的权重。形状为(4 * hidden_size, input_size)。对应公式中的 :math:`W_{ii}, W_{if}, W_{ig}, W_{io}`。 - **weight_hh** (Parameter) - hidden到hidden的变换矩阵的权重。形状为(4 * hidden_size, hidden_size)。对应公式中的 :math:`W_{hi}, W_{hf}, W_{hg}, W_{ho}`。 - **bias_ih** (Parameter) - input到hidden的变换矩阵的偏置。形状为(4 * hidden_size, )。对应公式中的 :math:`b_{ii}, b_{if}, b_{ig}, b_{io}`。 - **bias_hh** (Parameter) - hidden到hidden的变换矩阵的偏置。形状为(4 * hidden_size, )。对应公式中的 :math:`b_{hi}, b_{hf}, b_{hg}, b_{ho}`。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 输入。形状为[batch_size, input_size],对应公式中的 :math:`x_t`。 - **states** (tuple,可选) - 一个包含两个Tensor的元组,每个Tensor的形状都为[batch_size, hidden_size],上一轮的隐藏状态。对应公式中的 :math:`h_{t-1},c_{t-1}`。当state为None的时候,初始状态为全0矩阵。默认为None。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor) - 输出。形状为[batch_size, hidden_size],对应公式中的 :math:`h_{t}`。 - **new_states** (tuple) - 一个包含两个Tensor的元组,每个Tensor的形状都为[batch_size, hidden_size],新一轮的隐藏状态。形状为[batch_size, hidden_size],对应公式中的 :math:`h_{t},c_{t}`。 diff --git a/docs/api/paddle/nn/LSTM_cn.rst b/docs/api/paddle/nn/LSTM_cn.rst index 06390e6d9c9..3ee3fae76a3 100644 --- a/docs/api/paddle/nn/LSTM_cn.rst +++ b/docs/api/paddle/nn/LSTM_cn.rst @@ -47,12 +47,16 @@ LSTM - **bias_ih_attr** (ParamAttr,可选) - bias_ih的参数。默认为None。 - **bias_hh_attr** (ParamAttr,可选) - bias_hh的参数。默认为None。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 网络输入。如果time_major为True,则Tensor的形状为[time_steps,batch_size,input_size],如果time_major为False,则Tensor的形状为[batch_size,time_steps,input_size]。`time_steps` 指输入序列的长度。 - **initial_states** (tuple,可选) - 网络的初始状态,一个包含h和c的元组,形状为[num_layers * num_directions, batch_size, hidden_size]。如果没有给出则会以全零初始化。 - **sequence_length** (Tensor,可选) - 指定输入序列的实际长度,形状为[batch_size],数据类型为int64或int32。在输入序列中所有time step不小于sequence_length的元素都会被当作填充元素处理(状态不再更新)。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为True,则Tensor的形状为[time_steps,batch_size,num_directions * hidden_size],如果time_major为False,则Tensor的形状为[batch_size,time_steps,num_directions * hidden_size],当direction设置为bidirectional时,num_directions等于2,否则等于1。`time_steps` 指输出序列的长度。 - **final_states** (tuple) - 最终状态,一个包含h和c的元组。形状为[num_layers * num_directions, batch_size, hidden_size],当direction设置为bidirectional时,num_directions等于2,返回值的前向和后向的状态的索引是0,2,4,6...和1,3,5,7...,否则等于1。 diff --git a/docs/api/paddle/nn/LayerDict_cn.rst b/docs/api/paddle/nn/LayerDict_cn.rst index 88fd800d9a6..3566ab59b9b 100644 --- a/docs/api/paddle/nn/LayerDict_cn.rst +++ b/docs/api/paddle/nn/LayerDict_cn.rst @@ -15,9 +15,6 @@ LayerDict用于保存子层到有序字典中,它包含的子层将被正确 - **sublayers** (LayerDict|OrderedDict|list[(key, Layer)],可选) - 键值对的可迭代对象,值的类型为 `paddle.nn.Layer` 。 -返回 -:::::::::::: -无 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/LayerList_cn.rst b/docs/api/paddle/nn/LayerList_cn.rst index 274ee0546f8..94360d993f9 100644 --- a/docs/api/paddle/nn/LayerList_cn.rst +++ b/docs/api/paddle/nn/LayerList_cn.rst @@ -15,9 +15,6 @@ LayerList用于保存子层列表,它包含的子层将被正确地注册和 - **sublayers** (iterable,可选) - 要保存的子层。 -返回 -:::::::::::: -无 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/LayerNorm_cn.rst b/docs/api/paddle/nn/LayerNorm_cn.rst index 492ffa8bad1..8b507e6cecf 100644 --- a/docs/api/paddle/nn/LayerNorm_cn.rst +++ b/docs/api/paddle/nn/LayerNorm_cn.rst @@ -32,11 +32,9 @@ LayerNorm - **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。如果为False固定为0,不进行学习。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **name** (string, 可选) – LayerNorm的名称, 默认值为None。更多信息请参见 :ref:`api_guide_Name` 。 -返回 +形状 :::::::::::: -无 -形状: - input: 2-D, 3-D, 4-D或5D 的Tensor。 - output: 和输入形状一样。 diff --git a/docs/api/paddle/nn/Layer_cn.rst b/docs/api/paddle/nn/Layer_cn.rst index bda5eeb5d1d..8c806452b3a 100644 --- a/docs/api/paddle/nn/Layer_cn.rst +++ b/docs/api/paddle/nn/Layer_cn.rst @@ -16,10 +16,6 @@ Layer - **name_scope** (str,可选) - 为Layer内部参数命名而采用的名称前缀。如果前缀为“mylayer”,在一个类名为MyLayer的Layer中,参数名为“mylayer_0.w_n”,其中w是参数的名称,n为自动生成的具有唯一性的后缀。如果为None,前缀名将为小写的类名。默认值为None。 - **dtype** (str可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 "float32"。 -返回 -:::::::::::: -无 - 方法 :::::::::::: train() diff --git a/docs/api/paddle/nn/LeakyReLU_cn.rst b/docs/api/paddle/nn/LeakyReLU_cn.rst index 9873890199a..8a1741911a1 100644 --- a/docs/api/paddle/nn/LeakyReLU_cn.rst +++ b/docs/api/paddle/nn/LeakyReLU_cn.rst @@ -23,7 +23,9 @@ LeakyReLU 激活层 - negative_slope (float,可选) - :math:`x < 0` 时的斜率。默认值为0.01。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -形状: +形状 +::::::::: + - input: 任意形状的Tensor。 - output: 和input具有相同形状的Tensor。 diff --git a/docs/api/paddle/nn/Linear_cn.rst b/docs/api/paddle/nn/Linear_cn.rst index 7ee03707a4a..f26160294b8 100644 --- a/docs/api/paddle/nn/Linear_cn.rst +++ b/docs/api/paddle/nn/Linear_cn.rst @@ -30,8 +30,6 @@ Linear层只接受一个Tensor作为输入,形状为 :math:`[batch\_size, *, i 属性 ::::::::: -属性 -:::::::::::: weight ''''''''' @@ -48,7 +46,8 @@ bias - 输入:形状为 :math:`[batch\_size, *, in\_features]` 的多维Tensor。 - 输出:形状为 :math:`[batch\_size, *, out\_features]` 的多维Tensor。 -**代码示例** +代码示例 +::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/LogSoftmax_cn.rst b/docs/api/paddle/nn/LogSoftmax_cn.rst index 9eda19a478e..939207e28f6 100644 --- a/docs/api/paddle/nn/LogSoftmax_cn.rst +++ b/docs/api/paddle/nn/LogSoftmax_cn.rst @@ -14,11 +14,13 @@ LogSoftmax激活层,计算公式如下: \end{aligned} 参数 -:::::::::: +::::::::: - axis (int, 可选) - 指定对输入Tensor进行运算的轴。``axis`` 的有效范围是[-D, D),D是输入Tensor的维度, ``axis`` 为负值时与 :math:`axis + D` 等价。默认值为-1。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -形状: +形状 +::::::::: + - input: 任意形状的Tensor。 - output: 和input具有相同形状的Tensor。 diff --git a/docs/api/paddle/nn/MSELoss_cn.rst b/docs/api/paddle/nn/MSELoss_cn.rst index 2336efb2b7b..06b23d73bd4 100644 --- a/docs/api/paddle/nn/MSELoss_cn.rst +++ b/docs/api/paddle/nn/MSELoss_cn.rst @@ -29,7 +29,9 @@ MSELoss - **reduction** (str, 可选) - 约简方式,可以是 'none' | 'mean' | 'sum'。设为'none'时不使用约简,设为'mean'时返回loss的均值,设为'sum'时返回loss的和。 -形状: +形状 +:::::::::::: + - **input** (Tensor) - 预测值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 - **label** (Tensor) - 目标值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 diff --git a/docs/api/paddle/nn/RNN_cn.rst b/docs/api/paddle/nn/RNN_cn.rst index f566ce34c4a..6f50cb9723f 100644 --- a/docs/api/paddle/nn/RNN_cn.rst +++ b/docs/api/paddle/nn/RNN_cn.rst @@ -18,12 +18,16 @@ RNN - **is_reverse** (bool,可选) - 指定遍历input的方向。默认为False - **time_major** (bool,可选) - 指定input的第一个维度是否是time steps。默认为False。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 输入(可以是多层嵌套的)。如果time_major为False,则Tensor的形状为[batch_size,time_steps,input_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,input_size],input_size为cell的input_size。 - **initial_states** (Tensor|list|tuple,可选) - 输入cell的初始状态(可以是多层嵌套的),如果没有给出则会调用 :code:`cell.get_initial_states` 生成初始状态。默认为None。 - **sequence_length** (Tensor,可选) - 指定输入序列的长度,形状为[batch_size],数据类型为int64或int32。在输入序列中所有time step不小于sequence_length的元素都会被当作填充元素处理(状态不再更新)。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor|list|tuple) - 输出。如果time_major为False,则Tensor的形状为[batch_size,time_steps,hidden_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,hidden_size]。 - **final_states** (Tensor|list|tuple) - cell的最终状态,嵌套结构,形状和数据类型都与初始状态相同。 diff --git a/docs/api/paddle/nn/SimpleRNNCell_cn.rst b/docs/api/paddle/nn/SimpleRNNCell_cn.rst index 5c8820314e7..da35d4dafa2 100644 --- a/docs/api/paddle/nn/SimpleRNNCell_cn.rst +++ b/docs/api/paddle/nn/SimpleRNNCell_cn.rst @@ -35,17 +35,23 @@ SimpleRNNCell - **bias_hh_attr** (ParamAttr,可选) - bias_hh的参数。默认为None。 - **name** (str, 可选): OP的名字。默认为None。详情请参考 :ref:`api_guide_Name`。 -变量: +变量 +:::::::::::: + - **weight_ih** (Parameter) - input到hidden的变换矩阵的权重。形状为(hidden_size, input_size)。对应公式中的 :math:`W_{ih}`。 - **weight_hh** (Parameter) - hidden到hidden的变换矩阵的权重。形状为(hidden_size, hidden_size)。对应公式中的 :math:`W_{hh}`。 - **bias_ih** (Parameter) - input到hidden的变换矩阵的偏置。形状为(hidden_size, )。对应公式中的 :math:`b_{ih}`。 - **bias_hh** (Parameter) - hidden到hidden的变换矩阵的偏置。形状为(hidden_size, )。对应公式中的 :math:`b_{hh}`。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 输入。形状为[batch_size, input_size],对应公式中的 :math:`x_t`。 - **states** (Tensor,可选) - 上一轮的隐藏状态。形状为[batch_size, hidden_size],对应公式中的 :math:`h_{t-1}`。当state为None的时候,初始状态为全0矩阵。默认为None。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor) - 输出。形状为[batch_size, hidden_size],对应公式中的 :math:`h_{t}`。 - **new_states** (Tensor) - 新一轮的隐藏状态。形状为[batch_size, hidden_size],对应公式中的 :math:`h_{t}`。 diff --git a/docs/api/paddle/nn/SimpleRNN_cn.rst b/docs/api/paddle/nn/SimpleRNN_cn.rst index c51e9232127..93b573834ac 100644 --- a/docs/api/paddle/nn/SimpleRNN_cn.rst +++ b/docs/api/paddle/nn/SimpleRNN_cn.rst @@ -34,12 +34,16 @@ SimpleRNN - **bias_ih_attr** (ParamAttr,可选) - bias_ih的参数。默认为None。 - **bias_hh_attr** (ParamAttr,可选) - bias_hh的参数。默认为None。 -输入: +输入 +:::::::::::: + - **inputs** (Tensor) - 网络输入。如果time_major为False,则Tensor的形状为[batch_size,time_steps,input_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,input_size]。 `time_steps` 指输入序列的长度。 - **initial_states** (Tensor,可选) - 网络的初始状态,形状为[num_layers * num_directions, batch_size, hidden_size]。如果没有给出则会以全零初始化。 - **sequence_length** (Tensor,可选) - 指定输入序列的实际长度,形状为[batch_size],数据类型为int64或int32。在输入序列中所有time step不小于sequence_length的元素都会被当作填充元素处理(状态不再更新)。 -输出: +输出 +:::::::::::: + - **outputs** (Tensor) - 输出,由前向和后向cell的输出拼接得到。如果time_major为False,则Tensor的形状为[batch_size,time_steps,num_directions * hidden_size],如果time_major为True,则Tensor的形状为[time_steps,batch_size,num_directions * hidden_size],当direction设置为bidirectional时,num_directions等于2,否则等于1。 `time_steps` 指输出序列的长度。 - **final_states** (Tensor) - 最终状态。形状为[num_layers * num_directions, batch_size, hidden_size],当direction设置为bidirectional时,num_directions等于2,返回值的前向和后向的状态的索引是0,2,4,6...和1,3,5,7...,否则等于1。 diff --git a/docs/api/paddle/nn/SyncBatchNorm_cn.rst b/docs/api/paddle/nn/SyncBatchNorm_cn.rst index 4af14d5c6f2..8a1ab7cabae 100644 --- a/docs/api/paddle/nn/SyncBatchNorm_cn.rst +++ b/docs/api/paddle/nn/SyncBatchNorm_cn.rst @@ -47,7 +47,9 @@ SyncBatchNorm - **weight_attr** (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果设置为 ``False`` ,则表示本层没有可训练的权重参数。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 - **bias_attr** (ParamAttr|bool, 可选) - 指定偏置参数属性的对象。如果设置为 ``False`` ,则表示本层没有可训练的偏置参数。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。 -形状: +形状 +:::::::::::: + - input: 一个二维到五维的 ``Tensor`` 。 - output: 和input 相同形状的 ``Tensor`` 。 diff --git a/docs/api/paddle/nn/Tanh_cn.rst b/docs/api/paddle/nn/Tanh_cn.rst index b6b90b472f6..831244776a0 100644 --- a/docs/api/paddle/nn/Tanh_cn.rst +++ b/docs/api/paddle/nn/Tanh_cn.rst @@ -14,12 +14,14 @@ Tanh激活层 :::::::::: - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 -形状: +形状 +:::::::::: + - input: 任意形状的Tensor。 - output: 和input具有相同形状的Tensor。 代码示例 -::::::::: +:::::::::: .. code-block:: python diff --git a/docs/api/paddle/nn/Upsample_cn.rst b/docs/api/paddle/nn/Upsample_cn.rst index 81727ddd134..6f453f4cc39 100644 --- a/docs/api/paddle/nn/Upsample_cn.rst +++ b/docs/api/paddle/nn/Upsample_cn.rst @@ -11,6 +11,7 @@ Upsample 输入为3-D Tensor时形状为(num_batches, channels, in_w),输入为4-D Tensor时形状为(num_batches, channels, in_h, in_w)或者(num_batches, in_h, in_w, channels),输入为5-D Tensor时形状为(num_batches, channels, in_d, in_h, in_w)或者(num_batches, in_d, in_h, in_w, channels),并且调整大小只适用于深度,高度和宽度对应的维度。 支持的插值方法: + NEAREST:最近邻插值 LINEAR:线性插值 @@ -150,8 +151,7 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation ::::::::: - **size** (list|tuple|Variable|None) - 输出Tensor,输入为3D张量时,形状为为(out_w)的1-D Tensor。输入为4D张量时,形状为为(out_h, out_w)的2-D Tensor。输入为5-D Tensor时,形状为(out_d, out_h, out_w)的3-D Tensor。如果 :code:`out_shape` 是列表,每一个元素可以是整数或者形状为[1]的变量。如果 :code:`out_shape` 是变量,则其维度大小为1。默认值为None。 - - **scale_factor** (float|Tensor|list|tuple|None)-输入的高度或宽度的乘数因子 。 out_shape和scale至少要设置一个。out_shape的优先级高于scale。默认值为None。 -如果scale_factor是一个list或tuple,它必须与输入的shape匹配。 + - **scale_factor** (float|Tensor|list|tuple|None)-输入的高度或宽度的乘数因子 。 out_shape和scale至少要设置一个。out_shape的优先级高于scale。默认值为None。如果scale_factor是一个list或tuple,它必须与输入的shape匹配。 - **mode** (str, 可选) - 插值方法。支持"bilinear"或"trilinear"或"nearest"或"bicubic"或"linear"或"area"。默认值为"nearest"。 - **align_corners** (bool, 可选)- 一个可选的bool型参数,如果为True,则将输入和输出张量的4个角落像素的中心对齐,并保留角点像素的值。 默认值为True - **align_mode** (int, 可选)- 双线性插值的可选项。 可以是 '0' 代表src_idx = scale *(dst_indx + 0.5)-0.5;如果为'1' ,代表src_idx = scale * dst_index。 diff --git a/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst b/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst index 32bd439dbb1..bb68c4671cf 100644 --- a/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst +++ b/docs/api/paddle/nn/UpsamplingBilinear2D_cn.rst @@ -35,15 +35,6 @@ https://en.wikipedia.org/wiki/Bilinear_interpolation 4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 -抛出异常 -:::::::::::: - - - :code:`TypeError` - out_shape应该是一个列表、元组或变量。 - - :code:`ValueError` - out_shape 和 scale 不可同时为 None。 - - :code:`ValueError` - out_shape 的长度必须为2如果输入是4D张量。 - - :code:`ValueError` - scale应大于0。 - - :code:`ValueError` - data_format 只能取 ‘NCHW’、‘NHWC’ - 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst b/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst index 9f8425b3599..9ed28c22f8d 100644 --- a/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst +++ b/docs/api/paddle/nn/UpsamplingNearest2D_cn.rst @@ -63,15 +63,6 @@ https://en.wikipedia.org/wiki/Nearest-neighbor_interpolation 4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels)。 -抛出异常 -:::::::::::: - - - :code:`TypeError` - out_shape应该是一个列表、元组或变量。 - - :code:`ValueError` - out_shape 和 scale 不可同时为 None。 - - :code:`ValueError` - out_shape 的长度必须为2如果输入是4D张量。 - - :code:`ValueError` - scale应大于0。 - - :code:`ValueError` - data_format 只能取 ‘NCHW’、‘NHWC’ - 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/dynamic_decode_cn.rst b/docs/api/paddle/nn/dynamic_decode_cn.rst index 530bf3e6190..47b6128f802 100644 --- a/docs/api/paddle/nn/dynamic_decode_cn.rst +++ b/docs/api/paddle/nn/dynamic_decode_cn.rst @@ -5,11 +5,7 @@ dynamic_decode -方法 -:::::::::::: -paddle.nn.dynamic_decode(decoder, inits=None, max_step_num=None, output_time_major=False, impute_finished=False, is_test=False, return_length=False, **kwargs): -''''''''' - +.. py:function:: paddle.nn.dynamic_decode(decoder, inits=None, max_step_num=None, output_time_major=False, impute_finished=False, is_test=False, return_length=False, **kwargs): @@ -17,7 +13,8 @@ paddle.nn.dynamic_decode(decoder, inits=None, max_step_num=None, output_time_maj :code:`decode.initialize()` 会在解码循环之前被调用一次。如果 :code:`decoder` 实现了 :code:`finalize` 方法,则 :code:`decoder.finalize()` 在解码循环后将被调用一次。 -**参数** +参数 +::::::::: - **decoder** (Decoder) - 解码器的实例。 - **inits** (object,可选) - 传递给 :code:`decoder.initialize` 的参数。默认为None。 @@ -28,13 +25,13 @@ paddle.nn.dynamic_decode(decoder, inits=None, max_step_num=None, output_time_maj - **return_length** (bool,可选) - 标识是否在返回的元组中额外包含一个存放了所有解码序列实际长度的Tensor。默认为False。 - **kwargs** - 其他命名关键字参数。这些参数将传递给 :code:`decoder.step`。 -**返回** -若 :code:`return_length` 为True,则返回三元组 :code:`(final_outputs, final_states, sequence_lengths)` ,否则返回二元组 :code:`(final_outputs, final_states)` 。 :code:`final_outputs, final_states` 包含了最终的输出和状态,这两者都是Tensor或Tensor的嵌套结构。:code:`final_outputs` 具有与 :code:`decoder.step()` 返回的 :code:`outputs` 相同的结构和数据类型, 且其中的每个tensor都是将所有解码步中与其对应的的输出进行堆叠的结果;如果 :code:`decoder` 实现了 :code:`finalize` 方法,这些tensor也可能会通过 :code:`decoder.finalize()` 进行修改。:code:`final_states` 是最后时间步的状态,和 :code:`decoder.initialize()` 返回的初始状态具有相同的结构,形状和数据类型。:code:`sequence_lengths` 是int64类型的tensor,和 :code:`decoder.initialize()` 返回的 :code:`finished` 具有相同的形状,其保存了所有解码序列实际长度。 +返回 +::::::::: -**返回类型** -tuple +tuple, 若 :code:`return_length` 为True,则返回三元组 :code:`(final_outputs, final_states, sequence_lengths)` ,否则返回二元组 :code:`(final_outputs, final_states)` 。 :code:`final_outputs, final_states` 包含了最终的输出和状态,这两者都是Tensor或Tensor的嵌套结构。:code:`final_outputs` 具有与 :code:`decoder.step()` 返回的 :code:`outputs` 相同的结构和数据类型, 且其中的每个tensor都是将所有解码步中与其对应的的输出进行堆叠的结果;如果 :code:`decoder` 实现了 :code:`finalize` 方法,这些tensor也可能会通过 :code:`decoder.finalize()` 进行修改。:code:`final_states` 是最后时间步的状态,和 :code:`decoder.initialize()` 返回的初始状态具有相同的结构,形状和数据类型。:code:`sequence_lengths` 是int64类型的tensor,和 :code:`decoder.initialize()` 返回的 :code:`finished` 具有相同的形状,其保存了所有解码序列实际长度。 -**代码示例** +代码示例 +::::::::: .. code-block:: python From a5d0c27ea89d57faa19df751e1d17b809b5ee306 Mon Sep 17 00:00:00 2001 From: TCChenlong <1300851984@qq.com> Date: Thu, 31 Mar 2022 16:54:21 +0800 Subject: [PATCH 095/107] update nn.functional docs --- .../nn/functional/adaptive_avg_pool1d_cn.rst | 3 --- .../nn/functional/adaptive_avg_pool2d_cn.rst | 3 --- .../nn/functional/adaptive_avg_pool3d_cn.rst | 3 --- .../nn/functional/adaptive_max_pool1d_cn.rst | 3 --- .../nn/functional/class_center_sample_cn.rst | 5 +---- docs/api/paddle/nn/functional/conv1d_cn.rst | 1 + .../nn/functional/conv1d_transpose_cn.rst | 1 + docs/api/paddle/nn/functional/conv2d_cn.rst | 1 + .../nn/functional/conv2d_transpose_cn.rst | 1 + docs/api/paddle/nn/functional/conv3d_cn.rst | 1 + .../nn/functional/conv3d_transpose_cn.rst | 1 + .../nn/functional/cosine_similarity_cn.rst | 6 +----- .../api/paddle/nn/functional/embedding_cn.rst | 5 +---- .../paddle/nn/functional/grid_sample_cn.rst | 5 +---- .../api/paddle/nn/functional/hardswish_cn.rst | 2 -- .../paddle/nn/functional/interpolate_cn.rst | 18 ------------------ .../nn/functional/local_response_norm_cn.rst | 1 + .../nn/functional/margin_cross_entropy_cn.rst | 6 +----- docs/api/paddle/nn/functional/mse_loss_cn.rst | 2 -- .../api/paddle/nn/functional/normalize_cn.rst | 5 ----- .../paddle/nn/functional/npair_loss_cn.rst | 1 - docs/api/paddle/nn/functional/pad_cn.rst | 6 +++--- docs/api/paddle/nn/functional/relu6_cn.rst | 2 -- .../softmax_with_cross_entropy_cn.rst | 3 --- docs/api/paddle/nn/functional/softsign_cn.rst | 2 -- .../nn/functional/sparse_attention_cn.rst | 4 ---- .../paddle/nn/functional/tanhshrink_cn.rst | 2 -- docs/api/paddle/nn/functional/upsample_cn.rst | 19 ------------------- docs/api/paddle/nn/utils/spectral_norm_cn.rst | 2 ++ 29 files changed, 17 insertions(+), 97 deletions(-) diff --git a/docs/api/paddle/nn/functional/adaptive_avg_pool1d_cn.rst b/docs/api/paddle/nn/functional/adaptive_avg_pool1d_cn.rst index 4054e156a43..40b80ef0f19 100755 --- a/docs/api/paddle/nn/functional/adaptive_avg_pool1d_cn.rst +++ b/docs/api/paddle/nn/functional/adaptive_avg_pool1d_cn.rst @@ -23,9 +23,6 @@ adaptive_avg_pool1d ::::::::: ``Tensor``, 输入 `x` 经过自适应池化计算得到的目标3-D Tensor,其数据类型与输入相同。 -抛出异常 -::::::::: - - ``ValueError`` - ``output_size`` 应是一个整数。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/functional/adaptive_avg_pool2d_cn.rst b/docs/api/paddle/nn/functional/adaptive_avg_pool2d_cn.rst index 2a59b77dd9d..db31c163f54 100755 --- a/docs/api/paddle/nn/functional/adaptive_avg_pool2d_cn.rst +++ b/docs/api/paddle/nn/functional/adaptive_avg_pool2d_cn.rst @@ -34,9 +34,6 @@ adaptive_avg_pool2d ::::::::: ``Tensor``, 默认形状为(批大小,通道数,输出特征高度,输出特征宽度),即NCHW格式的4-D Tensor,其数据类型与输入相同。 -抛出异常 -::::::::: - - ``ValueError`` - 如果 ``data_format`` 既不是"NCHW"也不是"NHWC"。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/functional/adaptive_avg_pool3d_cn.rst b/docs/api/paddle/nn/functional/adaptive_avg_pool3d_cn.rst index e500b08e544..641a8f8fbc9 100755 --- a/docs/api/paddle/nn/functional/adaptive_avg_pool3d_cn.rst +++ b/docs/api/paddle/nn/functional/adaptive_avg_pool3d_cn.rst @@ -39,9 +39,6 @@ adaptive_avg_pool3d ::::::::: ``Tensor``, 默认形状为(批大小,通道数,输出特征长度,输出特征高度,输出特征宽度),即NCDHW格式的5-D Tensor,其数据类型与输入相同。 -抛出异常 -::::::::: - - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/functional/adaptive_max_pool1d_cn.rst b/docs/api/paddle/nn/functional/adaptive_max_pool1d_cn.rst index efa1f20f644..2039342cb77 100755 --- a/docs/api/paddle/nn/functional/adaptive_max_pool1d_cn.rst +++ b/docs/api/paddle/nn/functional/adaptive_max_pool1d_cn.rst @@ -24,9 +24,6 @@ adaptive_max_pool1d ::::::::: ``Tensor``, 输入 `x` 经过自适应池化计算得到的目标3-D Tensor,其数据类型与输入相同。 -抛出异常 -::::::::: - - ``ValueError`` - 如果 ``output_size`` 不是int类型值。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/functional/class_center_sample_cn.rst b/docs/api/paddle/nn/functional/class_center_sample_cn.rst index 6da7af77b28..ee34953e802 100644 --- a/docs/api/paddle/nn/functional/class_center_sample_cn.rst +++ b/docs/api/paddle/nn/functional/class_center_sample_cn.rst @@ -16,6 +16,7 @@ class_center_sample 更多的细节信息,请参考论文《Partial FC: Training 10 Million Identities on a Single Machine》,arxiv: https://arxiv.org/abs/2010.05222 提示: + 如果正类别中心数量大于给定的 ``num_samples``,将保留所有的正类别中心,因此 ``sampled_class_center`` 的维度将是 [``num_positive_class_centers``]。 @@ -32,10 +33,6 @@ class_center_sample ``Tensor`` 二元组 - (``remapped_label``, ``sampled_class_center``),``remapped_label`` 是重新映射后的标签,``sampled_class_center`` 是所采样的类别中心。 -抛出异常 -:::::::::::: - - - :code:`ValueError` - ``num_samples`` > ``num_classes`` 时抛出异常。 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/functional/conv1d_cn.rst b/docs/api/paddle/nn/functional/conv1d_cn.rst index 7f1aa001700..6354127e6cf 100755 --- a/docs/api/paddle/nn/functional/conv1d_cn.rst +++ b/docs/api/paddle/nn/functional/conv1d_cn.rst @@ -14,6 +14,7 @@ conv1d Out = \sigma \left ( W * X + b \right ) 其中: + - :math:`X` :输入值,NCL或NLC格式的3-D Tensor - :math:`W` :卷积核值,MCL格式的3-D Tensor - :math:`*` :卷积操作 diff --git a/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst b/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst index 0f4ae13a1c0..0071b56ba65 100644 --- a/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst +++ b/docs/api/paddle/nn/functional/conv1d_transpose_cn.rst @@ -21,6 +21,7 @@ conv1d_transpose Out=\sigma (W*X+b)\\ 其中: + - :math:`X` : 输入,具有NCL或NLC格式的3-D Tensor - :math:`W` : 卷积核,具有NCL格式的3-D Tensor - :math:`*` : 卷积计算(注意:转置卷积本质上的计算还是卷积) diff --git a/docs/api/paddle/nn/functional/conv2d_cn.rst b/docs/api/paddle/nn/functional/conv2d_cn.rst index 2b92f0d6b9f..eab2acbcdbc 100755 --- a/docs/api/paddle/nn/functional/conv2d_cn.rst +++ b/docs/api/paddle/nn/functional/conv2d_cn.rst @@ -14,6 +14,7 @@ conv2d Out = \sigma \left ( W * X + b \right ) 其中: + - :math:`X` :输入值,NCHW或NHWC格式的4-D Tensor - :math:`W` :卷积核值,MCHW格式的4-D Tensor - :math:`*` :卷积操作 diff --git a/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst b/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst index 9b7bd52d437..1127c2e6bdd 100644 --- a/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst +++ b/docs/api/paddle/nn/functional/conv2d_transpose_cn.rst @@ -21,6 +21,7 @@ conv2d_transpose Out=\sigma (W*X+b)\\ 其中: + - :math:`X` : 输入,具有NCHW或NHWC格式的4-D Tensor - :math:`W` : 卷积核,具有NCHW格式的4-D Tensor - :math:`*` : 卷积计算(注意:转置卷积本质上的计算还是卷积) diff --git a/docs/api/paddle/nn/functional/conv3d_cn.rst b/docs/api/paddle/nn/functional/conv3d_cn.rst index a6b0f98018e..66d32b984ea 100755 --- a/docs/api/paddle/nn/functional/conv3d_cn.rst +++ b/docs/api/paddle/nn/functional/conv3d_cn.rst @@ -14,6 +14,7 @@ conv3d Out = \sigma \left ( W * X + b \right ) 其中: + - :math:`X` :输入值,NCDHW或NDHWC格式的5-D Tensor - :math:`W` :卷积核值,MCDHW格式的5-D Tensor - :math:`*` :卷积操作 diff --git a/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst b/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst index 5596a9e962c..bdc00d71e6d 100755 --- a/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst +++ b/docs/api/paddle/nn/functional/conv3d_transpose_cn.rst @@ -21,6 +21,7 @@ conv3d_transpose \\Out=\sigma (W*X+b)\\ 其中: + - :math:`X` : 输入,具有NCDHW或NDHWC格式的5-D Tensor - :math:`W` : 卷积核,具有NCDHW格式的5-D Tensor - :math:`*` : 卷积操作(注意:转置卷积本质上的计算还是卷积) diff --git a/docs/api/paddle/nn/functional/cosine_similarity_cn.rst b/docs/api/paddle/nn/functional/cosine_similarity_cn.rst index 1862c8e813f..146e0a69904 100644 --- a/docs/api/paddle/nn/functional/cosine_similarity_cn.rst +++ b/docs/api/paddle/nn/functional/cosine_similarity_cn.rst @@ -18,11 +18,7 @@ cosine_similarity 返回 :::::::::::: - 余弦相似度的计算结果,数据类型与x1, x2相同。 - -返回类型 -:::::::::::: -Tensor +Tensor, 余弦相似度的计算结果,数据类型与x1, x2相同。 diff --git a/docs/api/paddle/nn/functional/embedding_cn.rst b/docs/api/paddle/nn/functional/embedding_cn.rst index e84ec5993b2..88c0ae36720 100644 --- a/docs/api/paddle/nn/functional/embedding_cn.rst +++ b/docs/api/paddle/nn/functional/embedding_cn.rst @@ -49,11 +49,8 @@ embedding 返回 :::::::::::: -input映射后得到的Embedding Tensor,数据类型和权重定义的类型一致。 +Tensor, input映射后得到的Embedding Tensor,数据类型和权重定义的类型一致。 -返回类型 -:::::::::::: -Tensor 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/functional/grid_sample_cn.rst b/docs/api/paddle/nn/functional/grid_sample_cn.rst index 78fa5e99f08..7299cce40a1 100644 --- a/docs/api/paddle/nn/functional/grid_sample_cn.rst +++ b/docs/api/paddle/nn/functional/grid_sample_cn.rst @@ -64,11 +64,8 @@ step 2: 返回 :::::::::::: - 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor +Tensor, 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor, 数据类型与 ``x`` 一致。 -返回类型 -:::::::::::: -变量(Tensor),数据类型与 ``x`` 一致 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/functional/hardswish_cn.rst b/docs/api/paddle/nn/functional/hardswish_cn.rst index 91dc321c2af..e251362606c 100644 --- a/docs/api/paddle/nn/functional/hardswish_cn.rst +++ b/docs/api/paddle/nn/functional/hardswish_cn.rst @@ -21,8 +21,6 @@ hardswish激活函数。在MobileNetV3架构中被提出,相较于swish函数 其中,:math:`x` 为输入的 Tensor 参数 -:::::::::::: - :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/interpolate_cn.rst b/docs/api/paddle/nn/functional/interpolate_cn.rst index b9d6b6dbd83..bed849feafc 100644 --- a/docs/api/paddle/nn/functional/interpolate_cn.rst +++ b/docs/api/paddle/nn/functional/interpolate_cn.rst @@ -155,24 +155,6 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation 4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 -抛出异常 -:::::::::::: - - - :code:`TypeError` - out_shape应该是一个列表、元组或张量。 - - :code:`TypeError` - actual_shape应该是变量或None。 - - :code:`ValueError` - interpolate的"mode"只能是"BILINEAR"或"TRILINEAR"或"NEAREST"或"BICUBIC"或"LINEAR"或"AREA"。 - - :code:`ValueError` - 'linear' 只支持 3-D tensor。 - - :code:`ValueError` - 'bilinear', 'bicubic' ,'nearest' 只支持 4-D tensor。 - - :code:`ValueError` - 'trilinear' 只支持 5-D tensor - - :code:`ValueError` - out_shape 和 scale 不可同时为 None。 - - :code:`ValueError` - out_shape 的长度必须为1如果输入是3D张量 - - :code:`ValueError` - out_shape 的长度必须为2如果输入是4D张量。 - - :code:`ValueError` - out_shape 的长度必须为3如果输入是5D张量。 - - :code:`ValueError` - scale应大于0。 - - :code:`TypeError` - align_corners 应为bool型。 - - :code:`ValueError` - align_mode 只能取 ‘0’ 或 ‘1’。 - - :code:`ValueError` - data_format 只能取 'NCW', 'NCHW'、'NHWC'、'NCDHW' 或者 'NDHWC'。 - 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/functional/local_response_norm_cn.rst b/docs/api/paddle/nn/functional/local_response_norm_cn.rst index ded49afdb99..63cc8093b7c 100644 --- a/docs/api/paddle/nn/functional/local_response_norm_cn.rst +++ b/docs/api/paddle/nn/functional/local_response_norm_cn.rst @@ -14,6 +14,7 @@ local_response_norm Output(i,x,y) = Input(i,x,y)/\left ( k+\alpha \sum_{j=max(0,i-size/2)}^{min(C-1,i+size/2)}(Input(j,x,y))^2 \right )^\beta 在以上公式中: + - :math:`size` :累加的通道数 - :math:`k` :位移 - :math:`\alpha` : 缩放参数 diff --git a/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst b/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst index 8f2c6567999..29b6078a15f 100644 --- a/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst +++ b/docs/api/paddle/nn/functional/margin_cross_entropy_cn.rst @@ -11,6 +11,7 @@ margin_cross_entropy 其中,:math:`\theta_{y_i}` 是特征 :math:`x` 与类 :math:`w_{i}` 的角度。更详细的介绍请参考 ``Arcface loss``,https://arxiv.org/abs/1801.07698 。 提示: + 这个 API 支持单卡,也支持多卡(模型并行),使用模型并行时,``logits.shape[-1]`` 在每张卡上可以不同。 参数 @@ -31,11 +32,6 @@ margin_cross_entropy - ``Tensor`` (``loss``) 或者 ``Tensor`` 二元组 (``loss``, ``softmax``) - 如果 ``return_softmax=False`` 返回 ``loss``,否则返回 (``loss``, ``softmax``)。当使用模型并行时 ``softmax == shard_softmax``,否则 ``softmax`` 的维度与 ``logits`` 相同。如果 ``reduction == None``,``loss`` 的维度为 ``[N, 1]``,否则为 ``[1]``。 -抛出异常 -:::::::::::: - - - :code:`ValueError` - ``logits_dims - 1 != label_dims and logits_dims != label_dims`` 时抛出异常。 - 代码示例 :::::::::::: COPY-FROM: paddle.nn.functional.margin_cross_entropy:code-example1 diff --git a/docs/api/paddle/nn/functional/mse_loss_cn.rst b/docs/api/paddle/nn/functional/mse_loss_cn.rst index 78e52631082..1d66b3cef08 100644 --- a/docs/api/paddle/nn/functional/mse_loss_cn.rst +++ b/docs/api/paddle/nn/functional/mse_loss_cn.rst @@ -26,8 +26,6 @@ mse_loss 参数 -:::::::::::: - ::::::::: - **input** (Tensor) - 预测值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 - **label** (Tensor) - 目标值,维度为 :math:`[N_1, N_2, ..., N_k]` 的多维Tensor。数据类型为float32或float64。 diff --git a/docs/api/paddle/nn/functional/normalize_cn.rst b/docs/api/paddle/nn/functional/normalize_cn.rst index 20735f85b19..bc3cddf8e7c 100644 --- a/docs/api/paddle/nn/functional/normalize_cn.rst +++ b/docs/api/paddle/nn/functional/normalize_cn.rst @@ -29,11 +29,6 @@ normalize ::::::::: ``Tensor``, 输出的形状和数据类型和 ``x`` 相同。 -抛出异常 -:::::::::::: - -::::::::: - - ``TypeError`` - 当参数 ``p`` 或者 ``axis`` 的类型不符合要求时。或者当参数 ``x`` 的类型或数据类型不符合要求时。 代码示例 ::::::::: diff --git a/docs/api/paddle/nn/functional/npair_loss_cn.rst b/docs/api/paddle/nn/functional/npair_loss_cn.rst index 4d7ad52e66d..2a9acf04116 100644 --- a/docs/api/paddle/nn/functional/npair_loss_cn.rst +++ b/docs/api/paddle/nn/functional/npair_loss_cn.rst @@ -22,7 +22,6 @@ NPair损失需要成对的数据。NPair损失分为两部分:第一部分是 返回 :::::::::::: -::::::::: 经过npair loss计算之后的结果 `Tensor` 。 diff --git a/docs/api/paddle/nn/functional/pad_cn.rst b/docs/api/paddle/nn/functional/pad_cn.rst index f5a339469ac..fd1a4287256 100644 --- a/docs/api/paddle/nn/functional/pad_cn.rst +++ b/docs/api/paddle/nn/functional/pad_cn.rst @@ -27,11 +27,11 @@ pad - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,缺省值为None。 返回 :::::::::::: - 对 ``x`` 进行 ``'pad'`` 的结果,数据类型和 ``x`` 相同。 +Tensor, 对 ``x`` 进行 ``'pad'`` 的结果,数据类型和 ``x`` 相同。 返回类型 -:::::::::::: -Tensor + + **示例**: diff --git a/docs/api/paddle/nn/functional/relu6_cn.rst b/docs/api/paddle/nn/functional/relu6_cn.rst index 6e1e471adb0..311ebc875c9 100644 --- a/docs/api/paddle/nn/functional/relu6_cn.rst +++ b/docs/api/paddle/nn/functional/relu6_cn.rst @@ -14,8 +14,6 @@ relu6激活层 其中,:math:`x` 为输入的 Tensor 参数 -:::::::::::: - :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst b/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst index 0d3932d1c99..7e53b9935d8 100644 --- a/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst +++ b/docs/api/paddle/nn/functional/softmax_with_cross_entropy_cn.rst @@ -48,9 +48,6 @@ softmax_with_cross_entropy - 如果 ``return_softmax`` 为 False,则返回交叉熵损失结果的 ``Tensor`` ,数据类型和 ``logits`` 一致,除了 ``axis`` 维度上的形状为1,其余维度和 ``logits`` 一致。 - 如果 ``return_softmax`` 为 True,则返回交叉熵损失结果的 ``Tensor`` 和softmax结果的 ``Tensor`` 组成的元组。其中交叉熵损失结果的数据类型和 ``logits`` 一致,除了 ``axis`` 维度上的形状为1,其余维度上交叉熵损失结果和 ``logits`` 一致;softmax结果的数据类型和 ``logits`` 一致,维度和 ``logits`` 一致。 -返回类型 -:::::::::::: -变量或者两个变量组成的元组 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/functional/softsign_cn.rst b/docs/api/paddle/nn/functional/softsign_cn.rst index da7ddfa05a8..f323eabd5ae 100644 --- a/docs/api/paddle/nn/functional/softsign_cn.rst +++ b/docs/api/paddle/nn/functional/softsign_cn.rst @@ -14,8 +14,6 @@ softsign激活层 其中,:math:`x` 为输入的 Tensor 参数 -:::::::::::: - :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/sparse_attention_cn.rst b/docs/api/paddle/nn/functional/sparse_attention_cn.rst index 005c1d86b6a..39e1a2bde0b 100755 --- a/docs/api/paddle/nn/functional/sparse_attention_cn.rst +++ b/docs/api/paddle/nn/functional/sparse_attention_cn.rst @@ -18,8 +18,6 @@ sparse_attention 目前该API只在CUDA11.3及以上版本中使用。 参数 -:::::::::::: - ::::::::: - query (Tensor) - 输入的Tensor,代表注意力模块中的 ``query`` ,这是一个4维Tensor,形状为 :[batch_size, num_heads, seq_len, head_dim],数据类型为float32或float64。 - key (Tensor) - 输入的Tensor,代表注意力模块中的 ``key`` ,这是一个4维Tensor,形状为 :[batch_size, num_heads, seq_len, head_dim],数据类型为float32或float64。 @@ -28,8 +26,6 @@ sparse_attention - sparse_csr_columns (Tensor) - 输入的Tensor,注意力模块中的稀疏特性,稀疏特性使用CSR格式表示, ``colunms`` 代表矩阵中每一行非零元的列索引值。这是一个3维Tensor,形状为 :[batch_size, num_heads, sparse_nnz],数据类型为int32。 返回 -:::::::::::: - ::::::::: ``Tensor`` ,代表注意力模块的结果。这是一个4维Tensor,形状为 :[batch_size, num_heads, seq_len, head_dim],数据类型为float32或float64。 diff --git a/docs/api/paddle/nn/functional/tanhshrink_cn.rst b/docs/api/paddle/nn/functional/tanhshrink_cn.rst index edd7e28a378..0c0df3f9a03 100644 --- a/docs/api/paddle/nn/functional/tanhshrink_cn.rst +++ b/docs/api/paddle/nn/functional/tanhshrink_cn.rst @@ -14,8 +14,6 @@ tanhshrink激活层 其中,:math:`x` 为输入的 Tensor 参数 -:::::::::::: - :::::::::: - x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。 - name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。 diff --git a/docs/api/paddle/nn/functional/upsample_cn.rst b/docs/api/paddle/nn/functional/upsample_cn.rst index 8d2308074ec..c1f264066a5 100644 --- a/docs/api/paddle/nn/functional/upsample_cn.rst +++ b/docs/api/paddle/nn/functional/upsample_cn.rst @@ -154,25 +154,6 @@ https://en.wikipedia.org/wiki/Bicubic_interpolation 4-D Tensor,形状为 (num_batches, channels, out_h, out_w) 或 (num_batches, out_h, out_w, channels);或者5-D Tensor,形状为 (num_batches, channels, out_d, out_h, out_w) 或 (num_batches, out_d, out_h, out_w, channels)。 -抛出异常 -:::::::::::: - - - :code:`TypeError` - out_shape应该是一个列表、元组或张量。 - - :code:`TypeError` - actual_shape应该是变量或None。 - - :code:`ValueError` - upsample的"resample"只能是"BILINEAR"或"TRILINEAR"或"NEAREST"或"BICUBIC"或"LINEAR"或"AREA"。 - - :code:`ValueError` - 'linear' 只支持 3-D tensor。 - - :code:`ValueError` - 'bilinear', 'bicubic' ,'nearest' 只支持 4-D tensor。 - - :code:`ValueError` - 'trilinear' 只支持 5-D tensor - - :code:`ValueError` - out_shape 和 scale 不可同时为 None。 - - :code:`ValueError` - out_shape 的长度必须为1如果输入是3D张量 - - :code:`ValueError` - out_shape 的长度必须为2如果输入是4D张量。 - - :code:`ValueError` - out_shape 的长度必须为3如果输入是5D张量。 - - :code:`ValueError` - scale应大于0。 - - :code:`TypeError` - align_corners 应为bool型。 - - :code:`ValueError` - align_mode 只能取 ‘0’ 或 ‘1’。 - - :code:`ValueError` - data_format 只能取 'NCW', 'NCHW'、'NHWC'、'NCDHW' 或者 'NDHWC'。 - - 代码示例 :::::::::::: diff --git a/docs/api/paddle/nn/utils/spectral_norm_cn.rst b/docs/api/paddle/nn/utils/spectral_norm_cn.rst index a04d8c0beeb..79b710a8099 100644 --- a/docs/api/paddle/nn/utils/spectral_norm_cn.rst +++ b/docs/api/paddle/nn/utils/spectral_norm_cn.rst @@ -26,6 +26,8 @@ spectral_norm 可参考: `Spectral Normalization `_ 参数 +:::::::::::: + - **layer** (paddle.nn.Layer) - 要添加权重谱归一化的层。 - **name** (str, 可选) - 权重参数的名字。默认:'weight'. - **n_power_iterations** (int, 可选) - 将用于计算的 ``SpectralNorm`` 幂迭代次数,默认值:1。 From 08214292c7f31551734cbd596875ddda239d3304 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:04:06 +0800 Subject: [PATCH 096/107] Update AdamW_cn.rst --- docs/api/paddle/optimizer/AdamW_cn.rst | 12 ++++++------ 1 file changed, 6 insertions(+), 6 deletions(-) diff --git a/docs/api/paddle/optimizer/AdamW_cn.rst b/docs/api/paddle/optimizer/AdamW_cn.rst index 6290f3f6d15..9c3cc407e61 100755 --- a/docs/api/paddle/optimizer/AdamW_cn.rst +++ b/docs/api/paddle/optimizer/AdamW_cn.rst @@ -8,7 +8,7 @@ AdamW -AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 优化器中L2正则化失效的问题。 +AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 优化器中L2正则化失效的问题。 其参数更新的计算公式如下: @@ -43,7 +43,7 @@ AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `_ 模式下生效。 + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 执行一次优化器并进行参数更新。 @@ -165,7 +165,7 @@ clear_grad() ''''''''' .. note:: - 1. 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 清除需要优化的参数的梯度。 @@ -190,7 +190,7 @@ set_lr(value) ''''''''' .. note:: - 1. 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 手动设置当前 ``optimizer`` 的学习率。当使用_LRScheduler时,无法使用该API手动设置学习率,因为这将导致冲突。 @@ -229,7 +229,7 @@ get_lr() ''''''''' .. note:: - 1. 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 + 该API只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html>`_ 模式下生效。 获取当前步骤的学习率。当不使用_LRScheduler时,每次调用的返回值都相同,否则返回当前步骤的学习率。 From e3a1205c25f260dd0dd20640a2d2cee1b5168b13 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:06:20 +0800 Subject: [PATCH 097/107] Update AdamW_cn.rst --- docs/api/paddle/optimizer/AdamW_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/optimizer/AdamW_cn.rst b/docs/api/paddle/optimizer/AdamW_cn.rst index 9c3cc407e61..1efc011a3d3 100755 --- a/docs/api/paddle/optimizer/AdamW_cn.rst +++ b/docs/api/paddle/optimizer/AdamW_cn.rst @@ -8,7 +8,7 @@ AdamW -AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION 论文 `,用来解决 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 优化器中L2正则化失效的问题。 +AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION _`,用来解决 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 优化器中L2正则化失效的问题。 其参数更新的计算公式如下: From 5b4ef034b973f8c94238533a6c8f21a0865355c8 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:15:57 +0800 Subject: [PATCH 098/107] Update conv2d_transpose_cn.rst --- docs/api/paddle/static/nn/conv2d_transpose_cn.rst | 7 ++++++- 1 file changed, 6 insertions(+), 1 deletion(-) diff --git a/docs/api/paddle/static/nn/conv2d_transpose_cn.rst b/docs/api/paddle/static/nn/conv2d_transpose_cn.rst index b6414fd5a52..4566c3460ab 100644 --- a/docs/api/paddle/static/nn/conv2d_transpose_cn.rst +++ b/docs/api/paddle/static/nn/conv2d_transpose_cn.rst @@ -84,7 +84,12 @@ conv2d_transpose - **num_filters** (int) - 滤波器(卷积核)的个数,与输出图片的通道数相同。 - **output_size** (int|tuple,可选) - 输出图片的大小。如果output_size是一个元组,则必须包含两个整型数,(output_size_height,output_size_width)。如果output_size=None,则内部会使用filter_size、padding和stride来计算output_size。如果output_size和filter_size是同时指定的,那么它们应满足上面的公式。默认:None。output_size和filter_size不能同时为None。 - **filter_size** (int|tuple,可选) - 滤波器大小。如果filter_size是一个元组,则必须包含两个整型数,(filter_size_height, filter_size_width)。否则,filter_size_height = filter_size_width = filter_size。如果filter_size=None,则必须指定output_size, ``conv2d_transpose`` 内部会根据output_size、padding和stride计算出滤波器大小。默认:None。output_size和filter_size不能同时为None。 - - **padding** (int|list|tuple|str,可选) - 填充padding大小。padding参数在输入特征层每边添加 ``dilation * (kernel_size - 1) - padding`` 个0。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含4个二元组:当 ``data_format`` 为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 ``data_format`` 为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]];(2)包含4个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right];(3)包含2个整数值:[padding_height, padding_width],此时padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。 + - **padding** (int|list|tuple|str,可选) - 填充padding大小。padding参数在输入特征层每边添加 ``dilation * (kernel_size - 1) - padding`` 个0。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或 ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式: + + - (1)包含4个二元组:当 ``data_format`` 为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 ``data_format`` 为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]]; + - (2)包含4个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right]; + - (3)包含2个整数值:[padding_height, padding_width],此时padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。 + - **stride** (int|tuple,可选) - 步长stride大小。滤波器和输入进行卷积计算时滑动的步长。如果stride是一个元组,则必须包含两个整型数,形式为(stride_height,stride_width)。否则,stride_height = stride_width = stride。默认:stride = 1。 - **dilation** (int|tuple,可选) - 膨胀比例(dilation)大小。空洞卷积时会指该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息,根据 `可视化效果图 `_ 较好理解。如果膨胀比例dilation是一个元组,那么元组必须包含两个整型数,形式为(dilation_height, dilation_width)。否则,dilation_height = dilation_width = dilation。默认:dilation= 1。 - **groups** (int,可选) - 二维转置卷积层的组数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,输入和滤波器分别根据通道数量平均分为两组,第一组滤波器和第一组输入进行卷积计算,第二组滤波器和第二组输入进行卷积计算。默认:group = 1。 From 71c20ebb8cd35eef821587de4c114e1e12d167ea Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:19:15 +0800 Subject: [PATCH 099/107] Update Categorical_cn.rst --- docs/api/paddle/distribution/Categorical_cn.rst | 1 + 1 file changed, 1 insertion(+) diff --git a/docs/api/paddle/distribution/Categorical_cn.rst b/docs/api/paddle/distribution/Categorical_cn.rst index 61fd7760446..b42ff67bd44 100644 --- a/docs/api/paddle/distribution/Categorical_cn.rst +++ b/docs/api/paddle/distribution/Categorical_cn.rst @@ -17,6 +17,7 @@ Categorical pmf(k; p_i) =\prod_{i=1}^{k} p_i^{[x=i]} 上面公式中: + - :math:`[x = i]` 表示:如果 :math:`x==i` ,则表达式取值为1,否则取值为0。 From c276ffc19832c4abf361a90dce943677b891aa45 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:29:30 +0800 Subject: [PATCH 100/107] Update Adagrad_cn.rst --- docs/api/paddle/optimizer/Adagrad_cn.rst | 14 +++++++------- 1 file changed, 7 insertions(+), 7 deletions(-) diff --git a/docs/api/paddle/optimizer/Adagrad_cn.rst b/docs/api/paddle/optimizer/Adagrad_cn.rst index 85d3c0ffffc..653dff4962e 100644 --- a/docs/api/paddle/optimizer/Adagrad_cn.rst +++ b/docs/api/paddle/optimizer/Adagrad_cn.rst @@ -25,16 +25,16 @@ Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以 参数 :::::::::::: - - **learning_rate** (float|Tensor) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个值为浮点型的Tensor. - - **epsilon** (float, 可选) - 维持数值稳定性的浮点型值,默认值为1e-06. - - **parameters** (list, 可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 + - **learning_rate** (float|Tensor) - 学习率,用于参数更新的计算。可以是一个浮点型值或者一个值为浮点型的Tensor。 + - **epsilon** (float,可选) - 维持数值稳定性的浮点型值,默认值为1e-06。 + - **parameters** (list,可选) - 指定优化器需要优化的参数。在动态图模式下必须提供该参数;在静态图模式下默认值为None,这时所有的参数都将被优化。 - **weight_decay** (float|WeightDecayRegularizer,可选) - 正则化方法。可以是float类型的L2正则化系数或者正则化策略: :ref:`cn_api_fluid_regularizer_L1Decay` 、 :ref:`cn_api_fluid_regularizer_L2Decay` 。如果一个参数已经在 :ref:`cn_api_fluid_ParamAttr` 中设置了正则化,这里的正则化设置将被忽略; 如果没有在 :ref:`cn_api_fluid_ParamAttr` 中设置正则化,这里的设置才会生效。默认值为None,表示没有正则化。 - - **grad_clip** (GradientClipBase, 可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 + - **grad_clip** (GradientClipBase,可选) – 梯度裁剪的策略,支持三种裁剪策略: :ref:`paddle.nn.ClipGradByGlobalNorm ` 、 :ref:`paddle.nn.ClipGradByNorm ` 、 :ref:`paddle.nn.ClipGradByValue ` 。 默认值为None,此时将不进行梯度裁剪。 - - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None - - **initial_accumulator_value** (float, 可选) - moment累加器的初始值,默认值为0.0 + - **name** (str,可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **initial_accumulator_value** (float,可选) - moment累加器的初始值,默认值为0.0。 代码示例 :::::::::::: @@ -52,4 +52,4 @@ Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以 parameters=linear.parameters()) out.backward() adagrad.step() - adagrad.clear_grad() \ No newline at end of file + adagrad.clear_grad() From f099663f92106d0876db30c05c3ab31226d267e8 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:32:44 +0800 Subject: [PATCH 101/107] Update cov_cn.rst --- docs/api/paddle/linalg/cov_cn.rst | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/docs/api/paddle/linalg/cov_cn.rst b/docs/api/paddle/linalg/cov_cn.rst index d009bb2745d..6aa34a2d65f 100644 --- a/docs/api/paddle/linalg/cov_cn.rst +++ b/docs/api/paddle/linalg/cov_cn.rst @@ -24,9 +24,9 @@ cov 返回 :::::::::::: -Tensor, 输入x的协方差矩阵。假设x是[m,n]的矩阵,rowvar=True, 则输出为[m,m]的矩阵。 +Tensor,输入x的协方差矩阵。假设x是[m,n]的矩阵,rowvar=True,则输出为[m,m]的矩阵。 -代码示例: +代码示例 :::::::::: .. code-block:: python @@ -42,4 +42,4 @@ Tensor, 输入x的协方差矩阵。假设x是[m,n]的矩阵,rowvar=True, 则 [0.06127326, 0.06166256, 0.00302668], [0.01493049, 0.00302668, 0.01632146]]) ''' - \ No newline at end of file + From 62743c3bd8dd1dac901061372984bb4ba30a7fe6 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 17:34:11 +0800 Subject: [PATCH 102/107] Update eigh_cn.rst --- docs/api/paddle/linalg/eigh_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/linalg/eigh_cn.rst b/docs/api/paddle/linalg/eigh_cn.rst index df0ca61c893..a923cb91559 100644 --- a/docs/api/paddle/linalg/eigh_cn.rst +++ b/docs/api/paddle/linalg/eigh_cn.rst @@ -19,7 +19,7 @@ eigh - Tensor out_value, 输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 - Tensor out_vector, 输出矩阵的特征向量,与特征值一一对应,Shape为 ``[*, M, M]`` 。 -代码示例: +代码示例 :::::::::: .. code-block:: python From da15f1f1362c59148fd847596499be982bb298e5 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 17:39:29 +0800 Subject: [PATCH 103/107] update linalg docs --- docs/api/paddle/linalg/cholesky_solve_cn.rst | 2 +- docs/api/paddle/linalg/cond_cn.rst | 2 +- docs/api/paddle/linalg/det_cn.rst | 2 +- docs/api/paddle/linalg/eigvalsh_cn.rst | 2 +- docs/api/paddle/linalg/lstsq_cn.rst | 2 +- docs/api/paddle/linalg/lu_cn.rst | 2 +- docs/api/paddle/linalg/lu_unpack_cn.rst | 2 +- docs/api/paddle/linalg/qr_cn.rst | 2 +- docs/api/paddle/linalg/slogdet_cn.rst | 2 +- docs/api/paddle/linalg/svd_cn.rst | 2 +- docs/api/paddle/static/nn/sequence_reshape_cn.rst | 2 +- docs/api/paddle/text/WMT14_cn.rst | 2 +- docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst | 4 ++-- 13 files changed, 14 insertions(+), 14 deletions(-) diff --git a/docs/api/paddle/linalg/cholesky_solve_cn.rst b/docs/api/paddle/linalg/cholesky_solve_cn.rst index 0ed992a583a..dd5d5c09132 100644 --- a/docs/api/paddle/linalg/cholesky_solve_cn.rst +++ b/docs/api/paddle/linalg/cholesky_solve_cn.rst @@ -21,7 +21,7 @@ cholesky_solve :::::::::::: Tensor,线性方程的解X。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/cond_cn.rst b/docs/api/paddle/linalg/cond_cn.rst index 1a46a71e544..f5c2508f1f4 100644 --- a/docs/api/paddle/linalg/cond_cn.rst +++ b/docs/api/paddle/linalg/cond_cn.rst @@ -19,7 +19,7 @@ cond :::::::::::: Tensor, 条件数的计算结果, 数据类型和输入 ``x`` 的一致。 -代码示例: +代码示例 :::::::::: COPY-FROM: paddle.linalg.cond \ No newline at end of file diff --git a/docs/api/paddle/linalg/det_cn.rst b/docs/api/paddle/linalg/det_cn.rst index 64dccee18ac..ffa3a19fb63 100644 --- a/docs/api/paddle/linalg/det_cn.rst +++ b/docs/api/paddle/linalg/det_cn.rst @@ -16,7 +16,7 @@ det Tensor, 输出矩阵的行列式值 Shape为 ``[*]`` 。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/eigvalsh_cn.rst b/docs/api/paddle/linalg/eigvalsh_cn.rst index d04151636b7..81ad0878c16 100644 --- a/docs/api/paddle/linalg/eigvalsh_cn.rst +++ b/docs/api/paddle/linalg/eigvalsh_cn.rst @@ -18,7 +18,7 @@ eigvalsh Tensor,输出矩阵的特征值,输出顺序按照从小到大进行排序。Shape为 ``[*, M]`` 。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/lstsq_cn.rst b/docs/api/paddle/linalg/lstsq_cn.rst index 1ddef06259e..86523eaea1f 100644 --- a/docs/api/paddle/linalg/lstsq_cn.rst +++ b/docs/api/paddle/linalg/lstsq_cn.rst @@ -27,7 +27,7 @@ lstsq - ``rank`` 指 ``x`` 中矩阵的秩,形状为 ``(*)`` 的 Tensor;当 ``driver`` 为 'gelsy', 'gelsd', 'gelss' 时,该值会被计算,否则返回空 Tensor。 - ``singular_values`` 指 ``x`` 中矩阵的奇异值,形状为 ``(*, min(M, N))`` 的 Tensor;当 ``driver`` 为 'gelsd', 'gelss' 时,该值会被计算,否则返回空 Tensor。 -代码示例: +代码示例 :::::::::: COPY-FROM: paddle.linalg.lstsq \ No newline at end of file diff --git a/docs/api/paddle/linalg/lu_cn.rst b/docs/api/paddle/linalg/lu_cn.rst index d89fb341426..9d8433156ea 100644 --- a/docs/api/paddle/linalg/lu_cn.rst +++ b/docs/api/paddle/linalg/lu_cn.rst @@ -39,7 +39,7 @@ LU和pivot可以通过调用paddle.linalg.lu_unpack展开获得L、U、P矩阵 - Tensor(dtype=int) Pivots,旋转矩阵对应的旋转序列,详情见说明部分pivot部分,对于输入[*,m,n]的x,Pivots shape为[*, m]。 - Tensor(dtype=int) Infos,矩阵分解状态信息矩阵,对于输入[*,m,n],Infos shape为[*]。每个元素表示每组矩阵的LU分解是否成功,0表示分解成功。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/lu_unpack_cn.rst b/docs/api/paddle/linalg/lu_unpack_cn.rst index 72666f142b0..c889936535b 100644 --- a/docs/api/paddle/linalg/lu_unpack_cn.rst +++ b/docs/api/paddle/linalg/lu_unpack_cn.rst @@ -33,7 +33,7 @@ lu_unpack - Tensor U,由LU展开得到的U矩阵,若unpack_ludata为False,则为None。 - Tensor P,由序列pivots展开得到的旋转矩阵P,若unpack_pivots为False,则为None。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/qr_cn.rst b/docs/api/paddle/linalg/qr_cn.rst index 99124ba0e98..ab71b2c1846 100644 --- a/docs/api/paddle/linalg/qr_cn.rst +++ b/docs/api/paddle/linalg/qr_cn.rst @@ -29,7 +29,7 @@ qr - Tensor Q, 正交三角分解的Q正交矩阵,需注意如果 ``mode = "reduced"`` ,则不返回Q矩阵,只返回R矩阵。 - Tensor R, 正交三角分解的R上三角矩阵。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/slogdet_cn.rst b/docs/api/paddle/linalg/slogdet_cn.rst index 0b7a0acfbd3..049f15d09fd 100644 --- a/docs/api/paddle/linalg/slogdet_cn.rst +++ b/docs/api/paddle/linalg/slogdet_cn.rst @@ -16,7 +16,7 @@ slogdet Tensor ,输出矩阵的行列式值 Shape为 ``[2, *]``。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/linalg/svd_cn.rst b/docs/api/paddle/linalg/svd_cn.rst index 42295f64887..a5797291644 100644 --- a/docs/api/paddle/linalg/svd_cn.rst +++ b/docs/api/paddle/linalg/svd_cn.rst @@ -30,7 +30,7 @@ svd - Tensor S,奇异值向量,Shape为 ``[*, K]`` 。 - Tensor VH,奇异值分解的VH矩阵。如果full_matrics设置为False,则Shape为 ``[*, K, N]`` ,如果full_metrics设置为True,那么Shape为 ``[*, N, N]`` 。其中K为M和N的最小值。 -代码示例: +代码示例 :::::::::: .. code-block:: python diff --git a/docs/api/paddle/static/nn/sequence_reshape_cn.rst b/docs/api/paddle/static/nn/sequence_reshape_cn.rst index 408cde3ba21..a479cd06f92 100644 --- a/docs/api/paddle/static/nn/sequence_reshape_cn.rst +++ b/docs/api/paddle/static/nn/sequence_reshape_cn.rst @@ -8,7 +8,7 @@ sequence_reshape .. note:: -该OP的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.reshape ` 。 +该API的输入只能是LoDTensor,如果您需要处理的输入是Tensor类型,请使用 :ref:`paddle.reshape ` 。 在指定 ``new_dim`` 参数下,通过序列原始长度、和原始shape计算出新的shape,以输出包含新维度(new_dim)下的LoDTensor。目前仅支持1-level LoDTensor,请确保(原长度*原维数)可以除以新的维数,且每个序列没有余数。 diff --git a/docs/api/paddle/text/WMT14_cn.rst b/docs/api/paddle/text/WMT14_cn.rst index 6579eb11833..03a97335c4d 100644 --- a/docs/api/paddle/text/WMT14_cn.rst +++ b/docs/api/paddle/text/WMT14_cn.rst @@ -13,7 +13,7 @@ http://paddlemodels.bj.bcebos.com/wmt/wmt14.tgz 参数 ::::::::: - - **data_file**(str)- 保存数据集压缩文件的路径, 如果参数:attr: `download` 设置为True,可设置为None。默认为None。 + - **data_file**(str)- 保存数据集压缩文件的路径,如果参数:attr: `download` 设置为True,可设置为None。默认为None。 - **mode**(str)- 'train','test' 或'gen'。默认为'train'。 diff --git a/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst b/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst index 0f6abf26be2..472f7c3a0fc 100644 --- a/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst +++ b/docs/api/paddle/utils/cpp_extension/CppExtension_cn.rst @@ -34,8 +34,8 @@ CppExtension 参数 :::::::::::: - - **sources** (list[str]): 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp等后缀 - - **\*args, \*\*kwargs** (可选): 用于指定 Extension 的其他参数,支持的参数与 ``setuptools.Extension`` 一致。 + - **sources** (list[str]) - 用于指定自定义 OP 对应的源码文件。cpp 源文件支持 .cc、.cpp等后缀 + - **\*args, \*\*kwargs** (可选) - 用于指定 Extension 的其他参数,支持的参数与 ``setuptools.Extension`` 一致。 返回 :::::::::::: From 82e0ee235560cddbc95ea29b11351469bf12e5b8 Mon Sep 17 00:00:00 2001 From: Ligoml Date: Thu, 31 Mar 2022 17:48:12 +0800 Subject: [PATCH 104/107] update docs --- docs/api/paddle/amp/decorate_cn.rst | 2 +- docs/api/paddle/io/DataLoader_cn.rst | 13 +++++-------- docs/api/paddle/io/DistributedBatchSampler_cn.rst | 11 ++++++----- docs/api/paddle/io/IterableDataset_cn.rst | 12 +++++++----- 4 files changed, 19 insertions(+), 19 deletions(-) diff --git a/docs/api/paddle/amp/decorate_cn.rst b/docs/api/paddle/amp/decorate_cn.rst index dc20f5c6333..328cc2da10b 100644 --- a/docs/api/paddle/amp/decorate_cn.rst +++ b/docs/api/paddle/amp/decorate_cn.rst @@ -21,6 +21,6 @@ decorate - **save_dtype** (str|None, 可选) - 网络存储类型,可为float16、float32、float64。通过 ``save_dtype`` 可指定通过 ``paddle.save`` 和 ``paddle.jit.save`` 存储的网络参数数据类型。默认为None,采用现有网络参数类型进行存储。 -代码示例: +代码示例 ::::::::: COPY-FROM: paddle.amp.decorate diff --git a/docs/api/paddle/io/DataLoader_cn.rst b/docs/api/paddle/io/DataLoader_cn.rst index d536db63003..3f17a9ffab7 100644 --- a/docs/api/paddle/io/DataLoader_cn.rst +++ b/docs/api/paddle/io/DataLoader_cn.rst @@ -143,10 +143,9 @@ from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=T - **drop_last** (bool): 是否丢弃最后的不足CPU/GPU设备数的批次。默认值为True。在网络训练时,用户不能设置drop_last=False,此时所有CPU/GPU设备均应从DataLoader中读取到数据。在网络预测时,用户可以设置drop_last=False,此时最后不足CPU/GPU设备数的批次可以进行预测。 **返回** - 被创建的DataLoader对象 -**返回类型** - loader (DataLoader) + 被创建的DataLoader对象。 + **代码示例 1** @@ -349,8 +348,7 @@ from_generator(feed_list=None, capacity=None, use_double_buffer=True, iterable=T print("Epoch {} batch {}: loss = {}".format( epoch_id, batch_id, np.mean(loss.numpy()))) -代码示例 3 -:::::::::::: +**代码示例 3** .. code-block:: python @@ -415,10 +413,9 @@ from_dataset(dataset, places, drop_last=True) - **drop_last** (bool) - 是否丢弃最后样本数量不足batch size的batch。若drop_last = True则丢弃,若drop_last = False则不丢弃。 **返回** - 被创建的DataLoader对象,可以for-range的方式循环迭代 -**返回类型** - loader (DataLoader) + 被创建的DataLoader对象,可以for-range的方式循环迭代。 + **代码示例** diff --git a/docs/api/paddle/io/DistributedBatchSampler_cn.rst b/docs/api/paddle/io/DistributedBatchSampler_cn.rst index 77b0a25d8c7..f4db8c15195 100644 --- a/docs/api/paddle/io/DistributedBatchSampler_cn.rst +++ b/docs/api/paddle/io/DistributedBatchSampler_cn.rst @@ -56,17 +56,18 @@ DistributedBatchSampler,返回样本下标数组的迭代器。 # do something break -.. py:function:: set_epoch(epoch) +方法 +:::::::::::: +set_epoch(epoch) +''''''''' 设置epoch数。当设置``shuffle=True``时,此epoch被用作随机种子。默认情况下,用户可以不用此接口设置,每个epoch时,所有的进程(workers)使用不同的顺序。如果每个epoch设置相同的数字,每个epoch数据的读取顺序将会相同。 -参数 -:::::::::::: +**参数** - **epoch** (int) - epoch数。 -代码示例 -:::::::::::: +**代码示例** .. code-block:: python diff --git a/docs/api/paddle/io/IterableDataset_cn.rst b/docs/api/paddle/io/IterableDataset_cn.rst index 7302c1e77e7..e490a7785c2 100644 --- a/docs/api/paddle/io/IterableDataset_cn.rst +++ b/docs/api/paddle/io/IterableDataset_cn.rst @@ -16,7 +16,7 @@ IterableDataset 见 ``paddle.io.DataLoader`` 。 -代码示例 +代码示例 1 :::::::::::: .. code-block:: python @@ -42,11 +42,12 @@ IterableDataset 当 ``paddle.io.DataLoader`` 中 ``num_workers > 0`` 时,每个子进程都会遍历全量的数据集返回全量样本,所以数据集会重复 ``num_workers`` 次,如果需要数据集样本不会重复返回,可通过如下两种方法避免样本重复,两种方法中都需要通过 ``paddle.io.get_worker_info`` 获取各子进程的信息。 -1. 通过 ``__iter__`` 函数划分各子进程的数据 -代码示例 1 +代码示例 2 :::::::::::: +通过 ``__iter__`` 函数划分各子进程的数据 + .. code-block:: python import math @@ -86,11 +87,12 @@ IterableDataset print(data) # outputs: [2, 5, 3, 6, 4, 7] -2. 通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据 -代码示例 2 +代码示例 3 :::::::::::: +通过各子进程初始化函数 ``worker_inif_fn`` 划分子进程数据 + .. code-block:: python import math From d90ef91eabc3c6d489d72da8ec531b71eafc6172 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 18:36:47 +0800 Subject: [PATCH 105/107] Update AdamW_cn.rst --- docs/api/paddle/optimizer/AdamW_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/optimizer/AdamW_cn.rst b/docs/api/paddle/optimizer/AdamW_cn.rst index 1efc011a3d3..f79ce3bdb97 100755 --- a/docs/api/paddle/optimizer/AdamW_cn.rst +++ b/docs/api/paddle/optimizer/AdamW_cn.rst @@ -8,7 +8,7 @@ AdamW -AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION _`,用来解决 :ref:`Adam <_cn_api_paddle_optimizer_Adam>` 优化器中L2正则化失效的问题。 +AdamW优化器出自 `DECOUPLED WEIGHT DECAY REGULARIZATION `_,用来解决 :ref:`Adam ` 优化器中L2正则化失效的问题。 其参数更新的计算公式如下: From 5eb22f532bf2ee1cc4e9a0f41371dcd8efebeeb3 Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 18:37:46 +0800 Subject: [PATCH 106/107] Update Adadelta_cn.rst --- docs/api/paddle/optimizer/Adadelta_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/optimizer/Adadelta_cn.rst b/docs/api/paddle/optimizer/Adadelta_cn.rst index 8545318ec04..75178b6606c 100644 --- a/docs/api/paddle/optimizer/Adadelta_cn.rst +++ b/docs/api/paddle/optimizer/Adadelta_cn.rst @@ -9,7 +9,7 @@ Adadelta .. note:: 此接口不支持稀疏参数更新。 -Adadelta优化器,是对 :ref:`Adagrad <_cn_api_paddle_optimizer_Adagrad>` 的改进。 +Adadelta优化器,是对 :ref:`Adagrad ` 的改进。 相关论文:`ADADELTA: AN ADAPTIVE LEARNING RATE METHOD `_ 。 From 1a596c0391aa0cc933d9009da59aaea1c26c8c1e Mon Sep 17 00:00:00 2001 From: Ligoml <39876205+Ligoml@users.noreply.github.com> Date: Thu, 31 Mar 2022 18:39:03 +0800 Subject: [PATCH 107/107] Update RMSProp_cn.rst --- docs/api/paddle/optimizer/RMSProp_cn.rst | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/docs/api/paddle/optimizer/RMSProp_cn.rst b/docs/api/paddle/optimizer/RMSProp_cn.rst index 84ec33b5d4e..42c21e7e993 100755 --- a/docs/api/paddle/optimizer/RMSProp_cn.rst +++ b/docs/api/paddle/optimizer/RMSProp_cn.rst @@ -8,7 +8,7 @@ RMSProp -该接口实现均方根传播(RMSProp)法,是一种未发表的,自适应学习率的方法。原演示幻灯片中的第29张提出了 `RMSProp`_。等式如下所示: +该接口实现均方根传播(RMSProp)法,是一种未发表的,自适应学习率的方法。原演示幻灯片中的第29张提出了 `RMSProp `_ 。等式如下所示: .. math:: r(w, t) & = \rho r(w, t-1) + (1 - \rho)(\nabla Q_{i}(w))^2\\