如何从azure ml服务数据集中访问文件或文件夹?

2024-10-02 12:27:24 发布

您现在位置:Python中文网/ 问答频道 /正文

目前我正在azure ml服务上工作,我在azure ml中有一个名为“voice\u recognition\u expreimnt”的数据集。 我通过以下代码访问此数据集:

file_dataset =  Dataset.get_by_name(workspace=ws, name='voice_recognition_expreimnt')

现在我想访问数据集中的所有文件或文件夹。那么,我如何遍历数据集中的所有路径呢。我搜索了很多,但找不到任何解决方案。所以请帮帮我


Tags: 数据代码namegetbywsazureml
1条回答
网友
1楼 · 发布于 2024-10-02 12:27:24

答案取决于您是否计划直接在compute instance笔记本中工作,或者通过ScriptRunEstimator提交运行

直接访问

您可以使用^{}将文件放在当前正在使用的计算机上

file_dataset.download()

通过训练跑消耗

下面是Azure ML SDK中的一种常见模式,用于将数据集提供给RunsEstimators、PythonScriptSteps`等。所有这些类使得在许多计算目标上的数据集上运行代码变得特别容易

src = ScriptRunConfig(
    source_directory=source_directory, 
    script='dummy_train.py',
    arguments=[file_dataset.as_named_input('input').as_mount(),
               output
        ]
)

exp = Experiment(ws, 'ScriptRun_sample')
run = exp.submit(config=src)

下面是一些更详细的教程

  1. Creating and using a ^{} within an ^{}
  2. How to use ScriptRun with data input and output笔记本(整个{a4}就是一个很好的例子

相关问题 更多 >

    热门问题