2024-10-02 12:27:24 发布
网友
目前我正在azure ml服务上工作,我在azure ml中有一个名为“voice\u recognition\u expreimnt”的数据集。 我通过以下代码访问此数据集:
file_dataset = Dataset.get_by_name(workspace=ws, name='voice_recognition_expreimnt')
现在我想访问数据集中的所有文件或文件夹。那么,我如何遍历数据集中的所有路径呢。我搜索了很多,但找不到任何解决方案。所以请帮帮我
答案取决于您是否计划直接在compute instance笔记本中工作,或者通过ScriptRun、Estimator提交运行
ScriptRun
Estimator
您可以使用^{}将文件放在当前正在使用的计算机上
file_dataset.download()
下面是Azure ML SDK中的一种常见模式,用于将数据集提供给Runs、Estimators、PythonScriptSteps`等。所有这些类使得在许多计算目标上的数据集上运行代码变得特别容易
Runs
Estimators
src = ScriptRunConfig( source_directory=source_directory, script='dummy_train.py', arguments=[file_dataset.as_named_input('input').as_mount(), output ] ) exp = Experiment(ws, 'ScriptRun_sample') run = exp.submit(config=src)
下面是一些更详细的教程
答案取决于您是否计划直接在compute instance笔记本中工作,或者通过
ScriptRun
、Estimator
提交运行直接访问
您可以使用^{} 将文件放在当前正在使用的计算机上
通过训练跑消耗
下面是Azure ML SDK中的一种常见模式,用于将数据集提供给
Runs
、Estimators
、PythonScriptSteps`等。所有这些类使得在许多计算目标上的数据集上运行代码变得特别容易下面是一些更详细的教程
相关问题 更多 >
编程相关推荐