如何使用pyspark和boto3检查S3存储桶中是否存在特定目录 [英] how to check if a particular directory exists in S3 bucket using pyspark and boto3

查看:148
本文介绍了如何使用pyspark和boto3检查S3存储桶中是否存在特定目录的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

如何检查S3的特定目录中是否存在特定文件?我使用Boto3并尝试了以下代码(无效):

How to check if a particular file is present inside a particular directory in my S3? I use Boto3 and tried this code (which doesn't work):

import boto3

s3 = boto3.resource('s3')
bucket = s3.Bucket('my-bucket')
key = 'dootdoot.jpg'
objs = list(bucket.objects.filter(Prefix=key))
if len(objs) > 0 and objs[0].key == key:
    print("Exists!")
else:
    print("Doesn't exist")

推荐答案

请尝试以下代码

folders = bucket.list("","/")
for folder in folders:
    print (folder.name)

PS参考网址(

PS reference URL(How to use python script to copy files from one bucket to another bucket at the Amazon S3 with boto)

这篇关于如何使用pyspark和boto3检查S3存储桶中是否存在特定目录的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆