如何使用pyspark和boto3检查S3存储桶中是否存在特定目录 [英] how to check if a particular directory exists in S3 bucket using pyspark and boto3
本文介绍了如何使用pyspark和boto3检查S3存储桶中是否存在特定目录的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
如何检查S3的特定目录中是否存在特定文件?我使用Boto3并尝试了以下代码(无效):
How to check if a particular file is present inside a particular directory in my S3? I use Boto3 and tried this code (which doesn't work):
import boto3
s3 = boto3.resource('s3')
bucket = s3.Bucket('my-bucket')
key = 'dootdoot.jpg'
objs = list(bucket.objects.filter(Prefix=key))
if len(objs) > 0 and objs[0].key == key:
print("Exists!")
else:
print("Doesn't exist")
推荐答案
请尝试以下代码
folders = bucket.list("","/")
for folder in folders:
print (folder.name)
PS reference URL(How to use python script to copy files from one bucket to another bucket at the Amazon S3 with boto)
这篇关于如何使用pyspark和boto3检查S3存储桶中是否存在特定目录的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文