Puncte:0

AWS S3 links return 403 when application is run using Docker Swarm, but works fine when run with Docker Compose

drapel jp

I have a Django application on EC2 (ubuntu) instance using S3 for static & media files, which is set up currently using Docker Compose. I'm trying to convert it to use Docker Swarm, but in doing so all my S3 links are returning 403 status.

Error message: Failed to load resource: the server responded with a status of 403 (Forbidden)

If I run the same using docker-compose, all the static files are loaded properly. The only thing that I noticed is that the IP address of all the containers are different when run on swarm and compose. Although I'm not sure if this has anything to do with the issue.

Is there anything extra that I need to take care of for S3 to work in Docker Swarm?

djdomi avatar
drapel za
V-ați răspuns deja - fie schimbați IP-ul _*sau*_ permiteți accesul la acesta.

Postează un răspuns

Majoritatea oamenilor nu înțeleg că a pune multe întrebări deblochează învățarea și îmbunătățește legătura interpersonală. În studiile lui Alison, de exemplu, deși oamenii își puteau aminti cu exactitate câte întrebări au fost puse în conversațiile lor, ei nu au intuit legătura dintre întrebări și apreciere. În patru studii, în care participanții au fost implicați în conversații ei înșiși sau au citit transcrieri ale conversațiilor altora, oamenii au avut tendința să nu realizeze că întrebarea ar influența – sau ar fi influențat – nivelul de prietenie dintre conversatori.