Quem aqui gosta de Leonardo DiCaprio e Praias?
Quem lembra do filme A Praia? Era um filme no qual a estrela de Hollywood(muitas garotas suspiravam por esse ator e talvez ainda suspirem por ele) e era um filme com um plot bem simples: garotos bonitos ficam presos numa ilha e tem que sobreviver. Bem simples, certo? Certo...mas esse filme cometeu um grande erro e é um que muitos filmes dos EUA fazem.
Qual o motivo desse post?
Eu vejo muitos Youtubers falarem sobre filmes, especialmente filmes ruins, mas acho que nunca vi um Youtuber do Brasil falar como um filme que mostrou o Brasil como selvagens assassinos machucou uma geração. Sim, só posso falar por mim, uma pessoa pode ter visto o filme e adorado. Mas, quando eu vi (e sim, eu era criança na epóca) eu fui tomada por um pensamento bem simples e infantil.
Será que um dia vão fazer um filme onde mostram o Brasil com bons olhos?
Eu me lembro das discussões que o filme gerou, na verdade, não me lembro não. Todos consideram o filme ruim e partiram para outra(uma boa atitude) mas ninguém aqui falou do por que o Tio Sam mostrar o Brasil como selvagens ou o resto da América Latina.
A gente sempre fica impressionada quando um ator brasileiro é chamado para um filme estrangeiro, mas, tirando o Rodrigo Santoro e pequenas exceções, os atores brasileiros só estão...lá, sabe, não são os herois. Eles não podem ser os herois. Só os americanos... E ninguem nunca falou isso.
Eu faço curso de turismo na Estácio e um dia meu professor perguntou para a Turma quem gostaria de sair do Brasil, todos levantaram a mão, e depois perguntou "quem gosta do Brasil" e ninguém levantou a mão.
Cara, não estou dando tanto poder para um filme ruim que até os atores não gostaram. Estou dizendo que por muitos anos os EUA meio que moldaram as nossas mentes "EUA é legal, o resto é resto" e diante da pandemia, diante do Bozo e do Dumbo (Trump) liderando as nações...alguém aqui está satisfeito com o Brasil ou EUA?
0 comentários:
Postar um comentário