Écorreto afirmar que o brasil é um país predominante tropical
Écorreto afirmar que o brasil é um país predominante tropical
1 Resposta
Ver resposta
Sim. é correto, pois o clima predominante no Brasil é o tropical
Sua resposta
Mais perguntas de Geografia
Top Semanal
Top Perguntas
Você tem alguma dúvida?
Faça sua pergunta e receba a resposta de outros estudantes.