Geografia, perguntado por Josiane1985, 6 meses atrás

Quais são os países continentais da América oque isso significa

Soluções para a tarefa

Respondido por monicamamed14
0

Resposta: Brasil, Canadá, Estados Unidos e Austrália são países continentais, que significa que um país continental é quando o território nacional é muito grande, por isso é comparável à área de um continente.

Explicação:

Perguntas interessantes