Biologia, perguntado por rosevania1993, 1 ano atrás

a agricultura no brasil

Soluções para a tarefa

Respondido por Lehhsz
7
A agricultura no Brasil é umas das principais bases da economia do país desde os primórdios da colonização até o século XXI, evoluindo das extensas monoculturas para a diversificação da produção. A agricultura é uma atividade que faz parte do setor primário onde a terra é cultivada e colhida para subsistência, exportação ou comércio. Inicialmente produtora de cana-de-açúcar, passando pelo café, a agricultura brasileira apresenta-se como uma das maiores exportadoras do mundo em diversas espécies de cereais, frutas, grãos, entre outros. 
Perguntas interessantes