Geografia, perguntado por Josesalessilva, 6 meses atrás

Qual é a importância da agricultura no Brasil?​

Soluções para a tarefa

Respondido por kaykiryan9917
1

Resposta:

 agricultura é um setor econômico que influencia de forma muito significativa no desenvolvimento do Brasil. – gerar matérias-primas para fabricar álcool, e combustível alternativo brasileiro, e para favorecer as indústrias.

Explicação:

Espero ter ajudado :)

Perguntas interessantes