Buscar

Quando acabou o colonialismo no Brasil?

Respostas

User badge image

Ed Verified user icon

O colonialismo no Brasil chegou ao fim em 1822, quando o país conquistou sua independência de Portugal. A partir desse momento, o Brasil deixou de ser uma colônia e se tornou uma nação independente.

0
Dislike0
User badge image

João Pedro Marinho

em 1822, com a proclamação da independência

0
Dislike0
User badge image

Agata Soares

1815

0
Dislike0

Responda

SetasNegritoItálicoSublinhadoTachadoCitaçãoCódigoLista numeradaLista com marcadoresSubscritoSobrescritoDiminuir recuoAumentar recuoCor da fonteCor de fundoAlinhamentoLimparInserir linkImagemFórmula

Para escrever sua resposta aqui, entre ou crie uma conta

User badge image

Continue navegando