O que foi o tratado de versalhes?

Perguntado por: alessa9 . Última atualização: 28 de junho de 2023
4.7 / 5 10 votos

O Tratado de Versalhes foi um tratado de paz assinado pelas potências europeias que encerrou oficialmente a Primeira Guerra Mundial, sendo que a Alemanha o classificou como diktat.

O Tratado de Versalhes foi assinado em 1919 como um dos acordos de paz firmados após a Primeira Guerra Mundial. Ficou conhecido pela imposição de condições rigorosas à Alemanha. O Tratado de Versalhes foi o mais famoso dos tratados de paz assinados após a Primeira Guerra Mundial.

Tratado de paz que determinou termos de paz na Europa,pondo fim definitivo á Primeira Guerra Mundial. O documento também abordava a criação da Liga das Nações, organização destinada a promover a paz e a prevenir conflitos entre seus membros.

O que foi o Tratado de Versalhes? O Tratado de Versalhes foi um acordo firmado, em 1919, entre as nações vencedoras do primeiro grande conflito mundial. Com ele, tais países reorganizaram o mapa-múndi de acordo com os próprios interesses e aplicaram multas e sanções nos povos que saíram derrotados do embate.

O Tratado de Versalhes foi um documento assinado pelas potências europeias que encerrou oficialmente a Primeira Guerra Mundial (1914-1918) e estipulou os termos de paz entre Aliados e a Alemanha, após aquele conflito ter resultado em milhões de mortes.

Sob os auspícios do presidente norte americano Woodrow Wilson, do primeiro-ministro britânico David Lloyd George e do primeiro-ministro francês Georges Clemenceau, o Tratado de Versalhes foi concluído em 28 de junho de 1919.

Fora da Europa, a Alemanha perdeu todas as suas colônias [na Africa e no Pacífico]. No total, a Alemanha perdeu 13 por cento do seu território em solo europeu, aproximadamente 70.000 quilômetros quadrados, e um décimo de sua população (entre 6.5 a 7 milhões de habitantes).

O Tratado de Versalhes sinaliza o desequilíbrio presente no mundo europeu em 1919. Hoje podemos reconhecer que as sanções impostas aos alemães alimentaram a ascensão do partido nazista, e consequentemente, impulsionaram a Segunda Guerra Mundial.

O Tratado de Versalhes foi um tratado de paz que os vencedores da Primeira Guerra Mundial impuseram à Alemanha derrotada e que deflagrou a Segunda Guerra.